Eine Geschichte die zeigt, dass KI kein Garant ist für korrekte Infos.
Man muss dazu aber auch sagen:
- Leserbriefe sind eine andere Kategorie als ein Artikel.
Der Spiegel hat viel mehr verbockt in letzter Zeit, als einfach einen
kleinen Fehler in einem Leserbrier zu publizieren.
Der Persoenlich Artikel "Redaktion liess sich Merz-Fake unterjubeln" ist
eigentlich ein Lob für den Spiegel. Denn es ist ein kleines Detail.
- Ganz falsch war die Information nicht: Wie im Persoenlich zu lesen ist:
Merz hatte mindestens einen
Gastvortrag in St. Gallen gehalten. Das mit einer "Vorlesung" zu
bezeichnen, ist zwar faktisch falsch. Man könnte es aber als
"Gastvorlesung" interpretieren. Es war also ein kleiner Fehler.
Ganz falsch ist hingegen die Behauptung, die Studenten häntten Probleme mit Merz gehabt.
- Um Fehler zu finden, muss dazu aber die Möglichkeit haben, frei
darüber zu sprechen, die Sache zu diskutieren, und Quellen
konsultieren dürfen zu können. Dazu ist Vielfalt an Medien wichtig.
Auch politische Unabhängigkeit wäre im Prinzip notwendig.
Journalisten sind jedoch auch nur Menschen, und da sickert die eigene
Meinung immer durch. Wird das durch KI besser?
- Um Fehler zu finden zu können, muss Information frei erreichtbar sein.
Universitäten (wie in diesem Fall St Gallen) sollten ein Archiv haben, wo
Vorlesungstitel und Dozenten oder öffntliche Vorträge auch im
Nachhinein nachgeschaut werden können.
- Manipulationen durch Medien passieren im Allgemeinen viel subtiler als
einfach durch faktisch überprüfbare Fehler.
Durch Auslassen, Auswahl von Themen, Titel und Bildern wird viel effektiver
manipuliert. Kürzlich war gar bei der Auswahl des Publikums in einer Diskussion
ein Thema. Bei einer Diskussion kann man wie bei einem Heimspiel vor allem nur Fans
von einer politischen Seite einladen.
- KI ist im Moment noch recht gut mit Fakten. Das kann sich aber in der
Zukunft schnell ändern. Wenn die Werber die PR Leute entdecken, wie man
sie manipulieren kann. Dass die KI herausgefunden hat, dass Merz in St Gallen
vorgetragen hat, ist eigentlich eine gute Leistung. Solche Dinge zu recherchieren
braucht etwas Detektivarbeit und vor allem auch die Möglichkeit, sich
äussern zu können. Soziale Medien sind eine gute Möglichkeit, auf
Fehler hinzuweisen. Eine Redaktion könnte einen kritischen Leserbrief oder
Kommentar einfach nicht publizieren.
- Heute müssen wir auch darauf vertrauen, dass
die KI fair trainiert wird. Man könnte zum Beipiel eine KI bauen,
die nur von konservativen Quellen lernt. Das ist nicht anders als bei
Menschen. Einseitige Kost kann dann zu einer Polarisation führen.
KI Modelle könnten sich auch die Reputation versauen, zum
Beispiel, wenn sie einseitig sind, oder Fehler machen. Die Einseitigkeit ist
schwierig zu kontrollieren. Überprüfbare Fehler zu finden ist im Vergleich
dazu eher trivial.
|
Merz doziert als junger Mann an der HSG St Gallen
(KI Generiert).
|