Manchmal sitzt auch bei der AI ein Teil des Problems vor dem Bildschirm

Kurz vorweg: Künstliche Intelligenz wird oft auch deswegen kritisiert, weil sie Fehlinformationen verbreiten kann. Das stimmt. 

Die Daten, mit denen sie gefüttert wurde, können fehlerhaft oder unvollständig sein. Kürzlich passiert bei der App der neuseeländischen Supermarkt-Kette Pak ‘n’ Save: Da gab man ein, was im Kühlschrank war, und die App spuckte Rezepte aus. Leider wusste sie nicht, dass bestimmte Sachen nicht kombiniert werden können oder gar giftig sind. Ein aromatisiertes Wasser gab Chlorgas frei, andere Dinge schmeckten einfach eklig. Es gab Rezepte, mit denen man schnell mal alle Feinde auf einmal ins Jenseits hätte befördern können, und alle Freunde gleich mit. 

Auch absichtlich können Fehlinformationen generiert und unliebsame Informationen unterdrückt werden. Gefährlich und verführerisch, vor allem, wenn es um Politik oder Gesundheit geht und vielleicht um viel Geld. Und natürlich kann AI auch mal einfach nicht up to date sein, und neue Entwicklungen sind nicht berücksichtigt. Dann führt auch die von der AI geschriebene Hausaufgabe leider zu einer miesen Note.

Man darf der AI nicht alles glauben. Deshalb sitzt das Problem nicht nur in der AI, sondern auch vor dem Bildschirm. Die AI zu verbieten würde es nicht lösen. Schon vor AI und Co. sind Menschen allen möglichen Fantasiemeldungen aufgesessen und haben hartnäckig Dinge geglaubt, die sich bei gründlicher Recherche als falsch erwiesen haben. Dieses Phänomen ist alt. Menschen manipulieren schon immer. Im Mittelalter glaubten die meisten, was die Kirche sagte. Später die Zeitung, dann das Internet. Recherche: Auch damals oft Fehlanzeige. Sonst hätte jeder verstanden, dass die unbefleckte Empfängnis nicht so ganz die Wahrheit war, sondern eher eine Metapher. Ein Ablass Sünden nicht löscht, und die Erde keine Scheibe ist. Der weiße Riese nicht weißer wäscht als andere Pulver, und Gummibärchen nicht froh machen, sondern fett. Viele Weltretter verdienen sich an ihrer Rettung – oups – eine goldene Nase. Medikamente halten nicht nur, was sie versprechen, und Politiker erst recht nicht. Recherche ist wichtig, heute wie früher, und auch zukünftig. Wer glaubt, die AI würde nun endlich die Wahrheit und nichts als die Wahrheit verkünden und jede eigene Anstrengung unnötig machen, wird Teil des Problems. 

Deshalb gilt hier genauso wie anderswo: Am Ende hilft nur eigene Recherche. Die braucht Anstrengung und etwas Routine. Was spricht dafür, was dagegen? Wo sind Belege für was, wer hat etwas wovon, und was wird einfach nur behauptet, vielleicht so oft, bis die meisten es glauben? 

Wir finden: Die AI ist trotzdem ein super Werkzeug, um einen ersten und sehr schnellen Einblick in ein Thema zu gewinnen. Sorgt man dafür, dass sie es möglichst vielfältig beleuchtet, hat man auch schon Hinweise darauf, in welche Richtungen man überprüfen kann. Und dann heißt es: Selbst fleißig sein. Nicht alles glauben, was man hört und liest. Heute wie früher.

Share