Wie hält es ChatGPT mit der Wahrheit?

 

Hintergrund

 

 

Elon Musk hat kürzlich eine Firma namens X.Ai gegründet. Diese Firma möchte eine eigene Künstliche Intelligenz: TruthGPT. Musk sagt: TruthGPT soll eine wahrheitssuchende AI werden, die nicht – wie etwa ChatGPT von OpenAI – ideologischen oder politischen Verzerrungen unterliegt. Er ist überzeugt: eine KI, die sich bemüht, unverzerrt die Natur des Kosmos zu verstehen, ist der beste Weg zur AI-Sicherheit.

 

 

Immer mehr Veröffentlichungen geben Elon Musk recht: Sie weisen auf politische Voreingenommenheit von AI-Systemen wie Chat-GPT hin.

 

 

Ideologische Verzerrungen in ChatGPT

 

 

Die kürzlich erschienene Publikation von David Rozado ergründet beispielsweise die politische Orientierung von ChatGPT. Dazu wurde ChatGPT mit Fragen aus 15 verschiedenen politischen Orientierungstests konfrontiert. 14 von 15 Tests ergaben: ChatGPT vertritt linksgerichtete politische Ansichten. 

 

 

 

 

Das heißt: was ChatGPT als Stand des Wissens verkündet, ist oft ideologisch gefärbt und nicht objektiv. ChatGPT gibt wieder, womit es gefüttert wurde. Das bedeutet: Ein AI System bezieht Stellung zu Themen beziehen, die wissenschaftlich nicht abschließend oder nicht allgemein ganzheitlich beurteilt werden können.

 

 

Nehmen wir ein Beispiel: Zu politisch aufgeladenen Aspekten von Themen wie Abtreibung oder Einwanderung gibt keine definitiven wissenschaftlichen Antworten. Wenn AI Systeme eine eindeutige Position zu solchen Themen beziehen, beeinflussen sie den Anwender – anstatt ihn ausgewogen und unvoreingenommen Argumente zu jedem der möglichen Standpunkte vorzustellen.

Das macht AI Systeme, die derart voreingenommen sind und gleichzeitig von einer großen Zahl von Menschen genutzt werden, sind gefährlich, weil sie zur breiten gesellschaftlichen Beeinflussung, zur Verbreitung von Fehlinformationen und Manipulation eingesetzt werden könnten. Dabei ist unerheblich, welche politische Auffassung das ist, und ob man diese teilt oder nicht.

 

 

 

 

Was denken wir als Entwickler darüber? Wenn wir uns klar machen, dass AI-Systeme nicht nur beeinflussen, sondern dass die Prämissen für die generierten Ergebnisse von den entwickelnden Unternehmen streng gehütet werden, sehen wir eine Gefahr, die kontrolliert werden muss. Eine internationale Forschungseinrichtung wie ITER oder CERN könnte helfen, die Entwicklung von Systemen zu ermöglichen, die von Vertretern aller Nationen und Gruppen aus der ganzen Welt eingeschränkt und reguliert wird. Eine Forschung, von Menschen auf der ganzen Welt, für Menschen auf der ganzen Welt. Im Moment sind wir leider davon weit entfernt. Was uns ChatGPT und ähnliche System liefern, müssen wir auf jeden Fall auch weiterhin mit Skepsis und unter Vorbehalt betrachten.

 

 

Referenz:

 

 

Rozado, D. The Political Biases of ChatGPT. Soc. Sci. 2023, 12, 148. https://doi.org/10.3390/socsci12030148 

 

Share