Werden ChatGPT und Künstliche Intelligenz unsere Geschichte verfälschen?

Jeder faule Mensch wird schon entdeckt haben, welche netten Phrasen Künstliche Intelligenz für den Nutzer schreiben kann. Doch bei einem kritischen Blick wird aus der Freude schnell Schrecken. Nehmen wir das Beispiel von ChatGPT.

AI, wie z.B. ChatGPT, reproduziert und vervielfältigt auf erschreckende Weise Ungenauigkeiten und Verzerrungen.

Hier ein Beispiel, mit dem ich bei meinem ersten Versuch konfrontiert wurde: Ich habe die Wörter „Plinius“ und „Vesuvausbruch“ in ChatGPT eingegeben. Wie jeder weiß, schrieb Plinius der Jüngere zwei Briefe an den Historiker Tacitus über den Ausbruch des Vesuvs und den Tod seines berühmten Onkels, Plinius des Älteren. Merke: Es gibt zwei Plinius. Der Ältere, ein Admiral, der starb, und der Jüngere, der Neffe, der darüber schrieb…

Und hier ist, was AI (ChatGPT) für mich geschrieben hat:

a volcano erupting at night

Plinius der Ältere schrieb über den Ausbruch des Vesuvs im Jahr 79 n. Chr. in seinem Werk „Naturalis Historia“ (Naturgeschichte).

Das, so dachte ich, wäre eine überraschende Nachricht, da Plinius der Ältere während des Vesuvausbruchs starb.

Der nächste Augenöffner kam sogleich:

„Plinius schrieb auch über den Tod seines Neffen, des Vaters von Plinius dem Jüngeren, der ein Admiral war.

Sichtlich verhedderte sich AI in den Familienbeziehungen des Plinius, verwechselte Onkel und Neffe und erfand von irgendwoher eine dritte Person.

Noch schlimmer waren meine Versuche, the Chat irgendwelche Argumente für oder gegen eine Frage zu entlocken. Um des Versuches willen habe ich eingegeben, dass Frauen Kinder haben sollten. Ergebnis: Es war im Grunde unmöglich, dem AI-Dienst etwas anderes als wohlmeinende (woke) Vorwürfe zu entlocken, und ich versank in einer Art Diskussion mit der Maschine. Das hat mich zum Nachdenken gebracht, ob unsere Meinungen und Diskussionen von nun an von Künstlicher Intelligenz gesteuert werden. Wer auch immer sie konstruiert, entscheidet, was die Gesellschaft zu schreiben und zu denken hat?

Wikipedia, sichtlich gefüttert mit Informationen von den Herstellern, ist ziemlich offen über diese Gehirnkontrolle: „Um zu verhindern, dass ChatGPT anstößige Ergebnisse präsentiert und produziert, werden Anfragen durch die unternehmensweite Moderations-API von OpenAI gefiltert und potenziell rassistische oder sexistische Aufforderungen abgewiesen.“ Und was rassistisch oder sexistisch ist, wird zu Hause entschieden…

Zunehmend waren meine persönlichen Reaktionen auf die „das ist wahr“, „das ist richtig“ Antworten von ChatGPT wütend. Nicht, weil ich die geäußerten Ansichten teilte oder nicht teilte, sondern wegen des schieren Willens der Macher des AI-Dienstes, zu kontrollieren, was in der Öffentlichkeit geschrieben wurde oder nicht.

Und hier ist, was der Chat sagte, um mich zu beruhigen:

„Künstliche Intelligenz-Systeme werden auf der Grundlage der Daten und Anweisungen programmiert, die sie erhalten. Wenn die einem System zur Verfügung gestellten Daten Fehler oder Verzerrungen enthalten, kann das System Ergebnisse produzieren, die diese Fehler oder Verzerrungen widerspiegeln.“

Ja, das ist richtig, liebe Maschine.

Und das bringt mich zu der Überzeugung, dass wir kontrollieren müssen, was in diese Chat-Dienste eingespeist wird und das am besten schnell…

Ups. Schon wieder. Hier ist das Wort „Kontrolle“.

Was ist mit der Freiheit der Meinungsäußerung. Und der Freiheit der Forschung. Wird sie durch die „normative Kraft des Faktischen“ (Jellinek) zerstört werden? Das Faktische, dass uns Künstliche Intelligenz sagen wird, was wir schreiben sollen, und die meisten Menschen zu faul wein werden, es zu überprüfen und es kopieren werden?

Im Moment liegt der Schwerpunkt bei der Entwicklung von ChatGPT darauf, dass der Chatbot einen menschlichen Gesprächspartner nachahmt. Aber dieser Gesprächspartner wird leicht als Ersatz für Menschen missverstanden. Und er redet viel Unsinn.

Das Schlimmste an dem Unsinn (neben dem Meinungsdruck, der auf den Nutzern lastet) sind die sogenannten „Halluzinationen“.

In der künstlichen Intelligenz ist eine Halluzination eine zuversichtliche Antwort eines Systems, die nicht durch Daten gerechtfertigt ist. In dem von mir genannten Beispiel wäre das der Vater von Plinius dem Jüngeren als Admiral… In Wahrheit war dieser Vater ein gewisser Lucius Caecilius Celio, der 9 Jahre vor dem Ausbruch des Vesuvs starb und sich daher sicher nicht im Jahr 79 in Misenum befand.

Ein halluzinierender Chatbot, der keine Ahnung von einer Tatsache hat, wählt intern eine zufällige Information aus, die er für plausibel hält, und behauptet dann fälschlicherweise und wiederholt, dass sie wahr ist, ohne Anzeichen eines internen Bewusstseins, dass die Information ein Produkt seiner eigenen Fantasie war.

woman in gray tank top covering her face with her hand

Beängstigend.

ChatGPT behauptet, es sei „ein weit verbreitetes AI-Sprachmodell, das Einzelpersonen, Unternehmen und Organisationen auf der ganzen Welt zur Verfügung steht“.

Seien Sie sich dessen sicher: Unsere Kinder kennen ChatGPT und ähnliche Systeme bereits. Und sie schreiben bereits ihre Hausaufgaben damit. Fürchten wir die Folgen…

Die Wissenschaftsorganisation der UNO, UNESCO, befasst sich derzeit mit der Angelegenheit. Es scheint, als gäbe es noch viel zu tun. Die USA beeilen sich auf jeden Fall, der Organisation erneut beizutreten, wie sie es 2005 bei den Fragen der kulturellen Vielfalt getan haben, um ein Mitspracherecht in dieser Frage zu haben.

Wir halten Sie auf dem Laufenden.

Lust auf Vesuvausbrüche? Lesen Sie mehr hier.

Kommentar verfassen

Up ↑

Entdecke mehr von Geheimnisse der Archäologie

Jetzt abonnieren, um weiterzulesen und auf das gesamte Archiv zuzugreifen.

Weiterlesen