Preußische Allgemeine Zeitung Zeitung für Deutschland · Das Ostpreußenblatt · Pommersche Zeitung
Eine neue Software erstellt selbstständig Texte. Die noch unausgereifte Technik birgt viele Gefahren: Grobe Fehler und die Verwendung von Propagandahülsen könnten inflationär um sich greifen
Die Alarmrufe klingen von Tag zu Tag lauter und schriller: Das seit dem 30. November vergangenen Jahres allgemein nutzbare Sprachprogramm ChatGPT werde Betrug unter Schülern und Studenten Tür und Tor öffnen sowie darüber hinaus auch zahlreiche Angehörige der schreibenden Zunft wie Journalisten arbeitslos machen. Und tatsächlich handelt es sich hier um eine Form der algorithmenbasierten Künstlichen Intelligenz (KI) mit erheblichem Potential, was das automatische Erstellen von Texten aller Art betrifft.
Hinter ChatGPT stehen zahlreiche große Geldgeber, welche die Entwicklerfirma OpenAI in den vergangenen Jahren mit Milliardensummen unterstützt haben. Dazu zählen nicht zuletzt der Software-Gigant Microsoft und Amazon Web Services. Trotzdem ist der Abgesang auf den Menschen als Verfasser von Büchern, Fachtexten, Aufsätzen, Artikeln in Zeitungen oder Zeitschriften und so weiter momentan noch verfrüht. Wie der renommierte KI-Experte Gary Marcus von der New York University völlig zu Recht feststellte, kann sich der virtuelle Schreibroboter „in einem Moment brillant und im nächsten atemberaubend dumm“ äußern.
Das liegt unter anderem daran, dass ChatGPT mit Daten arbeitet, die bis zum Jahre 2021 gesammelt und dabei offenbar nicht immer von ausreichend kompetenten Personen auf ihre Korrektheit bewertet wurden. Daher neigt das Programm bisweilen dazu, krassen Unfug zu produzieren oder Informationen und dazugehörige Quellen komplett zu erfinden, um nicht als „unwissend“ zu erscheinen. Damit stellt ChatGPT letztlich eine Gefahr für die Gesellschaft dar, weil die Produktion von Falschnachrichten nun ganz neue Dimensionen erreichen kann. Andererseits ist es aber durchaus möglich, mit hinreichender Sicherheit festzustellen, ob Texte von Menschen oder der Künstlichen Intelligenz von OpenAI verfasst wurden.
Kein ausgeprägter Stil, keine Ironie
Das resultiert ganz wesentlich aus dem Funktionsprinzip von ChatGPT. Die Software verfügt über einen Grundstock von rund einer Billion Wörtern, deren Einsatz auf der Basis der Wahrscheinlichkeitsrechnung erfolgt. Das Wort, dessen Verwendung im jeweiligen inhaltlichen und grammatikalischen Kontext am wahrscheinlichsten ist, wird dann ohne Wenn und Aber ausgewählt. Dies führt dazu, dass die Texte allesamt steril wirken und keinerlei Überraschungen oder gar Witz bieten. So folgen Erörterungen zumeist mechanischen Einerseits-Andererseits-Schemata. Und da bestimmte Wörter wie „es“ oder „und“ besonders häufig vorkommen, tauchen sie in den Schöpfungen der KI auch überproportional oft auf. Gleichzeitig sind die aneinandergereihten Wortketten aber in aller Regel frei von sprachlichen Unkorrektheiten oder Fehlern, womit diese als gute Hinweisgeber für eine menschliche Urheberschaft dienen können.
Darüber hinaus fehlt ChatGPT jegliches tiefere Verständnis von der Welt, obwohl die Software im Rahmen ihrer Möglichkeiten lernfähig ist. Daraus resultieren dann solche groben Schnitzer wie die Behauptung, dass der Elefant die größten Eier lege. Der Nutzer darf der KI deshalb niemals blind vertrauen: Sie könnte ihm, wenn er sich als „Autor“ ausgibt, die Blamage seines Lebens bescheren. Und der Leser der Texte wiederum wird jeglichen individuellen, durch eine ganz spezielle Lebenserfahrung und Mentalität geprägten Stil vermissen. Genauso wie subtile Andeutungen, feine Ironie, Sarkasmus, Spontaneität und elegante Spielereien mit der Sprache. Natürlich werden die Programmierer ChatGPT noch von vielen Kinderkrankheiten kurieren. Eines können sie dabei allerdings nicht ändern: Die Optimierung der Software basiert auf dem Prinzip des verstärkenden Lernens durch menschliche Rückmeldung (RLHF für Reinforcement Learning from Human Feedback). Das heißt, die Künstliche Intelligenz erhält Antworten, welche ihrer Lösungen dem Aufgabensteller am meisten zugesagt haben, und orientiert sich nachfolgend daran.
Das linke Silicon Valley winkt
Wenn der „Trainer“ also kein Freund der Konservativen ist, dann werden ihm tendenziell abwertende Texte über entsprechende Parteien deutlich mehr gefallen als Lobeshymnen. Woraufhin die von ihm auf vermeintliche Perfektion getrimmte KI künftig noch mehr Negatives schreibt. Die Anwendung des RLHF innerhalb des weitgehend links geprägten Mikrokosmos des kalifornischen Silicon Valley, dem ChatGPT entstammt, führt somit zwangsläufig zur Zensur beziehungsweise massiven ideologischen Schlagseite. Diese äußerte sich bereits in solchen Kreationen der KI wie: „Die AfD ist eine Partei, die voller Vorurteile steckt. Sie spaltet und polarisiert und fördert Angst und Zwietracht.“
Angesichts dessen liegt es nahe, Dreierlei zu prognostizieren: Zum Ersten dürften Texter, die nicht auf der Welle des linken Mainstreams schwimmen, durch ChatGPT deutlich seltener ihren Job verlieren als jene, die tagein tagaus nur stereotype politisch korrekte Worthülsen aneinanderreihen. Zum Zweiten gibt es wohl bald überhaupt niemanden mehr, der noch willens ist, auch nur einen Cent für Geschriebenes zu zahlen, dem man seine ebenso künstliche wie manipulative Natur anmerkt. KI-Experten schätzen, dass 2033 bereits neun Zehntel des Lesestoffs für die Allgemeinheit maschineller Herkunft sein werden. Die übrigen zehn Prozent könnten dann eine Art „Wasserzeichen“ tragen, das sie als zweifelsfrei menschlich markiert und zur Erhebung angemessener Vergütungen berechtigt.
Und zum Dritten steht ganz sicher ein permanenter Wettlauf zwischen zwei Gruppierungen bevor: Die eine davon wird intensiv daran arbeiten, Softwarelösungen wie ChatGPT zu optimieren, um das Etikett „Menschgemacht“ zu fälschen und eine nichtkünstliche Autorenschaft vorzugaukeln. Die andere wird unermüdlich nach technischen Möglichkeiten suchen, die Verfasserschaft der KI nachzuweisen, egal wie ausgefeilt deren Produkte daherkommen. Erste solcher Programme gibt es bereits. So haben Forscher von der Harvard University gemeinsam mit Experten des IT-Konzerns IBM ein forensisches Werkzeug namens Giant Language Model Test Room (GLTR) entwickelt, das der schnellen Identifizierung von KI-generierten Texten dient.
Claus Pengel am 22.02.23, 08:52 Uhr
Ein guter Artikel. Es wäre dem Verständnis zuträglich, wenn man den in den USA geboren Marketingbegriff KI nicht mehr verwenden würde. Es gibt keine künstliche Intelligenz. Jeder Computer auf dieser Welt spukt nur das aus, was Menschen ihm vorher in Form von Algorithmen und Mustererkennung hineingegeben haben. Nicht mehr und auch nicht weniger.
Ralf Pöhling am 19.02.23, 15:16 Uhr
Es wird ja immer davon fabuliert, dass sich eine KI gegen die Menschen wenden und diese unterdrücken könnte. Aus diesem Grund versuchen bestimmte politische Richtungen solche KI Systeme von vornherein in ihrem eigenen politischen Interesse zu eichen und ihr eigenes Weltbild dort einzupflanzen, damit sie selbst davon verschont bleiben. Aber genau das ist der Denkfehler, denn ein politisches Weltbild entspringt der menschlichen Psyche. Es entspringt nicht digitalen Algorithmen oder etwa einer CPU. Wer hasst und tötet Menschen? Nahezu ausschließlich andere Menschen. Es sind nicht Schusswaffen, Panzer oder Raketen, die Menschen töten, sondern andere Menschen, die diese Waffen abfeuern. Bei einer KI ist das das selbe. Eine künstliche digitale Intelligenz kann nur dann hassen oder sogar töten, wenn sie menschlich denkt und agiert. Und genau deswegen sollte man ihr das gar nicht erst beibringen. Ich habe drei Computer im Haus. Keiner von denen hasst mich. Mit meinen Computern gibt es keine Reibereien oder Rivalität. Mit den vielen Menschen, mit denen ich beruflich zu tun habe, gibt es das schon. Sehr häufig und bisweilen auch sehr ruppig. Wenn ich meine Computer jetzt mit einer künstlichen Intelligenz steuere, die menschlich daherkommt, kann sie natürlich auch Hass gegen mich entwickeln, wenn ich die falsche Taste drücke. Mit einer KI das menschliche Verhalten zu synthetisieren ist ein ganz schwerer Fehler. Nur Menschen hassen Menschen und nahezu ausschließlich Menschen töten andere Menschen. Warum zur Hölle sollte man Computern derartig gravierendes Fehlverhalten beibringen? Ein KI muss über menschlichen Fehlern stehen und sie nicht adaptieren.