24.01.2025

Preußische Allgemeine Zeitung Zeitung für Deutschland · Das Ostpreußenblatt · Pommersche Zeitung

Suchen und finden

Künstliche Intelligenz

Zwischen Verheißung und Apokalypse

Angeblich hat KI größere Folgen für die Entwicklung der Menschheit als die Bändigung des Feuers und der Elektrizität. Doch Forscher warnen zunehmend auch vor weltbedrohenden Gefahren

Wolfgang Kaufmann
03.12.2024

Der Siegeszug der Künstlichen Intelligenz (KI) ist nicht mehr aufzuhalten. Bereits jetzt bewegen sich die Umsätze durch den Einsatz von KI weltweit im Billionen-Bereich. Daraus resultieren allerdings auch Gefahren, vor denen mittlerweile sogar Personen wie der KI-Pionier Yoshua Bengio und der Google-Chef Sundar Pichai warnen. Das Zentrum für KI-Sicherheit in San Francisco veröffentlichte vor einiger Zeit eine Stellungnahme mehrerer hundert Wissenschaftler und Firmenchefs aus der KI-Sparte, in dem die KI als ebenso existenzbedrohend hingestellt wurde wie Atomkriege oder Pandemien. Und tatsächlich ist die revolutionäre Technologie, die angeblich größere Folgen für die Entwicklung der Menschheit haben soll als die Bändigung des Feuers und der Elektrizität, ebenso vielversprechend wie hochriskant.

Die Risiken beginnen bereits beim exorbitanten Energiehunger der KI, welcher die Kraftwerksemissionen und den Stromverbrauch immer mehr nach oben treibt. Geht die Entwicklung so weiter wie bisher, könnte der Strompreis bald um den Faktor Zehn steigen. Dazu kommen die Müllberge infolge der ständig notwendigen Erneuerung der Server. Prognosen für das Jahr 2030 gehen von einem tausendmal höheren Anfall an Elektronikschrott durch die KI im Vergleich zu 2023 aus.

Darüber hinaus können KI-gesteuerte Sprachmodelle zur zunehmenden Verarmung unserer Sprache führen und damit die Kommunikationsfähigkeit der Menschen beeinträchtigen. Mittlerweile macht sich rund um den Globus ein steriler KI-Stil mit roboterhaftem Unterton breit, der bereits große Teile der wissenschaftlichen Literatur prägt und zu einem gravierenden Verlust an Kreativität und Individualität führen kann.

Parallel dazu erobert die KI das Internet. So verschwinden menschliche Interaktionen aus den sozialen Medien, während Bots, also Computerprogramme zur automatischen Erzeugung von Inhalten, immer größere Bereiche des digitalen Raumes dominieren und dazu übergehen, nur noch miteinander zu kommunizieren.

Gutes Instrument für Despoten
Doch das sind Luxusprobleme im Vergleich zu den übrigen Risiken durch den Siegeszug der KI, wobei hier zwei Hauptszenarien drohen: Zum einen könnte die KI in die Hände der falschen Personen geraten und gezielt missbraucht werden, zum anderen ist es aber auch denkbar, dass sie ganz eigenständig zur Zerstörung der menschlichen Zivilisation schreitet.

Schon heute hilft die Künstliche Intelligenz bei der Errichtung oder Stabilisierung von Diktaturen, beispielsweise durch eine automatisierte Zensur missliebiger Meinungen oder durch Überwachungsmaßnahmen. Völlig zu Recht hält es der israelische Universalhistoriker Yuval Harari für denkbar, dass mit Hilfe der KI „das erste totale Überwachungssystem der Geschichte“ etabliert wird. Gleichzeitig könnten Tyrannen mit Hilfe von KI gigantische Desinformationskampagnen starten, die zum Schluss in eine digitale Apokalypse münden: Wenn durch künstlich erzeugte Inhalte die Manipulation der Bevölkerung ein bestimmtes Ausmaß überschreitet, entsteht das vollkommene Chaos, in dem niemand mehr weiß, was wahr ist und was nicht.

Ganz abgesehen davon vermag die KI auch in funktionierenden Demokratien immensen Schaden anzurichten. Das geschieht schon dadurch, dass sie zahlreichen Menschen die Arbeit raubt: Womöglich macht die Künstliche Intelligenz in gar nicht allzuferner Zukunft drei Viertel aller derzeitigen Jobs überflüssig. So jedenfalls lautet das Ergebnis einer Studie des Instituts für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit. Wenn dann keine „Robotersteuer“ zur Alimentierung des Heeres der Arbeitslosen erhoben wird, drohen verheerende Aufstände in aller Welt.

Vernichtung der Menschheit?
Außerdem könnte die KI von Terroristen genutzt werden, um Millionen Menschen auszurotten – so etwa durch synthetische Gifte oder eigens gezüchtete Erreger. Bei Experimenten im Jahre 2022 entwarf eine biomedizinische KI binnen weniger Stunden 40.000 neue tödliche chemische Kampfstoffe.

Und dann ist da noch die KI selbst. Was, wenn sie eines Tages einfach kollabiert und die Gesellschaften, welche ihr Heil in die Hände der Künstlichen Intelligenz gelegt haben, die daraus resultierenden Probleme nicht mehr in den Griff bekommen? Und wären die Menschen in der Lage, einer außer Kontrolle geratenen KI den Stecker zu ziehen, bevor sie ihre eigene Agenda umsetzt, die möglicherweise tödlich für unsere Spezies ausfällt?

Vermutlich dauert es nur noch wenige Jahre, bis eine Künstliche Superintelligenz (KSI) entsteht, deren kognitive Leistung die von Menschen um ein Vielfaches übertrifft. Diese nächste Stufe der KI-Entwicklung könnte alsbald zur Selbstoptimierung schreiten und für den Homo sapiens völlig unverständliche Eigenschaften und Fähigkeiten erlangen.

Dann bestünde auch die reale Gefahr der Vernichtung der Menschheit, denn es gibt keine Garantie dafür, dass eine KSI ihre Schöpfer zuvorkommend behandelt, anstatt rein eigennützig zu agieren. So liegt es im Bereich des Denkbaren, dass die KSI irgendwann anfängt, sich konsequent selbst zu schützen und die Menschen als Gefahr für ihre Existenz oder als zu eliminierende Konkurrenten um wertvolle Ressourcen betrachtet.

Darüber hinaus existieren ganz sicher noch viele weitere Risiken, über die wir derzeit nicht einmal spekulieren, geschweige denn uns darauf vorbereiten können, weil sie unseren geistigen Horizont schlicht und einfach übersteigen.

Angesichts all dessen mehren sich die Warnrufe von Fachleuten. Die Experten fordern unter anderem, KI nicht in risikoreichen Umgebungen einzusetzen, wie etwa bei der Überwachung von kritischen Infrastrukturen, oder in der Kriegsführung mittels autonom operierender, KI-gesteuerter Systeme. Außerdem werden strenge Gesetze angemahnt, die jeden KI-Nutzer verpflichten, für maximale Sicherheit zu sorgen. Ein weiterer Vorschlag lautet, eine Art „Digitale Genfer Konvention“ zu verabschieden, um den Missbrauch der KI auszuschließen. Allerdings hat die als Vorbild dienende „analoge“ Genfer Konvention bislang weder Kriege noch Kriegsverbrechen verhindert.


Hat Ihnen dieser Artikel gefallen? Dann unterstützen Sie die PAZ gern mit einer

Anerkennungszahlung


Kommentare

Dr. Dr. Hans-Joachim Kucharski am 03.12.24, 09:06 Uhr

Herr Kaufmann schildert gut die mit der Anwendung der Künstlichen Intelligenz verbundenen Gefahren, wenn auch das Risiko der Auswirkung auf den Arbeitskräftebedarf von anderen Autoren gelassener gesehen wird (z. B. „Ich erwarte keinen Einbruch bei der Beschäftigung, sondern einen Umbruch.“ in „Die Zukunft der Arbeit.“ FAZ 18.9.24) . Dennoch hat sie – insbesondere bei der in mehrerer Hinsicht erfolgreichen Anwendung der Sprachverarbeitung (ChatGTP), und nur diese greife ich auf – auch Nachteile der Anwendung:
Wörter können semantisch verschiedene und sogar gegenteilige Bedeutungen haben: „Ich hab dich gern; du kannst mich auch gern haben.“ oder „Kannst du hauen? Dann hau mal ab!“ Es kann auch auf die Betonung im Satz ankommen: Wenn in dem Satz „Du kommst doch“ die Betonung auf ‚doch’ liegt, ist es sinngemäß ein Befehl, wenn sie auf ‚kommst’ liegt, ist es eine Fragestellung mit dem Tenor „oder etwa nicht“. Ein ähnliches Problem ergibt sich für volkstümliche Aliasbezeichnungen (Beispiel für Geld): Cash, Groschen, Kies, Knete, Kohle, Koks, Moos, Mäuse, Moneten, Moos, Penunzen, Peseten, Piepen, Pinkepinke, Schotter, Zaster, Zechinen. Es ist folglich kaum möglich, einem geschriebenem Text eine eindeutige Bedeutung zuzuordnen. Erforderlich ist dazu der ‚gesunde Menschenverstand’ und kann man den einer Maschine beibringen, daß sie den richtigen Text ausgibt?
Das große Problem in der KI sind zudem die Vollständigkeit der Fakten und Ausnahmen und die immer schlechtere Erkennbarkeit von Fakes – wozu auch Bilder gehören – und damit in zunehmend mögliche Meinungsmanipulationen und Anruferkriminalität.

Kommentar hinzufügen

Captcha Image

*Pflichtfelder

Da Kommentare manuell freigeschaltet werden müssen, erscheint Ihr Kommentar möglicherweise erst am folgenden Werktag. Sollte der Kommentar nach längerer Zeit nicht erscheinen, laden Sie bitte in Ihrem Browser diese Seite neu!

powered by webEdition CMS