26.11.2022

Preußische Allgemeine Zeitung Zeitung für Deutschland · Das Ostpreußenblatt · Pommersche Zeitung

Suchen und finden
Oft fehlen wichtige Daten: Der scheinbar treffsichere Blick der Rechenmodelle in die Zukunft trügt
Foto: MauritiusOft fehlen wichtige Daten: Der scheinbar treffsichere Blick der Rechenmodelle in die Zukunft trügt

Forschung

Warum Computermodelle so oft danebenliegen

Rechnergestützte Prognosen vermitteln das Gefühl höchster Objektivität. In Wahrheit erweisen sie sich aber oft als Ausgangspunkt für schwere Fehlentscheidungen – Und das hat plausible Gründe

Wolfgang Kaufmann
30.10.2022

Im Jahre 1916 versuchte der britische Meteorologe und spätere Friedensforscher Lewis Fry Richardson als Erster, die Veränderungen des Wetters innerhalb der nächsten Stunden und Tage mit mathematischen Methoden zu prognostizieren. Dabei kam er freilich zu grotesk falschen Ergebnissen. Dies erklärte Richardson mit seiner geringen eigenen Rechenleistung und schlug deshalb vor, dass 64.000 Computer – womit damals noch Menschen gemeint waren – gemeinsam das weltweite Wetter vorhersagen sollten. Knapp dreieinhalb Jahrzehnte später gab dann der mit Elektronenröhren bestückte US-amerikanische Großrechner ENIAC die erste echte computerbasierte Wetterprognose ab. Hiermit schlug die Geburtsstunde der Computermodelle und -simulationen, welche heute allerorten zum Einsatz kommen, wenn es um komplexe Vorgänge oder zukünftige Entwicklungen geht.

So basieren nicht nur die einen kurzen Zeitraum abdeckenden Wetterberichte der Meteorologen auf mathematischen Modellen, sondern auch die Warnungen von Klimaforschern vor der angeblich drohenden Erderwärmung. Ein anderes Beispiel sind die Kassandrarufe betreffs der zu erwartenden Sterblichkeit infolge der Ausbreitung des Krankheitserregers SARS-CoV-2, mit denen Datenanalysten vor allem zu Beginn der Corona-Pandemie Angst und Schrecken verbreiteten.

Wie zumindest das letztere Beispiel beweist, können die Computermodelle und -simulationen zu stark fehlerhaften Resultaten führen, auch wenn die Rechenleistung der verwendeten Apparaturen mittlerweile beeindruckend hoch ist. Und das hat mehrere Gründe. So liefern all jene Modellrechnungen, welche bereits auf Vorannahmen über künftige Entwicklungen basieren, gar keine echten Prognosen über mögliche Verläufe. Vielmehr werden konstruierte Szenarien durchgespielt, an deren Ende dann nur allzu oft das erwünschte Ergebnis steht.

Die Natur ist zu vielgestaltig

Zudem ist die Zahl der einbezogenen Faktoren fast immer zu niedrig, weil die Rechner sonst an ihre Grenzen stoßen. So sind die heutigen Klimamodelle außerstande, den Einfluss kurzfristig auftretender Phänomene wie abrupter Temperaturschwankungen durch Vulkanausbrüche oder Veränderungen der Sonnenaktivität angemessen zu berücksichtigen. Anders ausgedrückt: Die Vielgestaltigkeit der Natur, aber auch der Gesellschaft, kann mit den Mitteln der Mathematik nicht hinreichend erfasst werden.

Die US-amerikanischen Geologen Linda Pilkey-Jarvis und Orrin Pilkey, welche sich beide mit dem Problem der Küstenerosion befassen, erklären das am Beispiel der Sandverluste an den Stränden. Diese hingen von mindestens 50 Faktoren ab, aber selbst die besten Computermodelle könnten maximal acht davon berücksichtigen.

Schließlich drohen sogar dann, wenn alle relevanten Faktoren in die Berechnung einfließen, ernsthafte Probleme. Das liegt an dem Umstand, dass die physikalischen Grundlagen vieler Prozesse nach wie vor ungeklärt oder umstritten sind. Dies gilt unter anderem für die Dynamik von Eisschilden sowie die Rolle von Wolken und Aerosolen. Weil hierzu noch entscheidende Erkenntnisse fehlen, mangelt es den bislang verwendeten Klimamodellen an Aussagekraft.

Aus den letzten beiden Gründen werden die Formeln oder Basiszahlen, die im Zuge der Computermodellierung zum Einsatz kommen, immer wieder „angepasst“, wenn die Simulation offensichtlich von der Realität abweicht. Diese „Flusskorrekturen“ öffnen natürlich Tür und Tor für Manipulationen.

Mittlerweile existieren zahlreiche Beispiele für Fehlprognosen aufgrund der Verwendung von Computermodellen und -simulationen. So wurde 1972 vorhergesagt, die Menschheit werde bis zum Jahre 2000 alle wichtigen Rohstoffe auf der Erde verbrauchen. Ein gegensätzlicher Fall ist das abrupte Ende der Fischindustrie auf Neufundland. Hier orakelten die Computer lange Zeit, es gebe genügend Kabeljaue vor der Küste, weshalb diese auch ausgiebig gefangen werden dürften – bis die Fischgründe dann plötzlich fast vollkommen leer waren.

Feigenblatt für die Politik

Angesichts dessen warnte Pilkey bereits 2007 im Interview mit dem „Stern“: „Der Glaube, Computermodelle könnten die Zukunft akkurat vorhersagen, ist gefährlich und schädigt die Gesellschaft. Die Modelle verleiten zu schlechten politischen Entscheidungen – weil sie auf einem schlechten Verständnis der Natur gründen.“ Gleichzeitig nutzen viele Politiker das, was die Rechner prognostiziert haben, als Feigenblatt, wenn es um Entscheidungen geht, welche der Bevölkerung nur schwer oder gar nicht zu vermitteln sind. Das war in Kanada so, als man die Fangmengen trotz aller Warnungen erst viel zu spät begrenzte, und das passierte auch in jüngerer Vergangenheit während der Corona-Pandemie.

Der Ehrlichkeit halber sollten Politik und Wissenschaft aufhören, Modelle als „Black Boxes“ zu behandeln, und dazu übergehen, sämtliche Annahmen und Vereinfachungen in einem Modell klar und verständlich offenzulegen. Dann könnten auch Laien beurteilen, inwieweit die Prognosen der Rechenmaschinen etwas mit der Realität zu tun haben und inwieweit nicht. Und es würde schnell zutage treten, wann Entscheidungen, welche auf Modellrechnungen beruhen, tatsächlich wissenschaftlich fundiert und somit berechtigt sind.

Darüber hinaus empfiehlt sich die flächendeckende Anwendung der Methode des sogenannten Hindcasting. Das ist ein Rückberechnungsverfahren, bei dem die Simulation von realen Werten in der Vergangenheit ausgeht, auf deren Basis die Entwicklung bis in die Gegenwart ohne jegliche Eingriffe oder „Anpassungen“ dargestellt werden muss. Entspricht das Ergebnis dann tatsächlich den aktuellen Verhältnissen, gilt das als ein starkes Indiz für die Brauchbarkeit des Verfahrens zur Modellierung zukünftiger Abläufe.

Allerdings bleibt hier trotzdem noch das Risiko, dass niemand genau weiß, warum das Hindcasting funktioniert hat und ob das Modell somit tatsächlich dazu taugt, auch das Kommende präzise vorherzusagen. Vorsicht ist diesbezüglich besonders dann angebracht, wenn Fehlprognosen zu fatalen wirtschaftlichen, sozialen, ökologischen oder gesundheitlichen Folgen führen könnten – also eigentlich fast immer.



Hat Ihnen dieser Artikel gefallen? Dann unterstützen Sie die PAZ gern mit einer

Anerkennungszahlung


Kommentare

Thomas Hartmann am 05.11.22, 15:42 Uhr

Physikalisch kann Wetter durch Temperatur, Feuchtigkeit, Windstärke, Druck der Luft in der Atmosphäre an einem Ort nahe der Erdoberfläche beschrieben werden. In ein Modell müßten Einflüsse der Erde und aus dem All eingehen.
Der Erdeinfluß wirkt großteils über den Boden, der als Wiese, Feld, Wald, Beton, Geröll, Asphalt, Fels, Fluß, Meer, Eis beschaffen sein kann, weshalb jede Wetteraussage über eine Region nur eine Näherung sein kann.
Das häufige Stutzen von Wiese und Gras wie auch das Entfernen des Herbstlaubs in bewaldeten Parks und Gärten läßt die natürliche Schutzschicht, die im Sommer das Austrocknen und im Winter das Vereisen des Bodens eindämmt, verschwinden. Die Eingriffe beeinflussen das Wetter an diesem Ort (und erschweren das Wachstum neu gepflanzter Bäume, die häufig abgestorbene Äste haben).
Ein Wettermodell müßte sehr viele Einflüsse berücksichtigen. Prinzipiell müßte eine Gleichung bei eingehender Bodeneinwirkung die Auswirkung auf die Atmosphäre, eine zweite bei eingehender Atmosphäreneinwirkung die Auswirkung auf den Boden und eine dritte bei eingehender All-Einwirkung die Auswirkung auf die Atmosphäre beschreiben. Ausgehend von der dritten könnte ein erster Datensatz (Temperatur, Feuchtigkeit, Windstärke, Druck) für die Atmosphäre errechnet und dieser in die zweite Gleichung eingesetzt werden, um einen ersten Datensatz für den Boden zu bekommen - im wiederholenden Wechsel zwischen erster und zweiter Gleichung wäre solange zu rechnen, bis sich die erhaltenen Daten für Boden und Atmosphäre nicht mehr ändern. Diese Rechnung wäre für jeden Ortsbereich auszuführen. Mit weiteren Gleichungen wären dann noch die Daten an den Grenzen benachbarter Ortsbereiche in Übereinstimmung zu bringen.
Ein Zusammenschrauben von Bruchstücken und eine Unmenge an numerischen Rechnungen, wobei die Zeit noch nicht berücksichtigt ist. Wie fehlerhaft das ist, kann man sich denken - und wie willkürlich Wissenschaft ist. Um in der Praxis brauchbare Gleichungen zu erhalten, werden äußere Einflüsse durch gemessene Daten berücksichtigt.

Gemessen werden auch die Pegelstände von Flüssen. Frühere Überflutungsgebiete wurden durch Dämme geschützt und die Gebiete zu Baugrund - ohne Grundstückskäufer darauf hinzuweisen, denn nach gleichen Regenmengen erreichen die Stände durch Abholzung und Bodenversiegelung immer höhere Werte. Unwissenheit, Fahrlässigkeit, Vorsatz?
Warum schützen Museen ihre teuren Gemälde vor der "letzten Generation" nicht durch stabile Glasscheiben, die jeder Kreditkartenhersteller hat? Inszenierung? Betrug? Hängen dort Kopien?

Paul Brand am 03.11.22, 17:28 Uhr

@Tom Schroeder
„Es liegen immer Wuensche zugrunde, die durch die Ergebnisse der Datenverarbeitung erfuellt werden sollen. „

Chapeau!

Daher sollte der kritische Beobachter sich fragen welche Wünsche eine Geldmacht-Clique erfüllt haben möchte, die Gesellschaften decarbonisieren und dem „Weltklima?“ einen Temp.-Anstieg um 1-2 Grad erlauben wollen.

Ralf Pöhling am 02.11.22, 00:45 Uhr

Das Problem ist eigentlich schnell beschrieben: Wollte man das globale Wetter bzw. das Klima korrekt vorausberechnen, müsste man sämtliche(!) Faktoren der Natur auf atomarer bzw. molekularer (CO² in der Luft besteht ja aus Molekülen) Ebene am Computer simulieren, denn die Natur ist ein in sich zirkulierendes System, bei dem alle Faktoren früher oder später Rückwirkungen auf die anderen Faktoren bekommen. Die Sonnenaktivität kommt hier als externer Faktor noch dazu, der ebenfalls vollumfänglich simuliert werden muss, um ein realistisches Ergebnis zu erhalten. Für die Simulation eines derart komplexen Systems reicht weder der zur Verfügung stehende Speicherplatz noch die Rechengenauigkeit selbst der leistungsfähigsten Großrechner auch nur im Ansatz aus. Computer rechnen zudem binär mit 0 und 1. Genauer gesagt mit Strom aus / Strom an. Alle Daten, die im Computer verarbeitet werden, erleiden also eine Zerstückelung. Aus einer mathematisch Kurve wird im Computer also eine Treppe. Das geht mit einem Datenverlust einher, der immer dann durchschlägt, wenn die Kurve zu viele Daten aufweist, um sie mit der zur Verfügung stehenden mathematischen Genauigkeit lückenlos darzustellen. Und da sind wir wieder bei der irrsinnigen Komplexität der Natur und ihrer Wechselwirkungen. Genau aus dem Grund lassen Entwickler in ihren Berechnungen bei komplexen Simulationen etliche Faktoren weg, die sie für vernachlässigbar halten. Und da kommt es dann zur selektiven Wahrnehmung des Entwicklers oder seines Auftraggebers, was wichtig für die Simulation ist und was nicht. Und genau diese selektive Wahrnehmung bestimmt dann den Output der Simulation viel mehr, als so mancher zugeben will. Tom Schroeder hat da schon dankenswerterweise drauf hingewiesen.

Tom Schroeder am 31.10.22, 21:40 Uhr

Jedes Computerprogramm arbeitet so, wie es der Programmierer geschrieben hat - ausgehend von inhaltlichen Voraussetzungen wie Eingabewerte, Verarbeitung derselben und der Aufbereitung der Ausgabe. Es liegen immer Wuensche zugrunde, die durch die Ergebnisse der Datenverarbeitung erfuellt werden sollen. Auch die KI macht da keine wirkliche Ausnahme, lediglich die Bandbreite der Verarbeitung ist so gross, dass es uns erstaunt und wir glauben, dass der Computer tatsaechlich "denkt" - das tut er nicht und wird er niemals tun - ein Computer ist eine bloede Kiste, die das berechnet, was der Programmierer befiehlt oder das Programm indirekt befiehlt. Selbstlernende Systeme erweitern ja auch nur diesen automatisierten indirekten Befehlsgebermodus.

Mit freundlichen Gruessen, Ihr Informatiker, mit fast 40 Jahren Praxiserfahrung.

sitra achra am 30.10.22, 12:02 Uhr

Algorithmen und mathematische Computermodelle dienen lediglich zum Vorwand, Macht und Kontrolle über die Gesellschaft auszuüben, das Kennzeichen aller einschlägigen Psychopathen.
Politisches Marionettentheater eben , das sich unbegrenzt auf alle gesellschaflichen und politischen Bereiche anwenden lässt, da scheinbar wissenschaftlich unangreifbar. Jeder absolutistische Monarch würde gelb vor Neid, aber die Untertanen stützen die Macht des quasi gottgleichen Systems.

Kommentar hinzufügen

Captcha Image

*Pflichtfelder

Da Kommentare manuell freigeschaltet werden müssen, erscheint Ihr Kommentar möglicherweise erst am folgenden Werktag. Sollte der Kommentar nach längerer Zeit nicht erscheinen, laden Sie bitte in Ihrem Browser diese Seite neu!