Untergangsstudie: Es ist nicht die Klima-Apokalypse, die die Menschheit auslöschen wird

Bild: R24

Wir werden alle sterben! Weltuntergangsfantasien haben dank der Katastrophenmeldungen, die ständig auf uns niederprasseln, aktuell Hochkonjunktur. Nun haben sogenannte Experten und Prognostiker das Auslöschungsrisiko für die Menschheit bis 2100 berechnet und den Auslöser für eine möglicherweise kommende Apokalypse ausgemacht. Überraschung: Es ist nicht der Klimawandel, der uns dahinraffen wird. Stattdessen wird als größte Gefahr für die Menschheit die Künstliche Intelligenz ausgemacht.

Laut einer kuriosen „Studie“ des amerikanischen Forecasting Research Institutes liegt das Risiko für einen Weltuntergang bis zum Jahr 2100 in etwa zwischen 1 und 6 Prozent. Mit einer Klima-Apokalypse ist bis dahin nicht zu rechnen, denn andere Weltuntergangsszenarien sollen viel wahrscheinlicher sein. Die größte Gefahr für die Vernichtung der Menschheit stellt demnach die Künstliche Intelligenz dar, sollte sie außer Kontrolle geraten.

Die besagte Studie trägt den Titel „Forecasting Existential Risks“ („Vorhersage existenzieller Risiken“). Die Daten dafür stammen aus einem speziell für die Studie ins Leben gerufenen Diskussionswettstreit, der von Juni bis Oktober 2022 stattfand. Dieser trug den Namen „Existential Risk Persuasion Tournament“ – XPT (auf Deutsch „Risikoüberzeugungsturnier“) und sollte potenzielle Bedrohungen für die Menschheit in diesem Jahrhundert untersuchen. Das „Turnier“ klingt freilich eher nach einer Entertainment-Veranstaltung – über Sinn und Unsinn des Ganzen lässt sich also sicherlich streiten.

Schwerpunktthemen dabei waren Künstliche Intelligenz, Pandemien, Naturkatastrophen (Klima) und Atomwaffen. In dem Wettstreit sollten sich verschiedene Expertengruppen und sogenannte Super-Forecaster oder Super-Prognostiker gegenseitig von ihrer Risikoeinschätzung überzeugen. Der Begriff Super-Forecaster geht auf den Psychologen Philip E. Tetlock zurück, der herausgefunden haben will, dass es Menschen gibt, die eine unglaubliche Treffsicherheit bei Vorhersagen haben. Trotz monatelanger Diskussionen wurden während des Wettbewerbs aber nur wenige Meinungen geändert.

KI als größte Gefahr

Beide Gruppen kamen zu dem Schluss, dass die größte Gefahr für die Menschheit von einer nicht mehr kontrollierbaren Künstlichen Intelligenz ausgehe, die sich gegen die Menschen richtet. Die Wahrscheinlichkeit, dass genau das bis 2100 passiert, sehen Experten bei 2 Prozent, Super-Forecaster bei 0,38 Prozent. Fachleute auf dem Gebiet der Künstlichen Intelligenz selbst bewerteten das Risiko sogar mit 3 Prozent.

Experten schätzen die Wahrscheinlichkeit eines Atomkrieges auf 0,19 Prozent, Super-Forecaster auf 0,074 Prozent und Militärstrategen auf 0,55 Prozent.

Eine Naturkatastrophe, die zur Vernichtung der Menschheit führen könnte, wäre beispielsweise ein Asteroiden- oder Kometen-Einschlag, ein riesiger Sonnensturm oder eine Sternenexplosion. Die Wahrscheinlichkeit einer derartigen Katastrophe beziffern alle Experten auf 0,004 Prozent und Super-Forecaster auf 0,0043 Prozent.

Dass die Menschheit durch ein menschlich verändertes Pathogen ausgelöscht wird, wird höher eingeschätzt als das Risiko, dass dies durch ein natürliches Pathogen geschieht. Experten sehen die Wahrscheinlichkeit dafür bei 0,1 Prozent, Super-Forecaster hingegen nur bei 0,01 Prozent. Für Experten aus dem medizinischen oder naturwissenschaftlichen Bereich liegt das Risiko sogar bei 1,0 Prozent.

Im Gegensatz dazu liegt das Risiko bei einem natürlichen Pathogen für Experten bei 0,008 Prozent, für die Super-Forecaster bei 0,0018 Prozent und für die medizinischen und naturwissenschaftlichen Experten bei 0,01 Prozent.

Insgesamt bewerteten Experten das Auslöschungsrisiko bis zum Jahr 2100 mit 6 Prozent, während die Schätzung der Super-Forecaster bei 1 Prozent lag.

Die Studienergebnisse belegen, dass die sogenannten Experten die Risiken ausnahmslos höher bewerteten als die Super-Forecaster. Experten mit Fachwissen im jeweiligen Bereich des zu bewertenden Risikos schätzten außerdem die Wahrscheinlichkeit immer höher ein als fachfremde Kollegen. (Man könnte auch sagen: Jeder stuft seinen Fachbereich als besonders bedeutsam für die weitere Entwicklung der Menschheit ein.)

Keine Klima-Apokalypse

Die Ergebnisse der Studie könnten Klimaapokalyptiker überraschen, geht man doch davon aus, dass wir in diesem Jahrhundert nicht im Höllenfeuer der (angeblich menschengemachten) Erderwärmung verglühen müssen. Stattdessen wird nun vor Künstlicher Intelligenz als „Auslöschungsrisiko“ gewarnt. Wer denkt in diesem Zusammenhang nicht sofort an die Terminator-Filme, in denen die Maschinen die Macht an sich rissen und die Menschen, ihre Schöpfer, versklavten? Ob es jemals so weit kommen wird? Weltuntergangsprophezeiungen gab es bereits genug, bewahrheitet hat sich bisher keine…

Wenn Sie mit dafür sorgen möchten, dass unser unabhängiger Journalismus weiterhin eine Gegenstimme zu regierungstreuen und staatlich geförderten Medien bildet, unterstützen Sie uns bitte mit einer Spende!

Informationen abseits des Mainstreams werden online mehr denn je bekämpft. Um schnell und zensursicher informiert zu bleiben, folgen Sie uns auf Telegram oder abonnieren Sie unseren Newsletter! Wenn Sie mit dafür sorgen möchten, dass unser unabhängiger Journalismus weiterhin eine Gegenstimme zu regierungstreuen und staatlich geförderten Medien bildet, freuen wir uns außerdem sehr über Ihre Unterstützung.

Unterstützen Sie Report24 via Paypal: