Die Beratungsfirma BCA Research wartet mit einer düsteren Prophezeiung auf. Eine Untersuchung habe ergeben, dass eine 50:50-Chance auf eine Auslöschung der Menschheit durch Künstliche Intelligenz bis zum Jahr 2050 bestehe. Sollten wir uns Sorgen machen?
Warnende Stimmen vor den potenziellen Gefahren einer omnipotenten Künstlichen Intelligenz (KI) gibt es schon seit einiger Zeit. Mehrere Wissenschaftler haben bereits einen Aufruf unterschrieben, in dem die Entwickler solcher Systeme aufgefordert werden, Entwicklungen über GPT4 nicht zu verfolgen. Goldman Sachs hatte schon davor gewarnt, dass die KI Millionen von Arbeitsplätzen vernichten könnte. Nun kommt auch die US-amerikanische Beratungsfirma BCA Research mit einer Analyse daher, welche die bisherige Entwicklung und die künftigen Risiken der Künstlichen Intelligenz anführt.
Das Ergebnis der Untersuchung ergab, dass die KI-Systeme bis zum Jahr 2050 die komplette Menschheit ausrotten könnten. Demnach bestehe ein 50:50-Risiko eines solchen Ereignisses. In einem Bericht dazu heißt es: „Künstliche Intelligenz könnte die Antwort auf das Fermi-Paradoxon sein, mit dem Potenzial, intelligentes Leben im Universum auszulöschen, bevor es mit anderen in Kontakt treten kann. Das legt die noch nicht begutachtete Studie nahe, die auf dem Preprint-Server arXiv veröffentlicht wurde.“ Das Fermi-Paradoxon, das im Volksmund mit dem Satz „Wo sind denn alle?“ umschrieben wird, stellt Wissenschaftler seit Jahrzehnten vor ein Rätsel. Es bezieht sich auf den beunruhigenden Gedanken, dass, wenn außerirdisches Leben im Universum wahrscheinlich ist, warum die Menschen ihm dann noch nicht begegnet sind.
Demnach könnte entweder ein natürliches Ereignis dahinter stecken, oder aber auch die Entwicklung von Künstlicher Intelligenz, die schlussendlich ganze Zivilisationen auslöscht. Denn was ist, wenn die KI anhand der gefütterten Daten (z.B. in Bezug auf den Klimawandel, der angeblich vom Menschen angetrieben wird) zum Schluss kommt, dass die Erde nur dann gerettet werden kann, wenn es keine Menschen mehr gibt? Angesichts dessen, dass beispielsweise ChatGPT und andere KI-Systeme offensichtlich sehr einseitig mit Daten gefüttert werden, scheint dieser Gedanke nicht einmal so abwegig zu sein.
BCA Research hat anhand vieler Faktoren die Entwicklungsgeschichte der Menschheit und die Entwicklung der Künstlichen Intelligenz untersucht (eine Aufarbeitung in englischer Sprache mit vielen Grafiken finden Sie hier). So schreiben die Forscher: „Wenn Modelle wie ChatGPT jemals den Punkt erreichen, an dem sie sich selbst trainieren können – ähnlich wie Deepminds AlphaZero sich selbst trainieren kann, um Schach zu beherrschen, ohne dass ihm jemals die Spielregeln beigebracht wurden -, dann werden sie in der Lage sein, sich selbst mit einer astronomisch schnellen Rate zu verbessern. In gewissem Maße geschieht dies bereits.“ Und diese Entwicklung kommt nicht zwangsläufig unserem Besten zugute.
Sollten wir uns also auf das Schlimmste vorbereiten? Es ist angesichts des globalen KI-Rennens nämlich sehr unwahrscheinlich, dass sich die Wissenschaftler in diesem Bereich selbst einschränken werden – und die Regierungen werden in diesem Kampf um die technologische Vorherrschaft sich selbst kaum Einschränkungen auferlegen – sofern sie es denn überhaupt können…