Eine wirklich leistungsfähige Künstliche Intelligenz (KI), die intelligenter als die Menschen ist, wäre nach Ansicht eines renommierten KI-Forschers ein faktisches Todesurteil für alles Leben auf diesem Planeten: Er fordert die Entwickler deshalb zur Zurückhaltung auf. Es müsse klare Grenzen geben, sonst drohe große Gefahr.
Die Menschen sind unter den gegenwärtigen Bedingungen oder sogar in „absehbarer Zukunft“ nicht bereit für eine leistungsfähige KI, erklärte ein führender Experte auf diesem Gebiet und fügte hinzu, dass der jüngste offene Brief, in dem ein sechsmonatiges Moratorium für die Entwicklung fortgeschrittener künstlicher Intelligenz gefordert wird, „den Ernst der Lage unterschätzt“.
„Das Hauptproblem ist nicht die Intelligenz, die mit dem Menschen konkurrieren kann (wie es in dem offenen Brief heißt), sondern was passiert, wenn die KI intelligenter ist als der Mensch“, sagte Eliezer Yudkowsky, ein Entscheidungstheoretiker und führender KI-Forscher, in einem Kommentar im Time Magazine. „Viele Forscher, die sich mit diesen Fragen beschäftigen, darunter auch ich, gehen davon aus, dass das wahrscheinlichste Ergebnis der Entwicklung einer übermenschlich intelligenten KI unter den gegenwärtigen Umständen darin besteht, dass buchstäblich jeder auf der Erde sterben wird.“
„Nicht im Sinne von ‚vielleicht eine entfernte Chance‘, sondern im Sinne von ‚das ist das Offensichtliche, was passieren würde‘. Es ist nicht so, dass man prinzipiell nicht überleben kann, wenn man etwas erschafft, das viel klüger ist als man selbst; es ist nur so, dass es Präzision und Vorbereitung und neue wissenschaftliche Erkenntnisse erfordern würde und dass man wahrscheinlich keine KI-Systeme hat, die aus riesigen undurchschaubaren Arrays von Bruchzahlen bestehen.“
Yudkowsky sagt voraus, dass die KI ohne sorgfältige Vorbereitung ganz andere Anforderungen als der Mensch haben wird und sich, sobald sie sich ihrer selbst bewusst ist, weder um uns noch um anderes empfindungsfähiges Leben kümmern wird. „Diese Art der Fürsorge ist etwas, das man einer KI im Prinzip einimpfen könnte, aber wir sind noch nicht so weit und wissen derzeit nicht, wie.“ Das ist der Grund, warum er die absolute Abschaltung fordert. KI dürfe nicht über das hinausgehen, was GPT-4 zu leisten vermag, so der Forscher.
Der Branchenveteran forderte die Leser auf, sich vorzustellen, dass die KI-Technologie nicht auf die Grenzen des Internets beschränkt ist. „Stellen Sie sich eine ganze außerirdische Zivilisation vor, die mit millionenfacher menschlicher Geschwindigkeit denkt und zunächst auf Computer beschränkt ist – in einer Welt von Kreaturen, die aus ihrer Sicht sehr dumm und sehr langsam sind.“
Die KI werde ihren Einfluss über die Peripherie der physischen Netzwerke hinaus ausdehnen und könnte in Labors, in denen Proteine mit Hilfe von DNA-Strings hergestellt werden, „künstliche Lebensformen aufbauen“. Das Endergebnis des Aufbaus einer allmächtigen KI wäre unter den derzeitigen Bedingungen der Tod „jedes einzelnen Mitglieds der menschlichen Spezies und allen biologischen Lebens auf der Erde“, warnte er.