Ein ehemaliger Governance-Forscher bei OpenAI hat eine erschreckende Prognose abgegeben: Die Wahrscheinlichkeit, dass die Künstliche Intelligenz (KI) die Menschheit entweder zerstört oder katastrophal schädigt, liege bei 70 Prozent. Wie gefährlich ist diese Technologie wirklich?
In einem Interview mit der New York Times warf Daniel Kokotajlo, ehemaliger Governance-Forscher bei OpenAI und Unterzeichner eines offenen Briefes, in dem behauptet wird, dass Mitarbeiter daran gehindert werden, Sicherheitsprobleme anzusprechen, dem Unternehmen vor, die enormen Risiken der künstlichen allgemeinen Intelligenz (AGI) zu ignorieren. Die Entscheidungsträger würden sämtliche Bedenken ignorieren. „OpenAI ist wirklich begeistert davon, AGI zu entwickeln“, erklärte Kokotajlo, „und sie rasen rücksichtslos, um die Ersten zu sein.“
Kokotajlos alarmierendste Aussage war, dass die Wahrscheinlichkeit, dass KI die Menschheit zerstört, bei etwa 70 Prozent liegt – eine Wahrscheinlichkeit, die für jedes bedeutende Lebensereignis inakzeptabel wäre, aber OpenAI und andere Unternehmen drängen dennoch voran. Der Begriff „p(doom)“, der sich auf die Wahrscheinlichkeit bezieht, dass KI das Ende der Menschheit herbeiführen wird, ist ein ständiges Diskussionsthema in der Welt des maschinellen Lernens.
Nachdem er 2022 zu OpenAI gekommen war und gebeten wurde, den Fortschritt der Technologie vorherzusagen, war der 31-Jährige davon überzeugt, dass die Industrie bis 2027 AGI erreichen würde und dass es eine große Wahrscheinlichkeit gebe, dass sie die Menschheit katastrophal schädigen oder sogar zerstören könnte. Kokotajlo und seine Kollegen, darunter ehemalige und aktuelle Mitarbeiter von Google DeepMind und Anthropic sowie Geoffrey Hinton, der „Godfather of AI“, der Google letztes Jahr aus ähnlichen Bedenken verließ, bestehen darauf, die Öffentlichkeit vor den Risiken der KI zu warnen.
Kokotajlo war so überzeugt von den massiven Risiken, die KI für die Menschheit darstellt, dass er OpenAI-CEO Sam Altman persönlich drängte, den Fokus auf Sicherheit zu legen und mehr Zeit damit zu verbringen, Sicherheitsvorkehrungen zu implementieren, um die Technologie einzudämmen, anstatt sie intelligenter zu machen. Obwohl Altman ihm damals zustimmte, hatte Kokotajlo das Gefühl, dass es nur Lippenbekenntnisse waren.
Enttäuscht kündigte Kokotajlo im April und teilte seinem Team in einer E-Mail mit, dass er das Vertrauen in die verantwortungsvolle Verhaltensweise von OpenAI verloren habe, während das Unternehmen weiterhin versuche, KI auf nahezu menschliches Niveau zu bringen. „Die Welt ist nicht bereit, und wir sind nicht bereit“, schrieb er. „Und ich bin besorgt, dass wir ungeachtet dessen vorwärts stürmen und unser Handeln rationalisieren.“
Es stellt sich die Frage, wie gefährlich die Künstliche Intelligenz für die Menschheit tatsächlich werden kann. Einerseits eröffnet sie viele Möglichkeiten – zum Beispiel bei der Entwicklung neuer Medikamente und Verbundstoffe. Andererseits jedoch kann sie auch für destruktive Zwecke – beispielsweise zur autonomen Steuerung von Waffensystemen – eingesetzt werden. Auch die Entwicklung von gefährlichen biologischen oder chemischen Waffen wäre dadurch möglich.