Der auf einem neuronalen Netzwerk basierende Chatbot ChatGPT wurde wegen Datenschutzbedenken von den italienischen Behörden zunächst für 20 Tage blockiert – innerhalb dieser Frist sollen Mängel behoben werden. Auch sonst gab es einige Kritikpunkte. Kommen weitere Regulierungen auf EU-Ebene?
Von Heinz Steiner und Willi Huber
Die italienische Datenschutzbehörde hat den Zugriff auf den Chatbot ChatGPT von OpenAI verboten. Grund dafür sind angebliche Verstöße gegen den Datenschutz, die sich aus einer Datenpanne vom 20. März ergeben haben. Dabei wurden Konversationen und Zahlungsinformationen von Nutzern offenbart. Der Chatbot ChatGPT ist bekannt für seine Fähigkeit, in verschiedenen Stilen und Sprachen zu schreiben, Gedichte zu verfassen und sogar Computercodes zu schreiben. Es handelt sich aber nicht wie gemeinhin behauptet um eine künstliche Intelligenz, sondern im Grunde genommen um Näherungsalgorithmen, die auf der Basis eines großen, „erlernten“ Wissensschatzes scheinbar eigenständige Ergebnisse auswerfen.
Die italienische Behörde kritisiert, dass der Chatbot den Nutzern, deren Daten von OpenAI gesammelt werden, keine Informationshinweise dazu gibt. Außerdem bemängelt die Aufsichtsbehörde das Fehlen einer Rechtsgrundlage, die das Sammeln und Speichern personenbezogener Daten zum Trainieren der Algorithmen, die die Plattform betreiben, rechtfertigen würde. Trotz der Altersbeschränkung ab 13 Jahren gibt es keine Filter, um das Alter der Nutzer zu überprüfen. Dies führt dazu, dass Minderjährige Antworten erhalten können, die nicht ihrem Entwicklungsstand entsprechen.
Fristsetzung zur Behebung der Mängel
Die italienische Behörde fordert OpenAI auf, innerhalb von 20 Tagen Maßnahmen zu ergreifen, um die Situation zu beheben. Andernfalls droht eine Geldstrafe von bis zu 4 Prozent des weltweiten Jahresumsatzes. Der Chatbot wurde gesperrt und die Verarbeitung der Daten italienischer Nutzer durch OpenAI vorübergehend eingeschränkt. Dazu muss man natürlich technisch sagen, dass jeder IT-Kundige diese Sperre mittels VPN-Tunnels oder Tor umgehen kann – die Sperre hat somit nur Auswirkungen für technische Laien.
Unterdessen fordern mehr als 1.100 KI-Forscher und Tech-Führungskräfte, darunter Elon Musk und Steve Wozniak, in einem offenen Brief ein sechsmonatiges Moratorium für „gigantische KI-Experimente“. Sie behaupten, dass KI-Systeme mit einer dem Menschen vergleichbaren Intelligenz tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen können und dass die schnell voranschreitende Technologie angemessen geplant und verwaltet werden sollte.
Die Gruppe warnt vor einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz noch leistungsfähigerer digitaler Köpfe, die niemand zuverlässig kontrollieren kann. Die KI-Entwickler müssen sich selbst kontrollieren, aber wenn sie dazu nicht in der Lage sind, müssen Regierungen und Regulierungsbehörden eingreifen, um die Sicherheitsforschung zu finanzieren und den wirtschaftlichen Schlag abzumildern, wenn superintelligente Systeme menschliche Arbeitsplätze übernehmen.
Kritiker werfen Musk und der Gruppe vor, mit ihrer Initiative nur Eigeninteressen zu servicieren. Denn Musk war früher in OpenAI involviert, stieg aber aus, als Microsoft sich in das Projekt hineindrängte und die Idee von „open“ zu „closed“ abänderte. Musk dürfte selbst an Eigenentwicklungen in dem Bereich arbeiten und könnte mit seiner Initiative schlichtweg versuchen, die Konkurrenz auszubremsen.