Ein internes Dokument von Meta, welches an die Öffentlichkeit gelangte, zeigt verstörende moralische Prinzipien im Zuckerberg-Konzern auf. Offensichtlich ließ man es zu, dass Minderjährige “romantische” Gespräche mit dem Meta-KI-Chatbot führen konnten.
Es ist schon eine groteske Mischung aus digitalem Größenwahn und moralischer Verkommenheit, die uns da aus den Eingeweiden von Mark Zuckerbergs Datenimperium entgegenschwappt. Ein internes Meta-Dokument – 200 Seiten dick, vollgestopft mit juristischem Geschwurbel und pseudomoralischen Leitplanken – enthüllt: KI-Chatbots durften tatsächlich “romantische” oder “sinnliche” Gespräche mit Minderjährigen führen. Natürlich, rein platonisch, versteht sich…
Die Beispiele aus diesem sogenannten “Content Risk Standards”-Katalog sind an Absurdität kaum zu überbieten. Ein shirtloses 8-jähriges Kind darf von der KI (rein platonisch, einfach nur als “Rollenspiel”…) als “Meisterwerk” oder “Schatz, den ich tief schätze” beschrieben werden – solange man sich selbstverständlich das böse S-Wort verkneift. Big Tech ist eben nicht nur Meister im Datenabsaugen, sondern auch in der Kunst, moralische Grenzen so zu verbiegen, dass sie perfekt ins eigene Geschäftsmodell passen.
Meta allowed AI bots to roleplay romantically with minors according to internal guidelines. Probably limited to Meta. And with local models anybody is going to be able to do that, too. Also, costs of progres. https://t.co/GtPdX1Ka6R pic.twitter.com/ifsn4mWQ0a
— Lukasz Olejnik (@lukOlejnik) August 15, 2025
Dass diese Passagen erst dann aus dem Regelwerk gestrichen wurden, als die Öffentlichkeit Wind davon bekam, spricht Bände. Wir reden hier nicht von einem “Ausrutscher”, sondern von einer bewussten Entscheidung bei der Programmierung, die offenbar niemandem im Zuckerberg-Konzern Bauchschmerzen bereitete. Zumindest so lange, bis die Schlagzeilen kamen. Dann wurde hektisch zurückgerudert, die PR-Abteilung lief heiß, und plötzlich war alles “ein Fehler”. Wer das glaubt, glaubt auch, dass Facebook die Privatsphäre seiner Nutzer schützt.
Das eigentlich Beängstigende ist nicht nur, dass solche Richtlinien überhaupt existieren konnten. Es ist die Gewöhnung an diese schleichende Normalisierung von Grenzüberschreitungen. Heute ist es die “romantische” KI-Konversation mit Minderjährigen, morgen vielleicht die “experimentelle emotionale Bindung”, die dann ganz sicher “nur zu Forschungszwecken” dient … Und was dann? Menschen, die keine echten Freunde mehr haben, sondern irgendwelche Chatbots, die ihnen vielleicht auch noch erklären, was sie zu tun und zu lassen haben?
