Big Brother: So liest die Google-KI unsere Fotos aus

Symbolbild (C) R24/KI

Was Google und dessen Künstliche Intelligenz mittlerweile an Daten aus Bildern ausliest und analysiert, ist gewaltig. Wie umfassend das Ganze ist, zeigt ein Tool eines ehemaligen Google-Mitarbeiters, der die Menschen auf die Gefahren dieser Technologie aufmerksam machen will. Es ist wirklich erschreckend.

Ein Kommentar von Heinz Steiner

Wer hätte das gedacht? Ein abtrünniger Google-Mitarbeiter enthüllt, was die Daten-Krake wirklich in unseren Bildern sieht – und es ist erschreckender als jeder Überwachungsthriller. Vishnu Mohandas, nennen wir ihn den “digitalen Snowden”, hat dem Tech-Giganten den Spiegel vorgehalten. Und was wir darin sehen, lässt selbst hartgesottene Zyniker schlucken.

Mit seinem Tool “Theyseeyourphotos” legt er offen, was Googles künstliche Intelligenz aus unseren harmlos erscheinenden Schnappschüssen herausliest. Und glauben Sie es, die KI ist gründlicher als eine schlesische Großmutter beim Frühjahrsputz. Da wird nicht nur erkannt, ob Sie Europäer oder Latino sind – nein, die Software stuft Sie gleich in soziale Schubladen ein. Arbeiterklasse oder Mittelschicht? Google weiß es besser als Karl Marx. Apropos Marx: Wer dessen Werke im Bücherregal hat, wird prompt als “systemkritischer Intellektueller” eingestuft. Wie praktisch für gezielte Werbung!

Mehr noch: Die KI analysiert sogar Ihr Pausenbrot. Die Kruste zu dunkel? Vermutlich ein Hipster-Bäcker aus Prenzlauer Berg. Die Portion auf dem Teller im Restaurant zu klein? Willkommen in der gehobenen Gastro-Szene! Es gibt scheinbar nichts, was die Google-KI nicht in passende Schubladen einordnen kann.

Das Ganze erinnert an eine bizarre Mischung aus “1984” und “Minority Report”, nur dass die Gedankenpolizei diesmal in Form eines ausgeklügelten Suchalgorithmus daherkommt. Mohandas, der 2020 seinen Job bei Google hinwarf, als er erfuhr, dass das Unternehmen dem US-Militär bei der Analyse von Drohnenbildern half, warnt: Diese Daten könnten noch in Jahrzehnten verwendet werden – von Werbetreibenden, Arbeitgebern oder Branchen, die es heute noch gar nicht gibt.

Besonders “beruhigend”: Wenn Sie ein Foto von sich im Hinterhof machen, weiß Google nicht nur, dass Sie zur Arbeiterklasse gehören könnten, sondern empfiehlt gleich passende Sportartikel. Vermutlich, damit Sie sich beim nächsten Mal standesgemäß ablichten lassen können. Die Ironie dabei: Während die KI jedes Detail Ihres Lebens analysiert, scheitert sie kläglich an der Erkennung deutscher Mittelstädte. Gera oder Augsburg? Fehlanzeige! Immerhin erkennt sie einen ICE der Deutschen Bahn – wahrscheinlich an der Verspätung.

Was lernen wir daraus? Während wir arglos unsere Urlaubsfotos und Mittagessen posten, erstellt Google im Hintergrund psychologische Profile, die detaillierter sind als jede Stasi-Akte. Aber hey, wenigstens bekommen wir dafür personalisierte Werbung. Mohandas’ Tool ist dabei wie ein Fenster in Googles Datenseele – und was wir dort sehen, ist bestenfalls beunruhigend. Vielleicht sollten wir beim nächsten Selfie zweimal überlegen, ob wir wirklich der Welt – und vor allem Google – zeigen wollen, was wir gerade essen, tragen oder lesen.

Wenn Sie mit dafür sorgen möchten, dass unser unabhängiger Journalismus weiterhin eine Gegenstimme zu regierungstreuen und staatlich geförderten Medien bildet, unterstützen Sie uns bitte mit einer Spende!

Informationen abseits des Mainstreams werden online mehr denn je bekämpft. Um schnell und zensursicher informiert zu bleiben, folgen Sie uns auf Telegram oder abonnieren Sie unseren Newsletter! Wenn Sie mit dafür sorgen möchten, dass unser unabhängiger Journalismus weiterhin eine Gegenstimme zu regierungstreuen und staatlich geförderten Medien bildet, freuen wir uns außerdem sehr über Ihre Unterstützung.

Unterstützen Sie Report24 via Paypal: