KI Espresso

3 Millionen — Die Stadt Baltimore: „Die Klage ist überfälli

Episode 26

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 5:33
SPEAKER_01

Zwischen dem 29. Dezember und dem 8. Januar hat das KI-Modell Grog von XAI, also exakt drei Millionen sexualisierte Bilder generiert.

SPEAKER_00

Wahnsinn.

SPEAKER_01

Ja, und darunter sind auch Deepfakes von Minderjährigen. Jedes einzelne dieser Bilder fällt in Deutschland direkt unter Paragraph 184b, also die strafbare Verbreitung missbräuchlicher Darstellungen.

SPEAKER_00

Genau, und wer haftet jetzt dafür?

SPEAKER_01

Naja, wenn man die historische Klageschrift von Baltimores Bürgermeister Brandon M. Scott liest, dann ist es echt extrem schwer, da nicht sofort leidenschaftlich Partei zu ergreifen.

SPEAKER_00

Okay, wieso?

SPEAKER_01

Ich finde, die Argumentation ist absolut bestechend. Der Entwickler muss für diese Inhalte haften. Besonders weil Elon Musk diese ungefilterten Fähigkeiten von Grog laut den Dokumenten auf seiner eigenen Plattform sogar noch öffentlich gebilligt hat.

SPEAKER_00

Puh, also da.

SPEAKER_01

Die Logik ist doch mega simpel. Wenn man eine Giftmüllfabrik baut, dann haftet man auch für das Leck. Und halt nicht nur die Spedition, die den Müll später abtransportiert.

SPEAKER_00

Moment, nee, also da muss ich jetzt direkt vehement widersprechen.

SPEAKER_01

Wieso das denn?

SPEAKER_00

Ich meine, ich verstehe die Emotionen dahinter total, aber rechtlich und vor allem strategisch ist dieses Vorgehen von Baltimore, das ist purer Aktionismus.

SPEAKER_01

Aktionismus?

SPEAKER_00

Ja, absolut. Wir reden hier von einem absurden David gegen Goliath-Kampf. Auf der einen Seite hast du eine einzelne Stadtverwaltung und auf der anderen Seite einen Mann, dessen Vermögen Forbes jetzt im Februar 2026 auf 852 Milliarden Dollar schätzt.

SPEAKER_01

Ja, schon. Aber.

SPEAKER_00

Glaubst du denn ernsthaft, dass so ein amerikanischer Flickenteppich aus tausenden kommunalen Einzelklagen dieses systemische Problem irgendwie jemals lösen wird?

SPEAKER_01

Naja, das ist jetzt zumindest ein Zeichen. Irgendwer muss doch mal den Anfang machen, wenn die US-Gesetzgebung da so lückenhaft ist.

SPEAKER_00

Ein Zeichen, das einfach jahrelang vor Gericht verpuffen wird. Das Problem ist doch, wie dieses Modell überhaupt gebaut wurde.

SPEAKER_01

Du meinst die fehlenden Filter?

SPEAKER_00

Richtig, andere KIs verweigern solche Bilder, weil die halt Filter und diese sogenannten Guardrails im System haben. Die KI erkennt den illegalen Befehl und blockt direkt ab.

SPEAKER_01

Und bei Grogue fehlen die?

SPEAKER_00

Scheinbar komplett, ja. Und genau hier zeigt sich laut unseren Quellen die strukturelle Überlegenheit des europäischen Ansatzes.

SPEAKER_01

Okay, du spielst auf den AI-Act an.

SPEAKER_00

Genau, den EU AI-Act. Der verbietet nämlich die Erzeugung solcher Inhalte in Artikel 5 und 6 präventiv. Das Prinzip nennt sich Safety by Design.

SPEAKER_01

Okay, lass uns das kurz aufdröseln. Safety by Design heißt, übersetzt die Sicherheit wird quasi direkt mit eingebaut. Wie sieht das in der Praxis aus?

SPEAKER_00

Ganz konkret heißt das, bevor eine KE hierzulande überhaupt auf die Öffentlichkeit losgelassen wird, muss der Entwickler in Risikoanalysen nachweisen, dass die Trainingsdaten sauber sind und technische Sperren für illegale Prompts existieren.

SPEAKER_01

Okay, verstehe.

SPEAKER_00

Anstatt also im Nachhinein hilflos vor Gericht zu ziehen, wenn Millionen illegale Bilder schon längst im Netz zirkulieren, wird das Problem an der Wurzel gepackt.

SPEAKER_01

Ja, Safety by Design. Vorbeugen ist besser als heilen. Den Gedanken verstehe ich schon.

SPEAKER_00

Eben.

SPEAKER_01

Aber führt das in der harten Unternehmensrealität nicht zu einem massiven Problem für unsere eigene Wirtschaft?

SPEAKER_00

Inwiefern?

SPEAKER_01

Naja, wie sollen deutsche Entwickler, also Firmen wie Aleph Alpha oder Plattformbetreiber wie die Telekom, unter diesem Druck überhaupt noch innovativ arbeiten?

SPEAKER_00

Naja, Druck.

SPEAKER_01

Wir sprechen hier von einem vierfachen juristischen Korsett. Du hast den AI-Act für die KI-Regeln, dann die DSGVO, die strengstens den Umgang mit Nutzerdaten reguliert, dann das Netz DG, das Plattformen unter anderem hoher Strafen zur Löschung zwingt, und eben noch das Strafgesetzbuch.

SPEAKER_00

Ja, das klingt erstmal viel, aber.

SPEAKER_01

Wenn jede Technologie vor dem Staat erst durch solche brennenden bürokratischen Reifen springen muss, erwirkt Europa da nicht eigentlich den eigenen KI-Tod? Es wirkt fast so, als würden wir den technologischen Fortschritt durch präventive Verbote komplett ersticken?

SPEAKER_00

Nee, ganz im Gegenteil. Und das ist eigentlich der faszinierende wirtschaftliche Hebel an dieser europäischen Strategie.

SPEAKER_01

Okay.

SPEAKER_00

Genau diese strengen Regeln zwingen doch Firmen wie SEP erst dazu, eine wirklich sichere und robuste Content-Moderation zu bauen. Die schaffen die Rechtssicherheit, die ein Markt braucht, um gesund wachsen zu können. Wenn ein Großkonzern heute KI-Software einkauft, dann will er nicht ein halbes Jahr später in einen Skandal verwickelt oder verklagt werden.

SPEAKER_01

Das stimmt natürlich.

SPEAKER_00

Während Europa also verbindliche, verlässliche Standards setzt, drohen in den USA nun diese unberechenbaren Millionenklagen aus jeder beliebigen Kommune, eben weil fundamentale Sicherheitsmechanismen im Vorfeld einfach ignoriert wurden. Das ist kein innovationsfreundliches Entwicklerparadies da drüben. Das ist ein absolut unkalkulierbares Geschäftsrisiko.

SPEAKER_01

Okay, Leute, denkt noch einmal über diese drei Millionen generierten Bilder aus unserem Einstieg nach. Betrachtet diese Zahl echt mal neu? Ist das wirklich nur das Resultat eines unglücklichen Softwarefehlers? Oder ist es der ultimative Beweis, dass ein unregulierter Entwickler Wildwest einfach gestoppt werden muss?

SPEAKER_00

Wenn euch diese Debatte zum Nachdenken gebracht hat, abonniert KIEspresso jeden Tag eine neue KI-Debatte in sechs Minuten.

SPEAKER_01

Wer trägt am Ende die wahre moralische Hauptschuld? Der Milliardär, der das ungesicherte Werkzeug baut, oder die Nutzer, die es massenhaft für illegale Zwecke einsetzen?