KI Espresso

2,5 Milliarden — scheitern sie an einer

Episode 30

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 4:45
SPEAKER_00

Ein Praktikant findet um 4 Uhr morgens einfach mal 512.000 Zeilen Quellcode von Cloudcode im offenen Netz. Also ein Tool, das Entthropic mal eben zweieinhalb Milliarden Dollar einbringt.

SPEAKER_01

Ja, und das war ja nicht. Und darin versteckt sind unveröffentlichte Modelle wie Opus 4.7 und so ein autolomer Daemon namens Kairos plus 44 geheime Feature Flex. Für mich ist das der absolute Wahnsinn und der ultimative Beweis für dieses ganze Safety-Theater der Firma.

SPEAKER_00

Also Moment, da muss ich dir direkt echt vehement widersprechen. Das ist in weiten Teilen einfach reine Panikmache, was da gerade diskutiert wird.

SPEAKER_01

Panikmache, eine Firma, die ihre komplette Identität auf Sicherheit aufbaut, scheitert an einer simplen NPM-Ignore-Datei. Das ist pure Schlamperei. Ja, das war ein Fehler. Aber lass uns doch mal gucken, was da physisch überhaupt im Netz lag. Das war ein sogenannter TypeScript-CLI-Wrapper. Um das mal greifbar zu machen, das ist wie die Speisekarte in einem Restaurant.

SPEAKER_00

Eine Speisekarte.

SPEAKER_01

Genau. Du siehst, wie man bestellt, aber das Rezept für das Essen, also in unserem Fall die Milliarden von Trainingsdaten und die Modellgewichte, das bleibt absolut sicher verschlossen in der Küche. Da lagen null Modellgewichte im Netz, null Kundendaten und auch keine API-Schlüssel.

SPEAKER_00

Okay, selbst wenn es nur die Speisekarte ist, es gibt da eine ganz klare Kausalität, finde ich. Anthropic ist in 15 Monaten um das Neunzehnfache gewachsen. Ja, das Wachstum ist enorm, aber. Thema Wachstum friss gerade komplett deren Sicherheitskultur auf. Fünf Tage vorher liegt Claude Mythos. Ein Modell, vor dem die sogar die US-Regierung selbst gewarnt haben. Weil es großflächige halbe Angriffe extrem erleichtern könnte.

SPEAKER_01

Das sind aber zwei völlig unterschiedliche Vorfälle.

SPEAKER_00

Und im Februar 2026 streichen sie klammheimlich ihre Verpflichtung, die Entwicklung zu stoppen, wenn es unsicher wird. Das ist, als würde der Hersteller vom sichersten Banktresor der Welt aus reiner Bequemlichkeit den Mastercode auf Twitter posten.

SPEAKER_01

Boah, nee, der Tresorvergleich hinkt aber gewaltig. Code-Geheimhaltung ist in der Softwareentwicklung einfach keine echte Sicherheit. Dieses Security by Obscurity funktioniert halt nicht.

SPEAKER_00

Aber es ist ein Teil davon.

SPEAKER_01

Das sagt sogar Microsoft offiziell, nachdem die durch einen echten feindlichen Hack 37 GB Quellcode verloren haben. Man darf doch einen dummen Tippfehler, eine vergessene Datei, nicht mit systemischer Böswilligkeit verwechseln.

SPEAKER_00

Es zeigt aber ein Muster.

SPEAKER_01

Guck dir doch mal den Kontext an. OpenAI wurde 2023 gehackt und hat's der Polizei verschwiegen. Meta verschenkt sein Lama-Modell absichtlich an jeden. Und ausgerechnet Enthropic, die dem Pentagon bei autonomen Waffen widersprochen und damit Milliarden riskiert haben, wird jetzt an den Pranger gestellt?

SPEAKER_00

Ja, die werden an den Pranger gestellt, weil die Gefahr absolut real ist. Exakt im selben Zeitfenster lag ein Remote Access Trojan in der weitverbreiteten NPM-Bibliothek.

SPEAKER_01

Ja, das NPM-Ökosystem ist anfällig, aber.

SPEAKER_00

70 Prozent der Fortune 100-Unternehmen nutzen Claude. Wer das Tool in diesen drei Stunden installiert hat, hat jetzt potenziell eine Hintertür im System. Das ist keine Theorie, das ist ein handfestes Risiko für unsere Wirtschaft.

SPEAKER_01

Es ist ein Risiko, ja. Aber weißt du, was wirklich faszinierend an der ganzen Sache ist? Wie die Entwickler-Community reagiert hat. In nur zwei Stunden gab es 50.000 GitHub-Stars für den geleakten Code.

SPEAKER_00

Wahrscheinlich, weil alle den Code kopieren wollten.

SPEAKER_01

Nein, weil dieser Code bewiesen hat, dass Anthropic extrem saubere Arbeit leistet. Da gab es keine fiesen Tricks, keine Dark Patterns, die heimlich Daten abgreifen.

SPEAKER_00

Wirklich gar nichts in der Richtung?

SPEAKER_01

Nichts. Es gab da sogar einen Undercover-Mode, der technisch verhindert, dass interne Infos das Unternehmen überhaupt verlassen. Ironischerweise hat dieser Fehler bewiesen, dass Claude unter der Haube extrem sicher gebaut ist.

SPEAKER_00

Okay, krass. Dann lasst uns das mal für euch zusammenfassen und wir gehen zurück zu dieser unfassbaren Zahl vom Anfang. 512.000 geleakte Kurzeilen. Ein Praktikant 4 Uhr morgens.

SPEAKER_01

Genau, und wir geben diese Frage jetzt mal direkt an euch weiter. Bewertet diese Zahl nach der Debatte doch nochmal neu?

SPEAKER_00

Ist dieser Leak für euch das Warnsignal einer kollabierenden Sicherheitskultur, kurz vor dem EU AI-Act?

SPEAKER_01

Oder bestrafen wir hier gerade wirklich hart die einzige Firma, die in diesem ganzen KI-Goldrausch zumindest versucht, nach ethischen Prinzipien zu handeln?

SPEAKER_00

Wenn euch diese Debatte zum Nachdenken gebracht hat, abonniert KI Espresso. Jeden Tag eine neue KI-Debatte in sechs Minuten.

SPEAKER_01

Das war KI Espresso.