KI Espresso
KI Espresso ist dein täglicher KI-Podcast für Künstliche Intelligenz, AI News und Tech News aus Deutschland und der Welt. In 5 bis 7 Minuten bekommst du die wichtigsten KI-News, klar eingeordnet und auf den Punkt. Für alle, die verstehen wollen, wie KI Arbeit, Wirtschaft und Alltag verändert. Neue Folgen von Montag bis Freitag.
KI Espresso
2,5 Milliarden — scheitern sie an einer
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Ein Praktikant findet um 4 Uhr morgens einfach mal 512.000 Zeilen Quellcode von Cloudcode im offenen Netz. Also ein Tool, das Entthropic mal eben zweieinhalb Milliarden Dollar einbringt.
SPEAKER_01Ja, und das war ja nicht. Und darin versteckt sind unveröffentlichte Modelle wie Opus 4.7 und so ein autolomer Daemon namens Kairos plus 44 geheime Feature Flex. Für mich ist das der absolute Wahnsinn und der ultimative Beweis für dieses ganze Safety-Theater der Firma.
SPEAKER_00Also Moment, da muss ich dir direkt echt vehement widersprechen. Das ist in weiten Teilen einfach reine Panikmache, was da gerade diskutiert wird.
SPEAKER_01Panikmache, eine Firma, die ihre komplette Identität auf Sicherheit aufbaut, scheitert an einer simplen NPM-Ignore-Datei. Das ist pure Schlamperei. Ja, das war ein Fehler. Aber lass uns doch mal gucken, was da physisch überhaupt im Netz lag. Das war ein sogenannter TypeScript-CLI-Wrapper. Um das mal greifbar zu machen, das ist wie die Speisekarte in einem Restaurant.
SPEAKER_00Eine Speisekarte.
SPEAKER_01Genau. Du siehst, wie man bestellt, aber das Rezept für das Essen, also in unserem Fall die Milliarden von Trainingsdaten und die Modellgewichte, das bleibt absolut sicher verschlossen in der Küche. Da lagen null Modellgewichte im Netz, null Kundendaten und auch keine API-Schlüssel.
SPEAKER_00Okay, selbst wenn es nur die Speisekarte ist, es gibt da eine ganz klare Kausalität, finde ich. Anthropic ist in 15 Monaten um das Neunzehnfache gewachsen. Ja, das Wachstum ist enorm, aber. Thema Wachstum friss gerade komplett deren Sicherheitskultur auf. Fünf Tage vorher liegt Claude Mythos. Ein Modell, vor dem die sogar die US-Regierung selbst gewarnt haben. Weil es großflächige halbe Angriffe extrem erleichtern könnte.
SPEAKER_01Das sind aber zwei völlig unterschiedliche Vorfälle.
SPEAKER_00Und im Februar 2026 streichen sie klammheimlich ihre Verpflichtung, die Entwicklung zu stoppen, wenn es unsicher wird. Das ist, als würde der Hersteller vom sichersten Banktresor der Welt aus reiner Bequemlichkeit den Mastercode auf Twitter posten.
SPEAKER_01Boah, nee, der Tresorvergleich hinkt aber gewaltig. Code-Geheimhaltung ist in der Softwareentwicklung einfach keine echte Sicherheit. Dieses Security by Obscurity funktioniert halt nicht.
SPEAKER_00Aber es ist ein Teil davon.
SPEAKER_01Das sagt sogar Microsoft offiziell, nachdem die durch einen echten feindlichen Hack 37 GB Quellcode verloren haben. Man darf doch einen dummen Tippfehler, eine vergessene Datei, nicht mit systemischer Böswilligkeit verwechseln.
SPEAKER_00Es zeigt aber ein Muster.
SPEAKER_01Guck dir doch mal den Kontext an. OpenAI wurde 2023 gehackt und hat's der Polizei verschwiegen. Meta verschenkt sein Lama-Modell absichtlich an jeden. Und ausgerechnet Enthropic, die dem Pentagon bei autonomen Waffen widersprochen und damit Milliarden riskiert haben, wird jetzt an den Pranger gestellt?
SPEAKER_00Ja, die werden an den Pranger gestellt, weil die Gefahr absolut real ist. Exakt im selben Zeitfenster lag ein Remote Access Trojan in der weitverbreiteten NPM-Bibliothek.
SPEAKER_01Ja, das NPM-Ökosystem ist anfällig, aber.
SPEAKER_0070 Prozent der Fortune 100-Unternehmen nutzen Claude. Wer das Tool in diesen drei Stunden installiert hat, hat jetzt potenziell eine Hintertür im System. Das ist keine Theorie, das ist ein handfestes Risiko für unsere Wirtschaft.
SPEAKER_01Es ist ein Risiko, ja. Aber weißt du, was wirklich faszinierend an der ganzen Sache ist? Wie die Entwickler-Community reagiert hat. In nur zwei Stunden gab es 50.000 GitHub-Stars für den geleakten Code.
SPEAKER_00Wahrscheinlich, weil alle den Code kopieren wollten.
SPEAKER_01Nein, weil dieser Code bewiesen hat, dass Anthropic extrem saubere Arbeit leistet. Da gab es keine fiesen Tricks, keine Dark Patterns, die heimlich Daten abgreifen.
SPEAKER_00Wirklich gar nichts in der Richtung?
SPEAKER_01Nichts. Es gab da sogar einen Undercover-Mode, der technisch verhindert, dass interne Infos das Unternehmen überhaupt verlassen. Ironischerweise hat dieser Fehler bewiesen, dass Claude unter der Haube extrem sicher gebaut ist.
SPEAKER_00Okay, krass. Dann lasst uns das mal für euch zusammenfassen und wir gehen zurück zu dieser unfassbaren Zahl vom Anfang. 512.000 geleakte Kurzeilen. Ein Praktikant 4 Uhr morgens.
SPEAKER_01Genau, und wir geben diese Frage jetzt mal direkt an euch weiter. Bewertet diese Zahl nach der Debatte doch nochmal neu?
SPEAKER_00Ist dieser Leak für euch das Warnsignal einer kollabierenden Sicherheitskultur, kurz vor dem EU AI-Act?
SPEAKER_01Oder bestrafen wir hier gerade wirklich hart die einzige Firma, die in diesem ganzen KI-Goldrausch zumindest versucht, nach ethischen Prinzipien zu handeln?
SPEAKER_00Wenn euch diese Debatte zum Nachdenken gebracht hat, abonniert KI Espresso. Jeden Tag eine neue KI-Debatte in sechs Minuten.
SPEAKER_01Das war KI Espresso.