KI Espresso
KI Espresso ist dein täglicher KI-Podcast für Künstliche Intelligenz, AI News und Tech News aus Deutschland und der Welt. In 5 bis 7 Minuten bekommst du die wichtigsten KI-News, klar eingeordnet und auf den Punkt. Für alle, die verstehen wollen, wie KI Arbeit, Wirtschaft und Alltag verändert. Neue Folgen von Montag bis Freitag.
KI Espresso
80 Prozent — Databricks: Lakewatch ist ein überfälliger Par
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
75 Prozent. Also bis zu 75 Prozent der Sicherheitsalarme müssen Analysten heute komplett manuell bearbeiten.
SPEAKER_00Das ist eigentlich Wahnsinn.
SPEAKER_01Total. Und weißt du auch warum? Weil die Datenlage in den Systemen einfach zu unvollständig und ziemlich chaotisch ist.
SPEAKER_00Ja, so halt der Need.
SPEAKER_01Genau. Und jetzt kommt eben Databricks mit LakeWatch um die Ecke und verspricht da halt bis zu 80 Prozent Kostensenkung.
SPEAKER_0080 Prozent?
SPEAKER_01Ja, 80%. Da sollen autonome KI-Agenten, angetrieben, unter anderem von dieser Cloud-KI, die Bedrohungserkennung und Triage komplett übernehmen. Komplett autonom, ja? Richtig. Und heute tauchen wir tief in diese aktuellen Berichte von Data Bricks und Analysen zur europäischen Cybersicherheit ein. Unsere Mission ist ganz klar: wir wollen herausfinden, ob KI die absolute Rettung für unsere völlig überlasteten Teams ist.
SPEAKER_00Oder ob wir uns damit das größte vorstellbare Risiko direkt in den Maschinenraum holen.
SPEAKER_01Naja, für mich ist die Sache da eigentlich glasklar. Das ist nicht einfach nur so ein nettes Rettungsboot. Sondern Das ist, als würdest du einem Fluglotsen, der zehntausende blinkende Punkte auf dem Radar manuell sortieren muss, endlich ein System geben, das automatisch die Vogelschwärme von den echten Passagiermaschinen trennt.
SPEAKER_00Okay, der Vergleich hinkt aber.
SPEAKER_01Warte. Ali Gotzim, also der CEO von Databricks, sagt das in unseren Quellen ganz deutlich. Sicherheitsteams können sich schlicht nicht mehr auf manuelle Workflows verlassen, wenn die Angreifer längst selbst KI nutzen.
SPEAKER_00Da muss ich dir sofort reingrätschen. Dieses angebliche Wunderradar, also das halte ich für ein extrem hochgefährliches Experiment.
SPEAKER_01Wieso das denn?
SPEAKER_00Weil du die Fehlerquote der KI nämlich völlig ausblendest. Was passiert denn bitte, wenn Claude anfängt zu halluzinieren?
SPEAKER_01Naja gut, aber.
SPEAKER_00Eine KI versteht oft gar keinen echten menschlichen Kontext. Stell dir mal vor, dieses System stuft bei einem Konzern wie Bosch durch ein False Positive einen harmlosen, aber ungewöhnlichen Datenabgleich intern als echten Angriff ein.
SPEAKER_01Okay, das wäre natürlich schlecht.
SPEAKER_00Eben. Der autonome Agent reagiert sofort und schaltet präventiv mal eben ganze Produktionslinien ab.
SPEAKER_01Krass, ja.
SPEAKER_00Da stehen die Bänder still. In dem Moment sind deine theoretischen 80% Ersparnis in Sekundenbruchteilen komplett vernichtet.
SPEAKER_01Ja, aber da müssen wir einen Schritt zurückgehen. Der Grund, warum eine KI überhaupt halluziniert oder den Kontext falsch versteht, ist doch fast immer dieses völlige Datenchaos in den Unternehmen.
SPEAKER_00Meistens, ja.
SPEAKER_01Und genau da setzt LakeWatch ja auf der Architekturebene an. Das System basiert nämlich auf dem sogenannten OCSF-Standard.
SPEAKER_00Aha, der universelle Standard.
SPEAKER_01Richtig. Das musst du dir wie einen universellen Übersetzer für IT-Systeme vorstellen. Bisher hat jede Sicherheitssoftware quasi ihre eigene Sprache gesprochen.
SPEAKER_00Ja, Analysten verbringen Stunden damit, Datenformate irgendwie anzugleichen.
SPEAKER_01Genau das. Mit OCSF spricht plötzlich alles dieselbe Sprache. Das bedeutet, riesige Konzerne wie SAP können diese lästigen, proprietären Silos endlich mal aufbrechen.
SPEAKER_00In der Theorie klingt dieser universelle Übersetzer ja großartig.
SPEAKER_01Und die KI hat saubere Daten, um fehlerfrei zu arbeiten.
SPEAKER_00Ja, aber wenn wir das jetzt mit der Realität abgleichen, dann sieht das völlig anders aus.
SPEAKER_01Findest du?
SPEAKER_00Ja. Wenn ihr jetzt zuhört, in die Seinchi-Sicherheit arbeitet, wisst ihr ganz genau, wovon ich hier spreche. Du hast in großen Unternehmen bei Jahre gewachsene Umgebungen.
SPEAKER_01Klar, diese ganzen alten Systeme.
SPEAKER_00Das sind riesige Landschaften aus Planck, Curator oder auch Microsoft Sentinel. Da integrierst du nicht einfach mal per Knopfdruck einen neuen KI-Agenten.
SPEAKER_01Aber der Standard ist doch offen?
SPEAKER_00Das ist egal. Die Migration dieser Terabytes an historischen Daten, die Schulung der Mitarbeiter, das Umschreiben der bestehenden Sicherheitsregeln, das ist ein Albtraum. Das mag sein. Diese ganzen Integrationshürden und die enorme Komplexität fressen die Vorteile, die Databricks da so schön vorrechnet, ganz schnell wieder auf.
SPEAKER_01Das sehe ich komplett anders. Die Migration mag hart sein, aber sie ist unausweichlich.
SPEAKER_00Wirklich unausweichlich?
SPEAKER_01Ja, hier wird es nämlich richtig spannend, wenn wir uns mal die rechtliche Seite ansehen. Die EU macht mit strengen Richtlinien wie NIS2 und Dora gerade massiv Druck.
SPEAKER_00Stimmt, die Compliance-Anforderung.
SPEAKER_01Genau. Die machen Druck auf Unternehmen, ihre Cybersicherheit nachweisbar zu machen. Diese Gesetze verlangen lückenlos dokumentierte Prozesse.
SPEAKER_00Ja, aber wie hilft da eine KI?
SPEAKER_01Ein offenes System wie LakeWatch, bei dem die Entscheidungswege durch saubere Datenstrukturen überprüfbar sind, hilft massiv. Es ist viel einfacher, einer Behörde einen standardisierten KI-Entscheidungsbaum vorzulegen.
SPEAKER_00Als was?
SPEAKER_01Als das reine Bauchgefühl eines übermüdeten Analystin in einem geschlossenen Altsystem zu rechtfertigen.
SPEAKER_00Ja, Moment, da machst du es dir jetzt aber echt so einfach.
SPEAKER_01Warum? Das ist doch nachvollziehbarer.
SPEAKER_00Das wirft eine extrem wichtige Frage auf. Diese automatisierten KI-Entscheidungen kollidieren nämlich frontal mit den Transparenzanforderungen der DSGVO.
SPEAKER_01Inwiefern?
SPEAKER_00Wie willst du denn eine Entscheidung datenschutzkonform erklären, wenn das Modell dahinter Milliardenparameter nutzt und letztendlich als Blackbox agiert?
SPEAKER_01Es gibt ja Protokolle.
SPEAKER_00Das reicht der DSGVO aber oft nicht. Und noch viel gravierender ist das strategische Risiko. Wir reden hier von kritischen Infrastrukturen.
SPEAKER_01Okay, du meinst die Kritisbetreiber.
SPEAKER_00Genau, kritisch Konzerne wie Siemens oder große Energieversorger. Wenn wir deren Sicherheit komplett in die Hände amerikanischer KI-Modelle wie Claude legen, schaffen wir eine brandgefährliche Abhängigkeit von US-Infrastrukturen.
SPEAKER_01Ja, das Souveränitätsproblem ist da.
SPEAKER_00Genau deshalb arbeitet das deutsche Unternehmen Alif Alpha ja zwingend an souveränen europäischen Alternativen. Wir dürfen den Kern unserer Sicherheit einfach nicht an amerikanische Cloud-Plattformen auslagern.
SPEAKER_01Aber die harte Realität ist doch, wenn wir auf europäische Lösungen warten, die vielleicht in drei Jahren soweit sind.
SPEAKER_00Naja, drei Jahre ist vielleicht pessimistisch.
SPEAKER_01Aber bis dahin ertrinken die Analysten weiter in ihren Alarmen und die Hacker haben extrem leichtes Spiel. Wir haben die Zeit gar nicht.
SPEAKER_00Aber wer haftet denn, wenn in der Zwischenzeit etwas schief geht?
SPEAKER_01Du meinst bei einem autonomen Agenten?
SPEAKER_00Ja. Wenn der KI-Agent bei der Deutschen Telekom eine echte kritische Bedrohung einfach mal übersieht, weil sie halt nicht in sein Muster passt.
SPEAKER_01Das ist rechtlich noch unklar, ja.
SPEAKER_00Bei manueller Arbeit gibt es zumindest einen Menschen, der die Entscheidung trifft und juristisch die Verantwortung trägt. Diese Verantwortungslücke bei autonomen Agenten ist einfach ein ungelöstes Problem.
SPEAKER_01Das stimmt, da fehlt noch die Rechtsprechung.
SPEAKER_00Gehen wir doch noch einmal zurück zu der Statistik ganz vom Anfang. Bis zu 75% manueller Alarmbearbeitung.
SPEAKER_01Ein riesiger Berg an Arbeit.
SPEAKER_00Stellt euch vor, ihr seid genau dieser Sicherheitsanalyst in einem deutschen Großkonzern, der täglich in tausenden Warnmeldungen ertrinkt, würdet ihr nach unserer Analyse heute wirklich einem komplett autonomen Agenten die Kontrolle über eure kritischsten Systeme anvertrauen?
SPEAKER_01Wenn euch diese Debatte zum Nachdenken gebracht hat, abonniert KI Espresso jeden Tag eine neue KI-Debatte in sechs Minuten.
SPEAKER_00Und nehmt diese Überlegung mit, wenn amerikanische Anbieter die Automatisierung der Sicherheit schon heute so massiv dominieren, während Europa noch an souveränen Modellen baut. Was ist am Ende gefährlicher für den Entwicklungsstandort Deutschland? Das Risiko der KI oder das Risiko, den technologischen Anschluss komplett zu verpassen?