KI Espresso

80 Prozent — Databricks: Lakewatch ist ein überfälliger Par

Episode 27

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 7:31
SPEAKER_01

75 Prozent. Also bis zu 75 Prozent der Sicherheitsalarme müssen Analysten heute komplett manuell bearbeiten.

SPEAKER_00

Das ist eigentlich Wahnsinn.

SPEAKER_01

Total. Und weißt du auch warum? Weil die Datenlage in den Systemen einfach zu unvollständig und ziemlich chaotisch ist.

SPEAKER_00

Ja, so halt der Need.

SPEAKER_01

Genau. Und jetzt kommt eben Databricks mit LakeWatch um die Ecke und verspricht da halt bis zu 80 Prozent Kostensenkung.

SPEAKER_00

80 Prozent?

SPEAKER_01

Ja, 80%. Da sollen autonome KI-Agenten, angetrieben, unter anderem von dieser Cloud-KI, die Bedrohungserkennung und Triage komplett übernehmen. Komplett autonom, ja? Richtig. Und heute tauchen wir tief in diese aktuellen Berichte von Data Bricks und Analysen zur europäischen Cybersicherheit ein. Unsere Mission ist ganz klar: wir wollen herausfinden, ob KI die absolute Rettung für unsere völlig überlasteten Teams ist.

SPEAKER_00

Oder ob wir uns damit das größte vorstellbare Risiko direkt in den Maschinenraum holen.

SPEAKER_01

Naja, für mich ist die Sache da eigentlich glasklar. Das ist nicht einfach nur so ein nettes Rettungsboot. Sondern Das ist, als würdest du einem Fluglotsen, der zehntausende blinkende Punkte auf dem Radar manuell sortieren muss, endlich ein System geben, das automatisch die Vogelschwärme von den echten Passagiermaschinen trennt.

SPEAKER_00

Okay, der Vergleich hinkt aber.

SPEAKER_01

Warte. Ali Gotzim, also der CEO von Databricks, sagt das in unseren Quellen ganz deutlich. Sicherheitsteams können sich schlicht nicht mehr auf manuelle Workflows verlassen, wenn die Angreifer längst selbst KI nutzen.

SPEAKER_00

Da muss ich dir sofort reingrätschen. Dieses angebliche Wunderradar, also das halte ich für ein extrem hochgefährliches Experiment.

SPEAKER_01

Wieso das denn?

SPEAKER_00

Weil du die Fehlerquote der KI nämlich völlig ausblendest. Was passiert denn bitte, wenn Claude anfängt zu halluzinieren?

SPEAKER_01

Naja gut, aber.

SPEAKER_00

Eine KI versteht oft gar keinen echten menschlichen Kontext. Stell dir mal vor, dieses System stuft bei einem Konzern wie Bosch durch ein False Positive einen harmlosen, aber ungewöhnlichen Datenabgleich intern als echten Angriff ein.

SPEAKER_01

Okay, das wäre natürlich schlecht.

SPEAKER_00

Eben. Der autonome Agent reagiert sofort und schaltet präventiv mal eben ganze Produktionslinien ab.

SPEAKER_01

Krass, ja.

SPEAKER_00

Da stehen die Bänder still. In dem Moment sind deine theoretischen 80% Ersparnis in Sekundenbruchteilen komplett vernichtet.

SPEAKER_01

Ja, aber da müssen wir einen Schritt zurückgehen. Der Grund, warum eine KI überhaupt halluziniert oder den Kontext falsch versteht, ist doch fast immer dieses völlige Datenchaos in den Unternehmen.

SPEAKER_00

Meistens, ja.

SPEAKER_01

Und genau da setzt LakeWatch ja auf der Architekturebene an. Das System basiert nämlich auf dem sogenannten OCSF-Standard.

SPEAKER_00

Aha, der universelle Standard.

SPEAKER_01

Richtig. Das musst du dir wie einen universellen Übersetzer für IT-Systeme vorstellen. Bisher hat jede Sicherheitssoftware quasi ihre eigene Sprache gesprochen.

SPEAKER_00

Ja, Analysten verbringen Stunden damit, Datenformate irgendwie anzugleichen.

SPEAKER_01

Genau das. Mit OCSF spricht plötzlich alles dieselbe Sprache. Das bedeutet, riesige Konzerne wie SAP können diese lästigen, proprietären Silos endlich mal aufbrechen.

SPEAKER_00

In der Theorie klingt dieser universelle Übersetzer ja großartig.

SPEAKER_01

Und die KI hat saubere Daten, um fehlerfrei zu arbeiten.

SPEAKER_00

Ja, aber wenn wir das jetzt mit der Realität abgleichen, dann sieht das völlig anders aus.

SPEAKER_01

Findest du?

SPEAKER_00

Ja. Wenn ihr jetzt zuhört, in die Seinchi-Sicherheit arbeitet, wisst ihr ganz genau, wovon ich hier spreche. Du hast in großen Unternehmen bei Jahre gewachsene Umgebungen.

SPEAKER_01

Klar, diese ganzen alten Systeme.

SPEAKER_00

Das sind riesige Landschaften aus Planck, Curator oder auch Microsoft Sentinel. Da integrierst du nicht einfach mal per Knopfdruck einen neuen KI-Agenten.

SPEAKER_01

Aber der Standard ist doch offen?

SPEAKER_00

Das ist egal. Die Migration dieser Terabytes an historischen Daten, die Schulung der Mitarbeiter, das Umschreiben der bestehenden Sicherheitsregeln, das ist ein Albtraum. Das mag sein. Diese ganzen Integrationshürden und die enorme Komplexität fressen die Vorteile, die Databricks da so schön vorrechnet, ganz schnell wieder auf.

SPEAKER_01

Das sehe ich komplett anders. Die Migration mag hart sein, aber sie ist unausweichlich.

SPEAKER_00

Wirklich unausweichlich?

SPEAKER_01

Ja, hier wird es nämlich richtig spannend, wenn wir uns mal die rechtliche Seite ansehen. Die EU macht mit strengen Richtlinien wie NIS2 und Dora gerade massiv Druck.

SPEAKER_00

Stimmt, die Compliance-Anforderung.

SPEAKER_01

Genau. Die machen Druck auf Unternehmen, ihre Cybersicherheit nachweisbar zu machen. Diese Gesetze verlangen lückenlos dokumentierte Prozesse.

SPEAKER_00

Ja, aber wie hilft da eine KI?

SPEAKER_01

Ein offenes System wie LakeWatch, bei dem die Entscheidungswege durch saubere Datenstrukturen überprüfbar sind, hilft massiv. Es ist viel einfacher, einer Behörde einen standardisierten KI-Entscheidungsbaum vorzulegen.

SPEAKER_00

Als was?

SPEAKER_01

Als das reine Bauchgefühl eines übermüdeten Analystin in einem geschlossenen Altsystem zu rechtfertigen.

SPEAKER_00

Ja, Moment, da machst du es dir jetzt aber echt so einfach.

SPEAKER_01

Warum? Das ist doch nachvollziehbarer.

SPEAKER_00

Das wirft eine extrem wichtige Frage auf. Diese automatisierten KI-Entscheidungen kollidieren nämlich frontal mit den Transparenzanforderungen der DSGVO.

SPEAKER_01

Inwiefern?

SPEAKER_00

Wie willst du denn eine Entscheidung datenschutzkonform erklären, wenn das Modell dahinter Milliardenparameter nutzt und letztendlich als Blackbox agiert?

SPEAKER_01

Es gibt ja Protokolle.

SPEAKER_00

Das reicht der DSGVO aber oft nicht. Und noch viel gravierender ist das strategische Risiko. Wir reden hier von kritischen Infrastrukturen.

SPEAKER_01

Okay, du meinst die Kritisbetreiber.

SPEAKER_00

Genau, kritisch Konzerne wie Siemens oder große Energieversorger. Wenn wir deren Sicherheit komplett in die Hände amerikanischer KI-Modelle wie Claude legen, schaffen wir eine brandgefährliche Abhängigkeit von US-Infrastrukturen.

SPEAKER_01

Ja, das Souveränitätsproblem ist da.

SPEAKER_00

Genau deshalb arbeitet das deutsche Unternehmen Alif Alpha ja zwingend an souveränen europäischen Alternativen. Wir dürfen den Kern unserer Sicherheit einfach nicht an amerikanische Cloud-Plattformen auslagern.

SPEAKER_01

Aber die harte Realität ist doch, wenn wir auf europäische Lösungen warten, die vielleicht in drei Jahren soweit sind.

SPEAKER_00

Naja, drei Jahre ist vielleicht pessimistisch.

SPEAKER_01

Aber bis dahin ertrinken die Analysten weiter in ihren Alarmen und die Hacker haben extrem leichtes Spiel. Wir haben die Zeit gar nicht.

SPEAKER_00

Aber wer haftet denn, wenn in der Zwischenzeit etwas schief geht?

SPEAKER_01

Du meinst bei einem autonomen Agenten?

SPEAKER_00

Ja. Wenn der KI-Agent bei der Deutschen Telekom eine echte kritische Bedrohung einfach mal übersieht, weil sie halt nicht in sein Muster passt.

SPEAKER_01

Das ist rechtlich noch unklar, ja.

SPEAKER_00

Bei manueller Arbeit gibt es zumindest einen Menschen, der die Entscheidung trifft und juristisch die Verantwortung trägt. Diese Verantwortungslücke bei autonomen Agenten ist einfach ein ungelöstes Problem.

SPEAKER_01

Das stimmt, da fehlt noch die Rechtsprechung.

SPEAKER_00

Gehen wir doch noch einmal zurück zu der Statistik ganz vom Anfang. Bis zu 75% manueller Alarmbearbeitung.

SPEAKER_01

Ein riesiger Berg an Arbeit.

SPEAKER_00

Stellt euch vor, ihr seid genau dieser Sicherheitsanalyst in einem deutschen Großkonzern, der täglich in tausenden Warnmeldungen ertrinkt, würdet ihr nach unserer Analyse heute wirklich einem komplett autonomen Agenten die Kontrolle über eure kritischsten Systeme anvertrauen?

SPEAKER_01

Wenn euch diese Debatte zum Nachdenken gebracht hat, abonniert KI Espresso jeden Tag eine neue KI-Debatte in sechs Minuten.

SPEAKER_00

Und nehmt diese Überlegung mit, wenn amerikanische Anbieter die Automatisierung der Sicherheit schon heute so massiv dominieren, während Europa noch an souveränen Modellen baut. Was ist am Ende gefährlicher für den Entwicklungsstandort Deutschland? Das Risiko der KI oder das Risiko, den technologischen Anschluss komplett zu verpassen?