EFS Podcast
Der Podcast von EFS Consulting liefert neue Perspektiven, Wissensimpulse und Einblicke zu aktuellen Themen und Fragestellungen der Business-Welt. Wie etwa aus dem Bereich Automotive, Mobilität, IT, Agilität, digitale Transformation und Unternehmenskultur. Dabei werden nicht nur die Themen beleuchtet, sondern auch die EFS Expert:innen, die dahinter stehen. Sie erzählen von ihrem Werdegang, dem Consulting-Alltag und ihrer persönlichen Motivation. Lernen Sie EFS #realpeople und das #realbusiness kennen – was sie bewegt und was sie bewegen.
EFS Podcast
AI Reality Check 2026: Was künstliche Intelligenz wirklich ist
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
In vielen Unternehmen herrscht Frustration: KI-Lizenzen sind verteilt, doch die Ergebnisse bleiben hinter den Erwartungen zurück. Das Problem liegt oft an einem grundlegenden Missverständnis: Wir versuchen, eine revolutionäre Technologie mit dem Mindset der alten IT-Welt zu steuern.
Irene Racher und Ralph Zlabinger widmen sich in der zweiten Folge unserer Miniserie „AI Reality Check 2026“ dem Kern der Sache - KI als Betriebssystem. Sie erklären, warum der Vergleich von KI mit klassischer Software nicht nur hinkt, sondern gefährlich ist. Während herkömmliche IT auf Wenn-Dann-Regeln basiert, operiert KI mit Wahrscheinlichkeiten. Das verändert alles – von der Art, wie wir Aufgaben delegieren, bis hin zur Frage, wie viel Vertrauen wir den Ergebnissen schenken dürfen.
Das Ende der Vorhersehbarkeit
Die Episode beleuchtet den Paradigmenwechsel von der regelbasierten zur datenbasierten Logik. Im Fokus stehen dabei:
- Wahrscheinlichkeit statt Logik: Warum LLMs im Kern ein „extrem leistungsfähiges Autocomplete“ sind und was das für die Zuverlässigkeit bedeutet.
- Die Halluzinations-Falle: Warum KI so überzeugend lügt und Inkompetenz professionalisiert.
- Korrelation vs. Kausalität: Warum die Maschine Muster erkennt, aber niemals das „Warum“ dahinter versteht.
Strategische Einordnung: Das 3-Stufen-Modell
Ein ein Framework zur Kategorisierung von KI-Anwendungen:
- Personal AI: Schnelle, individuelle Produktivitäts-Hacks (z. B. ChatGPT).
- Tailored AI: Maßgeschneiderte Assistenten für Fachabteilungen ohne großen IT-Aufwand.
- Enterprise AI: Die „Königsklasse“ für kritische Prozesse, die stabil, reproduzierbar und auditierbar sein müssen.
Zusätzliche Expertise liefern Victoria Langejürgen (IT-Security und AI Governance) zur Abgrenzung gegenüber klassischer IT sowie Darya Shitova (AI Developerin), die einen Ausblick auf agentische KI gibt – Systeme, die nicht mehr nur Fragen beantworten, sondern eigenständig Aufträge ausführen.
Für wen diese Folge besonders relevant ist:
- Führungskräfte und Verantwortliche für Organisation, Innovation und Transformation
- Wissensarbeiter:innen in komplexen oder regulierten Umfeldern
- Berater:innen, Analyst:innen und Manager:innen
- Compliance- & Risikomanager
- Und für alle, die KI als Betriebssystem verstehen möchten
Wir wünschen viel Freude beim Hören!
In der nächsten Episode erwartet Sie ein persönlicheres Thema. Irene Racher und Ralph Zlabinger sprechen über Menschen. Über Fähigkeiten, die gerade entstehen – und über solche, die ohne Aufmerksamkeit still verschwinden. Über eine Kompetenz, die in kaum einer Stellenbeschreibung steht – aber in den nächsten Jahren über Karrieren entscheiden wird. AI Literacy. (Lesetipp: Mehr über AI Literacy im EFS Consulting Insight)
Haben Sie Fragen oder Feedback? Schreiben Sie uns gerne eine E-Mail an podcast@efs.at.
00;00;00 - 00;00;21
In der letzten Folge haben wir über den Kater gesprochen. Über die Lücke zwischen dem, was man sich von KI versprochen hat und dem, was tatsächlich in den meisten Unternehmen angekommen ist. Über Schatten-IT, Capability Gaps, und die stille Angst der Wissensarbeiter:innen, sich selbst wegzurationalisieren. Und am Ende haben wir eine Frage offengelassen. Wie kommt man aus dieser Nummer raus?
00;00;23 - 00;00;52
Unsere Antwort: Indem man aufhört, über Tools zu streiten – und anfängt zu verstehen, womit man es eigentlich zu tun hat. Denn wir erleben in unserer Arbeit immer wieder dasselbe Muster. Unternehmen kaufen KI-Lizenzen, starten Pilotprojekte, halten Workshops ab – und merken dann, dass irgendetwas nicht stimmt. Dass die Ergebnisse hinter den Erwartungen zurückbleiben. Dass die Anwendungsfälle nicht skalieren. Dass Teams frustriert sind. Und eines der Probleme ist, dass niemand erklärt hat, was diese Technologie eigentlich ist und was sie tut.
00;00;52 - 00;01;16
Wir sind damit beim Kern unserer ganzen Miniserie AI Reality Check 2026 des EFS Podcasts angelangt. Willkommen zu Episode 2 der Miniserie. Wir sind Irene Racher und Ralph Zlabinger. Und heute beantworten wir die Frage, die am Anfang stehen sollte – und meistens nicht gestellt wird: Was ist KI eigentlich? Und warum ist der Vergleich mit einem weiteren IT-Tool grundlegend falsch?
00;01;18 - 00;01;46
Fangen wir mit dem Fundament an. Klassische Informatik – also die IT, mit der wir in Unternehmen seit Jahrzehnten arbeiten – ist regelbasiert. eine Programmiererin / Ein Programmierer schreibt exakte Anweisungen. Wenn A passiert, dann B. Wenn das Formular ausgefüllt ist, schick die E-Mail. Wenn der Lagerbestand unter zehn Einheiten fällt, löse eine Bestellung aus. Das System tut genau das, was ihm gesagt wurde. Nicht mehr. Nicht weniger. Deterministisch – also vorhersehbar, immer gleich und kontrollierbar.
00;01;46 - 00;02;11
KI – insbesondere das, was wir heute als generative KI kennen – funktioniert grundlegend anders. Sie ist nicht regelbasiert. Sie ist datenbasiert. Und sie ist probabilistisch – also wahrscheinlichkeitsbasiert. Und der Unterschied ist enorm. Bei klassischer IT gibt der Mensch die Regeln vor. Bei KI gibt der Mensch das Ziel und die Daten vor – und die Maschine lernt selbstständig, welche Muster und Zusammenhänge in diesen Daten stecken.
00;02;11 - 00;02;26
Und das erklärt vieles von dem, was wir in Unternehmen beobachten. Wer KI wie klassische IT behandelt – also erwartet, dass sie deterministisch, vorhersehbar und immer gleich antwortet – wird enttäuscht sein. Und wer nicht versteht, warum das so ist, wird die falschen Schlüsse ziehen.
00;02;26 - 00;03;02
Ich finde, das lässt sich das anhand folgender Analogie sehr hilfreich erklären: Stell dir vor, du willst einem Roboter beibringen, wie er über die Straße geht. Der klassische IT-Ansatz: Du schreibst Regeln. „Wenn die Ampel grün ist und kein Auto näher als hundert Meter, dann geh los." So weit, so vernünftig. Aber dann kommt der nächste Fall: Was, wenn die Ampel kaputt ist? Was, wenn ein Fahrradfahrer auf dem Gehweg kommt? Was, wenn es regnet und die Sicht schlechter ist? Für jede neue Situation brauchst du eine neue Regel. Und kein Mensch, kein Team der Welt, kann alle Situationen des realen Straßenverkehrs in Wenn-Dann-Regeln fassen.
00;03;02 - 00;03;19
Der KI-Ansatz löst das anders. Statt Regeln zu schreiben, zeigt man dem System Millionen von Beispielen. Tausende Videos von Straßenüberquerungen. Und die Maschine lernt selbst, welche Muster relevant sind. Wann es sicher ist zu gehen. Wann nicht. Das System findet die Regeln – du gibst nur die Daten und das Ziel vor.
00;03;20 - 00;03;45
Und genau das ist der Paradigmenwechsel. Weg von „ich schreibe vor, wie die Maschine denkt" – hin zu „ich zeige der Maschine, was ich will, und sie lernt, wie sie dorthin kommt." Das bringt auch etwas mit sich, das oft unterschätzt wird: Ungewissheit! Ok, KI funktioniert also anders als traditionelle IT. Dann lass uns mal erklären was KI bzw. LLMs eigentlich sind. Was steckt wirklich drin?
00;03;47 - 00;04;04
Starten wir mit der Technologie, die hinter ChatGPT, Copilot, Claude und all den anderen Tools steckt, mit denen wir gerade täglich arbeiten: die sogenannten Large Language Models – kurz LLMs. Was sind die im Kern? Die ehrlichste, einfachste Antwort lautet: extrem leistungsfähiges Autocomplete.
00;04;05 - 00;04;30
Dazu haben wir unsere inhouse Developerin Darya Shitova gefragt. Die KI ist eigentlich ein Überbegriff – den hören wir jetzt oft, aber ein Teil von KI ist Machine Learning und ein Teil von Machine Learning sind Large Language Models, also LLMs… ChatGPT, Copilot, Claude und so weiter. Und ganz oft nutzen Leute jetzt den Begriff KI statt eigentlich LLMs, Large Language Models.
00;04;32 - 00;04;57
Und das macht bei uns schon den Eindruck, als könnte die KI selbst denken. LLMs wurden mit gigantischen Mengen Text trainiert – im Wesentlichen einem großen Teil des Internets, Bücher, wissenschaftlichen Artikel, Code, Foren, Nachrichten. Und aus all diesem Text haben sie eines gelernt: Welches Wort folgt mit welcher Wahrscheinlichkeit auf welches andere? Man könnte sagen: Sie haben die Grammatik der menschlichen Sprache nicht erklärt bekommen – sie haben sie aus Billionen von Beispielen herausdestilliert.
00;04;58 - 00;05;23
Und das Ergebnis ist verblüffend. Weil Sprache nicht nur Syntax ist, sondern Bedeutung. Und Bedeutung entsteht aus Beziehungen bzw. Kontext. Das Wort „Bank" bedeutet etwas anderes, wenn davor „Sitzen auf der"-Bank steht, als wenn davor „Konto bei der"-Bank steht. Und diese kontextuellen Beziehungen – die hat das Modell gelernt. Nicht durch Definitionen, sondern durch das Beobachten von Millionen von Verwendungen.
00;05;23 - 00;05;59
Es hat also gelernt, wie Menschen kommunizieren. Das ist auch der Grund, warum diese Systeme sich manchmal so anfühlen, als würden sie dich verstehen. Aber sie verstehen nicht – nicht in dem Sinne, wie ein Mensch dich versteht. Sie berechnen. Sie schätzen Wahrscheinlichkeiten. Aber weil Sprache das Medium ist, in dem wir denken und kommunizieren, erzeugt das den Eindruck von Verständnis. Es ist keine Simulation des Denkens. Es ist eine Simulation der Sprache des Denkens. Und dieser Unterschied ist wichtig. Nicht um die Technologie kleiner zu machen. Sondern um sie richtig einzusetzen. Dazu muss man wahrscheinlich wissen, dass KI manchmal lügt.
00;06;01 - 00;06;34
Das findet auch Victoria Langejürgen, Expertin für AI Governance und InfoSec bei EFS.
Also eine KI kann formell korrekt handeln, aber der Output kann trotzdem falsch sein – im jeweiligen Kontext. Und genau da muss ich festlegen können, wer am Ende verantwortlich ist. Ist es die KI? Ist es der Input? Sind es die Daten, die ich geliefert habe? Wo liegt die Verantwortlichkeit? Und das hat die Auswirkung, dass es komplexer ist. Ich muss das in meinem Unternehmen, in der AI Governance festlegen – wie das Ganze aussehen soll und wer die Verantwortung trägt.
00;06;37 - 00;06;56
Das haben viele KI-Nutzerinnen und -Nutzer wahrscheinlich schon erlebt – können es aber nicht immer einordnen. Halluzinationen. KI erfindet Dinge. Nicht weil sie zu kreativ ist, sondern weil sie mit Wahrscheinlichkeiten arbeitet, das heißt manchmal trifft eine Wahrscheinlichkeit halt einfach nicht zu. Halluzinationen haben also eine strukturelle Ursache.
00;06;56 - 00;07;18
Erinnert euch an das Autocomplete-Prinzip. Das Modell sagt immer das wahrscheinlichste nächste Wort voraus. Aber manchmal – gerade bei Fakten, bei Zahlen oder bei sehr spezifischen Details – gibt es keine klare Mehrheit in den Trainingsdaten. Und dann wählt das Modell trotzdem das wahrscheinlichste Wort…. Auch wenn es falsch ist. Das Blöde daran ist: Es klingt dabei genauso überzeugend wie bei richtigen Antworten.
00;07;18 - 00;08;00
Und das ist wirklich eine Gefahr, auf die jede und jeder von uns achten muss. Damit gemeint ist nicht grundsätzlich, dass KI Fehler macht. Die könnten einem ja noch gut auffallen. Die Gefahr ist, dass plausibel und professionell klingende Unwahrheiten weniger kritisch geprüft werden. Wenn ein System antwortet wie eine Expertin oder ein Experte – in vollständigen Sätzen, mit Struktur, mit scheinbarer Sicherheit – neigen Menschen dazu, die Antwort zu akzeptieren. Gerade dann, wenn sie selbst kein tiefes Fachwissen in diesem Bereich haben. Seitdem ich extra auf diese Schwachstelle achte, fällt mir auf in welcher Häufigkeit KIs täuschen können bzw. halluzinieren. Daher ein gut gemeinter Rat an unsere HörerInnen: seid kritisch mit euren KI-Ergebnissen! Prüft die Quellen und ob richtig zitiert worden ist, …
00;08;01 - 00;08;10
Wir haben das in Folge 1 auch bereits angesprochen: grundsätzlich multipliziert KI Kompetenz. Aber sie kann auch Inkompetenz professionalisieren.
00;08;11 - 00;09;10
Und dann gibt es noch einen weiteren Aspekt, den wir nicht verschweigen sollten. KI versteht keine Kausalität. Sie erkennt Muster. Aber sie weiß nicht, warum A zu B führt – sie weiß nur, dass A und B oft zusammen vorkommen. Hier gilt mein Lieblingssatz in Diskussionen (mit Menschen, die starke Meinungen haben): Korrelation ist nicht Kausalität. Das ist ein Grundsatz der Wissenschaft. Und er gilt für KI ganz besonders. Ein Modell, das aus Daten gelernt hat, dass Störche und Geburtenraten in manchen Regionen korrelieren, würde – wenn man es ließe – schlussfolgern, dass Störche Babys bringen. Das ist natürlich ein absurdes Beispiel - als Erwachsene wissen wir im Normalfall wo Babies wirklich herkommen. Aber es hilft uns auf etwas zu achten, das in subtileren Formen täglich in KI-Systemen passiert, die unbeaufsichtigt mit Entscheidungsaufgaben betraut werden. Die kritische Kontrollfrage, die wir uns fragen können ist: kann das denn wirklich sein? Gibt mir die KI hier eine plausible Antwort?
00;09;11 - 00;09;35
Deshalb lass uns über das reden, wofür KIs – speziell LLMs – wirklich außergewöhnlich stark sind. Denn die Liste ist lang. Sie kann: in großen Dokumentmengen Suchen und Finden. Texten, Zusammenfassen, Übersetzen, Umformulieren. Texte analysieren – Verträge, Angebote, Protokolle. Content-erstellen. Unterstützung bei Code und Logik. Und ganz generell kann sie Wissensarbeit, die sprachbasiert ist.
00;09;36 - 00;10;03
Und das trifft den Kern vieler white-collar-Tätigkeiten. Denken wir zB. an Vertragsanalyse. Hunderte Seiten Lieferantenverträge auf riskante Klauseln prüfen – das ist eine Aufgabe, die KI in Minuten erledigt, für die ein Mensch Stunden brauchen würde. Denken wir an Compliance-Berichte. An die Zusammenfassung von Meetings. An die erste Analyse von Ausschreibungsunterlagen. An die Vorbereitung von Kundenpräsentationen. Das sind keine Randaufgaben. Das ist ein erheblicher Teil des Arbeitsalltags von Wissensarbeiter:innen.
00;10;04 - 00;10;31
Und dann gibt es die Bereiche, in denen KI an strukturelle Grenzen stößt, nämlich in der physischen Welt. Ohne Sensordaten kann KI nichts sehen, nichts messen, nichts anfassen. Harte, garantierte Wahrheiten – also wenn eine Antwort zu hundert Prozent korrekt sein muss, ohne jeden Spielraum, dann ist KI allein das falsche Werkzeug. Bei rein deterministischer Logik – wenn das Ergebnis immer exakt dasselbe sein muss, unabhängig vom Kontext, bleibt die klassische IT die bessere Wahl.
00;10;32 - 00;10;42
Der entscheidende Punkt: KI ist kein Ersatz für klassische IT. Sie ist eine Ergänzung. Für andere Aufgaben. Mit anderen Stärken. Und mit anderen Risiken. Wer das verwechselt, baut auf dem falschen Fundament.
00;10;43 - 00;11;17
Dazu auch Victoria Langejürgen, Expertin bei EFS für AI Governance und InfoSec. Ja, der Hauptunterschied zwischen klassischer IT und KI liegt darin, dass bei klassischer IT habe ich klare Prozesse definiert. Ich weiß, was ich eingebe und was dann auch rauskommt – und dazwischen sind Prozesse, die Verantwortungsstrukturen fix. Bei KI sieht das anders aus. Ich habe Verantwortung, aber ich habe auch ein KI-Modell, wo ich nicht voraussehen kann, wie das Ganze reagiert, wie der ganze Output aussehen wird. Dafür muss ich meine Governance anpassen. Ich muss wissen, wie die Entscheidungsfindung funktioniert, damit ich meine Risiken minimieren kann.
00;11;19 - 00;11;32
KI in Unternehmen macht Sinn zu implementieren, wenn ich komplexe Prozesse und Strukturen habe, die ich vereinfachen möchte. Wenn ich klare Prozesse habe, wo es von einfachen Ausgangssituationen zu einem Output geht, dann kann man auch ohne KI arbeiten.
00;11;34 - 00;12;06
Unsere IT-Security und AI Governance Expertin Victoria Langejürgen hat gerade etwas angesprochen, das wir in der Praxis immer wieder sehen: KI funktioniert – aber nicht überall. Und das ist keine Schwäche der Technologie. Das ist ihre Natur. Denn KI ist kein Allzweckwerkzeug. Sie ist extrem stark bei bestimmten Arten von Problemen. Und ziemlich schlecht bei anderen. Die entscheidende Frage ist also nicht: „Können wir hier KI einsetzen?" Sondern: „Was für ein Problem haben wir eigentlich – und ist das eine Aufgabe, bei der KI ihre Stärken ausspielen kann?"
00;12;07 - 00;12;43
Und wenn man diese Frage konsequent stellt, erkennt man schnell: Es gibt im Unternehmensumfeld immer wieder dieselben Problemklassen, für die KI besonders geeignet ist. Die erste: Informationsüberflutung. Tausende Seiten Verträge. Jahre an E-Mail-Verläufen. Unstrukturierte Berichte, Protokolle, PDFs. Freitextfelder in Systemen, die niemand mehr systematisch liest. Die Kernkompetenz von KI ist Mustererkennung in genau diesem Maßstab. Sie erkennt wiederkehrende Strukturen, Abweichungen, Ähnlichkeiten – und Risiken, die nicht explizit markiert sind. Nicht weil sie versteht, sondern weil sie in Sekunden das scannt, wofür ein Mensch viele Stunden oder Tage brauchen würde.
00;12;44 - 00;13;10
Die zweite Problemklasse: Hoher manueller Aufwand in sprachbasierter Arbeit. Dazu gehört alles, was heute mühsam gelesen, geschrieben, zusammengefasst oder übersetzt wird. KI kann Sprache zusammenfassen, verdichten, umformulieren, übersetzen, strukturieren – und zwar kontextsensitiv, nicht nur Wort für Wort. Das ist auch der Grund, warum KI in der Wissensarbeit so disruptiv wirkt. Weil plötzlich Aufgaben automatisierbar werden, die wir lange für „zu menschlich" gehalten haben.
00;13;11 - 00;13;35
Die dritte Problemklasse – und das ist vielleicht die wichtigste für Führungskräfte: Komplexe Entscheidungen mit vielen Variablen. KI ist hervorragend darin, Entscheidungen vorzubereiten. Sie kann Optionen sammeln, Argumente strukturieren, Pro-Contra-Listen erstellen, Szenarien durchspielen. Aber sie kann keine Entscheidungen treffen. Sie kennt keine Verantwortung. Sie versteht keine Konsequenzen. Der Mensch bleibt am Steuer – KI sitzt auf dem Beifahrersitz mit dem Kartenmaterial.
00;13;36 - 00;13;59
Und die vierte Problemklasse: Iteratives Arbeiten, bei dem Geschwindigkeit vor Perfektion steht. Erste Entwürfe. Zwischenstände. Ideen. Hypothesen. KI ist dort stark, wo ein Ergebnis gut genug sein darf – und anschließend von Menschen geprüft oder verfeinert wird. Wenn hingegen absolute Korrektheit, rechtliche Verbindlichkeit oder hundertprozentige Reproduzierbarkeit erforderlich ist – dann stößt KI an strukturelle Grenzen.
00;14;00 - 00;14;23
Wenn man das zusammenfasst, ergibt sich ein klares Bild. KI ist kein Ersatz für Fachwissen. Kein Ersatz für Verantwortung. Kein Ersatz für klassische IT. Aber sie ist ein massiver Verstärker für Analyse, Sprache, Struktur und Geschwindigkeit. Und genau deshalb ist die nächste Frage so entscheidend: Wie übersetze ich das in konkrete Anwendungsfälle – ohne Chaos zu erzeugen?
00;14;25 - 00;14;53
Hier erleben wir in Unternehmen immer wieder dieselben Endlosdiskussion. Die einen meinen ein richtiges AI-Tool sollte einfach alles können. Da sind die Erwartungen zu hoch. Die anderen basteln mit ChatGPT und ein bisschen Automatisierung. Damit kommt man aber oft auch nicht so weit. Alles in allem führt das zu: Verwirrung, Frustration, und Ressourcenverschwendung. Das Problem ist meistens nicht, dass der Use Case schlecht ist. Das Problem ist, dass niemand gefragt hat: Welche Art von Lösung brauchen wir hier eigentlich?
00;14;54 - 00;15;23
Dazu haben wir unsere inhouse IT Delevoperin Darya Shitova gefragt.
Wenn ein Unternehmen gerne ein KI-Tool implementieren wollte, würde ich zuerst fragen, was das Ziel ist, welche Aufgabe automatisch mit KI ersetzt werden muss, zweitens je mehr Daten je mehr Beispiele man kriegt - im Voraus - desto besser und drittens auch Datenschutz, wo wir überlegen müssen was für uns in diesem Bereich wichtig wäre.
00;15;26 - 00;16;03
Deshalb haben wir als Orientierungshilfe ein einfaches Drei-Stufen-Modell zur Hand. Stufe 1. Personal AI. Das Schweizer Taschenmesser. Sofort zur Hand, unglaublich vielseitig für alltägliche, kleinere Herausforderungen. Das ist die Welt von ChatGPT, Copilot oder Claude – genutzt für den schnellen Textentwurf, Recherche, Vorbereitung auf ein Meeting. Die Stärken: Geschwindigkeit. Die sofortige Einsatzbereitschaft, nachdem es ausgerollt wurde. Die Schwächen: Es sind individuelle Lösungen, die nicht reproduzierbar oder skalierbar und infolgedessen auch nicht auditierbar sind. Ideal für persönliche Produktivitäts-Hacks – aber nicht für sensible Unternehmensdaten und -prozesse.
00;16;04 - 00;17;25
Und dann kommen wir schon zu Stufe 2. Tailored AI. Die konfigurierbare Werkbank. Hier bauen technisch versierte Fachexpert:innen, also Leute aus dem Fachbereich und keine ITler:innen im klassischen Sinne - sogenannten Power User – mit Low-Code-Tools eigene kleine Lösungen – Agenten, kleine Workflows oder Automatisierungen - die eben für sich funktionieren und vielleicht noch paar mehr User:innen. Zum Beispiel ein maßgeschneiderter Assistent für die Vertragsanalyse. Eine automatisierte Zusammenfassung von Lieferantenberichten. Ein Q&A-Tool auf Basis interner Dokumente. Die Stärken: Das ist schnell, passgenau, ohne großen IT-Aufwand, im Gegenteil, die IT freut sich wenn man sie damit nicht belastet. Aber natürlich muss die Infrastruktur dafür zur Verfügung stehen und auch die Skills müssen verbreitet sein. Also diese Power User:innen müssen sich damit beschäftigen, dass sie auch die Capabilities dafür haben. Die Schwächen: Diese Lösungen hängen oft an einer Person. Das sind meistens semi technical people. Wenn diese das Unternehmen verlässt, ist das Wissen weg. Schwer zu warten, schwer zu skalieren. Keine Dauerlösung – aber im Vergleich zu einer richtigen IT-Lösung ist es weniger aufwändig und oft der richtige erste Schritt.
00;17;26 - 00;18;33
Stufe 3. Enterprise AI. Die vollautomatisierte Fabrikhalle. Hier stellt sich die Frage: Wann brauche ich überhaupt diese Königsklasse? Die Antwort ist eigentlich einfach: Immer dann, wenn ein Prozess kritisch ist. Und kritisch bedeutet konkret: Der Prozess muss stabil und reproduzierbar laufen – weil andere wichtige Prozesse darauf aufbauen. Er muss von vielen Menschen genutzt werden können – nicht nur von ein paar Expertinnen oder Experten, die wissen, wie man ihn bedient. Und er muss auditierbar sein – also vollständig dokumentiert, nachvollziehbar, überprüfbar. Man könnte auch sagen: Anforderungen und Lösung bedingen sich gegenseitig. Wenn ein Prozess diese Kriterien erfüllt, braucht er zwingend eine dedizierte IT-Lösung. Und umgekehrt: Wer eine Level-3-Lösung baut, verpflichtet sich damit zu genau diesen Standards. In der Praxis reden wir hier zum Beispiel von Systemen, die tausende Verträge automatisiert analysieren und direkt in bestehende ERP-Workflows einbinden. Oder von KI-gestützter Risikoanalyse, die mit dem Compliance-System verbunden ist. Lösungen, die nicht an einzelnen Personen hängen dürfen – weil das Unternehmen von ihnen abhängt. Der Preis dafür sind Zeit und Ressourcen. Aber für die richtigen Anwendungsfälle ist es der einzig nachhaltige Weg.
00;18;35 - 00;19;33
Zusammenfassend heißt das, dass jeder Use Case kategorisiert werden sollte, damit man ihn richtig weiterverarbeiten kann, sprich kanalisieren kann. Und jetzt das Entscheidende: Und Das ist gar nicht so einfach, denn die Grenzen sind manchmal fließend, und die Capabilities ändern sich. Was gestern noch Stufe 3 war, könnte rein technisch gesehen, heute schon auf Stufe 2 erledigt werden. Daher empfehlen wir drei einfache Fragen zu beantworten: Erstens: Wer nutzt das Tool oder System? Wer ist betroffen? Nur ich persönlich? Mein Team? Oder das ganze Unternehmen, vielleicht sogar Kunden?
00;19;03 - 00;19;32
Zweitens: Wie sensibel sind die beteiligten Daten? Sind das öffentlich zugänglich Informationen? Interne Unternehmensdaten? Oder streng vertrauliche Daten – Kundendaten, Finanzdaten, rechtlich relevante Dokumente? Drittens: Was passiert, wenn die KI einen Fehler macht? Ist das ärgerlich – oder ist das geschäftsschädigend, haftungsrelevant oder möglicherweise sogar strafbar? Und zusätzlich – darüber werden wir allerdings in einer der nächsten Episoden sprechen – wie ist der Use Case im Sinne der Risiko Klassen des EU AI Acts zu bewerten.
00;19;33 - 00;20;03
Genau! Je breiter der Nutzerkreis, je sensibler die Daten, je kritischer der Prozess – desto mehr bewegt man sich Richtung Stufe 3. Und umgekehrt: Wer einen besseren ersten Entwurf einer Präsentation erstellen will, braucht kein Enterprise-KI-Projekt. Das klingt logisch. Aber in der Praxis ist das gar nicht so leicht auseinander zu dividieren. Wir beobachten beide Extreme. Einmal, dass für jeden Use Case ein riesiges IT-Projekt gefordert wird. Und ein andermal, wo Einzelne mit Stufe-1-Tools an Prozesse herangegangen wird, die eigentlich Stufe 3 erfordern.
00;20;04 - 00;20;15
Der zweite Fehler ist tatsächlich der gefährlichere. Weil er oft unbewusst passiert. Weil die Tools so einfach zugänglich sind. Weil die Ergebnisse so professionell aussehen. Und weil niemand gefragt hat: Was passiert eigentlich, wenn das hier schiefgeht?
00;20;15 - 00;20;39
Die praktische Hausaufgabe für diese Woche ist deshalb sehr konkret: Nehmt einen Use Case aus eurem Arbeitsalltag. Stellt euch zunächst die Problemfrage: Geht es um Informationsüberflutung? Um manuellen Aufwand? Um Entscheidungsvorbereitung? Oder um iteratives Arbeiten unter Zeitdruck? Und stellt euch dann unsere drei Stufenfragen: Wer nutzt es? Wie sensibel sind die Daten? Was passiert, wenn etwas schiefgeht? Ihr werdet überrascht sein, wie schnell aus einem vagen KI-Potential ein konkreter, realistischer Ansatz wird.
00;20;39 - 00;21;14
Bevor wir zum Abschluss kommen, noch ein kurzer Blick nach vorne. Denn KI entwickelt sich gerade in eine Richtung, die unser Drei-Stufen-Modell nochmals verkompliziert: Hin zu dem, was man agentische KI nennt. Der Unterschied zum heutigen Chatbot: Statt einer einzigen Frage zu antworten, übernimmt ein KI-Agent ein Ziel – und plant selbst, wie er es erreicht. Man gibt nicht mehr eine Frage vor, sondern einen Auftrag. „Analysiere alle Lieferantenverträge der letzten drei Jahre und erstelle eine Risikoübersicht nach Kategorie." Der Agent entscheidet selbst, welche Datenquellen er anzapft, welche Teilschritte er durchführt, wie er Ergebnisse prüft.
00;21;16 - 00;21;45
Lassen wir dazu unsere Developerin Darya ein paar Worte sagen. KI-Agenten treffen die Entscheidungen selbst und machen selber, was sie ausgesucht haben. Sie nutzen auch reasoning und überlegen sich, was die beste Entscheidung wäre. Also in diesem Fall, der KI-Agent liest diene E-Mail durch, überlegt sich was richtig wäre, trifft die Entscheidung eine E-Mail zu schreiben und hat auch die Rechte die E-Mail zu schicken.
00;21;47 - 00;22;02
Die Entwicklungsrichtung ist klar: Von der Antwortmaschine zum autonomen Denk- und Handlungssystem. Und das macht das Thema Governance – über das wir in Episode 5 sprechen werden – nochmals dringlicher. Denn ein System, das nicht nur antwortet, sondern handelt, braucht klare Leitplanken.
00;22;02 - 00;22;19
Was nehmen wir also mit aus dieser Episode? KI ist nicht nur ein neues Feature in einer bestehenden Systemlandschaft. Sie ist nicht nur verbesserte Suchmaschine. Sie definitiv nicht nur kein weiteres Software-Update. Sie ist eine grundlegende andere Art, Probleme zu lösen. Mit anderen Stärken, anderen Grenzen – und einer anderen Logik als wir aus der klassischen IT kennen.
00;22;20 - 00;22;32
Wer diese Unterschiede versteht, kann drei Fragen beantworten, die in jedem KI-Projekt am Anfang stehen sollten: Was für ein Problem habe ich? Welche Stufe brauche ich dafür? Und was passiert, wenn die KI hier einen Fehler macht?
00;22;33 - 00;22;52
In der nächsten Episode werden wir noch einen Schritt persönlicher. Wir reden über Menschen. Über Fähigkeiten, die gerade entstehen – und über solche, die ohne Aufmerksamkeit still verschwinden. Über eine Kompetenz, die in kaum einer Stellenbeschreibung steht – aber in den nächsten Jahren über Karrieren entscheiden wird. AI Literacy. Nicht als Buzzword. Sondern als die vielleicht wichtigste Investition, die ein Unternehmen gerade tätigen kann.
00;22;53 - 00;23;00
Schaltet wieder ein. Wir sind Irene Racher und Ralph Zlabinger. Danke an unsere Producerin Viktoria Dabrowska und Claude – und bis zur nächsten Folge.