
Next AI Talk with Sophie - Best Practices, AI-Trends and Innovations
Next AI Talk with Sophie - Best Practices, AI-Trends and Innovations
Tauche ein in die Welt der künstlichen Intelligenz mit "Next AI Talk with Sophie". In unserem Podcast erhältst du spannende Einblicke in die neuesten Entwicklungen und Innovationen im Bereich KI, generative KI und Chatbots. Wir diskutieren mit spannenden Persönlichkeiten aktuelle AI-Trends, teilen Best Practices und präsentieren praxisnahe Use Cases, die dir helfen, die Möglichkeiten von KI optimal zu nutzen. Ob du dich für die neuesten Forschungsergebnisse interessierst oder konkrete Anwendungen von AI-Technologien in der Praxis sehen möchtest – "Next AI Talk with Sophie" liefert dir wertvolle Informationen und inspirierende Geschichten aus der AI-Welt.
Höre und abonniere unseren Podcast, um keinen Trend und keine Innovation zu verpassen und bleib stets informiert über die faszinierende Welt der künstlichen Intelligenz!
*Diese Beschreibung wurde mit SwissGPT erstellet. Der Podcast wird von CreaLog Software-Entwicklung und Beratung GmbH und VIER.ai unterstützt.
Next AI Talk with Sophie - Best Practices, AI-Trends and Innovations
#132 Energieversorger zwischen Cloud-Lösungen und lokalen KI-Systemen
Input geben - Networking starten!
Der schmale Grat zwischen Innovation und Sicherheit - wie Energieversorger KI in kritischen Infrastrukturen einsetzen können, ohne Risiken einzugehen. Stefan Riesel von CreaLog gibt faszinierende Einblicke in eine Welt, die den meisten verborgen bleibt: die hochgesicherten Leitstellen der Energieversorger.
Während KI in vielen Unternehmensbereichen längst zum Standard gehört, stehen Betreiber kritischer Infrastrukturen vor besonderen Herausforderungen. Stefan erklärt den fundamentalen Unterschied zwischen regulärem Kundenservice und den streng abgeschirmten Leitstellenbereichen, die zur kritischen Infrastruktur zählen. Diese physisch gesicherten Umgebungen, oft hinter Stacheldraht versteckt, dürfen keine Verbindungen zu externen Cloud-Diensten herstellen – was den Einsatz moderner generativer KI erheblich erschwert.
Besonders spannend wird es bei konkreten Anwendungsfällen: Wenn bei einem Stromausfall zahlreiche Kunden gleichzeitig die Störungshotline anrufen, kann intelligent eingesetzte Spracherkennung das begrenzte Leitstellenpersonal entlasten. Dabei müssen jedoch alternative Wege gefunden werden, um KI-Funktionen ohne Cloud-Anbindung zu realisieren – sei es durch Container-Technologien oder klassische On-Premise-Lösungen.
Der Podcast räumt mit dem Mythos auf, dass überall die neueste generative KI zum Einsatz kommen muss. Stattdessen zeigt Stefan, wie maßgeschneiderte Hybrid-Lösungen entwickelt werden können, die den spezifischen Anforderungen gerecht werden: lokale Systeme für hochsensible Bereiche, kombiniert mit Cloud-KI für weniger kritische Anwendungen. Ein faszinierender Einblick, der verdeutlicht, dass die Wahl der richtigen Technologie immer vom konkreten Problem abhängen sollte.
Hast du dich schon einmal gefragt, was passiert, wenn du bei einem Stromausfall die Hotline anrufst? Höre jetzt rein und erfahre, wie Technologie hinter den Kulissen arbeitet, um unsere Versorgung zu sichern!
Vielen Dank an unsere Starken Podcast-Partner CreaLog Software-Entwicklung und Beratung GmbH und VIER. Und als Medienpartner mit dabei CMM360.
Ihr wollt mehr Networking? Dann kommt in meine WhatsApp Gruppe zu aktuellen Trends und News rund um AI und Chatbots: https://chat.whatsapp.com/BilAa1OLfELKJwuyodKgkX
Weitere Links:
Sophie auf WhatsApp kontaktieren
Sophie per Mail anfragen
Sophies Webseite
Und noch mehr zu AI und Bots könnt ihr hier lesen.
Herzlich willkommen zur nächsten Folge von Sophie's Next AI Talk, der Podcast, den ich immer noch menschlich aufnehme, zwar mit AI, vielleicht am Ende ein bisschen was bearbeite, aber die Aufnahme erfolgt heute zwischen Stefan von CreaLog und mir. Und bevor wir überhaupt starten, danke an meine Partner. Da gleich nochmal CreaLog, die seit Anfang des Jahres stolzer und gern gesehener Podcast-Partner sind, dann vier, die bereits letztes Jahr schon dazu gestoßen sind, und CMM360. Und ein großes Dank an dieser Stelle, die nicht da ist, ist die Annette. Die hat mich nämlich damals mit CreaLog verknüpft und mir auch empfohlen Sophie, du musst unbedingt mit Stefan reden, der hat was Interessantes zu sagen, wenn es um das Thema KI und kritische Infrastruktur geht. Jetzt fragt ihr euch vielleicht ein bisschen was soll das? Das werdet ihr im Laufe der Aufnahme erfahren. Auf jeden Fall sage ich schon mal so viel Wir sind das ja sehr stark von Finanzdienstleistern, vielleicht auch von Behörden gewöhnt, dass Datenschutz ein Thema ist. Stefan wird uns jetzt aber gleich auch sagen, warum da auch das Thema kritische Infrastruktur, zum Beispiel Energieversorger spannend sind. Aber vorher, stefan, vielleicht kannst du einfach mal sagen, welche.
Speaker 2:Rolle du bei CREALOG hast und was du eigentlich den ganzen Tag so machst? Gerne mache ich gerne, sophie. Ja, vielen Dank auch, dass du die Zeit hast und wir uns ein bisschen in deinem Podcast austauschen können. Ja, mein Name ist Stefan Riesel. Ich bin jetzt seit oh Gott, ich will es gar nicht sagen seit Anfang 2000 bei CREALOG im Vertrieb und somit auch im Consulting eigentlich tätig, weil das geht bei uns ein bisschen Hand in Hand. Das Thema AI kommt natürlich immer mehr mit in die Projekte rein. Ich meine, wenn man so ein Urgestein ist in der Branche, dann ist klar, früher gab es das, was man heute unter AI und KI versteht, halt nicht, musste man sich mit der Technik, die es halt am Markt gab, begnügen, also diese ganz einfachen Spracherkennungen, was man halt so kennt, oder ganz gruselig noch die Dinge, die mit Touchton funktioniert haben, um rein im Voice-Bereich zu bleiben. Also, sowas kenne ich halt auch noch, weil das war halt das, was es im Prinzip früher gab. Ja, und um die Kurve zu heute zu kriegen wir haben uns ja auf unserer eigenen Veranstaltung gesehen, auf der du im Herbst bei uns in München warst, auf dem CREALOG Summit, und dann haben wir ja auf der CCW in Berlin kurz miteinander gesprochen, wo ja auch die Idee für den heutigen Podcast im Prinzip geboren wurde du mit Annette gemeinsam dass wir halt auch das Thema Energieversorger vielleicht mal einen Podcast dazu machen, weil dort stellt sich es halt wirklich ein bisschen anders dar. Vielleicht erzähle ich mal, was wir im Prinzip heute bei den Kunden so sehen. Über KI muss ich ja nicht mehr groß, glaube ich, plaudern, das wissen alle. Deine Podcast-Hörer wissen genau, was KI, was AI ist, wo es eventuell auch im privaten Umfeld eine Rolle spielt. Da hat jeder, denke ich mal, schon Erfahrung mitgemacht. Bei den Energieversorgern, evus, ist es halt so, dass die damit auch Netzplanung machen wollen. Das ist jetzt gar kein Thema, was uns betrifft, aber das hört vielleicht der eine oder andere mal, wenn ich hier aus dem Fenster bei mir schaue. Ich selbst habe eine Photovoltaikanlage auf dem Dach. Das heißt, wir haben ganz viel Solarstrom heute, weil überall die Sonne scheint in Deutschland. Das heißt, die Netzbetreiber haben ein richtiges Thema, den Strom zu verteilen.
Speaker 2:Das hat jetzt nichts mit Grelok zu tun, aber auch dafür wird halt KI eingesetzt, um das halt ich sag mal, vorher schon zu ahnen, zu planen aufgrund von prognostizierten Sonnenscheindauern, und dann weißt du auch, welcher Tag ist, ist es Wochenende, habe ich mehr Stromverbrauch etc. Und so können die halt, sagen wir schon vorher planen. Wie können sie die Energie, die sie eingespeist haben, kommen ja vollautomatisch weiterverkaufen oder speichern, zwischenspeichern etc. Auch dafür wird KI eingesetzt. Und wenn wir jetzt ein bisschen in unseren Kanal gehen, also in das Thema Voice oder ich sage mal auch Chat, also Bot-Thema, verarbeitung von oder Bearbeitung von Kundenanliegen, das ist ja das, womit sich der CREALOG beschäftigt, seit Anbeginn an.
Speaker 2:Dort haben wir bei den Energieversorgern eigentlich diese zwei Bereiche, nämlich den klassischen Kundenservice, der ein bisschen unkritischer ist, also eigentlich Kundenservice, wie grob bei jedem anderen Unternehmen auch darstellt, und wir haben den Bereich kritische Infrastruktur mit den Leitstellen, und die Leitstelle sind halt sehr häufig in geschützten Bereichen. Das sind auch Bereiche, die noch eigene Infrastruktur betreiben. Also im Kundenservice hast du es halt häufig, dass die schon auf Cloud-basierte Technik setzen, sei es Kontaktcenter aus der Cloud, also Software as a Service nutzen. Das ist im Leitstellenbereich ein bisschen anders. Im Bereich der kritischen Infrastruktur, wo das dazugehört, brauchen die eine sehr, sehr hohe Verfügbarkeit. Das ist häufig sehr abgeschottet, sodass du dort gar nicht so ohne weiteres auf Cloud-basierte Lösungen setzen kannst und darfst.
Speaker 1:Ganz kurze Frage. Ja, Genau ist die Leitstelle, können wir das für alle?
Speaker 2:Gerne ja pumpen nochmal.
Speaker 1:Kurz, Du hast recht danke.
Speaker 2:Man ist so ein bisschen gefangen in seinen eigenen und dennoch denke ich mir.
Speaker 2:ich weiß nicht, ob jeder verstanden hat- Ja, ja, nee ist gut, hast du vollkommen recht. Leitstelle sind eigentlich die Bereiche, wo man das Netz überwacht, wo man die ganzen Netzknoten sieht, die so ein Energieversorger hat, oder von mir aus auch ein Stadtwerk. Auch ein größeres Stadtwerk hat so eine eigene Leitstelle, nenne ich es mal. Es gibt aber auch Netzleitstellen. Das sind von den größeren übergelagerten Energieversorgern wie was haben wir in Deutschland? ich sage mal eine RWE, eine Vattenfall, eine EON? Die haben halt sogenannte Netzleitstellen beziehungsweise deren Netzbetreiber, also die wirklich das Netz haben. Wir haben ja dort ein Unbundling beim Energieversorger. Das heißt, die muss der Vertrieb und Netz trennen. Deswegen hat eine RWE selbst kein eigenes Netz, sondern es muss die an den Markt bringen. Die heißen also anders die Töchter. Im EON-Bereich gibt es dann halt ein Bayernwerk, es gibt ein Schleswig-Holstein-Netz und so weiter, wie sie alle heißen, und die betreiben halt diese Überwachung von den Netzen.
Speaker 2:Das sind diese sogenannten Leitstellen. Die sind auch entsprechend physisch abgesichert. Da kommst du so ohne weiteres gar nicht rein, häufig mit Stacheldraht, und also die sind schon auch schwierig durchaus zu finden, die sind auch nicht unbedingt sonderlich gut ausgeschrieben, wenn du die suchen möchtest, also wenn du da wirklich hinfahren willst. Das sind eigentlich diese Leitstellen, die ich meine, und die betreiben halt häufig noch wirklich physische Systeme, also sei es eine Telefonanlage, sei es eigene Server. Die haben dann auch häufig, wenn sie von uns Lösungen haben, noch serverbasierte Systeme, die bei denen im eigenen Rechenzentrum in der Leitstelle im gesicherten Umfeld stehen, und dort ist es dann natürlich nicht so trivial zu sagen oh, ich nutze jetzt mal KI-Technik für zum Beispiel ganz klassisch eine Erkennung von der Postleitzahl oder sowas.
Speaker 2:Das ist nämlich ein Prozess, den wir ganz häufig bei denen sehen, dass also in den Leitstellen rufst du als Kunde eigentlich auch an, oder auch ich, wenn bei dir der Strom ausfällt. Um es mal ganz flapsig zu sagen Also wenn du keine Energie mehr hast, rufst du eine bestimmte Rufnummer an, die landet halt häufig in diesen sogenannten Leitstellen. Keine Energie mehr hast, rufst du eine bestimmte Rufnummer an, die landet halt häufig in diesen sogenannten Leitstellen. Dort sitzen aber halt nur zwei, drei Leutchen, die sich eigentlich um den Betrieb vom Netz kümmern sollen, damit alles funktioniert. Das heißt, die haben auch nicht die Manpower, um alle Anrufe entgegenzunehmen.
Speaker 2:Logisch, wenn der Strom ausfällt oder eine andere Versorgungsart, rufen da viele Menschen an eine Störung vorliegt. Im besten Falle, wenn du es intelligent machst, fragst du noch von woher kommst du eigentlich? Also, sag mir doch mal deine Postzahl, wo du gestört bist, dann können wir halt nachgucken. Ist uns da schon eine Störung bekannt? Gucken noch in deren Leitstellensystem nach. Psi ist da den. Ich sag mal, die sich damit ein bisschen besser auskennen, ist einer der Hersteller von solchen Leitstellensystemen im Hintergrund, können wir da halt nachschauen.
Speaker 2:Ist doch eine Störung bekannt, wissen wir die schon? Und dann kannst du dem Anrufer halt sagen hey, pass auf, wir wissen schon Bescheid. Vielleicht kannst du ihm sogar sagen, bis wann die Störung gehoben ist, und dann hoffst du mal, dass der aufliegt, dass der sozusagen nicht mehr durchgestellt werden muss. Also, das ist so ein bisschen Informationlastabwehr, und das wird also sehr häufig eingesetzt und ist halt ein Thema, wo du klar auch auf KI setzen kannst, also weil es gibt ja diese klassischen Spracherkenner, die du von Prem installierst. Wie das früher war, gibt es ja gar nicht mehr so viele Hersteller.
Speaker 2:Nurens hat das aufgegeben, beziehungsweise die wurden ja von Microsoft übernommen, und das ist endlich, dass du diese Algorithmen vor Ort installieren kannst auf den Maschinen, und dort halt von dort aus im geschützten Bereich in die Cloud zu gehen, ist schwierig für die, das dürfen die eigentlich nicht. Ja, und da musst du halt andere Wege finden. Es gibt auch bei Microsoft aus der Azure Cloud, beziehungsweise bei Azure kannst du halt auch sogenannte Container bilden. Das heißt, du kannst die Engines oder die KI, die AI vor Ort laufen lassen. In Connected oder Disconnected Containern brauchst du dann aber natürlich dafür Rechenleistung wieder und und und. Das ist also alles mit einem recht großen Aufwand verbunden. Es stellt sich halt dann doch anders dar, als man das im klassischen Kundenservice kennt, oder ich sage mal, in einem Umfeld, wo man sagt na gut, wenn ich die DSGVO datenschutzrechtlich erfülle, ist das für mich fein, dann kann ich damit arbeiten, aber als Unternehmen, das ist halt in diesen kritischen Umfeldern ein bisschen anders und schwieriger.
Speaker 1:Aber dafür haben wir Lösungen. Genau jetzt kommen wir auf die Lösung. Problem haben wir erkannt.
Speaker 2:Genau. Naja gut, die Lösung ist halt, du musst es entweder halt über einen sogenannten Container installieren. Also nutzen bedeutet, du nutzt aktuelle KI-Technologie, die du aber halt nicht aus der Cloud beziehst, sondern, weil du dort nicht Zugriff haben darfst, halt bei dir lokal installiert hast, brauchst halt dann wieder Server-Entsprechende und entsprechend Rechenleistung, Und das ist ja nicht zu knapp, wie wir wissen, KI. Du brauchst halt dann wieder Server-Entsprechende und entsprechend Rechenleistung, Und das ist ja nicht zu knapp, wie wir wissen. Ki braucht halt entsprechend viel Performance und Rechenleistung.
Speaker 2:Oder man muss dann halt dann doch auf althergebrachte Technik gehen und sagen na gut, wenn es mir von den Prozessen her reicht ich also nicht, ich sag mal einen Bot bauen will, der generative KI nutzt oder sowas, sondern einfach nur strukturiert für den Prozess völlig ausreichend das abarbeitet. Dann kannst du halt auch eine Alternative zum Althergebrachten-Winz nehmen. Da gibt es immer noch Anbieter, die das, wo du halt auch Spracherkennung, sag ich mal, in der alten Art und Weise vor Ort installieren kannst, also beim Kunden betreiben kannst, Das gibt es auch, Und das haben auch Öffentliche übrigens immer noch Auch die Öffentlichen haben das Problem, dass sie das nicht wollen, aber wie ich denke, müsste ich jetzt mal sagen, die haben das aktuell immer noch.
Speaker 1:Ja, ich glaube, aber die Zukunft ist schon die generative KI, oder?
Speaker 2:Ich bin da bei dir. Also, wenn man es richtig charmant machen will, bin ich da voll bei dir. Du musst halt aber immer die Rahmenbedingungen einfach sehen, und wir müssen uns halt einfinden, wenn ein Kunde sagt wir haben das auch letztens in einer Anfrage vom Kunden gehabt, wo er gesagt hat ich will, weil er das schon an einem Standort hat, ich möchte. Also jetzt sind wir nicht beim Energieversorger, sondern beim Öffentlichen, aber das spielt keine Rolle, es ist ähnlich ich will die Technik, die ich auch an dem anderen System habe, haben wir gesagt, die können wir dir gar nicht mehr verkaufen, weil es die einfach nicht mehr gibt. Wir würden empfehlen, nutze, was aus der Cloud. Da kam, zurück. Nö, wenn dir nur sowas kommt, dann kommen wir gar. Ich sag mal für das, dass er die Engine, die Software nutzen wollte, für ihn eine Lösung zu finden. Also bist du halt wieder da, dass du was on-prem installierst für ihn. Das ist dann halt so. Aber wir bieten halt im Prinzip alles an.
Speaker 1:Konntet ihr dann an dieser Stelle dennoch generative KI nutzen?
Speaker 2:Konntet ihr dann an dieser Stelle dennoch generative KI nutzen? Nee, das brauchen die dafür gar nicht. Die wollen echt nur ein einfaches Text-to-Speech-Modul haben oder einfache Spracherkennung. Dafür brauchst du dann halt leider. also brauchst du halt keine generative KI, So schön es wäre, aber dafür macht es einfach keinen Sinn einzusetzen. Das sind halt ganz einfache Dienste an der Stelle.
Speaker 1:Dann wäre an dieser Stelle doch noch die Lösung wir gehen nicht her und sagen, wir brauchen generative KI, sondern wir gehen her, wir haben ein Problem, wir wollen das Problem lösen. Womit können wir das lösen?
Speaker 2:So ist es.
Speaker 1:Im Bereich der hochsensiblen Daten noch versuchen, das ohne generative KI zu machen.
Speaker 2:Ja, wir müssen uns halt immer die Anforderungen vom Kunden angucken. Du kannst nicht alles mit Jenny Eier schlagen, das ist klar. Also, man muss das einfach sehen. Unsere Produkte oder unsere Lösung kann das ja alles. Das ist überhaupt kein Thema, Das kann diverses der LLMs einsetzen. Generative KI Du kannst auch auf diese einfachen KI-Dienste aus der Azure Cloud zugreifen. Das ist ja alles implementiert. Schnittstellen in Voice, in Chat, rein SMS, wobei wir davon eigentlich gar nicht mehr reden wollen, obwohl es Kunden noch nutzen. Rcs ist da eigentlich viel interessanter. Das haben wir, glaube ich, auf der CCW ja auch gezeigt, Also Rich Communication Services. Wir sagen immer SMS 2.0, weil es halt der eine oder andere dann doch noch nicht kennt. Das ist ja dieser Ablöser oder Zusammenschluss von SMS und MMS, was man mit dem RCS macht. Oder halt eine Alternative im Prinzip zu einer dritten Messenger-App wie einem Chat. Chat wollte ich schon sagen, einer WhatsApp im Prinzip anbietet, Ist ja ein betriebssystemgebundener Messenger, der keine Drittanbieter-App braucht. Sowas ist natürlich alles da. Aber wir können es halt nur anbieten, können sagen liebe Kunden, das kannst du alles damit machen. Wie sieht denn dein Prozess aus? Was willst du eigentlich erledigen mit dem System, Was soll es erschlagen in Anführungsstrichen Für was willst du es einsetzen? Und da sehen wir halt alle möglichen Anforderungen. Wir haben bei einem Energieversorger letztes Jahr ein Projekt gestartet auch der kommt aus der alten Technik, wo du halt noch die Systeme on-prem hat, wo du auf die Kundendaten natürlich Zugriff hast, Ist logisch, wenn das alles in seinem Umfeld installiert ist, in seinem Rechenzentrum, ist das für ihn alles sehr gut handelbar. Du hast kein Problem mit irgendwelchen Zugriffen von außen, was Datensicherheit angeht. Das ist alles in seinem Umfeld, kann er selbst regeln. Und dann kam er die Anforderung nee, wir wollen aber eigentlich intelligenter werden. Das ist auch ein Kundenservice-Projekt, also ist nicht in der kritischen Infrastruktur. Und das kritischen Infrastrukturen. Da war halt auch der Wunsch zu sagen nein, ich möchte jetzt auch Cloud-basierte Technik nutzen. Und das ist ein Projekt, wo wir sagen gut, er hat halt sein System wirklich bei sich stehen, Also das Portal, der Bot steht im Umfeld, beim Kunden. Aber wir nutzen halt Microsoft Azure, in dem Falle die KI-Tools von Microsoft Azure, um die Dienste dort laufen zu lassen. Und dort geht es erstmal darum, so einen One-Number-Service im Prinzip zu machen. Das heißt, du fährst halt 100, 200 verschiedene Service-Nummern oft möglichst wenige zusammen, begrüßt den Kunden und sagst erstmal hey, herzlich willkommen, wie kann ich dir helfen? was willst du eigentlich? Und was die besonders viel haben, ist derzeit.
Speaker 2:Photovoltaik spielt eine Rolle. Das ist, die haben halt sehr viele Anrufer von ihren Einspeisern, Und darum geht es, erstmal eine Einspeise-Hotline zu machen, die das intelligent abfragt, die halt auch sagt hey, wer bist du eigentlich? legitimier dich mal über diese typischen Wege, und dann wirst du, wenn es um Zählerschanzmeldungen geht, wirst du, wenn es um Zählerstandsmeldungen geht, wirst du in den Bot weitergeleitet, der das dann handelt, Und hast du andere Themen, kommst du halt einfach ins Cloud-basierte Kontaktcenter, Dann wirst du übergeben von uns in die Cloud. Also ich glaube, das ist sogar ein Vier-System, weil du vorhin Vier erwähnt hast, Und wir übergeben auch die Daten, die wir ermittelt haben, an Vier, Die, die wir ermittelt haben, an vier.
Speaker 2:Die reisen also mit dem Call mit, damit halt der Mitarbeiter, wo der Call dann aufpoppt, halt auch einen Screen-Pop kriegt und sieht aha, wer ist das eigentlich? Das ist der Stefan Riesel, der anruft, der hat schon das und das gemacht, und solche Geschichten. Das spielt ja natürlich immer eine große Rolle, und dann macht es halt auch richtig Sinn, weil nichts ist schlimmer aber das ist schon immer so als Systeme, die nicht gescheit integriert sind. Also das ist, was man da so immer wieder erlebt. Sagen Sie mir nochmal, wer Sie sind, Da schwillt mir sozusagen buchstäblich der Kamm, wenn ich vorher schon alles losgeworden bin.
Speaker 1:Das heißt, ich nehme jetzt mal mit vom Thema Energieversorger oder sagen wir mal, kritische Infrastruktur, sensible Daten. Ja, Erst mal überlegen was habe ich für ein Problem? Wie Ja Erstmal überlegen was habe ich für ein Problem, Wie kann ich dieses Problem lösen? Vielleicht brauche ich dafür noch gar nicht die erfolgreichste AI oder die fortschrittlichste, Was aber dann dennoch interessant ist ich kann auch da wieder eine On-Premise-Lösung mit einer Cloud-Lösung am Ende verknüpfen. Wenn ich zum Beispiel den Bereich Kundenservice abdecken möchte und da eben den AI-Bot haben möchte, kann ich das auch wieder kombinieren, und anbinden.
Speaker 2:Genau In dem Beispiel, das ich gerade erwähnt habe, ist das genau so geschehen. Korrekt, ja genau. Die Systeme laufen halt im Kundenumfeld auf virtuellen Maschinen. Natürlich Heutzutage ist das ja Standard, ist aber halt lokal angebunden an die ganze Infrastruktur ans Backend. Das ist halt alles, ich sage mal gesichert in der Kundenumgebung, und du hast halt nur in Anführungsstrichen die Nutzung der KI, also Azure KI Tools in dem Beispiel halt aus der Cloud Mit ganz normaler Tarifierung, dann über den Kundenvertrag. Da haben wir auch nichts mit zu tun. Das läuft dann einfach über den Kundenvertrag, und auch der Kunde hat mit Microsoft halt dort die Vereinbarung wegen Datenschutz geregelt, was ja sowieso die meisten haben. Wenn sie heute Teams nutzen, ist das ja eh schon da. Von daher ist der Weg da recht einfach eigentlich finde ich wenigstens.
Speaker 1:Zu den Microsoft-Tools Dankeschön. Ich fand es sehr interessant, wie du mal einmal weg von der generativen KI diskutiert hast und gesagt hast ja, wir müssen da eigentlich schauen, dass wir das Richtige nutzen. Ich danke dir für die Insights. Wir haben mal eine Branche abgedeckt. Die hatten wir sonst noch nicht so im Podcast, glaube ich, oder vielleicht einmal am Rande vor einigen Folgen. Insofern, stefan, vielen vielen Dank für deine Zeit, liebe CreaLog, liebe FIA, liebe CMM360, vielen, vielen Dank für eure Podcast Unterstützung im Insgesamten. Und dann würde ich sagen, ich bedanke mich bei dir, stefan, ich bedanke mich bei allen Zuhörern. Ich bin gespannt auf eure Inputs. Wenn ihr Wünsche habt für Themen, wünsche habt für weitere Folgen, immer gerne Und würde das allerletzte Wort an den Stefan abgeben und mich schon mal verabschieden.
Speaker 2:Ja, vielen Dank Sophie, auch von mir, Wenn Fragen sind, wenn ich irgendwie etwas umständlich unklar erklärt habe, gerne auf mich zukommen. Ihr findet mich ganz einfach bei LinkedIn, Stefan Riesel, oder bei Crierloch auf der Seite. Kommt gerne auf mich zu, sprecht uns an. Wir unterstützen euch gerne bei euren Anforderungen, Herausforderungen. Wir meistern sie gerne gemeinsam. Vielen Dank.
Speaker 1:Danke, euch Danke.