Next AI Talk with Sophie - Best Practices, AI-Trends and Innovations

#141 Die neue GPT-5 Ära: Revolution oder Hype?

Sophie Hundertmark Season 6 Episode 2

Input geben - Networking starten!

Die Landschaft der KI-Sprachmodelle verändert sich rasant. Mit dem Release von GPT-5 stellen sich viele die Frage: Lohnt sich der Wechsel oder ist es nur Hype? Gemeinsam mit Hansueli, Innovationsexperte bei Alpine AI, beleuchten wir die Realität hinter den neuesten Entwicklungen im Bereich künstlicher Intelligenz.

Wir erkunden, warum GPT-5 weniger einen technologischen Quantensprung darstellt, sondern vielmehr einen Fortschritt in Richtung Benutzerfreundlichkeit. Hansueli teilt seine Expertise darüber, wie unterschiedliche Modelle für verschiedene Aufgaben optimiert sind – von Geminis Stärken bei komplexen Planungen bis zu den Vorteilen von Anthropic-Modellen für Programmieraufgaben.

Besonders wertvoll sind seine Einblicke zur praktischen Modellbewertung: Statt abstrakte Benchmarks zu vergleichen, sollten wir uns fragen, welches Modell uns in unseren spezifischen Anwendungsfällen effizienter macht. Wir diskutieren die Bedeutung von Kontextfenstern, die Vorteile der Kombination verschiedener Modelle und warum menschliches Feedback in Iterationsprozessen unerlässlich bleibt.

Ein zentrales Thema unseres Gesprächs ist der Datenschutz. Während kommerzielle Anbieter Nutzerdaten zur Modellverbesserung sammeln – mit potenziellen Risiken für sensible Informationen – setzt Alpine AI mit SwissGPT auf Datenschutzkonformität. Wir erörtern praktische Strategien, wie Sie die Stärken verschiedener Systeme nutzen können, ohne Ihre Daten zu gefährden.

Die KI-Revolution wird unser Leben zunehmend und oft unmerklich durchdringen. Umso wichtiger ist es, die Möglichkeiten und Grenzen dieser Technologien zu verstehen. Tauchen Sie mit uns ein in diese faszinierende Welt der künstlichen Intelligenz und gewinnen Sie wertvolle Erkenntnisse für Ihren persönlichen und beruflichen Umgang mit KI-Sprachmodellen.

Support the show

Vielen Dank an unsere Starken Podcast-Partner:


Solunex:

Der Schwerpunkt von Solunex liegt in der Unterstützung unserer Kunden im effizienten und automatisierten Verarbeiten und erzeugen von Kundenkommunikation. Dabei decken wir sowohl die Eingangsseite ab (Input Management), wobei Automatisierung und Unterstützung der Kundenteams durch den gezielten Einsatz von AI im Vordergrund stehen. Auf der Ausgangsseite (Output Management), steht ebenfalls die Automatisierung im Fokus, sowie die Nutzung sämtlicher Kontaktkanäle zwischen Kunden und Endkunden (Omnichannel Management).

Vor über 35 Jahren gegründet, verfügt das Team von Solunex über langjährige Erfahrungen aus erfolgreichen Kundenprojekten, basierend auf hervorragender technischer Umsetzungskompetenz.

Solunex unterstützt die Kunden über den gesamten Lebenszyklus einer Lösung aktiv und zuverlässig. https://www.solunex.ch/


AlpineAI:

AlpineAI ist ein innovatives Schweizer KI-Unternehmen, das sich auf sichere und datenschutzkonforme KI-Lösungen für Unternehmen spezialisiert hat. Ihr Hauptprodukt, SwissGPT, ist eine Schweizer Version von ChatGPT, die höchste Standards beim Daten- und Geheimnisschutz gewährleistet, indem alle Informationen in Schweizer Rechenzentren verarbeitet werden. AlpineAI versteht sich als Innovationskatalysator für die KI-Transformation und arbeitet daran, Unternehmen durch massg...

Speaker 1:

Herzlich willkommen zu einer neuen Folge von Sophies Next AI Talk. Heute wird es brandaktuell, denn vor kurzem ist GPT-5 rausgekommen. Alle diskutieren drüber, es wird zum Teil sehr stark gehypt. Manche sind auch dennoch schon ein bisschen enttäuscht, und ich möchte mit der heutigen Podcast-Folge ein bisschen Licht in das Dunkel bringen. Was bedeuten eigentlich diese Sprachmodelle? Muss ich jetzt GPT-5 nehmen? Kann ich die anderen Modelle weiter nutzen? Was ist mit Tools wie Gemini, swissgpt? Und da habe ich ja den Hans-Ulni von Alpine AI als Gast angefragt. Er kennt sich wahnsinnig gut mit Sprachmodellen aus und ist da so der, der eigentlich immer weiß, was gerade läuft, was die neuesten Modelle sind, und somit freue ich mich sehr, dass du dir die Zeit nimmst, hans-juli. Vielleicht kannst du zu Start ganz kurz was zu dir sagen, was du den ganzen Tag bei Alpine AI so machst, und dann bin ich natürlich sehr gespannt auf deine Insights.

Speaker 2:

Ja, und dann bin ich natürlich sehr gespannt auf deine Insights. Ja, hallo, sophie. Vielen Dank auch, dass ich heute bei dir im Podcast sein kann. Bei Alpine arbeite ich vor allem im Innovation-Bereich. Also das bedeutet schon, was du ein wenig angesprochen hast, dass wir uns damit auseinandersetzen, was für Modelle auf dem Markt sind, was deren Fähigkeiten sind, wie man die am besten einsetzen kann. auf dem Markt sind, was deren Fähigkeiten sind, wie man die am besten einsetzen kann, aber auch ein wenig darüber hinaus vielleicht, wo das Ganze hingeht und auf was wir uns vorbereiten müssen, was vielleicht die nächste Generation Modelle für uns lösen kann.

Speaker 1:

Oh, sehr spannend. Da bin ich gespannt, was du da als Infos geben wirst. Starten wir mal direkt mit GPT-5. Was denkst du denn dazu, oder was ist so das, was die Zuhörer unbedingt darüber wissen?

Speaker 2:

Ja, ich denke, GPT-5 ist vielleicht auch so ein wenig von der Community. Es ist ein spezieller Fall. Also es war ein ziemlich grosser Hype, bevor es gelauncht wurde, und das stammt vielleicht auch etwas daher, dass jedes Mal, wenn OpenAI ein neues Modell, eine neue ganze Nummer released hat, dass es wirklich ein grosser Schritt vorwärts gewesen ist in den eigentlichen Fähigkeiten des Modells. Das ist hier in diesem Fall vielleicht etwas weniger so. Aber auf der anderen Seite denke ich, dass sie sich mehr auf die Benutzerfreundlichkeit konzentriert haben, dass man nicht mehr auswählen muss, welches Modell man jetzt verwenden möchte, um eine gewisse Aufgabe zu lösen, sondern dass das System eigentlich selbst entscheidet, ob es jetzt länger über etwas nachdenken sollte oder schnell eine Antwort gibt. Und das ist natürlich noch nicht perfekt, aber es ist wahrscheinlich so ein erster Schritt auch in die Richtung, um es allgemein zugänglicher zu machen, denke ich. Aber vielleicht hast du da auch eine andere Meinung dazu.

Speaker 1:

Ich muss sagen, es gab ja genau vorher immer diese Unterscheidung zwischen einem Reasoning-Modell und den klassischen Modellen, und ich bin oft von Kunden gefragt worden ja, wo ist denn jetzt der Unterschied? wann nehme ich was? Und ich habe das natürlich immer erklärt, und gleichzeitig habe ich immer schon gesagt aber ganz ehrlich, ich glaube, das ist eine Fragestellung, damit beschäftigen wir uns jetzt noch ein paar Wochen, und dann kommt eh das nächste Modell raus, was Ich glaube auch, dass es eigentlich ein bisschen vorhersehbar war, dass so eine Art kommt. Dennoch muss ich sagen, ist jetzt nicht GPT-5 das, was ich unbedingt immer am besten finde? Ich weiß nicht, ich will da nicht zu weit hervorgreifen, aber wie beurteilst du denn auch Sprachmodelle? Das finde ich auch manchmal interessant, weil auch da finde ich zum Teil, was ist das Beste? Ja, mit dem einen Modell fühle ich mich wohler, das funktioniert für mich sehr gut. Aber wie kann man jetzt wirklich sagen, was ist das Beste? Wie gehst du da vor oder was ist dein Eindruck?

Speaker 2:

Ja, das ist ein wichtiger Punkt. Ich denke, es ist ja. Sehr viel wird einfach auf diese Benchmarks eingeschossen, vor allem, wenn sie das Ganze releasen und sagen oh, wir haben irgendwie 5% mehr auf diesem Benchmark oder wir sind irgendwie besser als Krok auf diesem Benchmark. Wie auch immer, das Problem ist einfach, diese Benchmarks bilden nur einen sehr beschränkten Teil vom Ganzen ab, auch wie das dann eingesetzt wird. Und dann geht es einfach wirklich darum, dass man sich selbst einfach auch hinsetzt, und meist hat man dann irgendwie einige Anfragen, die man schon häufiger gemacht hat und die man weiss, wie zum Beispiel GPT-4 oder so beantwortet hat, dass man diese Benchmarks hat. Man hat spezifische Zahlen, die aussagen theoretisch sollte es in diesem Bereich besser sein. Dann geht es aber vor allem auch darum, dass man herausfindet für sich selbst, aber dann auch mit dem Hintergedanken für die, die es dann später einsetzen sollten, wie bei Alpine AI ist das wirklich ein besseres Modell Oder gibt es Antworten, mit denen ich effizienter werde oder mit denen ich schneller meine Arbeit erledigen kann und nicht einfach kann es irgendwelche Matheaufgaben besser lösen oder was auch immer?

Speaker 1:

Ja, und jetzt mal ganz konkret die Frage was denkst du dazu, gpt-5? Findest du es wirklich besser als andere Modelle? oder wo sagst du, was ist gerade so dein Favorit?

Speaker 2:

Also für mich ist es sehr einsatzabhängig, und ich denke, das ist für die meisten auch so, die in diesem Bereich sind, die sich mit dem Ganzen auseinandersetzen, das hast du ja auch schon ein wenig angesprochen. Ganzen auseinandersetzen, das hast du ja auch schon ein wenig angesprochen. Oder wenn für gewisse Programmieraufgaben oder so sind das wahrscheinlich eher die Cloud-Modelle von Anthropic, die ich verwende, dann gibt es auch noch GROK von X. Also das ist auch in gewissen Anwendungsfällen besser. Für mich ist das irgendwie so bis jetzt. Oder das GPT-5 haben wir ja eine Woche knapp oder so.

Speaker 2:

Und ich denke, für allgemeine Dinge, bei denen ich nicht nachdenken möchte, welches Modell soll ich verwenden, soll ich das gross nachdenken die ein wenig im Hintergrund laufen, finde ich es. Ehrlich gesagt ist das für mich ein kleiner Schritt vorwärts, würde ich sagen, einfach weil es, wie wir schon besprochen haben, ein wenig Arbeit abnimmt. Nochmals Also, es ist wie ein wenig zugänglicher. Aber wenn ich jetzt ein spezifisches Problem lösen möchte, dann verwende ich meist wähle ich zum Beispiel auch bei GPT-5 den Thinking Mode, wenn ich das möchte. Oder Gemini 2.5 Pro ist auch, vor allem, wenn es darum geht, irgendwie komplexere Dinge zu planen oder so, für mich fast noch besser.

Speaker 1:

Ja, ich wollte es nicht vorgreifen, aber ich bin in letzter Zeit auch wirklich ein grosser Gemini-Fan. Ich finde das Modell im Moment wahnsinnig gut und arbeite wirklich gerne damit. Ich finde es auch relativ schnell. Ich weiss nicht, wie du das einschätzt.

Speaker 2:

Ja, ich denke, dort merkt man einfach, dass auch Google, also der Hintergrund von Google und von woher sie kommen, die haben ja auch speziell schon seit Längerem die Hardware dafür, und die wissen einfach, denke ich auch, wie man so grosse, diese Riesenmenge in Compute einfach an die Leute bringt oder wie man das Ganze ausliefert. Und das ist für mich ein wichtiger Punkt, oder es hilft mir ja irgendwie nichts, wenn ich schnell etwas umsetzen möchte, hilft es mir nichts, wenn danach das Modell für zehn Minuten nachdenkt und mir eine Antwort gibt, und ich muss für zehn Minuten nachdenkt und mir eine Antwort gibt, und ich muss diese zehn Minuten warten. Deshalb ist, glaube ich, was du gesagt hast, dass das Ganze schnell vorwärts geht schon auch ein wichtiger Punkt.

Speaker 1:

dass man schnell iterieren kann, Finde ich einen guten Punkt, weil das ist so, wie wenn wir auf Internet warten. Ich saß gestern im Zug, und der Zug war im Tunnel. Das hat für mich also Zeitverschwendung hoch 20 bedeutet, weil irgendwie nichts gelaufen ist. Sehr guter Punkt. Was ich gerne auch noch kurz ansprechen wollte, das hatte ich mal ein bisschen verglichen sind die Kontextfenster. Vielleicht kannst du dazu noch was sagen, weil so wie ich das gesehen habe, sind die bei Gemini auch deutlich größer, Und das hat natürlich auch Vorteile auf das Kurzzeitgedächtnis. aber ich würde das nicht gerne erklären lassen, weil du da sicherlich der grössere Experte bist.

Speaker 2:

Ja, genau. Also, grundsätzlich ist es so rein von der Architektur her, die diese Modelle haben, kannst du einfach nur eine gewisse Menge in den Kontext bringen, also sozusagen, was das Modell zusätzlich zum ganzen Trainingsdatensatz, das es hatte, verwenden kann. Dieser Kontext ist grundsätzlich, was eigentlich im Hauptfokus des Modells ist. Wie gesagt hängt das auch damit zusammen, was du für eine Hardware, was du für spezifische Architektur im Hintergrund hast. Wenn du jetzt ein grösseres Kontextfenster hast, wie eine Million Token oder so bei Gemini zum Beispiel, dann kannst du einfach viel mehr Dokumente oder auch Codesnippets oder was auch immer direkt dem Modell mitgeben, ohne dass du auswählen musst was benötige ich jetzt spezifisch? Oder auch, um irgendetwas zusammenzufassen oder Verknüpfungen zu machen.

Speaker 2:

Das Problem ist einfach immer noch mit dem Kontextfenster, dass das vor allem theoretische Zahlen sind. Also eben das geht darum, dass die das anbieten, dass du so viel Speicher sozusagen zur Verfügung hast, dass du eine Million Token oder eine grosse Zahl an Seiten, diesen Kontext laden kannst. Aber die Modelle an und für sich sind die meisten eigentlich nicht auf diesen langen Kontexten trainiert. Also die sind auf eher kürzeren trainiert, und das merkst du einfach. Also, wenn du das Kontextwindow voll hast, dann ist eigentlich bei fast allen Modellen so, dass es dann zum Beispiel nicht mehr exakt deinen Instruktionen folgt oder dass es gewisse Dinge vermischt oder etwas auch falsch macht, und das muss man einfach immer im Hintergrund haben. Also, es kann hilfreich sein, dass man diese grossen Kontextfenster hat, aber es ist nicht die Lösung für alles. Also man muss dort. Wenn man wirklich etwas Spezifisches machen müsste und weiss, was man will, ist es immer noch sinnvoller, wenn man das Ganze etwas aufsplittet und nicht allzu viel dem Modell mitgibt, um eine Aufgabe zu lösen.

Speaker 1:

Okay, ja, finde ich einen guten Punkt. Ich merke auch manchmal, wenn ich so sozusagen verloren bin im Gespräch, dass ich dann einfach mal einen neuen Chat starte, Und ich glaube, dann kann ich wie wieder nochmal von vorne anfangen. Was ich auch schon gemacht habe, ist, dass ich einen Dialog genommen habe, der irgendwie nicht so gut funktioniert hat, den nochmal in ein anderes Modell gegeben habe und gesagt, hier gab es missverständlichste Probleme im Dialog mach das doch besser.

Speaker 1:

Aber das wäre vielleicht gerade meine nächste Frage, mit den Modellen zusammenzuarbeiten. Letztens habe ich eine Antwort von Gemini bekommen. Die fand ich recht gut. Die habe ich dann aber in GPT-5 eingegeben und gesagt dein Kollege hat das gemacht, mach das noch eins besser. Wie nutzt du diese Modelle zusammen, Würdest du sagen, am besten ist es, wenn man da so ein Lieblingsmodell hat und die ganze Zeit das Gleiche nutzt, oder findest du es gut, dass man die Modelle auch mal miteinander kombiniert?

Speaker 2:

Ja, also, ich denke, das ist schon sinnvoll. Also, es ist so, das sagt ja auch ein wenig die Forschung, das nutzt man bis zu einem gew. Gemini nimmst und sagst okay, mach mir einen Plan, um irgendwie Projekt XY umzusetzen. Und dann gibst du das irgendwie GPT-5 und sagst hey, ich habe irgendwie diesen Plan, hier kannst du den bitte kritisieren. Hat es irgendwelche offene Sachen, etwas, das ich adressieren sollte? siehst du da irgendwie Inkonsistenzen oder wie auch immer? dann wirst du grundsätzlich meist ein besseres Resultat bekommen, vor allem, wenn du selbst noch involviert bist. Also ganz autonom funktioniert das noch nicht. Aber wenn du selbst involviert bist und dann auch etwas auswählen kannst hey, gpt-5 hat gesagt, hier diesen Punkt oder so, den hast du nicht beachtet, den solltest du einfügen und du denkst auch, das macht Sinn, dann wirst du sicher, wie du sagst, mit dieser Iteration auch mit demselben Modell, wenn du nur ein Modell zur Verfügung hast, aber wenn du mehrere hast, kannst du das sicher noch verbessern.

Speaker 1:

Das ist jetzt eigentlich schon wieder der nächste Punkt. Ein oder mehrere Modelle. Grundsätzlich sage ich meinen Kunden immer es macht keinen Sinn, dass sie da 20'000 verschiedene Modelle im Einsatz haben und am besten noch 30.000 verschiedene Prolizenzen nutzen. Ich zahle jetzt mal da so zwei, drei Prolizenzen. Wie sagst du das denn jetzt für so ein, ich würde mal sagen, so ein klassischer Mitarbeiter vielleicht in einem Schweizer Karlo oder auch einem Schweizer Konzern oder auch Deutsch gerne braucht der jetzt irgendwie da zwei, drei verschiedene Modelle, oder genügt es, wenn der einen pro Account hat.

Speaker 2:

Also, ich würde sagen, es genügt, wenn er einen Account hat, auf den er ein gutes Modell Zugriff hat und vielleicht auch ein ganzes System dahinter ist wie ein Racksystem oder so, das ihm etwas hilft, um mit grösseren Dokumenten umzugehen, weil sonst es wird einfach, wenn du nicht irgendwie in diesem Bereich auch arbeitest und immer auch ein wenig die News liest und sonst ich denke, da verlierst du fast mehr Zeit dann damit herauszufinden. Okay, soll ich jetzt das noch dorthin kopieren? Was soll ich jetzt hier prompten, was weiss ich? Du wirst dort wahrscheinlich das bessere Resultat bekommen, wenn du einfach, wie vorhin auch gesagt, wenn du diese Iterationen mit einem einzelnen Modell machst und das einfach so vorantreibst, dann werden auch sozusagen die ganzen Aussagen oder persönlicher, wenn du mehr Input von dir gibst.

Speaker 1:

Danke für den, dafür nochmal das Thema, also gerne auch mit der Persönlichkeit ich glaube, das ist nochmal wahnsinnig wichtig oder manchmal auch bewusst ihm eine Rolle geben. Das mache ich auch sehr gerne. Jetzt möchte ich mal eine Frage noch ansprechen. Du bist ja nun bei Alpine AI. Da ist SwissGPT das grosse Tool, was wir anbieten. Bei SwissGPT ist es ja sehr datenschutzkonform, das heißt, wir schauen, dass die Daten nicht ins Ausland gehen, dass die nicht weiterverarbeitet werden, und so weiter und so fort. Wie verhält sich das denn jetzt mit GPT-5, gemini und so weiter und so fort? Was sind da für Modelle im Einsatz, beziehungsweise wie können die Nutzer da auch von allem profitieren.

Speaker 2:

Ja, also, ich bin nicht ganz sicher, auf was du hinaus möchtest, aber ich denke mal kurz zum Datenschutz. Es ist einfach so, dass, wenn du, vor allem, wenn du auch keine Pro-Lizenz hast oder auch bei der Pro-Lenz hast, am Schluss sind Daten für diese Firmen sehr wichtig, um die Modelle zu verbessern, und deshalb alle Daten, die sie bekommen, oder auch mit der Interaktion mit den Usern, die dann vielleicht sagen zum Beispiel, wenn du einen Chat hast, du fragst etwas, und dann sagst du nachher oh, das macht für mich überhaupt keinen Sinn, kannst du es irgendwie so und so machen. Das ist ein Signal, dass solche Firmen auswerten können und danach zum Training ihre Modelle wieder verwenden können. Und ich denke einfach, grundsätzlich ist das ja auch kein Problem, solange man nicht mit sensitiven Daten umgeht. Aber falls dann irgendwie doch beim Filtern der Daten, die sie dort haben, irgendwelche sensitiven Informationen in die Modelle gelangen, dann können die auch wieder abgerufen werden.

Speaker 2:

Das hat man gezeigt, zum Beispiel also nur mal ein Beispiel zu geben es wurde ja sehr viel auf öffentlichem Code von GitHub trainiert. Also, es ist so ein Repository, wo sehr viele Entwickler einfach ihren Code hochladen, und dann gibt es immer wieder solche Entwickler, vielleicht auch die Neuanfangen oder so, die zum Beispiel Passwörter oder so dort auch öffentlich machen. Und weil diese Modelle auf dem trainiert wurden, konnte man einfach zeigen, dass die Modelle gewisse dieser API-Keys, passwörter, wie auch immer wiedergeben können. Danach Und deshalb sollte man einfach vorsichtig sein, wenn man öffentliche Modelle benutzt, die in den sozusagen AGBs auch drin haben, dass das allenfalls auch zum Training verwendet werden kann, dass man keine sensitiven Informationen preisgibt. Und dort unterscheiden wir uns ein wenig bei Alpine auch, weil wir sagen, dass das nicht sozusagen unser Business Case ist, dass wir Daten sammeln möchten, um bessere Modelle zu trainieren, sondern dass wir wirklich ein datenschutzkonformes Modell anbieten möchten.

Speaker 1:

Okay, das heisst, was ist, heißt jetzt, hier steht. was ist, wenn jetzt Kunden sagen okay, ich habe eigentlich Swiss GPT, ich will jetzt, aber bin jetzt irgendwie da mit dem GPT-5 irgendwie gehypt oder wie auch immer? Wie würde das dann konkret in der Umsetzung aussehen, praktisch?

Speaker 2:

Also ich denke, falls man um auf das zurückzugehen, was du gesagt hast falls man mehrere Lizenzen haben möchte, dann kann man natürlich eine SwissGPT-Lizenz haben, eine Chat-GPT-Lizenz, Und dann würde ich einfach sagen, falls man, wie gesagt, sensitive Informationen hat, sollte man die eher nicht in einen Chat-GPT-Chat eingeben. Bei SwissGPT kann man das machen, dort ist das eigentlich sicher, Und dann kann man auch ein wenig herausfinden. Dann trotzdem, falls man allgemeine Anfragen hat oder wo es nicht darum geht, dass man Personendaten hat oder solche Dinge, wenn man einen Vortrag planen möchte oder eine Reise planen möchte, dann ist das ja nicht so schlimm, wenn da irgendwelche Informationen irgendwo landen, Dann kann man ja auch die Modelle von OpenAI ausnutzen und deren stärken und auch ein wenig herausfinden, für welchen Anwendungsfall ist was am besten.

Speaker 1:

Finde ich einen guten Punkt, was mir dabei gerade einfällt. man könnte ja sogar sagen okay, ich will gewisse Dokumente erstmal mit SwissGPT anonymisieren, damit ich dann diese anonymisierte Version in einem GPT-5 zum Beispiel nutzen kann.

Speaker 2:

Ja, stimmt, das kann man natürlich machen. wenn man ein Dokument hat, in dem man viele Dinge hat und man nicht durch alles durchgehen kann, kann man ein Prompt schreiben okay, nimm dieses Dokument und gib mir die anonymisierte Version zurück. Das ist eine gute Idee, okay.

Speaker 1:

Cool, ich fand es mega interessant, mit dir zu reden. Was ich noch wirklich so mitnehme, ist dieses wie vergleiche ich eigentlich Sprachmodelle beziehungsweise wie teste ich sie und das? wie gesagt, diese allgemeinen Tests, die sind für mich auch immer so ein bisschen der Nichtsaussagen, aber dass ich dann einfach sage okay, das sind so die typischen fünf Anwendungen, die ich habe, und da gucke ich jetzt einfach, ob es eine Verbesserung bei fünf gibt oder eben nicht, also das finde ich sehr, sehr interessante Inputs, abgesehen davon, dass natürlich alles spannend war. Zum Abschluss kriegt immer mein Podcast-Partner eigentlich so mein Podcast-Gast das letzte Wort. Darum möchte ich auch dich fragen gibt es denn noch irgendetwas, was du jetzt den Zuhörern unbedingt mitgeben willst, wo du sagst hey, da müsst ihr unbedingt drauf achten, das ist dein Zukunftsausblick, da wäre ich doch gerne gespannt drauf.

Speaker 2:

Vielleicht darauf achten. Das ist dein Zukunftsausblick, da wäre ich doch gerne gespannt drauf. Vielleicht nur zwei Dinge. Noch kurz eine Analogie, um das zu sagen, was du auch gesagt hast. Ich denke, es ist ein wenig so, wie wenn man einen neuen Mitarbeiter anstellt, wenn man irgendwie den CV anschaut, dann hat er vielleicht irgendwie an der ETH studiert oder an der Uni studiert, und das sagt etwas aus, oder Aber das ist ein technischer Benchmark. Am Schluss möchte man mit dem zusammenarbeiten, um zu sehen, ob es passt oder nicht. Ich glaube, das ist so ein wenig die Analogie, weil am Schluss ist es ja wie eine Assistenz, die man hat, um in die Zukunft vielleicht auch ein wenig zu schauen.

Speaker 2:

Ich denke, es wird einfach mehr und mehr so sein, dass das unser Leben immer mehr durchdringt, und wahrscheinlich werden wir gar nicht so recht merken, in welchen Bereichen überall diese Technologie eingesetzt wird, und deshalb ist es einfach auch wichtig, sich mit dem Ganzen auseinanderzusetzen und ein wenig zu verstehen, für sich selbst ein Bild zu machen, wie das Ganze funktioniert und wo die Einschränkungen sind, einfach auch, dass man sozusagen gut durchs Leben gehen kann. Vielen.

Speaker 1:

Dank dafür. Ja, also sowieso ich danke dir. Ich glaube, das war nicht das letzte Gespräch, was wir geführt haben. Ich danke auch meinen ganzen Zuhörern. Ich hoffe, es war für euch auch eine spannende Folge. Ich danke natürlich auch meinen Podcast Partnern. Alle Infos zu den Partnern findet ihr wie immer in den Shownotes, und dann freue ich mich schon jetzt auf die nächste Podcast-Aufnahme mit euch. Wer zwischendurch immer auf dem Laufenden gehalten werden möchte, kann auch gerne in meine WhatsApp-Gruppe eintreten. Die findet ihr auch in den Shownotes. Und ansonsten wünsche ich allen einen tollen Tag. Happy Prompting, viel Spaß beim Aufprobieren Und weitere Fragen auch gerne melden. Also bis zum nächsten Mal.

Speaker 2:

Tschüss.