Applied Data Science UNBOXED

Von Monstern und Maschinen: ChatGPT und GenerativeAI in der Hochschulbildung

Dr. Marcel Blattner Season 1 Episode 4

Folge 4 | Halluzinatorische Maschinen, Entenbilder und düstere Weltuntergangsszenarien? 

Darüber sprechen wir in dieser Folge mit dem Astrophysiker und Dozenten für Künstliche Intelligenz Dr. Marcel Blattner. Mehr noch: Insbesondere das Thema ChatGPT und GenerativeAI im Kontext der Hochschulbildung steht im Mittelpunkt unseres Gesprächs, denn wir wollen von dem KI-Experten wissen: 

  • Müssen wir uns vor dem Einfluss von KI-Tools fürchten oder können wir deren Potenziale sinnvoll für Bildungszwecke nutzen? 
  • Was ist dran am allgegenwärtigen KI-Hype, 
  • wie beantworten wir die noch offenen ethischen und rechtlichen Fragen 
  • und wohin führt uns Künstliche Intelligenz überhaupt? 

Wir stellen schnell fest: Dr. Marcel Blattner vertritt eine unaufgeregte, differenzierte und vor allem nüchterne Sicht auf die Chancen und Risiken der Künstlichen Intelligenz. Blindem Aktionismus und der Jagd nach dem nächsten Hype erteilt er eine klare Absage. Der Astrophysiker weist darauf hin, dass die «Angst» nicht vor ChatGPT selbst, sondern vor dem Missbrauch von KI im Allgemeinen liegen sollte. 

Wie also können wir KI-Maschinen sinnvoll und gewinnbringend in der Bildung (und darüber hinaus) einsetzen, ohne anderen zu schaden? 

Dies und vieles mehr in dieser Folge – ein Muss für alle KI-Fans und -Kritiker:innen. 

Applied Data Science UNBOXED – Wissen. Trends. Zukunft. Unser Podcast ist mehr als nur ein Name – er ist ein Versprechen. Wir öffnen die Tür zur Welt der Data Science und zeigen, wie Daten unsere Zukunft gestalten.

Ob Data-Science-Enthusiast:in oder Quereinsteiger:in – hier gibt es echte Insights. Renommierte Expert:innen aus Wissenschaft, Industrie und Gesellschaft sprechen über aktuelle Trends, bahnbrechende Innovationen und die spannendsten Herausforderungen im Feld.

Neugierig? Dann reinhören und eintauchen in die Welt der Daten. Mehr erfahren:
🔹 Masterstudium "Applied Information and Data Science" – alle Infos online
🔹 Kostenlose Online-Info-Events – direkt von den Studienverantwortlichen
🔹 Unser Blog – aktuelle Beiträge rund um Data Science
🔹 LinkedIn – vernetzen und keine Updates verpassen

Bedenken bei Interaktion mit ChatGPT

[0:00] 
Ich persönlich hätte dann vielleicht langsam Bedenken, wenn ich ChatGPT fragen würde, ob es mir vielleicht ein Kochrezept vorschlägt und die Antwort würde dann lauten so viel wie «Ich habe jetzt keine Lust, das zu machen, schau doch selber nach». Also diese Maschinen sind ja nicht intrinsisch motiviert, selbstständig etwas zu machen. Die sind ja auch nicht selbstreflektierend und haben auch keine Motivation, sozusagen, die Welt zu explorieren. 

Die Hochschule Luzern präsentiert Applied Data Science Unboxed – Entdecke die Welt der Data Science mit Christina Stumpenhausen.

[0:39]
Hallo und herzlich willkommen zu einer neuen Podcast-Folge. Das Thema heute ChatGPT und GenerativeAI im Kontext der Hochschulbildung. Und ich freue mich sehr, meinen heutigen Gast begrüssen zu dürfen. Dr. Marcel Blattner ist Chief Technology Officer und Mitglied des Verwaltungsrats von AlpineAI, einem KI-Startup, das mit SwissGPT eine Schweizer Version von ChatGPT lanciert. Seit diesem Frühlingssemester leitet er das Modul GenerativeAI in unserem Masterstudiengang an der Hochschule Luzern. Seine Leidenschaft besteht darin, die Industrie dabei zu unterstützen, von ihren neuesten Entwicklungen im Bereich Data Science zu profitieren.

Vorstellung von Marcel Blattner

[1:13]
Ganz nach dem Motto, turning hype gibberish into knowledge. Mit Marcel möchte ich heute darüber sprechen, was GenerativeAI eigentlich ist, wie GenerativeAI die Ausbildung an der Hochschule Luzern ganz konkret verändert, wohin sich GenerativeAI entwickelt und ob wir das überhaupt einschätzen und vorhersagen können und vieles mehr. Alles in dieser Folge.

[1:34]
Hallo Marcel, schön, dass du heute hier bist. 
Hallo Christina, schön, dass ich hier sein darf. 
Marcel, bevor wir tiefer in unser Thema einsteigen, wollte ich dich gerne fragen, was du denn mit deinem Motto Turning hype gibberish into knowledge meinst. 

Ja, es geht mir darum, zwei Dinge. Das eine ist, dass man im Moment halt öfter sieht, dass Leute rumrennen, sage ich mal, und das Blaue vom Himmel sprechen, was man mit diesen Technologien machen kann. Und mit diesem Motto möchte ich eigentlich andeuten, dass ich versuche, ein bisschen Ordnung ins Chaos zu bringen, indem ich halt darstelle und erkläre und aufzeige, was diese Technologien wirklich können und wo vor allem auch die Limiten stecken. Auf der anderen Seite möchte ich mit diesem Slogan andeuten, dass kein gibberish bleiben soll, vor allem auch für die jungen Menschen in den Grundausbildungen. Das heisst, dass man vor allem in den Grundausbildungen der jungen Menschen Klarheit schafft und diese Themen mehr und mehr reinbringen soll, schon möglichst sehr früh, sogar in der Grundschule, dass man diese Themen bespricht. Und aufzeigt auch da, wie diese Technologien funktionieren, wo die Gefahren vielleicht liegen und wo vor allem auch die Grenzen sind. 

Also du hast ja gerade auch über das Thema Bildung gesprochen, das passt ganz gut, weil wir gucken uns heute ChatGPT und GenerativeAI im Kontext der Hochschulbildung an, aber dazu kommen wir später.

Gemeinsamkeiten von Physik und KI

[3:01]
Zunächst möchte ich von dir wissen, du bist ja promovierter Physiker und Dozent für Künstliche Intelligenz. Was haben denn diese beiden Bereiche Physik und KI eigentlich miteinander gemeinsam? 

Also Physik und die Künstliche Intelligenz verbindet, dass man in beiden Gebieten nach Regelmässigkeiten sucht. Im Bereich der Physik macht man das, indem man der Natur bestimmte Fragen stellt anhand von Experimenten und dann eigentlich über die Antwort versucht, besser zu verstehen, wie die Natur funktioniert. Und das Ziel ist immer diese Regelmässigkeiten dann in sogenannte Naturgesetze zu giessen, die einem dann helfen, weitere neue Experimente zu designen oder auch sogar neue Technologien zu entwickeln. Und im Bereich KI sucht man die Regelmässigkeiten meistens in Daten und diese Regelmässigkeiten oder Korrelationen können dann auch dazu verwendet werden, um eine Maschine zu designen, die eine ganz bestimmte Funktionalität hat,
 

Physik und KI als Ergänzung

[3:58]
wie zum Beispiel ein Schachcomputer oder ein Empfehlungssystem.

[4:01]
Also Physik und KI ergänzen sich? Kann man das so sagen? 

Ja, also es gibt in der Physik viele Gebiete, wo Methoden aus der KI zum Zuge kommen. Ein Beispiel ist das Auffinden von Exoplaneten. Ein Exoplanet ist ein Planet, der nicht in unserem Sonnensystem ist, sondern ein anderes Muttergestirn hat. Und diese Exoplaneten, die kann man natürlich nicht direkt beobachten, weil diese Systeme sehr weit weg sind. Das heisst, man sammelt eigentlich oder man beobachtet Sterne und schaut dann, ob sich die Helligkeit über die Zeit verändert bei Sternen und das passiert unter anderem dann, wenn ein Planet quasi in der Sichtlinie zwischen uns, dem Observer und dem Stern, quasi hindurchzieht und damit eine Art Schatten auf das Muttergestirn wirft und damit nimmt die Intensität

[4:56]
der Helligkeit ab und das sind natürlich sehr kleine Effekte und KI kann da helfen, diese Effekte in grossen Datenmengen dann halt zu finden. Ein anderes Beispiel ist der Teilchenbeschleuniger in Genf, CERN, der generiert ganz, ganz viele Datenpunkte, wenn man diese Elementarteilchen aufeinanderschiesst, um zu studieren, wie die Natur im Kleinsten funktioniert.

[5:23]
Und auch da kann KI helfen, indem sie halt die guten Signale rausfiltert, möglichst real-time, so dass dann halt nur diese Events angeschaut werden, die für die Physiker interessant sein könnten. Auf der anderen Seite versucht man mit der Physik die KI zu befruchten, indem man versucht, Systeme neu zu erschaffen, auch mit Quantencomputing, wo man sich erhofft, dass man gewisse Berechnungen schneller machen kann, die dann auch relevant wären für das Auffinden von Mustern in grossen Datenmengen. Da muss allerdings gesagt werden, dass man da noch ganz, ganz, ganz am Anfang steht und es ist auch noch nicht ganz klar, wo dieses neue Computer-Paradigma mit Quantencomputer wirklich auch einen sinnvollen Einsatz finden kann.

Diskussion über Planetenbesiedelung

[6:09]
Aber diese beiden Gebiete, die befruchten sich oder versuchen sich gegenseitig zu befruchten. 
 
Seit jeher versuchen Menschen ja natürlich, andere Lebewesen auf anderen Planeten zu entdecken oder gar andere Planeten zu besiedeln. Musk ist da total hinterher, was den Mars betrifft. Ich weiss von dir, dass du privat gerne mit einem Teleskop arbeitest und auch Deep-Sky-Fotografie betreibst. Wie stehst du dazu?

[6:32]
Also zu der Idee, andere Planeten zu besiedeln. Ja, ich meine, eine reaktive oder eine impulsive Antwort wäre, wir sollten mal hier auf der Erde das Zeugs richten, bevor wir andere Planeten besiedeln. Auf der anderen Seite denke ich immer, dass diese Projekte, das sind natürlich sehr langfristige Projekte und die können auch sehr viel Gutes triggern hier auf der Erde, indem man über gewisse auch technische Challenges nachdenkt, versucht Lösungen zu finden und manchmal entwickelt sich dann halt auf einem Sidetrack zum Beispiel eine Technologie, die sehr sinnvoll sein kann, auch für jetzt und nicht erst für in 200 Jahren. Ich halte aber nicht so sehr viel davon, wenn Leute wie Elon Musk sehr polarisierend halt sagen, dass das das Einzige ist, was wir brauchen und das einzig sinnvolle ist, um das Überleben unserer Spezies hier auf der Erde zu sichern. Ich glaube, da gäbe es noch andere Wege. Also es ist so ein bisschen mehr dieses Polarisieren, das mich stört bei diesen Themen. Und das sieht man ja auch bei KI, das ist sehr polarisierend diskutiert, auch in der Öffentlichkeit. Es gibt die Leute, die sich das Paradies erhoffen und es gibt die Leute, die die Hölle so quasi voraussagen mit diesen Technologien. Auch da bin ich sehr dagegen, dass man sich einfach nur am einen oder anderen Ende dieses möglichen Spektrums bewegt.

[7:57]
Apropos Hölle, hast du gerade gesagt, der renommierte Astrophysiker Stephen Hawking warnte seinerzeit vor den Auswirkungen der KI auf die Menschheit. Er stellte zum Beispiel im Jahr 2016 die KI sogar auf die gleiche Stufe mit Atomkriegen, gentechnisch veränderten Viren und der globalen Erwärmung. Er befürchtete, dass die KI in 100 Jahren nicht mehr kontrollierbar sein könnte und wie gesagt, er hat dann vorgeschlagen, andere Planeten zu besiedeln.

[8:21]
Also meinst du, das ist viel zu düster, dieses Szenario? 
 
Es ist natürlich sehr düster. Es hat ja dieses Element von, wir können etwas nicht mehr kontrollieren, es verselbstständigt sich und dass das, was sich dann verselbstständigt, intrinsisch auch, ich sage jetzt mal, destruktiv motiviert ist, uns zu zerstören. Ich kann mit diesem Narrativ ehrlich gesagt nicht sehr viel anfangen und ich glaube auch, dass wenn solche Statements gemacht werden von prominenten Persönlichkeiten wie damals von Stephen Hawking, natürlich, dass in der Öffentlichkeit eine gewisse Resonanz findet, weil der Stephen Hawking ist ein sehr bekannter Astrophysiker. Das heisst aber nicht, weil er jetzt Experte ist im Bereich von Astrophysik, dass er auch genug versteht vom Thema KI und das dann dementsprechend differenziert auch verargumentieren kann, was er sagt. Also man muss wirklich vorsichtig sein, wenn man solche Statements hört. Das sind Extremmeinungen auf die eine oder auf die andere Seite.

[9:20]
Ich glaube, KI bietet hier eine gute Chance in verschiedenen Bereichen, eben auch in der Bildung, in der Industrie allgemein. Aber wir müssen hier ein bisschen unaufgeregter an dieses Thema gehen, um auch wirklich die Potenziale sinnvoll auszuloten und nicht in blinden Aktionismus verfallen, wie das im Moment ein bisschen passiert, um einfach versuchen, diese Technologien zu nutzen. Sondern man soll sie da nutzen, wo auch eine gewisse Sinnstiftung dahintersteckt. 

Und man muss wahrscheinlich auch erst verstehen, was ist KI überhaupt? Wie können wir es nutzen? Also diese Kompetenz, die ja noch nötig ist, darüber reden wir heute. Eine kurze Einordnung.

[10:00]
Systeme, denen die sogenannte Künstliche Intelligenz zugrunde liegt, sind an sich nichts Neues. Google Translate nutzt beispielsweise schon seit Jahren Künstliche Intelligenz. Und wer gern Musik hört oder Serien schaut, erhält von Streaming-Diensten personalisierte Vorschläge.

GenerativeAI und ChatGPT

[10:14]
Alles basierend auf KI-gestützten Prozessen, die wie von Zauberhand Treffer für uns landen. Eine besondere Form der KI ist die Generative Künstliche Intelligenz oder GenerativeAI. Und hier ist der grosse Unterschied. Das sind Computeranwendungen, die mithilfe von Algorithmen aufgrund von Daten, Texte, Bilder, Videos, Musik, Programmcode oder ähnliche Inhalte erzeugen, ohne dass Menschen im Einzelfall dazu etwas beitragen. ChatGPT ist die bekannteste Anwendung von GenerativeAI. Daneben bestehen und entstehen aber viele, viele weitere. 

Marcel, kommen wir nun zu ChatGPT. ChatGPT ist eine KI-Plattform, die ab Herbst 2022 für alle jederzeit leicht zugänglich ist. Jetzt haben wir das schon angesprochen, die Faszination ist einerseits gross, denn wir scheinen mit der Hilfe von ChatGPT ideenreicher zu werden und auch effizienter. Auf der anderen Seite gibt es skeptische Stimmen hinsichtlich der ethischen und rechtlichen Implikationen.

[11:06]
Auch die Hochschule Luzern beschäftigt sich intensiv mit der Frage, wie sie ChatGPT sinnvollerweise in der Lehre einsetzen soll. Also an dieser Stelle ist das Wie entscheidend und nicht das Ob. Wo würdest du deine Position als KI-Experte in diesem Spektrum zwischen Faszination und Furcht einordnen? Du hast es schon ein bisschen angetönt. Also müssen wir wirklich Angst vor dem Einfluss von ChatGPT haben? Ja oder nein? 

Also ich glaube, meine kurze Antwort ist nein. Ich möchte aber vielleicht noch kurz etwas sagen zu diesem Begriff Künstliche Intelligenz, weil oft fragen die Leute, was ist das überhaupt? Ich denke, eine sinnvolle Antwort kann man finden, wenn man am Zeitrad ein bisschen zurückdreht, nämlich zu dem Zeitpunkt, wo dieser Begriff offiziell geboren wurde. Das war nämlich 1956 an der Dartmouth-Konferenz. John McCarthy hat damals vorgeschlagen, dass man ein Forschungsprogramm oder ein Forschungsfeld so benennt, Künstliche Intelligenz. Ich sage jetzt mal, diese Benennung ist nicht unbedingt nur glücklich, weil eben genau diese Begriffe so Assoziationen triggern bei Menschen, die ein bisschen in die falsche Richtung weisen manchmal.

[12:17] 
Was man vielleicht auch schnell erwähnen darf, ist, dass Generative KI nicht etwas ist, das erst seit zwei, drei Jahren existiert, sondern Generative KI ist eigentlich mit diesem Forschungsfeld geboren. Man hat von Anfang an versucht, zum Beispiel Sprache in ein mathematisch-formales Framework zu giessen, um eben genau solche Dinge tun zu können, wie wir heute sehen mit ChatGPT, dass man quasi einen Dialog mit einer Maschine führen kann. Jetzt bei ChatGPT ist vielleicht Folgendes noch spannend.

[12:54]
ChatGPT basiert eigentlich auf einer Technologie, die nennt sich GPT und GPT basiert eben auf sogenannten Transformern. Und diese Transformer, das ist eine Art wie ein Design-Paradigma oder eine Methode, wie man so ein System bauen kann, die wurde nicht von OpenAI erfunden, sondern dieser Transformer wurde von Google Brain in einer Publikation 2017 das erste Mal vorgestellt. Aber OpenAI hat dann halt eben ein Produkt daraus gebaut. Und vor dieser Transformer-Technologie gab es natürlich andere Dinge, die man versucht hat, die aber nicht so gut funktioniert haben. Und um GenerativeAI jetzt eher von einer technischen Schiene her zu verstehen, muss man sich wirklich so ein bisschen die Geschichte anschauen und dann sieht man auch, dass einige Durchbrüche stattgefunden haben, die dann eigentlich das Ganze immer auf ein höheres Level gehoben haben. Deswegen war für viele Forscher, als ChatGPT der Öffentlichkeit vorgestellt wurde, war dieser Gap

[14:01]
zwischen dem, was man damals wusste und das, was OpenAI veröffentlicht hat, der war nicht ganz so gross wie dann für die Öffentlichkeit. Jetzt, wenn man, ich sage mal, ein bisschen versteht, wie diese Systeme gebaut werden und funktionieren, dann muss man auch keine Angst davor haben. Also ich persönlich hätte dann vielleicht langsam Bedenken, wenn ich ChatGPT fragen würde, ob es mir vielleicht, ich weiss auch nicht, ein Kochrezept vorschlägt. Und die Antwort würde dann lauten so viel wie, ich habe jetzt keine Lust,

Keine intrinsische Motivation bei Maschinen

[14:33]
das zu machen, schau doch selber nach. Also diese Maschinen sind ja nicht intrinsisch motiviert, selbstständig etwas zu machen, die sind ja auch nicht selbstreflektierend und haben auch keine Motivation, sozusagen die Welt zu explorieren. Das heisst, ich glaube, es besteht wirklich nicht der Anlass für eine, ich sage jetzt mal, Angst zu haben, dass diese Systeme sich irgendwie selbstständig machen könnten und dann die Weltherrschaft an sich reissen. Ich glaube, man soll sich mehr, wenn es darum geht, was für Herausforderungen mit diesen Maschinen verbunden sind, soll man sich mehr damit beschäftigen, wie du das auch angeklungen hast, dass es eben vielleicht grosse Verzerrungen in den Daten gibt und diese Maschinen nehmen diese Verzerrungen halt während des Trainings auf und amplifizieren die.

[15:20]
Das sind so eher konkretere Probleme. Ich persönlich, ich habe jetzt keine Angst. 
 
Also man sollte sich nicht auf Science-Fiction berufen, wo dann gesagt wird, die Roboter übernehmen die Macht, die Maschinen werden uns alle zerstören, also jetzt so grob gesagt, sondern man muss verstehen, wie man sie nutzt und sie können nicht eine eigene Ambition erfinden.

Genau, also ich glaube, diese Maschinen zeigen noch keinerlei, auch wenn man sie so hochskaliert, wie das eben OpenAI, Microsoft und Google tun, aber diese Maschinen zeigen ja keinerlei Anzeichen, dass sie eine Motivation haben, sich quasi von ihren Fesseln, also den Servern, in dem diese Maschinen laufen, sich zu lösen und sich irgendwie selbstständig zu machen.

[16:07]
Ich sage nicht, dass in vielleicht 20, 30 Jahren nicht Maschinen existieren können, die vielleicht auch sowas haben wie einen gesunden Menschenverstand oder grundsätzlich viel weitergehen als das, was wir heute sehen. Aber das sind ja nicht Entwicklungen, die passieren von heute auf morgen, sondern das ist ein Prozess.

[16:25] 
Und wenn wir uns sorgfältig bei jedem Schritt, den wir machen, um die Maschinen weiterzuentwickeln, überlegen, auch wo sie sinnvoll eingesetzt werden können oder nicht, dann glaube ich, sind wir da auf eher einem sicheren Pfad. Ich denke, auch solche Aktionen, wie die EU jetzt macht, eben dieser EU-AI-Act, helfen zum Teil auch, dass in gewissen Anwendungsfeldern diese Maschinen nicht einfach blind eingesetzt werden, sondern dass da eine gewisse Regulierung da ist. Und das macht sicher auch Sinn. 

Und viel wichtiger oder viel interessanter ist ja auch, wie du schon gesagt hast, dass wenn wir mit solchen Maschinen arbeiten, dass sie auch valide Informationen liefern und nicht kompletten Quatsch. Aber wir sitzen ja vor der Maschine oder vor dem Bildschirm und können hoffentlich

Bildung und verantwortungsvoller Umgang mit KI

[17:09]
trotzdem weiterhin beurteilen, was wir mit diesen Informationen anfangen. 
Ja, ich glaube, das ist eine Aufgabe des Bildungswesens, dass man eben jetzt diese Technologien auch in der Ausbildung so einsetzt. Und ich sage mal, die jungen Menschen so einführt in diese Technologien, damit eben auch verantwortungsvoll umgegangen wird. Es ist richtig, wie du sagst, ich meine diese Maschinen, also wenn wir jetzt konkret von grossen Sprachmodellen sprechen, wie zum Beispiel GPT-4,

[17:39]
dann ist es richtig, dass diese Maschinen ab und zu halluzinieren, sagt man. Finde ich persönlich auch nicht gerade das beste Wort oder den besten Begriff für das Phänomen. Aber die Maschinen kommen manchmal mit Informationen, die offensichtlich nicht stimmen. Und warum tun sie das? Weil die Maschinen selber nicht fähig sind.
 

[18:01]
Ich sage jetzt mal, die haben keine Selbstreflexion. Ich kann ein kleines Beispiel nennen. Ich habe vor ein paar Tagen einen Versuch gemacht. Ich habe ChatGPT gebeten, mir ein Bild zu malen ohne Enten. Dann kam das Bild, das Resultat, das war voller Bilder mit Enten in diesem Bild und als quasi Caption, also als Bildbeschreibung hat ChatGPT mir dann rausgegeben, hier hast du ein Bild, das gar keine Enten drauf hat oder auch keine Artefakte, die an eine Ente erinnern, aber das ganze Bild war voller Enten. Also das zeigt uns, dass diese Maschinen nicht garantieren, dass sie korrekte Informationen zurückliefern.

[18:45]
Es gibt ein paar Engineering-Techniken, wie man das Problem ein bisschen eindämmen kann, aber das ganz zu lösen, dazu braucht es wahrscheinlich ganz andere Ansätze, als die wir jetzt haben, um diese Maschinen zu designen. Und deswegen glaube ich, es ist sehr wichtig, dass in der Bildung den jungen Menschen mitgegeben wird und auch in der Weiterbildung von erwachsenen Menschen und sensibilisiert wird, wie man überhaupt dieses Wissen oder wie man diese Informationen validieren kann, weil das wissen auch viele vielleicht nicht, weil sie das so nie gemacht haben. Auf der anderen Seite versuchen natürlich die Hersteller von diesen Maschinen auch dafür zu sorgen, dass bei Informationen, die die Maschine rausgibt, dann zum Beispiel Quellenangaben mitkommen,

Humor und situatives Verständnis bei Maschinen

[19:31]
dass man eben leichter die Möglichkeit hat zu verifizieren, dass das auch stimmt. 

Du hast das schöne Beispiel mit den Enten aufgeführt. Da könnte man gleich denken, vielleicht hat ChatGPT einen Streich gespielt und beherrscht Humor. 

Ja, ich meine, es geht immer wieder so ein bisschen an denselben Punkt zurück, die Diskussion. Ich meine, wenn man sagt, jemand hat Humor, dann sagt man das oder schreibt das ja einer Person zu, weil sie irgendwie situativ einordnen kann, was humorvoll ist in dem Moment. Und was in einem Moment humorvoll ist, kann in einem anderen Moment überhaupt nicht humorvoll sein.

Kontextualisierung von Maschinen

[20:10]
Und genau das ist das, was diesen Maschinen eben noch abgeht, weil diese Maschinen stehen ja nicht in der Welt und die haben auch viel zu wenig Kontext. Es hätte ja sein können, dass ich die Maschine frage, mal mir ein Bild ohne Enten, weil ich jetzt meine Lieblingsente verloren habe vor ein paar Tagen und nicht an diese Ente erinnert werden möchte. Oder wenn ich die Maschine doch am Menschen ersetzen würde, dann würde der Mensch auch verstehen, warum ich ihn das bitte, weil ich ihm vielleicht erzählt habe, ich habe meine Lieblingsente verloren in unserem Teich und kann das kontextuell einordnen, warum ich etwas Bestimmtes will. Und die Maschinen, die können das eben nicht. Deswegen glaube ich nicht, dass die Maschine mir einen Streich spielen wollte, weil die Maschine, wie gesagt, keine intrinsische Intention oder Motivation hat, überhaupt sowas zu tun. Die Fähigkeit haben die Maschinen nicht. 

Und werden sie auch nicht haben. 

Das weiss ich nicht. Ich bin nicht jemand, der grundsätzlich ausschliesst, dass gewisse Eigenschaften, die uns Menschen auszeichnen, irgendwann mal auch in diesen Maschinen repräsentiert sind. Dann könnte man sich allerdings immer noch streiten darüber, ob die Maschine quasi nur nachahmt oder ob sie wirklich einen Sinn hat für Humor.

[21:27] 
Aber im Moment ist das noch nicht so und darüber sollten wir uns auch nicht allzu grosse Sorgen machen, sondern, wie ich schon angedeutet habe, einfach Schritt für Schritt weitergehen und bei jedem Schritt uns überlegen, als Gesellschaft auch und als Individuum, wo kann ich diese Maschine sinnvoll und gewinnbringend einsetzen für mich, sodass eben möglichst kein oder kein Schaden entsteht für andere.

Bedienung und Training von Maschinen

[21:52]
Und die Maschinen werden ja auch immer noch weiterhin von uns Menschen bedient und trainiert. Und wir Menschen sind ja bewiesenermassen nicht perfekt. Wir sind fehlerhaft. Und da kann das natürlich entstehen. Und jetzt komme ich auch zum weiteren Thema oder das Thema, das damit verknüpft ist, nämlich Datenschutz und Unabhängigkeit oder Abhängigkeit. Du bist ja, wie ich schon sagte, Chief Technology Officer von AlpineAI. Ihr versucht mit SwissGPT eine Schweizer Version von ChatGPT zu lancieren, mit grossem Fokus natürlich auf Datenschutz und Sicherheit. Kannst du das näher erläutern? Wie wollt ihr diese Aufgabe meistern? 

Also es gibt wie so zwei, ich sage jetzt mal Threads oder zwei Pfade, denen wir folgen. Der eine ist, wir glauben, dass sehr viele Mitarbeiter in Firmen sich gar nicht bewusst sind, wie viel Informationen sie leaken, also wie viel Informationen, Interna, dass sie leaken und diese Informationen dann einfach so eins zu eins an einen Provider wie OpenAI oder Microsoft oder Google fliessen. Und was wir unter anderem entwickeln, das ist eine Plattform, wo sensitive Information kontextuell rausgefiltert wird, 

[23:04]
ersetzt wird, kontextuell korrekt und dann eigentlich der Prompt oder die Frage, die man dem Modell stellt, wenn das dann OpenAI sein soll, die Frage dann bei OpenAI so ankommt, dass man keine sensitiven Daten drin hat. Das ist das Beispiel. Wir haben im Moment vor allem auch Gemeinden als Kunden und diese Gemeinden, die haben dann vielleicht solche Aufgaben wie der Mitarbeiter möchte gern, dass ChatGPT oder das Sprachmodell einen Brief schreibt und der Inhalt des Briefes kann vielleicht Informationen enthalten, dass jemand seine Steuern noch nicht bezahlt hat oder irgend sowas. Und da möchte man ja auf keinen Fall als Gemeinde, dass diese Information irgendwie rausleakt. Also da helfen wir mit unserer Plattform und wir glauben auf der anderen Seite, dass der Trend weggeht von diesen Allerweltsmodellen, den ganz, ganz grossen wie GPT-4. Das heisst, wir glauben, dass es wahrscheinlich immer mehr kleinere, spezialisiertere Modelle gibt, um gewisse Aufgaben zu bewältigen. Und diese kleineren, spezialisierten Modelle, basierend auf Open Source, dann aber feingetuned für bestimmte Firmen, die können wir in unserer Infrastruktur, die übrigens auch in der Schweiz steht, selbstverständlich, können wir dann hosten und dann geht dann gar nichts mehr raus. Also dann gehen überhaupt keine Daten mehr raus. Also das ist so ein bisschen unsere Mission.

[24:33]
Das heisst, wir versuchen eigentlich genau da ein bisschen Abhilfe zu schaffen, dass eben nicht alle Daten rausleaken und dass datenschutzmässig da auch alles richtig zu- und hergeht.

Du hast die Gemeinden erwähnt und hinter Gemeinden stecken ja weiterhin immer noch Menschen. Wie ist die Nachfrage nach einem sicheren Produkt?

[24:53]
Ja, ich glaube, die Gemeinden oder Gemeindemitarbeiter sind genauso bereit wie jeder und jede andere. Man muss ja auch mal vielleicht anmerken, wir sind alle Anfänger, schlussendlich mit diesem System oder mit Systemen wie ChatGPT umzugehen, wir alle sind am Lernen. Was wir anbieten als AlpineAI zusätzlich ist natürlich Schulungen. Das heisst, wir schulen die Mitarbeiter, wir schulen die Gemeinden oder allgemein unsere Kunden, dass sie eben auch lernen, wie man mit so einem System richtig kommuniziert und vor allem eben, wo man darauf achten muss, wenn man, ich sage jetzt mal, Informationen reingibt, die vielleicht nicht opportun sind, wo die dann halt irgendwie rausgehen, also rausfliessen. Ich glaube, da gibt es für jeden von uns, für die Organisation, 

[25:42]
Institutionen, auch für Bildungsinstitutionen, für Hochschulen ist das eine Herkulesaufgabe. Wir stehen da alle am Anfang, ehrlich gesagt. 
 
Wir sind heute hier in der Hochschule Luzern und die Hochschule Luzern hat auf jeden Fall schon mit einem Positionspapier auf die neuesten Entwicklungen rund um den Umgang mit GenerativeAI reagiert. Da heisst es, das Nutzen von GenerativeAI setzt ein grundlegendes Verständnis Künstlicher Intelligenz voraus. KI-generierte Texte sind keine wissenschaftlich validen Quellen und können Plagiate enthalten. Deswegen müssen unsere Studierenden ganz genau wissen, welche Hilfe sie für ihre Arbeit nutzen dürfen und diese eindeutig deklarieren. Und im Zweifelsfall muss man die unredliche Verwendung von Mitteln und Hilfen ansprechen und viele, viele weitere Punkte. Also Fakt ist, die grundlegenden Fragen nach Urheberrecht, Haftung und Ethik sind noch ungeklärt, was zu Unsicherheiten führt. Also wie du sagtest, Marcel, wir sind alle Anfängerinnen und Anfänger, wir müssen diese Kompetenz erst erlangen. An dieser Stelle meine Frage an dich, Marcel, ist wirklich alles so kompliziert, wie es scheint oder gibt es eine einfache Antwort darauf, wie wir mit GenerativeAI im Hochschulalltag umgehen sollen? 

Ich sage es mal so, man findet wahrscheinlich eine einfache Antwort, aber das wird dann auch nicht die beste Lösung sein, wie man es machen soll. Ich denke, es ist wichtig, dass sich jede Hochschule oder jede Bildungsinstitution

[26:59]
wirklich seriös und intensiv mit dem Thema beschäftigt, weil es gibt ja wie zwei Pfade hier. Der eine Pfad ist, was der Student damit machen kann. Also der Student kann jetzt diese Tools und Plattformen benutzen, um eine gewisse Hilfestellung beim Erstellen von einer Masterarbeit oder einer Bachelorarbeit zu bekommen.

[27:24]
Aber auf der anderen Seite haben wir die Hochschule, die muss sich dann halt damit auseinandersetzen, wie kann ich jetzt zum Beispiel das Wissen sinnvoll überprüfen. Also es gibt ja auch Formate, zum Beispiel Überprüfungen wie Open Book. Machen wir jetzt sowas wie ein OpenLLM-Format, wo der Student sogar ein LLM benutzen darf bei einer schriftlichen Prüfung. Das heisst, ich habe keine definitiven Antworten, was da gute Lösungen sind. Das ist ein Prozess und ich glaube, es ist einfach wichtig, dass es Arbeitsgruppen gibt in Bildungsinstitutionen. Und ich glaube, da ist die HSLU auch wirklich vorbildlich unterwegs, indem man sich mit dem Thema intensiv beschäftigt. Was ich auf keinen Fall, also ich glaube eine falsche Antwort, ich kann vielleicht das sagen, eine falsche Antwort auf diese Frage, wie man damit umgehen soll, wäre, dass man es verbietet, den Studenten. Das macht wirklich überhaupt keinen Sinn, weil benutzen werden sie es sowieso in ihrem privaten Gebrauch. Und nochmal, diese Methoden oder diese Systeme haben ja auch ein grosses Potenzial, aber wir müssen alle halt zuerst lernen, wo diese genau liegen. Das ist so ein bisschen die Krux an der Sache.

[28:41]
Es sind grosse Herausforderungen. Wenn ich weiss, dass gewisse Aufgabenstellungen, zum Beispiel, wenn ein Student die Aufgabe hat, etwas zu programmieren, dann gehe ich heutzutage auch davon aus, dass er ChatGPT oder Gemini als Hilfe nimmt. Ja, wie beurteile ich jetzt genau diese Lösung, die ich da vor mir sehe? Das heisst, man muss da wirklich auch neue Formate der Evaluierung irgendwie explorieren, um hier eine Win-Win-Situation für den Studenten, aber auch für die Bildungsinstitutionen selber zu schaffen. 
 
Wenn ich mich zum Beispiel zurückerinnere, ich habe auch studiert und da gab es ganz konkrete Regeln, wie man wissenschaftlich arbeitet, wie man zitiert, damit man keine Plagiate erschafft. Ich denke mal, das wäre dann so ähnlich, dass man sagt, okay, ich habe mich ChatGPT oder anderen Quellen bedient und das ganz klar definieren oder sehe ich das zu einfach? 

Nein, ich glaube, das ist ein wichtiger Punkt. Also das ist ein sehr wichtiger Punkt, dass man das deklarieren muss, dass es eine Deklarationspflicht gibt. Es gibt ja inzwischen auch von OpenAI selber auch Versuche, dass man Inhalte, die von Sprachmodellen generiert werden, watermarked, das heisst, dass die eine Signatur haben. Das ist allerdings sehr, sehr schwierig technisch zu bewerkstelligen, dass das dann auch, ich sage mal, auf Schweizerdeutsch verhebet.

[30:05]
Aber die Deklarationspflicht, glaube ich, das ist ein absolutes Muss. Aber das ist für mich Level Zero, also das muss weitergehen. Die Art und Weise, wie man mit den Systemen arbeitet, muss irgendwie…

[30:19]
Also wenn man quasi eine Arbeit dann mithilfe von so einer Plattform macht, muss relativ klar aufgezeigt sein, was erlaubt ist und was nicht erlaubt ist. Da wird es wahrscheinlich, könnte ich mir jetzt vorstellen, irgendwann mal vielleicht sogar verbindliche Regelwerke geben, die halt nicht hochschulspezifisch sind, sondern die dann vielleicht gewisse Standards,

[30:42]
die man ausarbeitet, die übergreifend sind über verschiedene in der Hochschullandschaft dann halt, ich sag mal, gemeinsam die gleichen Standards eingesetzt werden. 
 
Das ist auf jeden Fall sehr spannend, das von dir zu hören, weil du wirst ja den Bereich GenerativeAI hier an der Hochschule Luzern in dem Masterstudiengang Applied Information and Data Science leiten. Ich denke mal, das wirst du auch deinen Studierenden so sagen, sicherlich, oder? 
 
Ich sage es mal so, natürlich sage ich das meinen Studierenden, dass sie eine Deklarationspflicht haben und auf der anderen Seite ist es natürlich auch eine Riesenchance von den Studierenden zu lernen, weil man mit dieser Rückmeldung zum Beispiel mitkriegt, wo genau die Studierenden vermehrt diese Technologien einsetzen. Und das kann einem als Hochschule auch helfen oder als Dozent auch helfen, ein bisschen rauszukristallisieren, bei welchen Punkten, dass man vielleicht ein bisschen genauer hinschauen muss, wenn man eine Arbeit korrigiert. Es hat ja inzwischen, gibt es ja auch Hochschulen, die, ich sage jetzt mal, gehen so quasi zurück zu mündlichen Prüfungen, dass man vermehrt mündliche Prüfungen halt wieder einführt, um das Wissen abzuholen.

[31:49]
Ich sage mal, das kann eine Lösung sein, vielleicht ist es auch nur eine Zwischenlösung. Die Herausforderung hier ist gross und ich glaube, es gibt noch keine definitive Antwort auf diese Dinge.

[32:01]
Es besteht zum Beispiel die Idee einer KI-Werkstatt hier in der Hochschule Luzern, in der Dozierende ganz konkret und Schritt für Schritt lernen können, wie sie GenerativeAI in ihre Lehre einbauen und sie somit für alle Beteiligten optimieren können. Was hältst du davon? Sind dir noch weitere Best-Practice-Beispiele bekannt? 

Ja, ich glaube, das ist etwas, also ich finde das, wie gesagt, sehr vorbildlich, dass man das hier in Luzern macht und ich glaube, das ist ein Format, das halt viele Hochschulen auch versuchen jetzt umzusetzen, dass man ein Gefäss hat innerhalb einer Hochschule, wo Dozierende sich auch austauschen können und evaluieren halt. Das muss man ja auch ein bisschen unterscheiden. Ich meine, Dozierende naturwissenschaftlicher Fächer haben vielleicht andere Herausforderungen im Zusammenhang mit den Studenten und diesen Plattformen als Dozierende in der Philosophie. Es gibt auch da keine Wertung, was da besser, schwieriger, weniger schwierig ist, in welcher Disziplin, aber die können unterschiedlich sein. Und deswegen finde ich solche Gefässe, wo man halt versucht, Standards zu etablieren, innerhalb von Bildungsinstitutionen ein guter erster Schritt.

[33:10]
Und ich glaube, was man vielleicht auch machen kann, ist, dass man die Studierenden möglichst in diese KI-Werkstätten einbindet. Man möchte ja auch besser verstehen, wie Studierende mit diesen Tools umgehen, wo sie sie einsetzen. Das heisst, ich denke, eine intensive Diskussion mit den Studierenden ist auch sehr sinnvoll hier, damit man eben besser versteht, wie diese Tools dann wirklich auch eingesetzt werden. 

Und es entstehen sicherlich auch sehr interessante Dynamiken zwischen Studierenden und Dozierenden. Wenn sie zum Beispiel mit GenerativeAI in Berührung kommen, welche Stimmen sind dir denn bekannt? Also wie ist so die Stimmung da? 

Auch da gibt es so ein Spektrum von Möglichkeiten, wie die Stimmung sein kann. Ich habe vielleicht noch nicht das ganze Spektrum auch miterlebt, aber die Extrema dann eben schon. Also es gibt halt eben auch jetzt sehr kritische Stimmen. Das ist klar, die sagen, wir sollten das möglichst irgendwie unterbinden. Finde ich persönlich, wie ich schon gesagt habe, keine gute Idee. Ich glaube, bei den meisten, und das ist ja auch nicht böse gemeint, aber bei den meisten Dozierenden zumindest 

[34:23]
kann natürlich schon das Gefühl einer oder eine kritische Einstellung dem gegenüber entstehen grundsätzlich, was ein Student abliefert. Und das ist halt, ich sage jetzt mal, als Beziehung zwischen Student und Dozent sicher nicht die gesündeste Basis, wenn man so quasi so ein bisschen immer im Hinterkopf hat, ja hat er das jetzt selber gemacht oder was. Deswegen eben diese Deklarationspflicht ist sicher wichtig. Ich glaube, das wird sich aber alles ein bisschen auflösen, wenn beide Seiten, also Student und Dozent, sich dann in einem definierten Framework bewegen und jeder weiss, was er darf und was er nicht darf oder was zulässig ist, was nicht zulässig ist. Der Dozent auch besser versteht oder eine Bildungsinstitution besser versteht, wie quasi, wie sie diese Tools für die Studenten erlauben dürfen, in welchem Rahmen, so eben, dass der Student das Potenzial nutzen kann, das aber gleichzeitig gewährleistet ist, dass das Wissen, das ein Student haben sollte, um einen Studiengang erfolgreich abzuschliessen, auch wirklich da ist und nicht so quasi nur als Echo von dem, was da ChatGPT irgendwie oder eine andere Plattform von sich gegeben hat. Fakt ist, dass man auf jeden Fall die individuelle Kompetenz beibehalten soll oder erweitern soll. Das ist das Know-how, das man selber in sich trägt, als Mensch weiterhin sehr wichtig bleiben wird. 

Also Dozierende werden nicht eines Tages obsolet werden und aufs Abstellgleis despektierlich…

[35:51]
Ich hoffe nicht. Also ich denke mal, sowohl Studierende als auch Dozierende können von diesen neuen Tools profitieren, aber man muss halt die Regeln definieren. 

Ja, genau. Ja, ich glaube auch nicht grundsätzlich. Also diese Diskussion mit, dass ganze Berufsgruppen ersetzt werden oder es gibt ja auch immer diese Märchen von, wenn wir jetzt nicht sofort aufpassen, fallen 50 Prozent aller Jobs weg. Auch da muss man halt sehr vorsichtig sein. Ich meine, das Ziel sollte immer sein, mit diesen Technologien einen guten Assistenten bei sich zu haben, der einem hilft, eben die Aufgaben, die man hat, auch besser meistern kann. Und ich glaube nicht, dass eben der Dozent einfach ersetzt wird. Die Aufgabe oder die Arbeitsweise des Dozenten wird sich sicher ändern in den nächsten 10, 20, 30 Jahren. Aber ersetzt werden, glaube ich jetzt in dem Sinne nicht. Man muss sie auch immer ein bisschen im Hinterkopf behalten: einerseits gibt es diese rasante 

[36:50]
Entwicklung der Technologie, die einem ein bisschen Angst machen kann, wenn man vielleicht nicht, ich sage mal, nur sehr oberflächlich versteht, wie das alles funktioniert. Und diese Entwicklungsgeschwindigkeit, die kann auch in einem,

Entwicklungsgeschwindigkeit und sinnvolle Anwendung

[37:03]
ich sage jetzt mal, bestimmten kleinen Zeitrahmen sogar exponentiell schnell sein. Nein, aber auf der anderen Seite gibt es dann eben die Entwicklungsgeschwindigkeit, wie diese Produkte oder wie diese Technologien dann sinnstiftend eingesetzt werden, sei das in der Bildung oder auch im Konsummarkt zum Beispiel. Und diese Geschwindigkeit, wie das passiert, zum Beispiel eben neue Produkte in den Markt hineinzubringen, die ist viel, viel langsamer. Deswegen, ich denke jetzt nicht, dass ein Dozent oder Dozenten einfach so quasi wegrationalisiert werden, weil schlussendlich Wissensvermittlung ist ja auch etwas, das ein Stück weit auch auf Vertrauen basiert und es ist wichtig, dass man sich situativ austauschen kann. Deswegen glaube ich, im Moment bleibt das immer noch so, dass es Dozenten gibt, die dem Studenten dann zur Seite stehen und ihm helfen, das nötige Fachwissen, die nötige Kompetenz zu erlangen. 

Der menschliche Faktor wird auf jeden Fall überall, egal welche Berufe man anschaut, nach wie vor sehr wichtig bleiben. Du hast gerade auch das Thema Geschwindigkeit angesprochen. Ich denke mal, viele können mit diesem Tempo kaum noch mithalten.

[38:13]
Metaphorisch gefragt, müssen wir Sprinter oder Langläufer sein? 

Wir sollten grundsätzlich Ausdauersportler sein, wenn man den Vergleich machen möchte. Das heisst, wir sollten Langläufer sein, also Marathonläufer, aber mit der Fähigkeit zwischendrin doch mal ein bisschen schneller zu laufen. Das muss wahrscheinlich sein. Aber was wir nicht machen sollten, ist einfach wild in irgendeine Richtung loszusprinten. Ich glaube, das ist nicht nötig. Wenn einem auch manchmal erzählt wird, wenn wir uns jetzt nicht beeilen, dann sind wir ganz, ganz schlimm abgehängt und alles wird ganz, ganz schlimm. Die Überlegung, wo man solche Technologien einsetzt, die Zeit, um sich das wirklich gründlich zu überlegen, die muss man sich nehmen, egal ob als Bildungsinstitution oder als Firma oder eben auch als Individuum.

Und zwischendurch sicherlich auch Pausen einlegen, um zu reflektieren, wo stehen wir, wie geht es weiter, so wie auch im normalen Sport.

Balance zwischen Innovation und Tradition: Zeitkapsel-Session

[39:06]
Bei aller Innovation liegen mir persönlich auch Traditionen am Herzen. Deshalb schlage ich vor, dass wir uns an dieser Stelle einer Zeitkapsel bedienen. Ich habe für dich, Marcel, eine kleine Karte mitgebracht und einen Stift. Und wenn du magst, kannst du eine persönliche Botschaft an die Menschen aus der Zukunft schreiben und sie hineinlegen. 

Also ich werde auf die Karte schreiben, we are made of stardust, die Aussage kommt unter anderem von Carl Sagan und stimmt wirklich wortwörtlich. Und zwar die meisten Atome, die uns hier ausmachen, alle diese Atome wurden eigentlich in Sternen kreiert, sozusagen in einem dramatischen Ereignis, nämlich dann, wenn die Sterne ihren Lebensabend sehen und ihr ganzer Wasserstoffvorrat, den sie gebraucht haben, um Helium zu produzieren, zu Neige geht. Dann setzen dramatische Prozesse ein in diesen Sternen und dabei werden Elemente oder Atome kreiert, die bis zu Kohlenstoff und Blei, Eisen gehen. Und das ist etwas, das man nicht ändern kann oder das ist etwas wirklich Beständiges. Und ich finde, in einer Zeit, in der alles sich so schnell wandelt, ist es manchmal auch gut, wenn man an Dinge denkt, die eine gewisse Beständigkeit haben. 

Das ist ein schönes Schlusswort. Vielen Dank, Marcel, für die tollen Einblicke. Es war mir eine Freude, heute mit dir zu sprechen.

Outro und Ausblick 

[40:30]
Liebe Data Science Begeisterte, wir hoffen, dass euch diese Episode gefallen hat. Und nun unsere Frage an euch. Was haltet ihr von ChatGPT und GenerativeAI im Hochschulkontext? Schreibt uns gerne auf LinkedIn einen Kommentar. Ihr findet uns unter dem Suchbegriff Hochschule Luzern-Applied Data Science. Wir freuen uns über eure Meinungen. In der nächsten Episode sprechen wir über Data Storytelling. Ihr dürft euch freuen. Abonnieren lohnt sich. Mein Name ist Christina Stumpenhausen. Schön, dass ihr dabei wart bei Applied Data Science Unboxed, ein Podcast der Hochschule Luzern. Bis zum nächsten Mal.