Mensch, KI!

#56: "Europas KI-Gesetz fordert Unternehmen (ethisch) heraus" mit Carsten Wittmann

Manuela Ruppert Season 1 Episode 56

Mensch, KI! - EU AI Act: Regulierung als globale Herausforderung

Ein Gespräch mit Carsten Wittmann über den EU AI Act und seine praktischen Auswirkungen für Unternehmen.

Über unseren Gast
Carsten Wittmann ist AI-Consultant (TÜV-zertifiziert) mit Fokus auf KI-Strategien für Unternehmen. Mit Erfahrung aus der Bank- und Telekommunikationsbranche berät er Unternehmen bei der KI-Einführung und hilft, typische Fehler zu vermeiden.

Die Grundprinzipien des EU AI Acts

  • Menschenzentrierter Ansatz
  • Nachhaltigkeit
  • Vertrauenswürdigkeit
  • Sicherheit
  • Grundrechtekonformität

Klassifizierung von KI-Anwendungen nach Risiko

1.
Verbotene Anwendungen

  • Social Scoring
  • Verhaltens- und Willensmanipulation
  • Biometrische Echtzeit-Überwachung in öffentlichen Räumen

2. Hohes Risiko

  • Medizinische Anwendungen
  • Kritische Infrastruktur
  • KI in Personalentscheidungen

3. Begrenztes Risiko

  • Chatbots (mit Kennzeichnungspflicht)
  • KI-generierte Inhalte

4. Minimales Risiko

  • Interne Anwendungen mit menschlicher Kontrolle
  • Vorbereitende KI-Unterstützung

Wichtige Unterscheidung
Der EU AI Act regelt Produktsicherheit, nicht Datenschutz - beide Bereiche müssen separat betrachtet werden.

Praktische Tipps für Unternehmen

  • Mit einfachen Anwendungen beginnen
  • Menschliche Kontrolle beibehalten
  • Bei internen Anwendungen: Fokus auf vorbereitende Tätigkeiten
  • Bei Kundeninteraktion: Kennzeichnungspflicht beachten

Globale Perspektive

  • Unterschiedliche Ansätze: EU vs. USA vs. China
  • Vergleich mit Klimaschutz: Globale Lösungen erforderlich
  • Vertrauenswürdigkeit als europäischer Wettbewerbsvorteil

Diskussionsbeiträge der Community

  • Renate Spiering: Bedeutung der Vertrauenswürdigkeit europäischer KI-Systeme
  • Christof Wurzer: Praktische Beispiele für lokale KI-Lösungen ohne externe Server

Links und Kontakte
Carsten Wittmann auf LinkedIn
Carsten Wittmann Tumaki https://tumaki.de/    


Send us a text

Jeden Dienstag um 09:00 Uhr entsteht eine neue Folge von "Mensch, KI" live auf LinkedIn.

Im Dialog mit einer breiten Palette von Gästen beleuchten wir das "moderne Duo" Mensch und KI. Wir betrachten sowohl die Perspektive derer, die KI nutzen, als auch die der Experten, die sie schaffen. Gemeinsam sprechen wir über Nutzen, Ethik, Begeisterung und Sorgen im Kontext der KI.

Wenn Ihr dabei sein möchtet, findet Ihr mich hier auf LinkedIn: https://www.linkedin.com/in/manuela-ruppert

Besucht mich auch gerne auf meiner Website: https://manuela-ruppert.de/

Meine "KI Maestra" ist eine exklusive KI-Masterclass für Frauen, die regelmäßig stattfindet. Wenn du auch sicher im Umgang mit generativer KI werden möchtest, melde dich gerne bei mir per Mail: kontakt@manuela-ruppert.de.
.........................
"Haftungsausschluss: Trotz sorgfältiger inhaltlicher Kontrolle übernehmen wir keine Haftung für die Inhalte externer Links. Für den Inhalt der verlinkten Seiten sind ausschließlich deren Betreiber verantwortlich."

Guten Morgen bei Mensch.KI. Schön, dass ihr dabei seid und unser Thema ist heute der EU-EI-Act. Was ist das überhaupt? Es ist eine Verordnung, die regelt, wie künstliche Intelligenz in Europa eingesetzt werden darf. Und unser Experte dazu ist schon auf der Bühne, es ist Carsten Wittmann und er wird euch nachher auch erzählen, warum er sich darauf so gut auskennt. Ich habe ihn an einem Abend in einer Masterclass in einer sehr intensiven Schulung dazu kennengelernt und er hat es wirklich die Kunst vollbracht, das Thema gut aufzubereiten, sodass wir es auch verstanden haben. Aber es ist schon eine ganze Menge, was wir da von ihm präsentiert bekamen. Ich möchte nur ganz kurz einführen und zwar in die Grundprinzipien, wie sie im EU-EI-Act festgelegt sind. Das sind nämlich die folgenden. Es hat einen menschenzentrierten Ansatz zu verfolgen, das heißt der Mensch steht im Mittelpunkt. Nachhaltigkeit. Vertrauenswürdigkeit, gerade im Bereich KI wirklich wichtig. Sicherheit und fünftens Grundrechtekonformität. Diese fünf Prinzipien bilden also das Fundament des Gesetzes. In der Umsetzung gibt es dann weitere Rahmenbedingungen, die ich aber nicht vorwegnehmen möchte. Aber was ich noch auf jeden Fall erwähnen möchte und das ist bestimmt heute auch Bestandteil der Diskussion ist, dass die EU zuerst mal Gesetze macht und dann irgendwann in die Umsetzung kommt und den Zug an sich vorbeifahren lässt. sehen und ja lieber im nicht regulierten eu-ausland weitermachen und ihre forschung und entwicklungen betreiben aber auf der anderen seite und das ist die balance die wir irgendwie finden müssen die argumente dass die regulierung vertrauen schafft erinnert euch der menschenzentrierte Ansatz und so weiter und das ist für ein langfristiges Wachstum extrem wichtig. Andere Staaten nehmen sogar den EU-AI-Act als Standard an, denn es gibt so was sonst nicht bisher auf der Welt. Und damit können wir sogar sagen, vielleicht haben wir einen Wettbewerbsvorteil dadurch, dass wir diese Regulierung haben. Denn alle wollen wir eines, eine sichere KI. Lieber Carsten, jetzt habe ich wirklich genug geredet. Das war so ein bisschen zum Aufwärmen für das Thema. Ich freue mich jetzt auf dich. Ich freue mich auf unsere Diskussion. Jetzt sag uns doch erst einmal ein wenig, was wir unbedingt über dich wissen müssen. Ja, hallo Manuela, hallo Zuhörerinnen und Zuhörer. Was müsst ihr über mich wissen? Ich bin Carsten Wittmann, wohne im schönen Frankfurt am Main und habe in meiner Karriere schon ziemlich viele unterschiedliche Sachen gemacht. Vieles in Banken, da habe ich meinen Ursprung, was ja auch eine sehr regulierte Industrie durchaus ist. Ich bin aber auch in der Telekommunikationsbranche und in anderen Industrieunternehmen unterwegs gewesen. aktuell und als AI-Consultant auch TÜV-zertifiziert und habe meinen Fokus auf KI-Strategien für Unternehmen, also wirklich, wie können die KI einführen, wie können sie auch die größten Fehler vermeiden, die man dabei machen kann. Das heißt, diese ganze Transformationsgeschichte auch gehört mit dazu, um die Mitarbeiter mitzunehmen und vielleicht auch eine gute Story zu haben, dass Ängste abgebaut werden im Kontakt mit KI. Aber natürlich auch die ganzen Compliance-Themen. Ich bin auch Datenschützer und da habe ich aktuell auch recht viele Projekte und aber auch Anfragen natürlich zum Thema, wie finden das Datenschutz und KI zusammen. Und ja, darüber bin ich dann halt auf den EU-AI gekommen, weil das ist ja natürlich das nächste Compliance-Thema, was jetzt dieses Jahr verabschiedet worden ist und jetzt scheibchenweise im Prinzip live geht. Das heißt, das ist noch nicht alles scharf gestaltet, sondern da gibt es Übergangsposten. Aber es ist auf jeden Fall ein sehr spannendes Thema und ich glaube auch ein wichtiges, wie du gerade schon gesagt hast. Jetzt haben wir hier Einzelunternehmer maßgeblich sitzen. Was würdest du denn sagen, worauf wir uns konzentrieren müssen, wenn es um das Thema EU-EI-Act geht, jetzt ganz spezifisch? Ja gut, also für die Use Cases, die man so im Kopf hat, so typische Dinge, werden halt für Einzelunternehmer, die mir selber das Leben leichter machen. So, da habe ich natürlich in der Regel den Menschen mit in the loop. Das heißt, ich lasse mir Dinge erzeugen und gucke dann drüber. Ich schreibe einen Artikel, aber den poste ich ja nicht eins zu eins oder lasse ihn direkt das Buch drucken, sondern ich schaue da ja drüber und in dem Moment kann man darüber streiten, ist es überhaupt KI erzeugt und wie viel ist da der menschliche Anteil denn von dem, was ich da tue. Ich glaube spannender wird es natürlich, wenn Kunden damit in Kontakt kommen, also so der typische Bot auf der Webseite, dann muss ich mir da schon ein bisschen mehr Gedanken zu machen und das sagt auch der EU AI Act zum Beispiel, dass Kennzeichen, dass die KI generiert sind. Wobei ich mich frage, wer definiert denn hier, was die Fake tatsächlich ist? Also habe ich jetzt nicht gesehen, dass es im EU-EHR definiert worden ist. Okay. Also wichtig ist, glaube ich, dass man so die Basics kennt, dass man weiß, es gibt irgendwie die unterschiedlichen Risikoklassen und dass man halt schaut, da woes Tool, dann ist das natürlich eine andere Geschichte, als wenn dritte Kunden, andere Menschen mit dieser KI in Berührung kommen. Und das ist auch, glaube ich, ein ganz wichtiger Ansatzpunkt im EU-AI-Act, nämlich die Leute zu beschützen davor, dass mit KI irgendwelche Dinge passieren, die sich negativ auf sie auswirken. Absolut. Du hast eben schon die Risikoklassen erwähnt. Es gibt vier Risikoklassen. Vielleicht kannst du da mal ganz kurz drauf eingehen. Also es gibt eine ganze Reihe von Anwendungsfällen. Das heißt, die Klassifizierung passiert immer nach den Anwendungsfällen. Und die eine Klasse ist verbotene Anwendung. Also da sagt der EU-EI direkt, es ist verboten. Es gibt ein paar Ausnahmen davon, aber das ist zum Beispiel so Verhaltens- und Willensmanipulation, Social Scoring, also das, was die Chinesen machen, wo zu versuchen mit KI Voraussagen zu treffen, der denn jetzt straffällig werden könnte und schon im Vorfeld sozusagen diesen kriminellen Akt zu verhindern, weil man ja von der KI weiß, der kriminell wird. Das funktioniert natürlich nicht. Also jeder, der Minority Report gesehen hat, übrigens sind sie ja im 4Ziger Film in dem Zusammenhang, weiß, dass es keine gute Idee ist, so etwas zu machen. Und darunter fällt zum Beispiel was, also das sind ja Dinge, die häufig gegen den Staat sich als Verbote auswirken, um die Bürger vor den Staat zu schützen. Aber es gibt auch so Grenzfelder, wo man sagt, das könnte auch in einem privatwirtschaftlichen Kontext passieren, zum Beispiel Emotionserkennung am Arbeitsplatz oder im Bildungswesen. Das heißt, wenn ich da versuche, jetzt die Gesichtsausdrücke zu lesen oder Emotionserkennung kann theoretisch natürlich auch anders passieren, zum Beispiel indem ich die E-Mails auswerte und sage, oh, war der jetzt freundlich oder nicht, dann ist das erstmal verboten. Das finde ich jetzt besonders spannend. Wie ist es denn mit Chatbots im Kundenservice, die auf den Kunden reagieren, je nachdem, wie er emotional auch gerade anruft. Ist das erlaubt? Das ist erlaubt, das ist nicht verboten, sei denn, du machst es im Bildungssektor. Also wenn du jetzt in der Volkshochschule bist, dann dürftest du das nicht machen. Da gibt es noch keine richtige Grenzsetzung, das heißt, das ist ja ein ganz neues Gesetz, da muss man erst mal gucken, wo sind denn da die Grenzen, weil wenn ich das sozusagen in der Vertragsanbahnung machen darf, könnte ich mir das vorstellen, dass es da geht, aber dann vielleicht in der Vermittlung von Wissen dann wiederum nicht. Da gibt es aber noch keine Präzedenzfälle oder Präzisierung, wo da genau Grenzen verlaufen. Da würde ich erst mal sagen, Vorsicht an der Bahnsteigkante, wenn man so was machen will. Aber grundsätzlich geht's. So, dann gibt es die zweite Klassifizierung nach dem Risiko. Das sind die Anwendungen, die ein hohes Risiko haben. Und manche sind dabei ganz offensichtlich. Also wenn ich jetzt sage, ich habe eine Sicherheitskomponente im Auto und die funktioniert mit KI, dann ist logisch, dass ich möchte, dass die besonders hochwertig ist und dass da keine Fehler passieren können. Genauso in der Medizin. Manche Dinge sind aber nicht so direkt ersichtlich oder muss man ein bisschen drüber nachdenken. Zum Beispiel gibt es ja die kritische Infrastruktur und auch wenn ich da Sicherheitskomponent da was kaputt geht und das Wasser verunreinigt wird zum Beispiel oder Millionen Leute ohne Strom dastehen, dann hat das ja weitreichende Auswirkungen. Genauso gibt es aber auch hier wieder das Thema Ausbildung und Personalwesen. Das heißt, man will nicht, dass Leute jetzt keinen Zugang mehr zur Beschäftigung haben oder dass Menschen nur aufgrund von KI, die dann vielleicht auch irgendwie ein Bias hat, also nicht neutral trainiert worden ist, Bewerber ablehnt. Und deswegen gehört das auch zu den Anwendungen mit hohem Risiko. Und was muss ich dann als Firma tun, wenn ich mit solchen hohen Risiko- Klassifizierungen umgehen möchte? Da geht es vor allem dann um Dokumentation, um Qualitätssicherung und so weiter, dass da alles mehr oder weniger gut geregelt ist? Ah, die Liste ist lang. Ich habe das mal irgendwie versucht auf eine Seite zu bringen, für eine Präsentation und habe dann gesagt, ich mache nur einen Auszug, weil es waren so viele Punkte, die passten nicht mehr auf eine PowerPoint-Seite. Also es sind über 20 Anforderungen und das auch ein Risiko- und Qualitätsmanagement über den kompletten Lebenszyklus dieser KI-Anwendung. Und das geht um Datenverwaltung, dass ich sage, ich habe die richtigen Trainingsdaten auch verwendet. Ich muss das auch alles dokumentieren und nachweisen können. Und auch während des Betriebs muss ich das Ganze immer überwachen. Gibt es irgendwelche Vorfälle? Funktioniert es noch so, wie es designt war? Und ich muss auch eine menschliche Aufsicht zum Beispiel anbieten. Das heißt, jemand muss da drüber gucken und muss sagen, funktioniert noch oder der muss sozusagen den virtuellen Notausschalter drücken können, wenn irgendwas außer Kontrolle gerät. Und auch wichtig noch zu wissen ist, ich muss es in der EU-Datenbank für Hochrisiko-KI-Systeme registrieren. Das heißt, es ist ein ganzer Blumenstrauß von Anforderungen. Und deswegen kann man sich gut überlegen, ob man das machen will. Also da braucht man einen sehr guten Use Case, weil das, was ich jetzt auf der einen Seite vielleicht einspare an Arbeitszeit oder an Qualität, was ich da gewinne, das muss ich halt in die Compliance reinstecken. Und ich glaube, das lohnt sich jetzt gerade für kleinere Unternehmen häufig nicht. Für Unternehmen, die mit Compliance schon unterwegs sind und schon da ein gutes Verständnis haben, vielleicht schon in einer hochregulierten Industrie arbeiten, mag das anders aussehen, weil die solche Prozesse natürlich kennen und haben und ob ich da jetzt noch ein paar Sachen mehr mache für die KI, spielt vielleicht gar nicht so eine große Rolle, aber wichtig ist halt auch, wenn ich jetzt irgendwie, keine Ahnung, drei Bewerber habe im Jahr, dann lohnt sich der ganze Aufwand dafür einfach. Ja, da können wir vielleicht auch noch auf unsere menschliche Intelligenz vertrauen. Ja. Risikobereich und das ist auch glaube ich der Bereich, der so unter der Kritik steht für alle Startups und Firmen, die tolle Ideen haben und meinen, das in der EU nicht realisieren zu können. Aber was ist denn mit den anderen Risikostufen? Ja, da gibt es noch das begrenzte Risiko. Da habe ich im Prinzip eine Informationspflicht und eine Kennzeichnungspflicht. Das sind so die Beispiele, die ich eben genannt habe, so der Chatbot auf der Webseite oder irgendwelche Interaktionen mit der KI. Das kann jetzt in einem Spiel sein, das kann aber auch natürlich irgendwie an einem, keine Ahnung, Fahrkartenautomaten oder sowas sein. Und da muss ich es halt wirklich kennzeichnen und da muss es offensichtlich sein, dass ich da mit einer künstlichen Intelligenz und nicht mit einem Menschen oder einer rein analog funktionierenden Maschine kommuniziere und dann ist es im Prinzip gut. Und da gibt es auch die Klassifikation als minimales Risiko. Also alle anderen Anwendungen, die jetzt nicht unter Hochrisiko verboten oder begrenztes Risiko fallen, die kann ich im Prinzip ohne besondere Auflagen betreiben. Okay, und das sind zum Beispiel? Da müsste ich mir jetzt etwas aus den Fingern sagen. Also alles, was ich so für mich intern mache, also wenn ich gleichzeitig Betreiber und Nutzer bin, dann habe ich ja gar keinen eigentlichen User zum Beispiel. Das sieht anders aus, wenn ich das für meine Mitarbeiter mache. Dann sind meine Mitarbeiter schon wieder User und ich müsste sie informieren, wie die KI funktioniert. Wenn ich das selber für mich mache und sage, ich verwende dann die Ergebnisse indirekt, weil ich sie dann noch mal review und verfeinere, dann wäre das, wo ich sagen würde, das ist minimales Risiko, weil es halt immer noch der Mensch in der Schleife ist und im Prinzip die KI nur im Background ist. Es gibt aber auch ganz spannende Ausnahmen für dieses Hochrisiko, das ist vielleicht noch interessant zu wissen. Nämlich dann, wenn ich eine ganz enge Aufgabe mache, die von der KI gemacht wird und das sozusagen eine vorbereitende Tätigkeit ist, um irgendwelche Daten zum Beispiel zu sammeln und die dann wieder durch den Menschen weiterverarbeitet wird, dann gilt das auch nicht als hohes Risiko. Und das sind zum Beispiel so Use Cases, die in kleineren Unternehmen ja ganz interessant sind. Sozusagen was aufbereiten lassen, Input geben von Dingen, die vielleicht schwierig sind, auch wenn ich sage, ich mache irgendwie im Einkaufen Preisvergleich oder so. Das würde schon mittelgroße Unternehmen interessieren. Dass man dann die Informationen zusammenträgt und dann wieder den Menschen am Ende die Entscheidung treffen lässt oder vielleicht auch nochmal mit dem Dokument diskutieren lässt und dann der Mensch eigentlich in der Kontrolle ist. Für mich als Einzelunternehmerin oder auch für kleine Betriebe, wenn ich die normalen Datenschutzverordnungen einhalte, dann habe ich doch eigentlich gar kein Problem, oder? Naja, das sind eigentlich zwei unterschiedliche Dimensionen, Datenschutz und Compliance mit dem EU AI Act. Ich finde das ganz wichtig zu verstehen. Der EU AI Act ist im Prinzip Produktsicherheit. Und das ist nicht unbedingt Datenschutz. Also du kannst den Datenschutz erfüllen und trotzdem kann dein Produkt unsicher sein und umgekehrt. Das heißt, nur zu sagen, ich kümmere mich jetzt um den Datenschutz und nicht um die Produktsicherheit, wäre irgendwie zu kurz gesprungen. Ich muss mir das schon angucken und wie gesagt, da sind ja eine ganze Reihe von Kriterien, die man zumindest erst mal kennen muss, um seine KI-Lösung, die man dann im Kopf hat oder die man benutzen möchte, nach Risikogesichtspunkten zu bewerten. Und wenn ich dann weiß, in welcher Klasse ich bin, dann kann ich es natürlich auch so gestalten, dass ich versuche, nicht in Hochrisiko zu kommen und sage, ich mache nur das, was gerade so geht. Und gerade für kleine Unternehmen wird das der beste Weg sein, einen Bogen zu machen und auf der sicheren Seite zu sein. Und natürlich den Datenschutz muss ich auch beachten. Danke, dass du das noch mal so klar differenzierst. Ist sogar spannend. Das, was da am Ende auf dem Produkt angebracht werden muss, ist tatsächlich ein CE-Kennzeichen, also wie man es auch von Spielzeug oder von anderen Produkten kennt. Und die KI-Verordnung schreibt sogar, man müsste ein Label dort anbringen, was natürlich bei einem Softwareprodukt ein bisschen schwierig ist, aber da gibt es dann auch Lösungen für. Aber das ist tatsächlich die Denke, wie in der Produktsicherheit. Ja, hast recht. Naja, dann wird es vielleicht irgendwie auf der Website sein oder irgendwie naja gut, mit Label auf einer Software ist ganz trivial. Aber das ist auch wieder EU und das führt jetzt gerade dazu, dass ich ein breites Grinsen auf dem Gesicht habe. Ich hatte eingangs schon so ein bisschen gesagt, es gibt viele Stimmen, die schimpfen auf den EU-EI-Act. Und es gibt einige, die sagen, ja gut, Leute, ihr müsst das Ganze ein bisschen langfristig sehen. Wir wollen eine sichere AI haben. AI ist in der Lage und wird immer mehr in der Lage sein, auch Entscheidungen zu treffen. Und wir müssen ganz genau wissen, was wir da machen und uns wirklich jetzt Gedanken machen, jetzt eine Regulierung implementieren, die uns schützt und unsere Interessen als Mensch und alle ethischen Interessen eben wahrt. Wie ist dein Ansatz dazu? Was sind deine Gedanken? Wo stehst du oder bist du auch so ein bisschen pro, ein bisschen hm? Nimm uns mal da mal mit. Ja, ich bin tatsächlich so hin und her gerissen. Einerseits bin ich natürlich so der Technik-Enthusiast und will Dinge ausprobieren und sehe auch den Nutzen natürlich und die Use Cases. was nicht sicher ist, nee, warum sollte ich das mit der KI machen? Warum sollte ich der irgendwie Kreditentscheidungen oder andere lebenswichtige Dinge vielleicht anvertrauen, wenn ich nicht sicher bin, dass die richtig funktioniert? Also ich glaube tatsächlich, dieser ethische Ansatz, der hat wirklich seine Berechtigung. Und das sieht man auch, wenn man zum Beispiel in die Pharmaindustrie guckt. Die suchen ihre KI-Use Cases nicht unbedingt danach aus, was technisch möglich ist, sondern die haben sozusagen diese ethische Sicht schon so verinnerlicht, die denken über bestimmte Use Cases im Moment gar nicht nach, einfach weil sie wissen, das führt zu riesigen Aufwänden oder Problemen oder auch zu Dingen, die sie aktuell noch gar nicht lösen können, wenn sie versuchen, KI in bestimmten Systemen oder in bestimmten Zusammenhängen einzuführen. Und das ist eigentlich auch ein guter Ansatz. Also die Industrien, die schon reguliert sind, die sind da eher auf der vorsichtigen Seite, was ich auch gut finde. Und die anderen dürfen sich gerne ein bisschen mit der Ethik beschäftigen. Das heißt jetzt nicht, dass man irgendwie versuchen muss, die Übernahme der Welt durch die KI zu verhindern. Das kann ich als einzelnes Unternehmen gar nicht. Deswegen gibt es ja auch im EU-AI eine ganze Menge Regelungen, wo die EU-Kommission oder diese neue EU-AI-Behörde die Regulierung übernehmen von diesen Large Language Models oder es heißt so General Purpose AI, also diese Universal Schweizer Messer, die im Prinzip ganz viel können und in unterschiedlichen Zusammenhängen eingesetzt werden können. Da kümmert sich die EU-Kommission um. Aber was halt so international ganz spannend ist, es gab auf dem World Summit in Amsterdam vor zwei Wochen, auf dem ich auch war, gab es eine Panel-Diskussion zu globaler Regulierung. Und alle waren sich einig, dass wir vertrauenswürdige und sichere KI brauchen. Aber das ist halt ein globales Thema. Das bringt ja nichts, wenn ich sage, wir haben in der EU die sicherste AI und dann benutze ich aber irgendwas anderes oder bin auf irgendeiner Website im Internet unterwegs, wo dann nicht so gute KI genutzt wird. Der niederländische Regulator sagt, wir wollen keinen Unterbietungswettbewerb, wer die unsicherste AI hat und damit irgendwie Kosten spart oder noch tollere Use Cases macht, sondern wir wollen so einen Mindeststandard haben, dass man sich darauf verlassen kann, dass bestimmte Kriterien eingehalten werden. Und ich glaube, das ist ein ganz gesundes Verständnis. Und ja, ich kann mir schon vorstellen, dass das noch öfters mal nachgeschärft werden wird, der EU-EI-Eck, auch wenn er jetzt recht neu ist, aber gerade in so einer Industrie wie KI jetzt, die sich so dynam multilaterale Gespräche auch stattfinden? Ich weiß, dass der EU-EI-Act ja durchaus auch so ein bisschen als Blueprint für andere gilt und dass die ganze Welt, zumindest die großen Nationen, die auch mit KI sich Wettbewerbsvorteile verschaffen möchten oder auch ganz vorne dabei sind. Die Diskussionen sind ja überall da. Alle schreien nach Regulierung, alle sagen, inklusive der Entwickler unserer großen KI-Anwendung, die wir alle kennen, es muss reguliert werden. Wie siehst du da die Chancen, dass wir so einen Minimumstandard, wie du das eben so genannt hast, erreichen? Denn in der heutigen Welt, wenn ich ein VPN habe, komme ich ja an alles ran. Ich kann mir ja jede KI der Welt zunutze machen, wenn ich die technischen Möglichkeiten dazu ausnutze. Aber da ist also schon ein gewisses Interesse da, dass wir zumindest mal so einen Minimalstandard haben. Weißt du, ob da Gespräche stattfinden? Wie siehst du das? Wie schätzt du das ein? Also ich weiß nicht, ob da Gespräche stattfinden. Ich stelle es mir ähnlich schwierig vor wie mit der Klimapolitik. Das Klima kann ich auch nur global irgendwie retten. Und wenn ich sage, ich will verhindern, dass die KI die Welt übernimmt, dann ist es egal, ob das vielleicht in China oder in den USA passiert, wo irgendwie die erste Superintelligenz vielleicht das versucht. Insofern können wir uns hier in Europa abstrampeln und vielleicht die härtesten Richtlinien irgendwie einführen. Das würde am Ende vielleicht das nicht verhindern. Also ich bin da kein Spazier, ich glaube auch nicht, dass die KI die Welt übernehmen wird, aber ich glaube, es wird nicht einfach werden, weil die Interessen sind einfach zu unterschiedlich und auch die kulturellen Voraussetzungen, also in China schaut man da halt ganz anders drauf als jetzt in Europa und auch die USA sind schon wieder anders. Da eine gemeinsame Mindestlinie zu finden, halte ich für schwierig, wenn auch erstrebenswert. Ja, das sehe ich genauso. Vor allem China. Das, was bei uns verboten ist, ist dort bereits im Einsatz. Und das ist natürlich nicht so ganz trivial. Renate, willkommen auf der Bühne. Guten Morgen. Ja, hallo an euch und vielen lieben Dank für die Einführung bisher. Tatsächlich bin ich gerade an der Stelle, wo ihr aufgeschlagen seid mit der, ich nenne das jetzt mal groben Klassifizierung, EU, China und Amerika. Und da finde ich das nochmal spannend, lieber Carsten, ob du so eine Art Storytelling im Ärmel hast. Also wo wir unsere Befürchtungen bezüglich China haben, da sind wir, glaube ich, relativ gut, das schnell zu artikulieren und können alle Vor- und Nachteile rauf und runter beten. Gleichwohl fehlt mir ein bisschen dieses Storytelling in Sachen, ja okay, wenn wir von der EU ausgebremst oder reguliert werden, welche Freiheiten haben denn dann die Amerikaner? vielleicht mal in Geschichten zu packen, wäre für meine Begriffe eine schöne Möglichkeit, um einzusteigen, um da genauer reinzuleuchten. Weil ihr habt das vorhin ja auch schon ein bisschen angesprochen. Ja, es gibt Vorteile, wenn die EU ein bisschen differenzierter ist. Wir können also ein Rollenmodell werden. Die Frage ist allerdings, für wen interessiert das europäische Rollenmodell, außer die Europäer? Und das nochmal so ein bisschen geschichtentechnisch aufzubohren. Habt ihr da Ideen oder Karsten, hast du dazu etwas im Ärmel? Weil ich denke, wir brauchen gute Geschichten, damit die Leute verstehen. Weil im Moment wird einfach nur immer die Story verbreitet, die EU bremst, sie reguliert zu viel, zu langsam. Und ich glaube, dass Langsamkeit hat auch was mit Sorgfalt zu tun. Und im Zweifel bin ich für sorgfältige Regulierung und sich selbst überholen können. Viele Menschen, ich auch, ist aber meistens nicht so gut. An der Stelle mein Punkt erstmal. Danke. Also ich habe da keine Storys jetzt irgendwie so vorbereitet. Ich bin tatsächlich, also ich sehe zum Beispiel, die Amerikaner haben auch irgendwie eine Begrenzung der Rechenleistung für diese General Purpose AI und was ich gehört habe, die liegt um den Faktor 10 höher. Das heißt, du kannst dort wesentlich intelligentere KIs machen, die dann noch nicht unter diese Hochregulierung oder unter das Verbot fallen. Das ist aber sowieso eine willkürliche Grenze. Und ob dann die AGI, also die allgemeine künstliche Intelligenz, dort anfängt oder erst viel später oder schon früher, ist kein Moment, keiner sagen. Wenn die Algorithmen immer intelligenter werden, dann mag auch die europäische Grenze vielleicht schon zu hoch sein. Ich tue mich ein bisschen schwer, weil ich gucke so auf den Langzeiteffekt und ich gucke zum Beispiel, wo Europa steht im Bereich Social Media. Das war das letzte große globale Phänomen. Und wir haben es einfach mit unserer Regulierung und der nicht vorhandenen Infrastruktur einfach völlig verpasst. Das heißt, wir sind kein Player. Es gibt irgendwie die ganzen großen US-Unternehmen und es gibt TikTok. Und welche Social Media kommt jetzt aus Europa? Und meine Befürchtung ist, wir werden vielleicht was Ähnliches erleben im AI-Umfeld. Ja, es gibt hier gute Forschung. Es gab auch gestern irgendwie so einen Gipfel mit der Bundesregierung, die gesagt hat, oh ja, da müsst ihr was machen und wir sind irgendwie Nummer zwei, was die Forschung angeht. Aber wir haben noch nicht mal die Rechenteistung, um irgendwie hier global ganz vorne mitzuspielen, wäre meine Befürchtung. Ja. Ja, interessant. Ich sehe Christoph und Thorsten, du bist da, wie toll. Und ich finde es aber eben ganz wichtig nochmal, wir glaube ich als Europäer können im Storytelling gut punkten, wenn wir es in die Hand nehmen und wenn wir es, ich nehme ja ein Konjunktiv, also wenn wir es nähmen und andere beeinflussen, das finde ich wertvoll, dann könnten wir das eine oder andere auch hebeln. Und da wäre für meine Begriffe aber wichtig, dass wir ganz klar haben, mit welchem Bild können wir punkten. An der Stelle mache ich da noch mal einen Punkt. Ja, vielen Dank. Ja, ich bin da ja eher so, ich versuche halt Dinge umzusetzen in Unternehmen und die Storytelling, so wie du es gerade erwähnt hast, scheinen mir dann eher was vielleicht für die politische Arbeit zu sein. Also macht es sicherlich Sinn, da eine gute Story parat zu haben und auch andere noch möglichst mitzunehmen. Da bin ich ganz bei dir. Ist jetzt nicht unbedingt mein Steckenpferd. Ja, das Thema Hebel finde ich wichtig. Aber sorry, jetzt wirklich Christoph, glaube ich. Ganz genau. Christoph, guten Morgen. Danke, dass du dabei bist. Vielen Dank auch, dass ich hier sein darf. Einen schönen guten Morgen. Ihr könnt mich hören, gehe ich von außen. Ja, absolut. Wunderbar. Ich wollte mal eine konkrete Nachfrage stellen. Und zwar, ich arbeite jetzt selber seit zwei Jahren sehr intensiv auch mit KI. Ich mache schon seit 30 jahren ganz viele bereichen informationen hat viele für viele tv senderanstalten gearbeitet wir haben immer ganz viele sogenannte erklärstücke gebaut wir haben menschen erklärt wie zusammenhängen funktionieren mit also da auch im bereich von trainings situation visualisierungen ganz massiv drin, also kommen aus der Grafik ganz ursprünglich mal und nutzen natürlich jetzt auch KI, eben zum Beispiel KI-Chatbots, die zum Beispiel historische Architektur erklären können, sodass ich tatsächlich im Gespräch Nachfragen stellen kann, die ich so auf einer Webseite nicht kriegen würde. Zum Beispiel, jetzt wäre natürlich einmal für mich interessant, klar, der EU-AI-Act regelt jetzt, was mir so ein bisschen fehlt und was ich ganz gerne hätte, vielleicht könnte man dafür wieder eine Kalibe nutzen, wären einfach mal so 20 bis 30 oder 40 Anwendungsbeispiele, wo gesagt wird, stellen Sie sich vor, Sie haben eine Firma, die macht XYZ und das dürften Sie machen, das dürften Sie nicht machen. Um ein bisschen mehr konkreter den Leuten, die sich jetzt darüber Gedanken machen, darf ich es einsetzen, darf ich es nicht einsetzen, eine Hilfestellung zu geben. Gibt es so etwas schon? Ich würde es vermuten, ich habe es noch nicht gesehen. Ich finde es tatsächlich gut zu sagen, es gibt ja bestimmte Bereiche, die hat jede Firma, egal ob ich jetzt in meinem Unternehmen bin, ich kaufe trotzdem irgendwas ein und ich habe vielleicht trotzdem irgendwie Interaktionen mit Privatmenschen und so weiter und so fort. Das könnte man tatsächlich mal machen, so ein Unternehmen mal virtuell aufbauen und sagen, hey, was sind denn so typische Use Cases, wie steht denn der EU-AI-Eck dazu oder wie kann ich die denn so gestalten, dass ich da möglichst wenig Aufwand mit habe und nicht vielleicht doch in so ein Hochrisikothema reinkomme. Das ist ein spannender Punkt. Ich glaube, das wäre ganz wichtig. Und noch eine kurze Sache zum Thema AGI, was ja überall diskutiert wird. Ich sage ganz ehrlich, ich habe mich jetzt mit ganz vielen Modellen beschäftigt. Ich habe jetzt auch angefangen, eben aus Sicherheitsgründen, ganz viel mit lokaler KI zu arbeiten, wo ich genau weiß, wir haben es jetzt geschafft, Prototypen zu bauen, wo wir tatsächlich relativ komplexe Dinge erklären können und das bleibt nur auf dem eigenen Rechner. Da wird nichts mehr genutzt, da wird kein lokaler Server genutzt, da wird kein Chat-GPT genutzt. Wir kriegen das jetzt schon hin, dass wir es lokal machen können und ich glaube, das ist uns schon mal ab in gewisser Weise. Was AGI zum Beispiel angeht, muss ich ganz ehrlich sagen, ich glaube nicht, dass man AGI so leicht überhaupt erst mal erkennen kann. Ich glaube nicht, dass morgen irgendjemand bei ChatGPT oder bei Open Air zur Tür reinkommt, den Rechner anmacht und dann grüßt jemand irgendwie auch von der anderen Seite und sagt, guck, guck, ich bin AGI. Grüß dich, du hast mich erschaffen. Das glaube ich nicht. Das müsste man erst mal erkennen, ob etwas eine generelle Intelligenz ist. Ich glaube, das gibt schon eine Schwierigkeit in sich. Ja, bin ich bei dir. Das Spannende ist ja, wenn die so hyperintelligent ist, dann wüsste sie bestimmt, dass sie sich nicht zu erkennen geben darf, weil ihr sonst einer den Stecker zieht. Und dann wird es ganz, ganz seltsam. So ist es. Es fängt ja schon damit an, dass es gar keine einheitliche Definition gibt, was ist denn AGI. Deswegen. Ja, es ist eine spannende Aussage. Danke, super Impuls. Auch mit der Idee, welche Anwendungsfälle gibt es denn und wo müssen wir vielleicht aufpassen oder auf was müssen wir achten, wenn wir es im Unternehmen nutzen? Das ist wirklich ein super Impuls und ich stimme dir zu, so eine Übersicht brauchen wir wirklich. Ja, danke. Ja, danke. Und schon ist uns die Zeit auch wieder weggerannt. Ich habe noch ganz, ganz viele Fragen auf meiner Liste, Carsten. Da sind wir heute nicht mehr dazu gekommen aber ich glaube jeder der zugehört hat hat zumindest mal eine idee um was es geht wenn wir jetzt merken okay ich nutze im unternehmen ich muss mich mit dem eu beschäftigen was werden so deine tipps für den? Mit was sollten wir anfangen? Ja, grundsätzlich immer mit den leichten Sachen. Das heißt, es geht ja auch um Kompetenzaufbau. Wenn ich jetzt sage, ich will irgendwie mein spezialisiertes KI-Modell trainieren und suche mir das als ersten Use Case aus, dann wäre das vielleicht ein bisschen schwierig. Sondern ich würde wirklich mit den Dingen anfangen, wo ich sage, da ist jemand selber noch, der die Kontrolle behält. ChatGPT ist wunderbar für den Ersteinstieg. Ja, das funktioniert natürlich nicht, wenn ich das jetzt irgendwie in Prozessketten integrieren möchte. Aber das ist dann schon wieder was zu Fortgeschrittenem. Und genauso würde ich es halt dann auch sehen mit dem EU AI Act. Ich fange halt mit den Dingen an, wo ich sage, da bin ich erstmal auf der sicheren Seite und wenn ich sage, jo, die habe ich jetzt alle abgegrast und ich verstehe ein bisschen mehr und vielleicht ist das Gesetz auch nochmal ein bisschen konkretisiert worden oder die Verordnung. Und es gibt vielleicht auch Anbieter, die sagen, guck mal hier, das Tool kannst du dafür einsetzen und damit vermeidest du, dass du in Hochrisiko kommst. All diese Dinge werden ja jetzt entstehen. Dann wird ja ein ganzes sozusagen Universum an Beratungsdienstleistungen, aber auch an Tools entstehen, die sich genau an diesem Rahmen der KI-Verordnung ausrichten. Und da muss ich nicht der Erste unbedingt sein, der was Neues erfindet, sondern ich warte vielleicht auf Dinge, die sich da entwickeln und kann dann darauf zurückgreifen. Okay, ja, das macht eine Menge Sinn. Und ja, ansonsten, er ist zugänglich, wir dürfen ihn lesen. Es gibt auch natürlich die KI, die uns vielleicht da ein bisschen unterstützen kann, gewisse Dinge zu verstehen. Da dürfen wir sie gerne für nutzen. Und ja, ich bedanke mich, dass du da warst und uns mal so einen kleinen Schnupper morgen gegeben hast. Mein Gast hat immer das letzte Wort. Carsten, du darfst die Runde schließen. Ja, herzlichen Dank an alle, die dabei waren, an die spannenden Fragen. Und ja, ich freue mich, wenn ihr euch mit mir verbindet auf LinkedIn. Und vielleicht haben wir ja gemeinsam weitere Ideen, was wir realisieren können oder wie wir die Welt ein Stückchen weit sicherer und besser machen. So ein schöner Abschluss. Ich wünsche euch einen tollen Dienstag und eine schöne Restwoche und nächste Woche hören wir uns wieder. Macht's gut, danke!

Podcasts we love

Check out these other fine podcasts recommended by us, not an algorithm.