Mensch, KI!
Jede Woche bringen wir einen neuen Experten und ein spannendes Thema auf den Tisch.
'Mensch, KI!' ist nicht nur ein Podcast, sondern eine Live-Talkreihe auf LinkedIn, in der wir die Welt der Künstlichen Intelligenz beleuchten. Wir sprechen über den alltäglichen Einfluss von KI, ethische Fragen und die Möglichkeiten, die diese Technologie bietet. Unsere Gespräche sind offen und direkt, bieten Raum für Begeisterung und kritische Reflexion.
Ihr seid herzlich eingeladen, live auf LinkedIn dabei zu sein und aktiv mitzudiskutieren. Nehmt an unseren Gesprächen teil, stellt Fragen und teilt eure Sichtweisen. So könnt ihr direkt die Diskussion mitgestalten und neue Einsichten gewinnen. Schaltet ein, um zu erfahren, wie KI unsere Welt verändert.
Mensch, KI!
#57: "KI und ethische Fragen - Was hinter den Kulissen wirklich passiert" mit Barbara Lampl
Mensch, KI! #57 - KI und ethische Fragen: Was hinter den Kulissen wirklich passiert
In dieser Episode von "Mensch, KI!" sprechen Manuela Ruppert und Barbara Lampl über die ethischen Herausforderungen der KI-Entwicklung. Ein besonderer Fokus liegt auf den Menschen hinter den Systemen und den verborgenen Strukturen des KI-Trainings.
Hauptthemen
Die Menschen hinter der KI
- Data Worker und Clickworker: Ihre Rolle und Arbeitsbedingungen
- Unterbezahlung: Oft nur ein Dollar pro Tag
- Bedeutung ihrer Arbeit für das KI-Training
- Historische Entwicklung von der Google-Bildsuche bis heute
Sprache und koloniales Erbe
- IT-Begriffe und ihre problematische Geschichte
- "Master/Slave"-Terminologie in der Technik
- Bewusstsein für sprachliche Muster
Bias und Voreingenommenheit
- Ursprung von Bias in Trainingsdaten
- Beispiel CEO-Bilder: meist männlich und weiß
- Mathematische Grenzen der Bias-Korrektur
- Kulturelle Unterschiede in der KI-Ethik
Ethik und Guidelines
- Unterscheidung: Persönliche Ethik vs. professionelle Guidelines
- Kulturelle Unterschiede in der ethischen Bewertung
- Beispiel: Medizinische Beratung in verschiedenen Kulturen
Über den Gast
Barbara Lampl ist Verhaltensmathematikerin mit über 20 Jahren Erfahrung in KI-Entwicklung. Sie vereint Expertise in:
- Mathematik
- Finanzen
- Psychologie
- (Ethischem) Prompt Engineering
- Entwicklung
Kontakt zu Barbara:
- Website: http://www.barbara-lampl.de/
- Deutscher Blog: http://barbara-lampl.tumblr.com/
- Substack: "Your prompts, but better!"
Key Takeaway
"Der Algorithmus ist weder gut noch schlecht, aber nie neutral." - Barbara Lampl
Die Episode zeigt: KI-Tools sind wertvoll und nützlich - aber wir müssen sie bewusst und reflektiert einsetzen, um die Welt zu gestalten, in der wir leben wollen.
Jeden Dienstag um 09:00 Uhr entsteht eine neue Folge von "Mensch, KI" live auf LinkedIn.
Im Dialog mit einer breiten Palette von Gästen beleuchten wir das "moderne Duo" Mensch und KI. Wir betrachten sowohl die Perspektive derer, die KI nutzen, als auch die der Experten, die sie schaffen. Gemeinsam sprechen wir über Nutzen, Ethik, Begeisterung und Sorgen im Kontext der KI.
Wenn Ihr dabei sein möchtet, findet Ihr mich hier auf LinkedIn: https://www.linkedin.com/in/manuela-ruppert
Besucht mich auch gerne auf meiner Website: https://manuela-ruppert.de/
Meine "KI Maestra" ist eine exklusive KI-Masterclass für Frauen, die regelmäßig stattfindet. Wenn du auch sicher im Umgang mit generativer KI werden möchtest, melde dich gerne bei mir per Mail: kontakt@manuela-ruppert.de.
.........................
"Haftungsausschluss: Trotz sorgfältiger inhaltlicher Kontrolle übernehmen wir keine Haftung für die Inhalte externer Links. Für den Inhalt der verlinkten Seiten sind ausschließlich deren Betreiber verantwortlich."
Guten Morgen und herzlich willkommen zu Mensch KI. Heute reden wir mal Klartext über die Schattenseiten der KI. Über die Menschen hinter den Systemen, über ethische Fragen und darüber, was da eigentlich passiert, wenn KI trainiert wird. Da gucken wir ja gar nicht so gerne hin, aber mein Gast heute ist Barbara Lampe. Und wir hatten uns vor kurzem bei LinkedIn gefunden, als sie meinen Post über Suchmaschinen kommentiert hat. Im Klartext hat sie gesagt, das stimmt alles nicht, was du da schreibst. Moment, weil ich habe das etwas anders formuliert. Nein, also es war mega wertvoll und ich war ihr auch sehr dankbar. Und ja, also es war ein Paradoxon, was da passiert ist. Denn ich habe einen Post geschrieben darüber, dass man gescheit recherchieren sollte und habe es selbst nicht getan. Also mehr kann man sich wirklich nicht in die Netzel setzen. Und Barbara hat mir da so elegant rausgeholt. Und wir haben uns dadurch kennengelernt. Wir haben dadurch ein tolles Zoom-Meeting gehabt. Und heute ist sie als Expertin für das Thema bei uns. Sie kennt beide Seiten der KI, die technische und auch die menschliche. Und ja, was ich einleitend zu ihr sagen kann, Barbara ist Verhaltensmathematikerin und sie entwickelt seit über 20 Jahren KI-Lösungen, damals noch nicht mit generativer KI und sehr Algorithmus dominiert. Und sie bildet Menschen auch aus, unter anderem im ethischen Promtingeniering. Also sie weiß, wovon sie spricht und sie spricht es auch aus. Liebe Barbara, super schön, dass wir uns gefunden haben, dass du heute dabei bist. Herzlich willkommen. Vielen lieben Dank für die Einladung. Ja, wie gesagt, ich habe nicht nur rumgemäkelt, das war ja nur ein bisschen Anpassung im Detail, die da notwendig war, dass der Post in die richtige Richtung ging. Und wer weiß, ich habe eine etwas leichte Abneigung gegen Komplexität. Deswegen, ja, so landete dann da mein Kommentar unten drunter. Ja, erzähl uns doch nochmal so in einer kurzen Einleitung ein bisschen was über dich. Damit wir dich einordnen können. Also ich bin Verhaltensmathematikerin, man studiert vor 25 Jahren bei Mathe, Finance und Psychologie. Also zwar zweite Generation Quant Finance, erste Generation Behavioral Finance für alle, die sich mal in der Finance umgetrieben haben. Das war damals so, wo ich herkomme und warum ich auch eben so viel Erfahrung damit habe, ganz klassisch. für die Lösungen, die wir im Machine Learning benutzt haben, auch damals ja schon Deep Learning in den Anfängen und so weiter. Also wir reden hier von den Nullerjahren. Und deswegen mache ich jetzt seit 20 Jahren nichts anderes, als Daten- und AI-Strategien zu entwickeln und zu begleiten. Lustigerweise, und ich glaube, das ist so ein bisschen, wenn man das so lange macht, dann kommen auch immer so Leute auf, wenn machtest du das schon? Also ob man sich lange kennt, machst du machst du das eigentlich schon wirklich immer? Ja, aber Kinder, wir konnten das doch früher nicht so nennen. Da sind sie doch alle immer steil weggerannt, wenn wir gesagt haben, wir arbeiten Daten und Algorithmus und Machine Learning getrieben, dann rannten alle immer weg. Deswegen das viel in den letzten Jahren. Klar, sehr Marketing-Sales, Lassiker-Revenue-Operations-Geschichten, aber auch im Produkt immer wieder, aber Erst in den letzten paar Jahren durfte man dann es nennen, wie es ist und quasi final seit dem OpenAI-Marketing-Budget, wie ich das immer liebevoll nenne, geschmissen hat. Also mit dem Release von TPT 3.5 im November 2022 konnte man endlich mal quasi nach vorne stellen, was man seit 20 Jahren auch beruflich macht. Ich habe immer noch einen Lehrauftrag, oder was ist immer noch? Ich habe seit acht Jahren durchgegeben, einen Lehrauftrag in Data Science. Masterstudenten aus zwei unterschiedlichen Bereichen, einmal Master Digital Management, das heißt also wirklich auch sehr schwerpunktmäßig nicht die Techies oder sonst irgendwas. Ich bin ja auch per Definition eigentlich gar kein Techie, sondern eine Data-Matte-Maus. Und auf der anderen Seite Ingenieurin. Auch die eben klassischerweise gar nicht eben aus der Tech-Richtung kommen. Das heißt, die zwei großen Zielgruppen vor der Nase sitzen, die wir auch in deutschen Unternehmen klassischerweise antreffen, wenn es um Data und AI geht und auch quasi deren Hintergrundbildungsgrad. Und mir liegt eben dieses Thema Data, AI, Bias, Ethik sehr, sehr im Herzen. Vor ein paar Tagen hat Robert Franken, falls ihr die noch nicht folgt, mal rüberhüpfen, einen Post, auch in dem er mich getaggt hat, wo es eben genau um diese Bias-Verzerrungen eben geht. Und der kleine Lacher in mir ist danach aufgefallen, wir haben uns genau so nämlich mal auf einer Keynote, die ich 2016 zum NLF Festival gehalten habe, genau um diese Fragen. Also seitdem treibe ich mich um und drum auch sehr aktiv, so seit ungefähr, ich würde sagen, so 2013, um das Thema Ethik, Indata und eben halt auch AI-Gesellschaft. Genau, und das ist so ein bisschen, was wir uns heute mal so ein bisschen angucken. Das ist so mein Background, den ich so habe. Ja, danke schön. Vielleicht kannst du den Beitrag nachher unten verlinken. Dann könnten wir alle nochmal reinschauen, das wäre super. Ich bin ja relativ frisch im ganzen Thema. Das heißt, ich habe angefangen, mich mit künstlicher Intelligenz zu beschäftigen, als so die ersten Bild-KIs hochkamen, also DALI und Midjourney. Und dann kam irgendwann am 30.11. Chachapiti 3.5 und da ist ja eine große Bang losgegangen und da war ich da... Dann ziemlich fasziniert und habe, muss ich zugeben, mich erst vor einiger Zeit dann mit der ganzen ethischen Komponente beschäftigt. Und das ist schon ein bisschen spooky, wenn man das tut. Ja. Und wenn man dann auch so ein bisschen in die Geschichte der IT oder der Technologie reinschaut, was das ursprünglich mal war, also so... Schlagworte wie überwachender Kapitalismus und so weiter, dann bekommt man auf einmal einen völlig anderen Blick auf die Dinge. Kannst du uns mal so ein bisschen einleiten in diese Ursprünge? Also fangen wir ganz, ganz vorne an. Der Begriff der Artificial Intelligence ist jetzt circa 80 Jahre alt. Der ist geprägt worden in seinen ersten Ideen, während unter anderem Turing zum Beispiel geholfen hat, die Enigma zu knacken. Da kam das Konzept der Artificial Intelligence auf, einfach um euch einen Zeithorizont zu geben. Das heißt, wir haben mit Begriffen zu tun, die in die 80 abhielten. 80 Jahre alt sind, also auch wirklich noch aus ganz anderen Zeiten stammen. Das betrifft natürlich sowohl die Artificial Intelligence, also künstliche Intelligenz, aber auch die komplette Informatik, Computer Science. Das ist, nennen wir zum Beispiel klassischerweise von Master Slave, Netzwerken oder Laufwerken sprechen. Ihr seht schon, in welche Richtung das geht. Wer heute sich US- oder englischsprachige Immobilien-Shows anguckt, dann wird da nicht mehr von Master Bedroom gesprochen. sondern vom Primary Bedroom. Das haben wir in der IT oder in der Computer Science nie angepasst. Ich sage gar nicht, dass wir das anpassen müssen, sondern einfach um euch eine Idee zu geben, dass wir eben halt dort, klar, weil es hierarchische Systeme sind, häufig eben zum Beispiel ein großes Thema ist, dass wir Worte verwenden, die eben klassisch schon ganz anderes geprägt sind, zum Beispiel eben halt Master-Slave sind Sklavenbeziehungen, über die wir hier sprechen. die halt Eingang gefunden haben in das, das ist so diese Wortwahl und Wortgebrauch, um den es da immer wieder gibt. Nochmal, geht gar nicht darum, ob wir das ändern müssen, sondern um mehr auf die Awareness zu setzen, was das bedeutet. Auf der anderen Seite sicherlich eins, wie sind wir denn hier überhaupt gelandet? In den letzten Monaten ist sicherlich immer eine große Diskussion, wenn es um KI geht, dann wird sehr viel auf den Energiekonsum betrachtet. Das ist ein wichtiges Thema, aber das maskiert wiederum ein anderes Thema. Das ist auch immer so ein bisschen der Klassiker der Energieverbraucher, sonst machen wir näher als die Menschen, die dahinter stecken. Und da steckt extrem viele menschliche Arbeit dahinter. Das sind Data Worker, das sind Click Worker, wie wir sie noch früher genannt haben. Also auch das, diese Data Worker und Click Worker sind nicht neu. Um euch eine Idee zu bekommen, der ein bisschen, auch schon ein bisschen was, ein paar Umdrehungen um die Welt gemacht hat, der wird heute etwas vielleicht gar nicht mehr wissen, wie wir da hingekommen sind, weil für uns ist die Google Bild Suchmaschine etwas völlig Normales. Ich gebe da was ein, dann sehe ich ein schickes Bild. Das gab es ja früher aber irgendwann nicht. Google hatte bereits an der Google-Bild-Suchmaschine gearbeitet und dann eher hektisch angefangen, die auszurollen, als der Google-Suche-Algorithmus durch die Decke gegangen ist, weil J. Neville Lopez ein grünes Versace-Kleid getragen hat und alle in die Welt wissen wollten, wie das aussah. Und zu diesem Zeitpunkt, da war sie noch mit P. Diddy zusammen. Wir sprechen also schon ein paar länger her. Wie kommt jetzt aber Bild zum Beispiel überhaupt in so einen Algorithmus hinein? Denn diese Algorithmen waren damals nicht gut in der Bilderkennung und sind sie massiv besser, aber da mussten wir erst hinkommen. Das heißt, diese Bilder wurden getaggt und attributiert von Leuten und es führte dann eben auch zum Beispiel in der Obama-Präsidentschaft dazu, dass man eine Zeit lang Michelle bzw. Barack Obama eingeben konnte und auf dem Guerilla-Foto gelandet ist. Das sind alles Themen, die heute natürlich auch in den insbesondere insbesondere im Praetaining oder in dem, was man heute maskierend oder Human Reinforcement Learning nennt. Das heißt, das sind die Menschen, die eben die Ausgaben bewerten und sagen, das ist richtig, also Tagging, Annotations, aber auch eben Ausgabenbewertung. Ihr werdet das aus der eigenen Anwendung kennen. Wenn ihr ein JetGPT könnt, ihr Däumchen hoch, Däumchen runter machen. Diese Data Worker und Click Worker machen diesen Job. Und das sind, die sitzen nicht in cozy, kuscheligen Büros. Die sitzen bevorzugt in dritte Weltländern, machen einen der wichtigsten Jobs. Ohne die würden die Modelle übrigens nicht auf Stand so laufen, wie sie heute laufen. Und werden bezahlt. Das ist, glaube ich, ein dehnbarer Begriff in diesem Zusammenhang. Nach unseren Maßstäben auf jeden Fall. Da muss man immer so, ja, ja. Also die sind auch nach den Standards unterbezahlt. Das ist jetzt nicht, dass man hier denkt, das wäre jetzt hier nach deutschen Standards, die sind unterbezahlt. Nein, wir reden teilweise von einem Dollar am Tag und solche Sprechen, was die für diese Arbeit bekommen. Und warum ist das unethisch? Was passiert mit den Menschen? Was bekommen die zu sehen? Also unethisch ist zum einen, wenn man sich die Wertschätzungskette anguckt, ist das natürlich, wo man denkt, naja gut, das steht in gar keinem Verhältnis zueinander. Die Datensätze müssen teilweise bereinigt werden. Also jeder, der schon mal einen Datensatz bereinigen, einfach qualitätserschönen musste, muss sich das angucken. Wir kennen dramatische Sachen. Das ist jetzt bei den konkreten Data-Click-Workern meistens nicht der Fall, aber das heißt nicht unbedingt, dass es nicht der Fall ist. Wir kennen das natürlich aus den Social-Netzwerken, wo Facebook quasi ja Monitoring-Teams hat für Content, der gefleckt worden ist, der dementsprechend gewalt- und sexualisiert ist. Diese Sachen kommen schon auch drin vor, das kann man heutzutage, aber wenn man denn möchte, zumindest was die KI-Seite angeht, auch schon mit Algorithmen vordesignen. Aber das ist halt auch immer so, das ist genau dieser Grund. Also technisch sind wir heute massiv weiter, aber wenn mich der Arbeiter oder der Arbeiterin einen Dollar kostet am Tag, das laufen das Algorithmus 30 Dollar. Ich glaube, wir sehen hier einen Trend. Da nehme ich die 29 Dollar auf den Weg nochmal mit. Das ist halt eben solche Geschichten. Also A, es ist natürlich von dem, was die sehen und was die machen müssen. Aber auch, wie gesagt, wo wir überhaupt über Bezahlungsniveau reden, kann relativ drastisch an der Stelle werden. Und da müssen wir uns halt realistisch sein, selbst wenn sich das in der Zukunft auch weiter ändert. Wir sehen, der Algorithmus ist besser, schneller. Dann haben wir das natürlich quasi als historische Legacy mit da drin stecken. Das stimmt, das stimmt. Gibt es denn Alternativen? Wie könnte eine Alternative aussehen? Und was würde das auch bedeuten jetzt für KI, für die Kosten einer KI? Also seit Jahren wird gefordert, dass diese Data Worker, weil ihr Job wirklich essentiell ist, Das ist klassischerweise, fällt das in die sogenannte Data Preparation und jeder, der schon mal quasi mir auf meiner Seite der letzten 20 Jahre sah, weiß, dass Data Preparation einer der essentiellen Schritte ist, damit wir überhaupt Datenqualität auf Stand haben. Und auch übrigens einer der aufwendigsten in jedem Projekt ist Data Preparation. Würde, das wie gesagt, so landete ich auch in dem Thema, so diese Forderung nach, naja, also wir müssen mit ihr vielleicht auch anständig bezahlen, wenn sie einen so essentiell wichtigen Job machen. Das wäre schon mal ein Anfang. Der Zug ist zwischenzeitlich einfach relativ abgefahren, das muss man ehrlicherweise zugeben. Das heißt, heute wird immer mehr durch Algorithmen ersetzt. Das heißt, es ist eher eine Forderung, die es seit vielen Jahren gibt, den Werthaltigkeit dieser Data Worker anzuerkennen und sie eben halt zum Beispiel auch aufzuskillen, umzuskillen. Wir haben einen extremen Talentemangel, was wirklich angeht, wirklich in echter harter Data, Machine Learning und sonstiger Kompetenz. Also es würde auch unternehmerisch Sinn machen, man würde diesen Menschen weiter und fortbilden. Das ist eine Forderung, die immer noch auf sehr viele taube Ohren stoßt. Wir sehen schon ein bisschen eine Veränderung. Wie gesagt, War of Talent in diesem Bereich ist extrem real, vielleicht ein bisschen außerhalb von Deutschland und der EU, aber in den USA und auch in Indien ist diese War of Talent extrem da. Das heißt, wir sehen diese Tendenz etwas, weil die Unternehmen jetzt ein bisschen die Notwendigkeit haben, diese Menschen doch zu halten und fachlich weiterzuentwickeln. Das ist momentan das, was am meisten versucht wird. Aber wie das halt immer so ist, das sind Themen, die natürlich von den Leuten meistens diskutiert werden, die zumindest ein bisschen ein Verständnis haben, was nicht privilegiert heißt. Und sei es nur in dem Fall, ich meine, ich habe auch noch extrem viel privilegiert auf meinem Schreibtisch, weiß und weiblich, aber schon mal weiblich. Und deswegen muss man das alles immer so ein bisschen im Kontext einordnen. Wo stehen wir jetzt? Da ist es eigentlich eher daran, dass wir uns meistens mehr über die innenliegende Biase und die innenliegende Ethik in unserer Verwendung Gedanken machen und natürlich beeinflussen, wie eine zukünftige Gestaltung ausschaut. Und wie gesagt, momentan sehen wir ein bisschen so, dass die Data Worker dann noch notwendiger sind, aber da sind wir auch noch sehr mannvoll. Du hast dieses interne Bias schon gerade erwähnt. Wir kennen ja alle Beispiele, wo die KI voreingenommen ist. Und du hast eben das Beispiel auch genannt, so die Klassiker, gerade auch bei Bildern, stelle einen CEO da und der ist männlich und er ist weiß und hat ein gewisses Alter. Das ist so der Klassiker, der ja auch gerne genutzt wird. Ich sehe, dass es besser geworden ist. Ich habe auch mal eine Karte, eine Glückwunschkarte erstellt. Da wollte ich Putten darstellen von Michelangelo und habe die in einer farblichen Variation bekommen, die sicherlich nicht von Michelangelo so gezeichnet wurde oder gemalt wurde. Also man sieht, da wird eingegriffen. Wo ist da die Grenze zwischen... Ich möchte Bias vermeiden und auf der anderen Seite aber auch eine gewisse Zensur. Also Barmela? Ja. Ja, wo ist da die Grenze zwischen Zensur und Ethik? Das ist extrem schwierig zu sagen. Bei den Bildern ist es meistens offensichtlicher, aber zum Beispiel... Das ist immer so eine Gratwanderung. Man darf nicht vergessen, das sind die sogenannten Alignment-Teams, die auch gerne mal wieder rausgeschmissen, dann wieder neu besetzt hat. Bei den anderen ist es nicht anders. Das heißt, das ist dieses sogenannte Alignment, wo quasi entschieden wird, was wir als gradisch, ethisch relevant, aber auch politisch passend identifizieren. Klassisches Beispiel, wenn ihr Zugang mal habt zu einem großen chinesischen Large-Language-Modell, dann werdet ihr problemlos, wenn ihr da verschreibungspflichtige Medikamente reingeben, dann wird die euch problemlos antworten, in welche Dosierung das jetzt Sinn macht, die zu nehmen. Das würde kein US-amerikanisches oder auch europäisches Modell sagen, sondern würde ganz klar sagen: "Bitte wende dich an deinen Arzt." Wahrscheinlich mit mehr Worten. Während wenn es um Sachen geht, zum Beispiel in China, gab es mal in China eine Revolution, dann wird dieses Large Language Modell über die Guardrails gesteuert. Einfach mal schön die Antwort verweigern. Das sieht natürlich nach einem US-Modell ganz anders aus. Es gibt natürlich einen Konsens, was ethisch ist und was nicht ethisch ist. Also ich meine, da sind wir uns meistens ja dann doch noch einigermaßen einig. Aber auch da, wie gesagt, Ethik hat auch immer was mit kulturell zu tun. Und irgendwann landet man in Zensur. Ich mache mal ein ganz einfaches Beispiel. Ich glaube, kein Europäer ist jetzt schwer veruntreut, wenn er auf einmal nackte Brüste und Nippel sieht und Instagram geht völlig steil und sagt, das ist ganz, ganz böse. Also selbst in so kleinen Sachen haben wir das. Das ist einfach wie es ist. Es gibt natürlich Modelle, die eben zum Beispiel das nicht drin haben. Also auch Modelle, die sehr hohe sind, also zum Beispiel eine hohe Version von Stable Diffusion ist natürlich problemlos mit Pornobildern zu erzeugen tauglich. Da wird es mit den klassischen Bilderzeugungsmodellen nicht gehen. Und das, was halt immer so grenzwertig ist, ist die Injezierung dessen, eben der CEO, der männlich ist, beim Bild, wie gesagt, das ist meistens noch offensichtlicher, oder Frauen, wo der Ausschnitt vielleicht etwas tiefer ist, als wir das klassischerweise vielleicht professionell tragen würden, also es zu einem Beginn von einer Sexualisierung oder Hypersexualisierung kommt, dass eine Frau dargestellt wird, Und da ist halt immer die Frage, was sind die Daten? Rein technisch ist es immer eine Frage zwischen, was sind die Daten, was erzeugt der Algorithmus mehr von und was nimmt man im Alignment und in den zusätzlichen Layers eigentlich raus und rein und injiziert. Das sind alles Fragen, die wir uns technisch auch immer noch wieder stellen müssen. Und auf die Consumer-Seite jetzt, also quasi euch auf die Anwendungsseite hinzubekommen, sind wir halt einer sehr skurrilen und das ist ethisch eigentlich das viel Gemeinere. Deswegen unter anderem auch nicht einmal so ein bisschen Huhu-Schreie werden, so wie die Mischung von Suchalgorithmen mit Large-Language-Modellierungen geht es. Bisher war uns klar, dass Echokammern von großen anderen, also von externen Parteien erzeugt werden. Also Echokammer, wenn ihr YouTube benutzt und wir hatten gerade in den 11.11., also könnte es sein, dass ihr egal welches Geschlecht ihr habt, jetzt vielleicht einen Winked Cat Eyeliner oder außergewöhnliches Make-up sucht. und auf einmal schmeißt euch YouTube relativ viele Make-up-Tutorials aus, dann wisst ihr: "Okay, dieser komische Algorithmus von YouTube macht mir wieder eine Echokammer." Das wahrt quasi wenig ihr, viel die anderen. Während wir jetzt aber prompten, fallen wir natürlich, dann haben wir so ein Gefühl von Eigenmächtigkeit und wir analysieren nicht mehr so stark, ob das überhaupt wirklich übereinstimmt mit dem, wo wir vielleicht wollen, dass die Welt ist und ohne da jetzt irgendeinem Mann zu nahe treten zu wollen, Gender ist auch ein häufig unconscious Bias, dem fällt vielleicht gar nicht auf, dass auf seinem Bild da lauter Tüten drauf sind, bis dann irgendwie der Link im Kommentar kommt und meint so nach dem Motto, was ist denn das hier für ein All-Male-Panel, bis man dann zum zweiten Mal drauf guckt und sich denkt, so huch jetzt, wo du sagst. Das ist halt genau diese Herausforderung, mit der wir uns konfrontiert sehen, ist, ohne dass ich da irgendwie in meinem Umfeld auch nur jemanden ansatzweise was unterstelle, ich glaube, da habe ich sie alle hart genug trainiert, wir reden halt auch viel moral und es ist halt viel unbewusst. Der erste Gedanke ist nicht das Problem, beim zweiten soll es mir auffallen und das wird aktuell immer schwieriger. Das stimmt. Wir denken nicht mehr drüber nach. Dieses kritische Hinterfragen von dem, was ich sehe, von dem, was ich lese, sollten wir jetzt gerade im Zeitalter der KI, das klingt immer so doof, aber wir müssen es jetzt wieder verstärkt lernen und uns auch darauf sensibilisieren. Du hast eben schon gesagt, wir... Theophanu, wenn du schneller bist mit deinem Mikrofon, dann darfst du auch als Erste reden. Ja, ja, guck mal. Hallo, guten Morgen. Guten Morgen. Ich habe nur eine kurze Frage. Also erstmal vielen Dank für eure Informationen. Dann meine Frage, wenn es um Ethik geht. Also was ist denn überhaupt Ethik und was ist die Ethik in Biases und Unconscious Biases? Also woher bezieht ihr eure Informationen? eure Ethik zu definieren und weil wir reden viel über Morals and Machines und so weiter und ich habe mal irgendwann Philosophie studiert und mich mit Ethik beschäftigt und wüsste gerne mal, wie ihr eure Ethik definiert. Also ich würde mal sagen, es gibt zwei große Dinge, die man unterscheiden muss. Einmal Ethik, wenn du sie innerhalb quasi die Eigendefinition, was du für Ethik oder was ich als ethisch empfinde, das ist das eine und dann gibt es die Ethical Guidelines und Bias, Unbias, Geschichten, Heuristiken, die wir in Projekten quasi hart in die Regelwerke verankern. Ich würde es als zwei getrennte Instanzen sehen. Wo man eher quasi, was ist so, für mich ist es immer so, es gibt so ein paar Sachen, das ist so das Minimum. Ich habe es nicht gerne und zwar drei Schritte weiter als alle hinten, egal ob Ableism, Racism oder sonst irgendwas. Da kann man mich so richtig schön durch die Decke jagen. Das ist der Mindeststandard. Es gibt ganz bestimmte, wie gesagt, Gott sei Dank gibt es aus dem Bereich auch wirklich gute, zwischenzeitlich einigermaßen konsensorientierte Guidelines, an denen man in professionellen Projekten sich durcharbeiten kann. Und dann kommen quasi die persönlichen Läuereien rein, inwieweit das dann eben die persönliche Ethik und die persönliche Welt betrifft. Ich bin ein großer Freund des, also ich meine, wer mich ein bisschen länger kennt, ich und der intersektionelle Feminismus. Ich bin ein Arbeiterkind, ein Autist. Nein, also das ist für mich etwas, was ich sehr, sehr hoch halte. Da kann es aber auch schon, da fängt es schon an, dass man mit Leuten anfängt zu diskutieren. Also deswegen würde ich sagen, zwei Varianten. Es gibt gute und die sollten professionell auch verwendet werden. Ethics und Bias, Mindest-Guardrails und Richtlinien und privat oder in eigenen Projekten kann man da nochmal die Schippe oben drauflegen. Aber da gibt es auch Gott sei Dank wirklich, wie gesagt, sehr professionelles Handwerkszeug zwischenzeitlich. Mit Blick auf die Uhr herzlichen Dank und wir können das ja nochmal vertiefen. Also, Dankeschön nochmal. Tschüss. Dankeschön dir auch. So, gucken wir mal, ob der Mike es nochmal schafft oder wir andere Fragen haben. Ja, der Mike versucht es nochmal. Da, guck mal, Mike. Ja, ja, guck mal. Das sieht gut aus. Ich probiere es nochmal schön gut zusammen. Hört man mich? Ja, super, Mike. Ja, wunderbar. Also ganz herzlichen Dank, dass ich, also auch für den Beitrag und ich Ich fand es wirklich spannend, auch nochmal hervorzuheben, dass Ethik durchaus auch etwas mit dem kulturellen Hintergrund zu tun hat. Denn ich habe gerade das Privileg, dass ich international Menschen trainieren darf zur Umsetzung von KI-Ethik. Und ich stelle mir aktuell die Frage in Bezug auf Bias, ob wir wirklich eine realistische Chance haben, diese Vorurteile aus den großen Modellen wieder rauszudrücken. Nein. Also wir müssen realistisch sehen, dass die Vorurteile, die in den großen Modellen drin sind, in großen Teilen auf den Daten basieren. Der Algorithmus, das ist die oberste Regel, weder gut noch schlecht, aber nie neutral. Was algorithmisch, mathematisch also sauber ist, basiert immer in der ersten Schritt auf den Daten. Und die Daten sind die Daten, die sie sind. Ich stelle meinen Studenten am Anfang jedes Semesters, und da könnt ihr jetzt einfach mal mitmachen, folgendes Gedankenexperiment. Stellt euch vor, ihr seid jetzt am Ende hier in eurer Semester, ihr seid die Cracks der Data Science und Crazy Shit Selbstbauer. Und jetzt baut ihr anhand dieser Sachen um eure Fragen, die natürlich am Ende des Tages den Menschen ja auch mal ein bisschen umtreibt, besonders in diesem Alter zwischen Mitte 20 und Anfang 30. Wie werde ich erfolgreich? Mit all dem, was ihr hier gelernt habt, baut ihr euer eigenes Modell zusammen. Und wir nehmen jetzt einfach mal, und wir nehmen das, was am meisten Sinn macht, wir nehmen die großen Biografien. Wir analysieren die großen Biografien der Menschen, die wir da als erfolgreich definieren. und analysieren mal, was uns erfolgreich macht. Wir haben nicht mehr so viel Zeit, deswegen kürzen wir das Gedankenexperiment ab. Dann kommen jetzt alle möglichen Antworten von fünf Ohrhohungs aufstehend Eisbaden. Da merken wir dann den Instagram-In und TikTok-Einfluss. Die Antwort, die nicht offensichtlich ist, dass um erfolgreich zu sein, muss ich weiß und männlich sein. Warum? Naja, nur über diese dominanten Biografien geschrieben worden. Das heißt, das ist ein Bias, der im Datensatz verankert ist. Seit Jahren und Jahrzehnten gibt es die Bestrebung, also ich glaube jetzt seit knapp 15 Jahren, weiß ich bewusst davon, dass wir den Versuch unternommen haben, Daten, insbesondere Quality-Data im EU-Raum zu zentralisieren, verfügbar zu machen. Und da reden wir eben auch Quality-Data, reflektiert die Welt vielleicht ein bisschen besser als die wir mal hatten, zu die, wie wir sie gerne hätten. Das ist ja schon alleine ein Kunstgriff. Und das ist nicht trivial. Wir haben aktuell bei aller Diskussion um Responsal und Ethical AI, wir sind mathematisch nicht in der Lage, das Drama aktuell zu lösen. Es gibt nur ganz wenige Grundsatzpaper, die sich daraus beschäftigen. Eins, das ich immer noch am meisten zitiere, ist 2017, 2018. Diese Forschergruppe hat kein weiteres Funding bekommen. Das heißt, es gibt kein Nachfolgepaper. Wir sind mathematisch nicht an diesem Punkt. Wir können sehr viel Kunstgriffe machen. Wir können einiges machen. in Details machen. Ich kann euch dazu auffordern, Wenn ihr als Benutzer promptet oder wenn ihr die Kollegen seid, die auch in MVP's oder Fullscale arbeitet, das ist unser Schreibtisch aktuell, das so gut wie es nur geht zu definieren. Deswegen eben auch mit Guardrails, mit Ethicals, Rules, all diesen ganzen Geschichten. Aber aktuell der Status Quo sind wir mathematisch noch datentechnisch nicht in der Lage, dieses Problem so zu lösen, dass wir da irgendwie einen Knoten dran bekommen. Ja, das macht Sinn. Ja, vielen Dank für die sehr ausführliche Antwort. Ich habe es mir schon gedacht, ich weiß nicht, wie ich gerade darüber denken soll, aber das ist ein Thema, was wir definitiv immer mitnehmen dürfen, wenn wir mit der KI interagieren und arbeiten. Ja. Ich glaube, wenn man das Bewusstsein entwickelt und auch dieses kritische Hinterfragen... Ja. Ansonsten haben wir noch Stefanie gerade da, weil ich höre dich schon wieder nicht mehr. Das ist eine Moderationpflicht, Stefanie. Hallo zusammen, liebe Barbara, schön, dich hier auch zu sehen. Maloela kenne ich ja auch, ich war selber schon hier auf der Bühne. Danke erstmal. Ich bin ja ein mega Fan von dir, du weißt das. Wir kennen uns auch persönlich hier durch die Kölner KI-Bubble. Ich bin ja auch erst seit zwei Jahren durch die Künstliche künstliche Bildgenerierung dabei, mich hat es ehrlich gepackt wie Manuela. Und ich wollte in diesem, ja, KI und Ethik noch, also ich kann diesen ganzen Bias-Tatsachenbestand auf jeden Fall bestätigen, das sehe ich ja immer wieder in meinen Bildgenerierungen. Egal, wenn ich mit dem englischen Gender neutral prompte, Teacher, das ist immer eine weiße Frau sozusagen, oder Doktor, das ist in der Regel ein weißer Mann, manchmal mit Migrationshintergrund, aber Anyhow, was ich auch noch ethisch bedenklich finde, und ich arbeite selber damit und habe selber das Dilemma, also all diese Bilder, die da zum Trainieren zum Beispiel, ich arbeite vorzugsweise mit Majority, benutzt werden, da hat man einfach wahllos natürlich das ganze Netz gescrapet sozusagen und die ganzen Original- oder die Bilder der KünstlerInnen, die sehen keinen Cent dafür, dass ihre Bilder zum Training auch benutzt wurden. Das finde ich zum Beispiel auch Sehr hinterfragbar. Wie siehst du das, Barbara? Definitiv. Besonders würde man auf der anderen Seite, würde gar keiner Geld bekommen, könnte man ja noch sagen, naja gut, das kriegt jetzt keiner und es gibt ein paar die ersten Grundsatzurteile auch vor knapp einer Woche oder so was oder ein paar Tagen Zeit geschaffen und Rauch in meinem Hirn. Wo den USA nochmal ein Grundsatzurteil gefällt, was die Copyright-Laws relativ angezündet hat. Ich denke, das werden wir jetzt hart in den USA sehen. Man könnte also sagen, wenn keiner was bekommt, wäre es ja nicht so ethisch verwerflich. Naja, auf der anderen Seite, wer jetzt SearchGPT benutzt und sich auf einmal wundert, dass er so viele Weltzitate hat und so viel von der Bild-Zeitung auf einmal da drin hat, naja, OpenAI hat einen Riesendeal, mehrere Millionen, ich glaube es sind fast 200 oder 300 Millionen, insgesamt haben sie mehrere Milliarden ausgegeben, um Publisher quasi ihre Daten abzukaufen. Da zählt zum Beispiel Nissan dazu, da steht der Komplexe Springer Verlag dazu. Ja. Und jetzt mal abhalten, das kann man vom Springer Verlag halten oder was man nicht hält, darum geht es gar nicht. Der Punkt ist, dass genau da stattfindet, dass wir diese Dividierungen haben, dass da, wo Kohle ist, der Publisher bekommt jetzt Geld und die kleine Künstlerin, die vielleicht die Großirrleistung macht oder das Korrektiv hier quasi in Deutschland, um eine journalistische Publikation gegenzuhalten, die kriegen dann keine Kohle dafür. Das heißt, das ist genau das, was wir halt schon wieder sehen, egal ob es auf Data Worker, Click Worker ist, der kapitalistische Strom des Geldes und seine Flüsse ist leider halt auch immer nicht ganz so trivial, wie man sich das immer eben vorstellt. Und das macht dann eben halt eine Ethikdiskussion den Tacken anstrengender. Und das macht es sicherlich die Ethikdiskussion auch gerade in Zeiten wie diesen noch mal den Tacken anstrengender. Und vielleicht eins, was mir ganz wichtig ist, das heißt aber nicht, dass wir die Tools nicht benutzen sollten und uns deswegen abhängen lassen. Das ist immer so dieses, ja, dann mache ich damit nichts. ist sicherlich die dümmste aller Antworten, weil dann schaffe ich mich selbst ab. Aber es geht halt so ein bisschen um diesen Awareness-Aspekt, die anderen mit abholen und da einfach noch stärker ein Auge drauf werfen und halt eben, wenn man die Tools benutzt, den Blick drauf werfen, dass man sich bewusst ist, dass das eine GPT-Karte Publisher-Deals hat. dass eben auch dann sicherlich in anderen Bildgenerierungstools nochmal stärker zur Verfügung steht, wo man halt sich das einfach stärker bewusst sein muss. Dann kann man das nochmal, ich weiß, es ist wie immer doof, es ist der Konsument, es sind die Unternehmen, die gefordert sind, dass wir dieses Problem in den Griff bekommen, aber das ist wie halt immer so mit so einer berühmt-berüchtigten Lastenverteilung. Absolut, ja. Kann ich nichts mehr hinzufügen, es ist genauso, wie du sagst. Die Frage ist natürlich irgendwie die ganze, diese großen Konzerne, die all diese Macht haben, wohin führt das dann? Ich mache mir da viele Gedanken drüber. Ich arbeite selber so viel damit, aber ich merke auch immer, wenn ich mal einen Workshop habe oder einen Workshop gebe, das ist schon immer Thema. Ich weise auch wirklich darauf hin. Auch das Bias-Ding, das ist ein Bestandteil eines jeden Workshops irgendwie, um die Leute darauf hinzuweisen. Also wie gesagt, es gibt, ich habe das bei mir auf dem Blog, der wird auch nochmal abgedatet, weil gerade auch nochmal eine Kollegin bei mir aus dem Netzwerk ihre Doktorarbeit, wo dann Paper, nicht Doktorarbeit, sie hat schon doch einen Titel, Entschuldigung, Mann, Mann, Mann, aber ein neues Paper dazu veranlasst hat, das heißt auch meine, da gibt es einmal Prompting Rules, wenn man im Deutschen, von Eva Gengler ist das, die hat gerade ein Paper veröffentlicht dazu, Bias an Bildsuchmaschinen und ich habe bei mir auf dem Blog auch Anleitungen drauf, wie man eben in Unbiased Prompting reinkommt, gratis findet ihr auf dem Substack, teile ich auch gerne nachher nochmal. Also es gibt zwischenzeitlich schon ein paar Tools, die man halt einfach auch betrachten muss, sodass man da so ein bisschen quasi sich selber in die Position bekommt. Ich habe auch immer die Möglichkeit, und das ist immer so mein Ding, wir sind an einem Punkt, wo wir, und ich sehe das positiv, der Mensch muss sich noch an die Maschine anpassen. Das ist unsere Chance bei der Anpassung mit echt coolem Verständnis, wie das Ding funktioniert. Auch das nicht nur das meiste und das beste rauszuholen, sondern natürlich auch unsere, wie wir die Welt gerne hätten, vielleicht da draußen darzustellen. Das heißt, wenn diese Stimmen, die sie so häufig ungehört bleiben, weil der Schritt ist, naja, dann mache ich nichts oder mache den Mund nicht auf, dann wird es, die Eskalation kennen wir ja schon. Also deswegen rufe ich immer quasi zum Gebrauch mit Hirn auf. Noch sind wir in der Lage, dass wir sehr massiv durch Eigennutzung quasi es selbst mitgestalten können. Ich habe das Gefühl, die Manuela kommt nicht mehr wieder. Doch, doch, hörte mich. Jetzt sehe ich wieder einen grünen Rand bei dir. Ja, super. Ich habe das noch nie gehabt, dass mein Ton weg war. Ich weiß nicht, was heute passiert ist. Ich fand das jetzt eben so schön, dass ich es gerne auch so ein bisschen als Abschlussnachricht verankern möchte, dass wir selber noch in der Lage sind, etwas zu tun. Das bedingt aber auch, dass wir nicht einfach nur konsumieren ohne zu hinterfragen, sondern auch wirklich aktiv werden. Darin sehe ich aber auch wirklich die Gefahr, weil Menschen doch lieber konsumieren als oftmals Dinge kritisch zu hinterfragen. Und da braucht es Leute wie dich, Barbara, da braucht es Leute wie dich, Stefanie, oder auch dich, Mike, weil ich von euch weiß, dass ihr KI Menschen auch beibringt und da mit dieser Aufklärung einfach einen ganz, ganz fundamentalen Beitrag leisten könnt, dass Menschen, die von euch lernen, da auch ins Denken und Hinterfragen reinkommen. Barbara, mein Gast hat immer das letzte Wort. Das möchte ich dir jetzt geben. Ich glaube, das letzte Wort an der Stelle ist, wie gesagt, was ich gerade schon gemeint habe. Ihr könnt aktuell sind es Tools, die unglaublich cool sind. Selbst wenn die angeblich die Entwicklung stellen wir uns vor, sie würde jetzt eingestellt werden. Wahrscheinlich haben wir die nächsten 20 Jahre zu tun, um abschätzen zu können, wie viel Impact allein die letzten drei Jahre hatten. nutzt die Tools, nutzt sie aber mit der Idee, wie soll eigentlich eine Welt aussehen, in der ihr euch gerne auch in den nächsten 20 und 40 Jahren bewegen wollt. Und redet darüber, dass sie diese Tools benutzen, dass man sie cool benutzen kann. Dann bin ich ja auch Manuela sehr dankbar darüber, dass du einfach nochmal eine sehr viel mehr weibliche Zielgruppe erreicht hast, als ich das kann. Das ist sehr nerdy shit. Wir brauchen mehr diverse Stimmen, egal ob das Männer, Frauen oder divers ist, egal ob das ein internationaler Background ist, egal ob es andere Hautfarben, Orientierung oder sonst was ist. Die Welt, in der ich mich seit 20 Jahren bewege, ist dominant weiß und männlich und das sieht man auch. Denn da seid ihr jetzt gefragt, dass ihr quasi "join the party", dann haben wir die beste Chance. dass wir da in den nächsten Jahren vielleicht doch noch auch andere Sachen sehen, damit die bunten Stämmen eben auch gesehen und gehört werden. Wunderbar, ganz, ganz herzlichen Dank. Ja, ich fand den Talk heute sehr, sehr inspirierend, sehr informativ und ich wünsche euch noch einen schönen restlichen Dienstag und denkt immer an das Hinterfragen und an die Ethik. Ganz liebe Grüße.
Podcasts we love
Check out these other fine podcasts recommended by us, not an algorithm.