KI Espresso
KI Espresso ist dein täglicher KI-Podcast für Künstliche Intelligenz, AI News und Tech News aus Deutschland und der Welt. In 5 bis 7 Minuten bekommst du die wichtigsten KI-News, klar eingeordnet und auf den Punkt. Für alle, die verstehen wollen, wie KI Arbeit, Wirtschaft und Alltag verändert. Neue Folgen von Montag bis Freitag.
KI Espresso
72 Prozent — in 25 Minuten, ohne dass ein Mensch dabei ist
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
72 Prozent aller Großunternehmen weltweit setzen KI ein, um Bewerbungen zu filtern. Also 60 Prozent der Lebensläufe sieht nie ein Mensch.
SPEAKER_01Wahnsinn, oder?
SPEAKER_00Ja. Und gleichzeitig musste Amazon seinen eigenen Algorithmus abschalten, weil er auf Basis historischer Daten systematisch Frauen diskriminierte. Das klingt im ersten Moment nach einer dystopischen Maschine, die, naja, über unsere Karrieren entscheidet. Aber ich vertrete heute die Position, diese Technologie ist grundlegend das fairere System und absolut zwingend notwendig.
SPEAKER_01Also da halte ich entschieden dagegen. Ich argumentiere hier, dass wir ein völlig unkontrollierbares System verteidigen. Das skaliert Diskriminierung quasi auf Autopilot. Wir geben unsere menschliche Verantwortung da an eine komplette Blackbox ab.
SPEAKER_00Aber lass uns doch mal mit den harten Fakten starten. Ein menschlicher Recruiter investiert im Schnitt gerade einmal 7,4 Sekunden in einen Lebenslauf.
SPEAKER_01Ja, gut. Aber 7,4 Sekunden. In dieser unfassbar kurzen Zeit greifen doch all unsere unbewussten menschlichen Vorurteile. Wir wissen aus zahllosen Studien, dass Bewerber mit türkisch oder arabisch klingenden Namen nachweislich 14% weniger Rückrufe erhalten. Und das bei exakt gleicher Qualifikation. Das bestreite ich auch gar nicht. Menschen sind voreingenommen. Genau, die Maschine hingegen hat keinen schlechten Tag. Sie analysiert Fakten. Nimmer Uniliver als Beispiel. Durch Tools wie Highligh haben die 70.000 Stunden Bearbeitungszeit gespart und gleichzeitig 16% mehr Diversität erreicht.
SPEAKER_00Momento, nutzt das jetzt als Freifahrtschein für die Maschine. Lass uns dieses Uniliver-Beispiel mal dekonstruieren. Wie funktioniert denn ein System wie Higherview technisch? Es analysiert in automatisierten Video-Interviews die Mikromimik, die Stimmfrequenz und den Blickkontakt. Richtig, es erfasst konkrete Datenpunkte, statt sich auf so ein vages Bauchgefühl zu verlassen.
SPEAKER_01Aber diese Datenpunkte sind doch überhaupt nicht objektiv. Die American Psychological Association stuft genau diese Art der Mimikanalyse als reine Pseudowissenschaft ein.
SPEAKER_00Pseudowissenschaft? Das ist ein starkes Wort.
SPEAKER_01Ja, aber warum denn? Weil jemand, der neurodivers ist, der beispielsweise auf dem Autismusspektrum liegt oder schlicht kein Muttersprachler ist, eine völlig andere Sprachmelodie hat. Stimmt, ja. Der Algorithmus misst das gegen eine statistische Norm und straft diese Abweichungen rigoros ab. Das ist keine Fairness, das ist die Diktatur des Durchschnitts.
SPEAKER_00Ich verstehe deine Skepsis da, aber ich sehe das Konzept echt ganz anders. Die KI ist wie ein diagnostischer Spiegel. Sie erfindet ja keinen Sexismus oder Rassismus.
SPEAKER_01Nein, sie übernimmt ihn einfach.
SPEAKER_00Sie reflektiert lediglich die menschlichen Vorurteile, die, naja, tief in unseren alten Trainingsdaten stecken. Bei Amazon hat der Algorithmus eben gelernt, dass in der Vergangenheit vor allem Männer befördert wurden.
SPEAKER_01Eben. Und hat daraufhin Frauen systematisch aussortiert.
SPEAKER_00Ja, aber hier ist der alles entscheidende Unterschied. Wenn wir diesen Bias in der Maschine bemerken, können wir den Code patchen. Wir können das Modell kalibrieren, indem wir dem Algorithmus mathematisch verbieten, das Geschlecht oder den Namen zu gewichten. Versuch mal, das Gehirn eines voreingenommenen Recruiters zu patchen. Das ist unmöglich, klar. Eben. Bei der KI können wir die Gewichtung objektiv korrigieren. Und ich frage dich ganz pragmatisch. Eine attraktive Stelle zieht heute gut und gerne 300 Bewerbungen an. Wie willst du diese Menge ohne Automatisierung überhaupt noch sichten?
SPEAKER_01Dieses Skalierungsargument, das höre ich ständig. Aber ein bloßes Effizienzproblem rechtfertigt doch keine intransparente Diskriminierung. Du sagst, wir können den Code einfach patchen.
SPEAKER_00Ja, können wir.
SPEAKER_01Aber oft wissen wir gar nicht, wie die KI ihre Entscheidungen überhaupt trifft. Das zeigt eine aktuelle MIT-Studie sehr schön. Du spielst oft das Problem mit den Proxis an, oder? Ganz genau. Wenn man der KI verbietet, nach Hautfarbe oder Herkunft zu filtern, sucht sie sich unbemerkt andere Wege. In der Studie hat die KI einfach die Postleitzahl als Proxy missbraucht. Ach krass. Ja, also als Stellvertretervariable für den sozioökonomischen Status. Das System lernt eigenständig, aha, diese Postleitzahl gehört zu einem ärmeren Viertel. Diesen Bewerber lehne ich ab. Das ist eine absolute Blackbox. Und das bringt uns direkt zur rechtlichen Realität hier im Dachraum. Wobei der Datenschutz daher bereits extrem streng ist, muss man sagen. Aber er wird in der Praxis oft völlig ignoriert. 60% der automatisiert abgelehnten Bewerber erhalten nicht mal eine Begründung für ihre Absage. Das ist ein eklatanter Verstoß gegen Paragraph 26 des Bundesdatenschutzgesetzes. Und noch brisanter, oft wird übersehen, dass der Betriebsrat nach ⁇ 87 des Betriebsverfassungsgesetzes bei solchen Tools zwingend ein Mitbestimmungsrecht hat. Wird der übergangen, macht das potenziell jede darauf basierende Kündigung rechtlich anfechtbar.
SPEAKER_00Okay, ich akzeptiere völlig, dass hier rechtliche Risiken bestehen, wenn Unternehmen einfach blind agieren. Aber das bedeutet doch nicht, dass wir die Technologie abschaffen sollten. Wir bekommen ab August 2026 den EUAI-Act, der genau solche Recruiting-Systeme glasklar als Hochrisiko-KI einstuft. Was auf dem Papier natürlich erstmal schön klingt. Es ist viel mehr als das. Dieses Gesetz erzwingt Transparenz. Entwickler müssen offenlegen, wie ihre Algorithmen gewichten und es gibt strenge Audits. Bei Verstößen drohen Strafen von bis zu 15 Millionen Euro. Das ist der regulatorische Rahmen, der diese Blackbox öffnen und die Modelle sicherer machen wird, anstatt Innovation einfach zu verbieten.
SPEAKER_01Naja, ob das in der Praxis reicht, wird die Zukunft zeigen. Aber denkt noch einmal an die Zahlen vom Anfang. 72% der Unternehmen nutzen diese Systeme. 60% der Lebensläufe bleiben ungelesen. Genau. Postleitzahl oder eure Mimik im Video aussortiert.
SPEAKER_00Wenn euch diese Debatte zum Nachdenken gebracht hat, abonniert KI-Espresso. Jeden Tag eine neue KI-Debatte in sechs Minuten.