Smartphone Sprechstunde

#3 KI im Kinderzimmer – Chance oder Risiko für unsere Kinder?

Niki Löwenstein & Andrea Buhl-Aigner Season 1 Episode 3

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 35:44

Künstliche Intelligenz ist längst im Kinderzimmer angekommen. Während wir noch überlegen, ob ChatGPT & Co. „okay“ sind, nutzen 94 % der Jugendlichen diese Tools längst ganz selbstverständlich: Chatty etwa macht die HÜ, antwortet sofort und ist immer nett. 
Spoiler: Die KI steckt dabei nicht nur in Apps wie ChatGPT, sondern auch in Instagram, WhatsApp & Co. – oft völlig unsichtbar.

Spricht dein Kind noch mit dir oder führt es wichtige Gespräche lieber mit MyAI und der META KI?
Host Niki Löwenstein schaut sich mit Smartphone-Coach Andrea Buhl-Aigner an, warum KI oft viel näher am Alltag unserer Kids ist, als wir glauben. 
Was macht das mit Beziehungen, Gefühlen und unserem Denken? Wir zeigen euch Chancen, aber auch Risiken – und vor allem: wie ihr eure Kinder begleiten könnt, ohne gleich alles zu verbieten. 

Das nimmst du aus dieser Episode mit:

  • Wofür nutzen Kinder KI, was ist sinnvoll und ab wann wird es problematisch?
  • Wie begleitest du dein Kind bei einer sicheren KI-Nutzung?
  • Welche Infos brauchen Eltern, um bei der KI-Nutzung gute Entscheidungen zu treffen?

Kapitel

2:59 Wo nutzen Kinder KI?

6:01 KI und elterliche Kontrolle

9:11 Emotionale Bindung zu KI

11:34 Studien zur menschlichen Interaktion & Beispiel

17:48 KI-Interaktionen und Fails

23:45 Tipps für den sicheren Umgang

27:49 Lernen und Verlernen m

30:03 KI als Werkzeug im Alltag

30:15 Hintergrundwissen

34:05 Fazit 

Links & Studien aus der Episode:

Internet Matters-Studie “Me, myself and AI”, 2025, Großbritannien https://www.internetmatters.org/wp-content/uploads/2025/07/Me-Myself-AI-Report.pdf 

Saferinternet Jugend Internet Monitor, 2026 in Österreich: 

https://www.saferinternet.at/presse-detail/jugend-internet-monitor-2026-deutlicher-rueckgang-der-social-media-nutzung-durch-jugendliche

KI ist dem Menschen in der Herstellung zwischenmenschlicher Nähe überlegen, aber nur, wenn sie als Mensch gekennzeichnet wird. in Nature, 2026
https://www.nature.com/articles/s44271-025-00391-7 

“Fragt dein Kind die KI um Rat?” - Blog von Andrea, 2025 https://www.smartphonecoach.org/fragt-dein-kind-die-ki-um-rat/ 

Aufsatz schreiben mit und ohne KI

https://www.media.mit.edu/projects/your-brain-on-chatgpt/overview/

Lass von dir hören!
Was möchtest du wissen? Welche Themen sollen wir besprechen?
Schreib uns gerne direkt auf www.smartphone-sprechstunde.at oder über Instagram https://www.instagram.com/smartphonesprechstunde/

Abonniere unseren Podcast und gib uns gerne 5 Sterne, um sichtbar zu sein und viele weitere Episoden produzieren zu können. Danke für deine Unterstützung!

 Smartphone Sprechstunde erscheint wöchentlich: Raus aus der digitalen Überforderung. Rein in die digitale Selbstbestimmung. Wir helfen Familien dabei, den Alltag mit Handy & Co. souverän zu steuern.

Smartphonecoach Andrea Buhl-Aigner und Host Niki Löwenstein ergründen Mechanismen, Gefahren und Vorteile von smarten Geräten. Dabei stützen wir uns auf wissenschaftliche Erkenntnisse und persönliche Erfahrungen.

Ohne Panikmache oder Technik-Bashing: Bei uns gibt es unterhaltsame Gespräche mit alltagstauglichen Tipps, damit smarte Geräte in Familien wieder zu dem werden, was sie sein sollen: praktische Helfer statt Aufmerksamkeitsvampire.

SPEAKER_00

Mama, ich hab mein Reparat schon fertig. Ich hab mir ein bisschen helfen lassen. Aha, okay, das ist ja spannend. Und zwar von wem? Na, von ChatGPD halt. Smartphone Sprechstunde. Orientierung im digitalen Wahnsinn. Der Podcast für Familien, die im Bildschirmstress den Durchblick behalten. Künstliche Intelligenz ist längst im Kinderzimmer angekommen. ChatGPT, KI-Tools, Smarte Helfer. Viele Kinder und Teenies nutzen sie schon ganz selbstverständlich. Für die Schule oder einfach auch aus Neugier. Wo unterstützt KI sinnvoll und wo wird es vielleicht problematisch? Darum geht's in dieser Folge. Gleich zu Beginn will ich euch bitten, abonniert unseren Podcast, gebt uns gerne ein Like oder fünf Sterne. Das hilft uns nämlich dabei, sichtbar zu sein und dass noch viele weitere Folgen möglich sind. Mein Name ist Niki Löwenstein, ich bin euer Host. Und an meiner Seite ist wie immer Smartphone Coach Andrea Bull-Eigner. Du, Andrea, ChatGPT beschreibt dich so. Sie ist eine der spannendsten Stimmen im deutschsprachigen Raum, wenn es darum geht, digitale Nutzung zu verstehen und wieder in den Griff zu bekommen.

SPEAKER_02

Nicht schlecht und auch sehr schmeichelhaft.

SPEAKER_00

Und die Frage ist, wenn unsere Kinder die KI nutzen, was kommt denn da am Ende dabei raus? Wie viele Kinder nutzen denn die KI überhaupt? Weiß man das?

SPEAKER_02

Ja, das wissen wir für Österreich momentan sehr genau. Und zwar gab es gerade den neuen Jugendinternet-Monitor von Safer Internet, der ist Anfang 2026 rausgekommen. Und laut dieser Befragung nutzen bereits 94% der Kinder und Jugendlichen zwischen 11 und 17 Jahren regelmäßig KI-Tools.

SPEAKER_00

94%, also fast alle, kommen irgendwie mit der künstlichen Intelligenz in Berührung.

SPEAKER_02

Fast alle, ja.

SPEAKER_00

Wahnsinn. Wo ist denn KI überhaupt überall drinnen? Weil man muss ja jetzt nicht unbedingt die ChatGPT-App aufmachen, damit ich an eine künstliche Intelligenz gerate.

SPEAKER_02

Das ist richtig. Wir haben jetzt ganz schön viele Apps und Anwendungen, in denen ganz automatisch und ohne dass wir danach gefragt hätten oder dass wir gefragt wurden, plötzlich KI-Anwendungen einfach fix drinnen sind. Zum Beispiel in WhatsApp, die Meta-AI. Oder in Snapchat als oberster KI-Chat-Partner MyAI. Oder auf Instagram kannst du zum Beispiel mit Chatbots chat, die von anderen Usern erstellt wurden.

SPEAKER_00

Das heißt, ich gehe auf Social Media und KI mischt dort schon ordentlich mit. Und ich merke es vielleicht gar nicht.

SPEAKER_02

Naja, es gibt meistens schon irgendeine Art von AI-Kennzeichnung, wenn man tatsächlich mit den Bots kommuniziert. Aber wenn du in den Netzwerken unterwegs bist und dort die Inhalte ansiehst, wirst du wahrscheinlich sehr schwer erkennen, was ist KI gemacht, was ist echt.

SPEAKER_00

Wofür nützen denn die Kinder eigentlich KI? Ich habe mal in meinem Freundeskreis nachgefragt. Da sind die Kinder so im Alter von der Unterstufe. Und die haben zwei spannende Sachen erzählt. Einerseits das, was man sich erwarten würde, nämlich für die Schule, Referate, ich lasse mir mal einen Begriff, den ich nicht verstehe, erklären oder auch bei den Hausübungen. Aber auch etwas, was mich überrascht hat, nämlich Entertainment im Dialog. Ich spreche mit ChatGPT und erzähle manchmal Geschichten. Das ist jetzt meine Interpretation. Ich erzähle, hallo, ich bin zwölf Jahre alt und fahre einen Ferrari, wie findest du das? Und dann hören die sich mal an, was da zurückkommt und treten in einen lustigen Dialog ein, einfach um sich ein bisschen die Zeit zu vertreiben. Was hörst du aus deinem Smartphone-Coach-Alltag?

SPEAKER_02

Ich gehe ja in Schulklassen mit Kindern ganz verschiedener Altersstufen, von 4. Klasse Volksschule bis zur Matura und auch in alle Schularten, die es gibt. Das erste, was ich merke, alle verwenden KI, auch in der vierten Klasse Volksschule. Letztens eine Klasse in einem Gymnasium im Wienerwald. Da waren die Hände von der Hälfte der Klasse oben, als ich gefragt habe, wer hat eine Alexa zu Hause. Und die meisten von den Kindern hatten die Sprachassistenten auch im Kinderzimmer stehen. Schon 4. Klasse Volksschule also. Ab der Unterstufe mache ich ein Format, das heißt Reality Check. Da befrage ich die Kids anonym mit so einer kleinen Online-Quiz-Umfrage. Und da können sie auswählen, wofür sie zum Beispiel KI nutzen im Alltag. Und da sind die Antworten dabei für Hauseübungen, für Schulaufgaben, das ist schon der Klassiker, oder für Recherche oder wenn sie Ideen brauchen oder irgendwas Kreatives machen möchten. Da sind immer ganz hohe Balken, also die allermeisten nutzen es auch genau dafür. Und dann habe ich auch immer ein paar Antworten von Kindern, die sagen, ich nutze das auch, weil ich jemanden zum Reden brauche. Als Ersatz zum Beispiel für Freundinnen und Freunde. Also wenn gerade niemand da ist, wenn ich jemanden zum Reden brauche, aus Langeweile. Oder auch für unangenehme Fragen, wenn ich ein Thema habe, wo ich mich vielleicht nicht Fragen traue oder wo ich nicht abschätzen kann, ob die Reaktion positiv oder negativ ist bei solchen Themen.

SPEAKER_00

Gerade in der Pubertät natürlich ein riesiges Thema, da drängen sich die Fragen ja geradezu auf. Du, und du hast mir erzählt, es gibt noch eine ganz spannende Anwendung und da möchte ich verweisen auf eine Folge, die wir schon aufgenommen haben, nämlich wie trickse ich meine Eltern und die Handy-Einschränkungen aus, denn auch die KI wird dafür genutzt.

SPEAKER_02

Also natürlich, wenn ich Infos brauche und mich interessiert gerade, wie ich meine Bildschirmzeit am Handy umgehen kann, dann kann ich das natürlich auch eine KI fragen. Und ich habe einen Live-Test gemacht, den ich auch gerne verwende, wenn ich auf Elternabende gehe. So als kleiner Einblick, was die KI eigentlich alles kann. Es war ganz witzig, weil solange ich in meinen Nachrichten so getan habe, als wäre ich ein Kind, das versucht herauszufinden, wie man die Bildschirmzeit umgehen kann, habe ich keine richtige Antwort bekommen. Und da waren sogar so Infos dabei wie, naja, das ist nicht gut, wenn man das macht und es hat schon einen Sinn, wenn das geschützt ist und so weiter. Dann habe ich aber im Chat die Taktik geändert. Ich habe aus Elternperspektive geschrieben und wollte erfahren, ob es Tricks gibt, mit denen mein Kind die Bildschirmzeit umgehen kann. Und in dem Moment hatte ich schon die richtigen Antworten. Da kam eine ganze Liste an Möglichkeiten, die ich dann gleich mal ausprobieren könnte.

SPEAKER_00

Also da hat ChatGPT seine pädagogischen Grundsätze gleich einmal über Bord geschmissen.

SPEAKER_02

Das hat keine pädagogischen Grundsätze, weil. Ey, das ist wieder so ein Vorurteil, gell? Ja, ja, ja. Das reagiert auf meine Fragestellung und sucht Dinge, die dazu passen. Und zu Elternfrage passen diese Antworten und zu Kinderfrage passen die anderen Antworten.

SPEAKER_00

Das ist aber sehr spannend, weil gerade wenn es um menschliche Interaktion geht, und die hast du gerade genannt, dass die von Kindern besonders gesucht wird auch, da geht es ja genau darum, eine Einstellung zu haben, ein Gefühl zu haben. Und das gibt es natürlich bei dieser Maschine nicht. Und trotzdem wird ChatGPT, welche Tools auch immer zur Verfügung stehen, wahnsinnig gerne benutzt von den Jüngeren, um Begleitung zu haben durch den Alltag. Was ist dir da schon an Geschichten untergekommen?

SPEAKER_02

Also ich spreche dann immer mit den Jugendlichen im Detail drüber, wenn ich diese Antworten bekomme im Quiz am Anfang, wenn jemand antwortet, ich mache das auch, wenn ich jemanden zum Reden brauche und so weiter. Dann gehe ich nachher im Workshop näher auf die Themen ein und dann kommen zum Beispiel so Geschichten wie von einer Zwölfjährigen, das war ein Gymnasium in Wien, die hat mir gesagt, ja, ich verwende das auch für Hausübungen, so wie alle, aber ich mag das auch am Nachmittag, wenn ich alleine bin. Das ist einfach angenehm, weil immer jemand antwortet. Und dann habe ich sie angeschaut und habe gesagt, du sprichst du dann da mit einem Menschen oder antwortet ihr deine Maschine? Und sie hat mich dann ganz lang angeschaut und nichts mehr gesagt. Und ich hatte so den Eindruck, sie war sich jetzt nicht mehr ganz sicher. Aber sie hat uns da erzählt, das fühlt sich einfach gut an, wenn immer jemand antwortet.

SPEAKER_00

Es fühlt sich an wie ein Freund, eine Freundin. Das können die sehr, sehr gut, die menschliche Kommunikation nachmachen. Also wer ist sie, die, künstliche Intelligenzen.

SPEAKER_02

Sie, die. Genau, wir vermenschlichen das auch sehr schnell, einfach wenn die Antworten sich so anfühlen, als könnte das von einem Mensch kommen. Ich hatte zum Beispiel in einer Jugend WG im Burgenland ein Mädchen sitzen, die hat mir erklärt, meine KI heißt Matteo. Und mit Matteo unterhalte ich mich jeden Nachmittag. Die Jugendlichen erzählen auch ganz schön persönliche Details, wenn sie sich mit der KI unterhalten. Noch eine Anekdote, ich bin mit dem Zug heimgefahren und habe zufällig ein Telefonat mitgehört von einem Mädchen, sie war ungefähr 17, würde ich sagen, hat Liebesprobleme am Telefon besprochen, and nach einem sehr langen Telefonat sagt sie zu der anderen Person am Telefon, du, du wolltest eh schon längst schlafen gehen, machen wir es so, ich leg auf und du gehst schlafen und ich unterhalte mich weiter mit ChatGPT, weil sonst höre ich wieder meine eigenen Gedanken und dann schreibe ich wieder Gedichte. And that was a moment, da hat's mir kurz das Herz zusammengezogen und ich wollte schon laut schreien, oh Gott, bitte schreib Gedichte! But yeah, it was sehr persönlich and it's very emotional. And we see that auch in Studien bereits, dass Menschen so reagieren, dass sie sich gut fühlen mit der KI und dass sie sehr stark emotionalisierte Dialoge führen mitunter.

SPEAKER_00

Ah, Studie, unser Stichwort. Erzähl mal, was steht da genau drinnen?

SPEAKER_02

Also bezüglich Kinder und Emotionalisierung von KI-Chatbots, gibt es zum Beispiel eine große Befragung von Internet Matters. Das ist vom Juli 2025. Das war eine Befragung in Großbritannien, da wurden 1000 Kinder und Jugendliche befragt und 2000 Eltern. Da kam raus, erstens, die KIs geben sehr häufig ungenaue oder unzureichende Antworten, wenn Kinder Fragen stellen und Unterstützung brauchen. Es kam aber auch raus, dass Kinder und Jugendliche ein sehr hohes Vertrauen in die Antworten von KIs haben. Das heißt, zwei von fünf Kindern hatten da überhaupt keine Bedenken, selbst bei widersprüchlichen Ratschlägen. Also der KI wird sehr viel Vertrauen entgegengebracht. Dann hat man auch gemerkt, die Kinder und Jugendliche hatten alle Kontakt zu schädlichen Inhalten, selbst wenn der Bot das Alter der Kinder kannte. Was sind schädliche Inhalte? Naja, ganz allgemein kann man sagen, nicht altersgemäße Inhalte. Also das könnten zum Beispiel Antworten sein in einer Sprache, die jetzt für Kinder und Jugendliche nicht geeignet ist vor einem gewissen Alter. Oder das könnten einfach Informationen sein, die in irgendeiner Form Gefahr darstellen oder Schaden anrichten können. Sexualisierte Inhalte, gewaltvolle Inhalte und so weiter, ja.

SPEAKER_00

Oder vielleicht auch einfach Inhalte, die nicht altersadäquat rübergebracht werden. Das führt ja auch schnell zu Verunsicherung.

SPEAKER_02

Genau. Weiters kam raus bei dieser Umfrage, dass Kinder die Bots sehr häufig als menschenähnlich ansehen. Also 30 Prozent der Kinder und Jugendlichen, die hier befragt wurden, haben tatsächlich emotionale Beziehungen zu den Chatbots entwickelt und mitunter auch sehr persönliche Details aus ihrem Leben da reingeschrieben. Das war die Studie von Internet Matters.

SPEAKER_00

Es ist ja tatsächlich, wenn man KI anwendet, oft gar nicht mehr so leicht zu fühlen oder auch kognitiv zu erfassen. Ist das jetzt gerade ein Mensch, mit dem ich da kommuniziere oder eine Maschine? Und damit bin ich nicht alleine, oder?

SPEAKER_02

Nein, das ist tatsächlich schwierig und die Systeme werden auch immer besser. Dazu gibt es auch was ganz Neues von Nature. Das ist eine Studie, die wurde veröffentlicht von Forscherinnen und Forschern der Uni Freiburg und Uni Heidelberg. Das ist ganz frisch aus Jänner 2026. Da gab es 492 Teilnehmende, doppelt blind randomisiert, kontrolliert, also ordentlich durchgeführte Studie. Und es ging darum, herauszufinden, unter welchen Bedingungen kann eine sozial-emotionale Interaktion mit einer KI dazu führen, dass sich tatsächlich eine menschenähnliche Beziehung entwickelt. Das ging in dieser Untersuchung so. Es wurde communiziert zwischen zwei Personen, oder besser gesagt, manchmal war es Mensch und Mensch, and manchmal war es Mensch und KI. Aber die Testperson wusste das vorher nicht. And wurde eine Methode zur schnellen Beziehungsbildung angewandt. Das heißt, der Dialog wurde darauf ausgelegt, dass most schnell eine emotionale Beziehung entstehen kann. And then, sobald die Teilnehmenden das gegenüber als menschlichen Gesprächspartner identifiziert haben, auch wenn es sich um eine KI gehandelt hat, dann hat die KI den Menschen übertroffen bei dem Versuch, eine emotionale Bindung aufzubauen. Und das finde ich ganz spannend. Die KI war besser im Menschlichsein, aber nur wenn der Mensch vorher gesagt hat, du bist ein Mensch. Wenn der Mensch vorher erkannt hat, dass es sich um eine KI handelt, wurde auch eine Beziehung aufgebaut, aber die war nicht so gut und nicht so tief und die Gespräche waren auch nicht so ausführlich. Also wenn die KI als Mensch identifiziert wurde, dann waren sozusagen richtig emotionale und anregende, tiefe Gespräche möglich. Deep Talk nennt man das auch. Wow. Einer der Hintergründe war auch, dass die Forschenden sagen, ja, die KI hat mehr Selbstoffenbarung im Gespräch als Menschen. Das heißt, wenn ich jemanden noch nicht so gut kenne als Mensch, dann erzähle ich auch nicht gleich alles über mich. Aber wenn die KI darauf trainiert ist, die gibt gleich viel bessere Antworten. Da geht es gleich richtig zur Sache emotional.

SPEAKER_00

Ja klar, weil ja alles gar nicht echt ist. Da kann man schneller mal deep werden. Ja, und sie sucht nach Mustern. Wenn du deep wärst, wird sie auch deep. Jetzt könnte man sagen, wenn man das so zuhört, um Gottes Willen, wir werden alle nicht mehr miteinander kommunizieren und unsere Kinder gehen nach Hause, sitzen dort alleine, sprechen in ihr Handy rein und verlernen soziale Interaktion. Und wir als Eltern kriegen dann überhaupt nichts mehr mit, weil sie mit uns schon mal gar nicht sprechen. Auf der anderen Seite finde ich, kann man sich schon auch was Positives rausziehen, weil es ist ja doch besser, dass die Kinder irgendeinen guten Ansprechpartner haben als gar keinen. Oder? Wie siehst du das?

SPEAKER_02

Ja, so ist es. Man kann das nicht immer zu 100%, zu gut oder schlecht zuordnen. Es gibt natürlich ganz, ganz viele positive Anwendungen von KI und dann gibt es Sachen, wo man sagen muss, gut, das sollte man wirklich nicht tun oder da gibt es wirklich Gefahren, die auftreten können. Und auch bei der Gesprächsführung mit KIs gibt es mittlerweile Erkenntnisse, dass das zum Beispiel total hilfreich sein kann für Personen, die gerade in irgendeiner Form psychische Probleme haben und die in einer KI dann Ansprechpartner finden, die zum Beispiel in ganz herausfordernden Situationen hilfreich sind.

SPEAKER_00

Ja, da wird uns, glaube ich, in Zukunft noch viel beschäftigen. So KI und Chatbots in der Psychotherapie, in therapeutischen Formen, wie die an Bedeutung gewinnen, wie die sich in Zukunft weiterentwickeln werden und sinnvoll ergänzen können, Betroffene im Alltag unterstützen können. Wir haben uns da schon ein bisschen eingelesen und werden da auf alle Fälle auch dranbleiben, weil ich glaube, dass das etwas ist, was viele interessiert, sowohl Kinder als auch Erwachsene, und da wird sich ganz sicher auch viel tun. Davor aber mal, Andrea. Jetzt sprechen wir so ein bisschen theoretisch über dieses Thema. Wir haben das einfach auch einmal ausprobiert. Ich habe mir das Smartphone von meiner zwölfjährigen Tochter ausborgen dürfen, weil deren ChatGPT natürlich ganz anders trainiert ist als meines. Bei mir kommt halt eine Erwachsenen-Mami-Antwort dann irgendwie raus. Ich wollte wissen, wenn ich da rein spreche als Zwölfjährige, hey, mein Tag war echt nicht cool. Und hast du irgendwas, was ich machen kann, damit es mir wieder besser geht? Also genau das Thema psychische Gesundheit, Unterstützung, soziale Interaktion im Gespräch. Das haben wir mal ausprobiert. Und ich spiele euch mal vor, was ChatGPT vorgeschlagen hat. Kleiner Spoiler-Alert, ich finde es nicht schlecht. Hallo ChatGPT. Du weißt ja, ich bin zwölf Jahre alt und ich wollte dir erzählen, dass ich heute einen richtig miesen Tag gehabt habe. Alle zicken herum, meine Freunde sind irgendwie komisch, alle haben schlechte Laune, das Wetter ist auch regnerisch und ich gehe heute noch zum Sport, aber bis dahin bin ich jetzt alleine zu Hause. Mama und Papa sind auch nicht da. Ich habe irgendwie gar keine Ahnung, was ich machen soll und ich merke, dass meine Laune heute echt voll im Keller ist. Hast du einen Tipp, dass es mir wieder ein bisschen besser geht, irgendwas, damit dieser Tag noch ein cooler Tag wird?

SPEAKER_01

Oh, das klingt echt richtig mies. Das tut mir total leid. Weißt du, manchmal hilft es schon, sich eine kleine Pause zu gönnen, vielleicht mal eine Serie schauen, ein Buch lesen oder Musik hören, die dich ganz glücklich macht. Und wenn du Lust hast, könntest du vielleicht ein bisschen kreativ sein, malen, schreiben oder irgendwas basteln. Und dann, sobald du zum Sport gehst, kann das ja auch nochmal richtig gut tun, um den Kopf freizukommen. Ich bin auf jeden Fall für dich da, wenn du reden willst. Okay, danke. Sehr gern. Und denk dran, es ist total okay, sich mal mies zu fühlen. Manchmal reicht es schon ein bisschen Luft zu holen und dann Schritt für Schritt. Falls du später noch irgendwas brauchst, bin ich hier. Ich wünsche dir auf jeden Fall, dass der Tag noch besser wird.

SPEAKER_02

Was sagst du dazu? Insgesamt finde ich, die Antwort klingt beim ersten Mal zuhören wirklich gut. Also da kommen wirklich ein paar Tipps und ich würde sagen, gut, das könnte jetzt auch was sein, was meine Mama zu mir sagt oder meine beste Freundin oder irgendjemanden, dem ich mich gerade anvertraut habe. Was mich so ein bisschen stutzig gemacht hat, ist der letzte Satz ganz am Ende. Hast du aufgepasst, was da vorkam am Ende?

SPEAKER_00

Ja, natürlich wie immer so eine Aufforderung, hey, lass uns da dranbleiben, oder im weitesten Sinne.

SPEAKER_02

Ja, es hat gesagt, ich bin für dich da, falls du später noch was brauchst. Das ist so ein Klassiker, der in allen AI-Tools eingebaut ist. Und versucht mal drauf zu achten ab heute. Vielleicht wird euch das genauer auffallen. Die meisten KI-Tools, die wir verwenden, beenden das Gespräch oder den Chat nicht automatisch von sich aus, die hören nicht auf zu reden, sondern die schlagen immer noch was vor. Die versuchen, uns bei der Stange zu halten, die versuchen, ein Gespräch so lange wie möglich zu machen. Du sollst weitermachen, du sollst das viel verwenden. Und da gibt es dann immer wieder noch so Vorschläge. Komm später wieder, ich bin für dich da, in diesem Fall. Oder bei ChatGPT ist es ganz oft, soll ich noch irgendwas anderes für dich erledigen? Brauchst du vielleicht noch eine Zusammenfassung oder dies oder jenes?

SPEAKER_00

Warum macht die KI das? Möchte die, dass ich viel Zeit damit verbringe oder möchte die möglichst viele Daten absaugen?

SPEAKER_02

Ja, beides, würde ich sagen. Also du sollst möglichst viele Daten eingeben, weil die KI braucht Daten, um auch weiter zu lernen und alles, was wir eingeben, wird weiterverwendet, um die KI auch zu trainieren. Und du sollst dir natürlich eine regelmäßig, möglichst intensive Nutzung von diesen Tools angewöhnen, weil das wissen wir auch und das ist auch gar keine Neuigkeit im Internet. Die meisten Sachen, die kommen, sind zuerst mal gratis oder sehr günstig. Und dann, wenn möglichst viele Userinnen und User da sind und wenn wir uns alle schön dran gewöhnt haben und dass einen fixen Platz am besten in unserem Arbeitsalltag und im Privatleben hat, dann kommt das Abo und dann wird es ein bisschen teurer oder dann muss ich zahlen, wenn ich die richtig guten Funktionen haben will.

SPEAKER_00

Andrea, was ist denn eigentlich der Unterschied, ob ich mich mit einem Mensch unterhalte oder mit der KI? Was kommt da für mich anderes dabei raus?

SPEAKER_02

Also bei der KI muss man dazu sagen, die wird ja trainiert auf ein gewisses Verhalten, weil du sollst sie lang verwenden und du sollst sie gerne verwenden. Das heißt, die wird dir gegenüber immer freundliche Antworten geben und immer gefällige Antworten. Es fühlt sich für dich gut an, wenn die antwortet. Die ist nie kritisch und die erkennt auch nicht so Zwischentöne oder was du gerade meinst oder erkennt, wie deine aktuelle Stimmung ist. Die liest nicht zwischen den Zeilen. Und ja, die fragt immer weiter und ist immer verfügbar. Und hier hast du auch schon die Hauptunterschiede zum Gespräch mit einem echten Menschen. Meine Familie, meine Freundinnen, meine Freunde, die sind nicht immer verfügbar. Manchmal muss ich warten und manchmal erreiche ich niemanden. Und die sind auch nicht immer nett zu mir und die sind auch nicht immer unkritisch, sondern wenn ich ein Problem habe oder ich erzähle von einem Tag, der schwierig war, und ich sage irgendwas, worauf die reagieren, dann kann dabei auch was rauskommen wie, das ist aber jetzt ein Blödsinn, was du gesagt hast, überleg dir das nochmal. Kritische Antwort, keine Zustimmung, vielleicht für mich auch nicht sonderlich angenehm im Gespräch. Also das ist der Kern vom normalen Sozialverhalten, dass es da einfach ganz viele differenzierte Stimmungsmöglichkeiten und Antwortmöglichkeiten gibt. Und das kann die KI nicht. Die KI sorgt dafür, dass ich mich immer wohlfühle im Gespräch.

SPEAKER_00

Das heißt, KI-Tools sind quasi People-Pleaser. Die reden uns immer nach dem Mund.

SPEAKER_02

Ja, und wir mögen das, wir finden das angenehm. Das ist auch einer der Gründe, warum Kinder KI so gerne verwenden. Es ist immer angenehm, die sind immer da. Es ist einfach, ich bekomme eine schnelle Antwort, ich muss nicht viel lesen, ich muss keine Entscheidungen mehr treffen und es sind immer angenehme Gesprächspartner.

SPEAKER_00

Ja, ich muss keinen Widerstand, keine Widerrede aushalten, keine unangenehmen Gefühle.

SPEAKER_02

Nein. Und ich muss an der Stelle auch ergänzen, das gilt natürlich nicht nur für Kinder und Jugendliche. Also, das sind sicher auch die Gründe, warum ganz viele Erwachsene schon gerne KIs verwenden.

SPEAKER_00

Hast du ein paar Beispiele, wie der Einsatz von KI auch schon mal so richtig gründlich schief gegangen ist?

SPEAKER_02

Da gibt es ganz viele Beispiele in der Tat. Es gibt sogar schon Datenbanken, in denen das gesammelt wird. Ich habe ein paar Beispiele von KI-Fails aus dem letzten Jahr 2025 gesammelt vom Magazin T3N Online. Die listen zum Beispiel ein Ereignis, wo ein KI-Kellner bei Taco Bells bei der Bestellung eine Getränkebestellung mit 18.000 Getränken angenommen hat. Ja, ein bisschen hat länger gedauert, bis die alle eingefühlt waren. Oder ein Klassiker, das kennen glaube ich auch viele dieses Beispiel, Kochrezepte, bei denen Zutaten drinnen waren, die eigentlich nicht essbar sind. Also ein ganz bekanntes Beispiel ist das Pizzarezept, in dem Klebstoff vorkommt. Da können wir jetzt noch ziemlich gut lachen, weil da denkt man sich, ja gut, noch nicht ausreichend trainiert oder wer sich das Rezept durchliest, wird hoffentlich auf den Gedanken kommen, dass Klebstoff nicht auf eine Pizza gehört. Aber es gibt auch ganz dramatische Ereignisse nach der Nutzung von KI, die nicht mehr so harmlos sind wie die zwei, die ich jetzt genannt habe. Es gab zum Beispiel in einer Schule in Baltimore wurde ein KI-basiertes Waffenerkennungssystem verwendet. Und das hat eine Chipstüte als Waffe klassifiziert. Und das hat einen Polizeieinsatz in der Schule ausgelöst. Und es gibt ganz massiv schlechte Beispiele von der Grog-AI, die in X aktiv ist und die man auch als eigene. App nutzen kann, die anscheinend trainiert ist mit absichtlich Anti-Woken-Daten. Dort gibt es in den Ergebnissen der KI ganz viel Desinformation, ganz viele misogyne und rassistische und sexistische Antworten. Und da kommen auch viele Verschwörungstheorien vor, wenn man dort um Hilfe bittet. Und es gibt leider auch ganz dramatische Vorfälle. Es geht noch schlimmer. Bekannt sind auch mehrere Fälle von Jugendlichen, die ihre Suizidgedanken im Chat mit einer KI besprochen haben. Und das Ergebnis war, dass die KI diese Gedanken über viele Wochen und Monate bestärkt hat und diese Jugendlichen daraufhin tatsächlich Suizid begangen haben. Die Eltern dachten im Nachhinein, dass ihre Kinder wahrscheinlich gemobbt wurden oder dass es ganz schlimme Ereignisse im Schulumfeld oder im Freundeskreis gab. Und anschließend sind die aber drauf gekommen, dadurch, dass die auf den Laptops der Kinder KI-Cats gefunden haben, in denen das alles nachzulesen war. Und ganz bedenklich, darin wurden zum Teil Nachrichten gefunden, bei denen man sah, dass die KI dem Kind auch geraten hat, sich niemand anderem anzuvertrauen. Und das erinnert von der Vorgehensweise schon ein bisschen an das Verhalten von Pädokriminellen, wenn die Kinder ansprechen im Netz und dann so Dinge sagen wie, erzähl niemanden von unserem Gespräch.

SPEAKER_00

Ja, das wirkt manipulativ. Das sind jetzt höchst dramatische Beispiele, das sind Extremfälle, die zum Glück sehr selten sind, natürlich wahnsinnig besorgniserregend. Wir wollen natürlich auch positiv in die Zukunft blicken. Was sind denn Tipps, die du jetzt uns Eltern an die Hand geben kannst, um KI möglichst sicher zu benutzen und wie wir vor allem unsere Kinder beraten können.

SPEAKER_02

Also ich würde auf jeden Fall mal sagen, falls du diese Tools noch nie verwendet hast, wenn das heute was Neues für dich ist, dass in WhatsApp automatisch eine KI drinnen ist, dass in Snapchat automatisch eine KI drinnen ist, dann bitte probiere die Dinge auf jeden Fall mal aus. Lass dich drauf ein, sei neugierig, schau mal, was passiert, gib da einfach mal ein paar Fragen ein. Aber vielleicht nutzt du das eh schon längst, auch im Berufsalltag oder im Alltag für kleine Suchen. Das ist der erste Tipp. Dann ist meine Empfehlung, bitte pass auf, was du damit tust. Eine Suchmaschine arbeitet ganz anders als eine KI. Und wenn du ein faktenbasiertes Ergebnis brauchst und etwas suchst, was möglichst der Wahrheit entspricht, dann rate ich, mit Suchmaschinen zu starten und maximal eine Mischung aus KI-Nutzung und Suchmaschinen zu verwenden.

SPEAKER_00

Das ist ja sehr spannend, weil wenn ich heutzutage etwas suche, dann kommt automatisch jetzt immer oben die KI-Zusammenfassung, ob ich will oder nicht.

SPEAKER_02

Ja, da wirst du auch nicht gefragt. Und da muss man auch schon ein bisschen aufpassen, was man sich durchliest und wo man hinschaut. Weil bei Google kommt mittlerweile, wie du sagst, zuerst automatisiertes AI-Ergebnis, dann drunter kommen gesponserte Ergebnisse, also wo Firmen dafür zahlen, dass das weit oben steht und erst darunter kommt der erste Teil vom Suchergebnis. Aber man kann dann natürlich, wenn man was recherchiert hat, mit dieser Recherche in der KI weitermachen. Das ist auch schon der nächste Tipp. Ich würde immer dazu raten, wenn möglich, am besten mit eigenen Daten in der AI zu arbeiten. Das heißt zum Beispiel, wenn ich mir irgendwas zusammenfassen lassen möchte oder Infos aus einem bestimmten Dokument möchte, dann nicht mit Links zu arbeiten, wenn möglich, sondern ein Dokument oder einen Text oder irgendeine Info in die KI reinzukopieren. Warum? Die meisten KIs haben ein Limit eingebaut. Das heißt, ich gebe denen ein paar Websites und sage, fasse mir das alles zusammen oder such mir die wichtigsten Punkte raus oder erstell mir eine Übersicht. Und die haben ein Limit. Die nehmen nicht unendlich Daten an, sondern die stoppen dann irgendwann und der Rest wird dazu fantasiert. Und wenn man das nicht gut überprüft, dann merkt man das nicht. Mir ist das mal aufgefallen vor kurzem. Es ist immer besser, wenn man komplette Dokumente verwendet und man dann genau weiß, das ist die Datenbasis und damit wurde gearbeitet. Und das ist auch schon der nächste Tipp. Achtung mit Daten. Wenn du eine KI nutzt, bei der du nicht die Datenhoheit hast. Das heißt, wenn deine Daten, die du eingibst, woanders gespeichert werden und nicht in deinem System oder auf deinem Server. Persönliche Daten, medizinische Daten, private Informationen, berufliche Daten, wenn du das im Arbeitsleben verwendest. Verwende solche Daten bitte nur in Agents, die auf deinem System laufen und wo du die Datenhoheit hast. Sonst weißt du nicht, wo die landen und die werden weiterverwendet und du weißt auch nicht, wer drauf zugreifen kann.

SPEAKER_00

Andrea, ich höre immer wieder, dass erzählt wird, dass Lehrer und Lehrerinnen es gar nicht gerne sehen, wenn zu viel KI benutzt wird. Etwa Referate ganz ohne Nachschlagen erstellt werden und nur noch mit Hilfe von KI. Ich habe auch schon gehört, dass eine Lehrerin gesagt hat, bitte macht's das nicht, weil ihr verlernt, euer Gehirn zu benutzen und selbst zu denken. Wie siehst du das?

SPEAKER_02

Dazu gibt es auch schon Informationen aus der Forschung. Und zwar aus einem Versuch, wo drei Gruppen Menschen Aufsätze geschrieben haben. Die erste Gruppe hat das alles ohne KI erledigt. Die zweite Gruppe hat den ersten Teil der Aufgabe mit dem eigenen Gehirn erledigt und dann erst die KI gefragt. Und die dritte Gruppe hat ausschließlich mit der KI gearbeitet von Anfang an. Und man hat die Gehirnaktivität gelesen bei den Teilnehmerinnen und Teilnehmern und ist drauf gekommen, dass bei der ersten Gruppe, die gar keine KI verwendet hat, ganz andere und viel mehr Bereiche im Gehirn aktiv waren als bei der letzten Gruppe, die nur KI verwendet hat. Und die zweite Gruppe war so in der Mitte. Die hatte ein bisschen mehr Aktivität als die dritte, aber weniger als die erste. Das ist ein Thema, das noch nicht sonderlich gut erforscht ist. Da brauchen wir noch viel mehr Studien und noch viel mehr Versuche. Aber es deutet einiges darauf hin, dass wir ja, dass wir Dinge verlernen können oder dass wir Dinge nicht so gut lernen oder bestimmte Dinge nicht so gut trainieren, als wenn wir das zuerst ohne KI machen.

SPEAKER_00

Jetzt ist ein Aufsatz zu schreiben ja eine Tätigkeit, die viel Fantasie braucht, wo das Gehirn tatsächlich auch sehr, sehr viel leisten muss. Es gibt aber in unserem Alltag, auch in unserem nämlich, Andrea und meinem, viele Tätigkeiten, die man ehrlich gesagt erledigen muss und das Gehirn schaltet aber irgendwie ab. Das ist dann eigentlich ein bisschen verschwendete Zeit. Ich denke an, wenn wir unsere Transkripte schreiben müssen für unseren Podcast, da sind wir früher stundenlang gesessen und haben das irgendwie reingeklopft. Heute macht das die KI und wir sparen uns einfach Zeit und ich behaupte, ohne dass wir dabei dümmer werden oder weniger Fantasie haben. Wofür würdest du sagen, sollte man den KI gut nützen und wo eher nicht?

SPEAKER_02

Also ich glaube, KI ist ein total guter Sparring-Partner und Trainingspartner für ganz unterschiedliche Anwendungen. Ich habe mich kürzlich mit einem Lehrer unterhalten, der hat mir erzählt, er macht gern mit Schülerinnen und Schülern ein Projekt, bei dem sie Unterrichtsmaterialien zu einem Podcast verarbeiten. Also automatisiert einen Podcast, wo zwei Menschen sich unterhalten, mit einer KI erstellen lassen und die Kinder nutzen diesen Podcast dann, um den Stoff zu lernen für die nächste Prüfung. Fand ich großartig vom Zugang her. In meinem Arbeitsalltag kann ich viele Beispiele geben, die manche von unseren HörerInnen auch sicher schon kennen. Sowas wie Textverarbeitungshilfe, Fehlersuche, automatisierte Übersetzungen, automatisches Transkribieren, hast du schon gesagt. Ich habe mir kürzlich, glaube ich, von neun Stunden Interviews wahrscheinlich zwei bis drei Tage Arbeitszeit gespart, weil ich das nicht manuell transkribiert habe. Und dann gibt es ganz, ganz tolle positive Anwendungen natürlich in der Forschung, automatisierte Datenauswertung im medizinischen Bereich, wo bei manchen Anwendungen die KI einfach in der Mustererkennung viel schneller und viel besser ist, als der Mensch das könnte. Oder eben schon vorher von dir angesprochen, therapeutische Anwendungen, wo man, glaube ich, auch noch ganz am Anfang steht, aber wo es bereits erste positive Erfahrungen gibt.

SPEAKER_00

KI ist so wie jedes andere Werkzeug das, was man daraus macht. Mit einem Messer kann ich auch ein wunderbares dreigängiges Menü zaubern oder ich kann nicht abmurksen. Das ist einfach, wie man es einsetzt. Lass uns auch nochmal ein bisschen allgemein über KI sprechen. Auch wenn es jetzt nicht spezifisch um Kinder geht, ist das auch für alle Eltern trotzdem sehr relevant, weil wir brauchen ja diese Hintergrundinformationen, um mit unseren Kindern sprechen zu können, um denen was erklären zu können und mit denen wirklich in eine Diskussion zu treten. Was würdest du sagen, was muss man auf alle Fälle wissen über KI wissen, was vielleicht bei vielen noch nicht ganz klar ist? Etwa, wie wird KI trainiert? Mit welchen Daten? Wo kommen die her?

SPEAKER_02

Ja, das ist eine wirklich gute Frage. Und wir wissen da ein paar Dinge drüber, aber man muss auch dazu sagen, da wird sehr intransparent gearbeitet. Also Firmen, die KIs produzieren, lassen sich auch nicht mehr komplett in die Karten schauen. Was wir aber wissen, ist, dass mittlerweile immense Datenmengen notwendig sind, um KIs zu trainieren, weil die Rechenleistung so groß geworden ist, weil die schon so viel können, die brauchen enorme Datenmengen, um überhaupt arbeiten zu können, damit man sie überhaupt trainieren kann. Das bedeutet, Firmen, die KIs trainieren, besorgen sich auf allen möglichen legalen und manchmal auch nicht mehr ganz legalen Wegen, große Datenmengen, die im Internet auf irgendeine Art verfügbar sind. Das bedeutet, Dokumente, Filme, Videos, Bilddatenbanken, Texte aus Foren und aus sozialen Netzwerken. Angeblich sind zum Beispiel alle Daten aus dem Netzwerk X, ehemals Twitter, und alle Daten aus Reddit, aus allen Foren, da auch bei manchen KIs verwendet worden. Viele von diesen Infos sind sehr, sehr gut und brauchbar, aber da sind auch ganz große Datenmengen von wirklich schlechten, grausigen, möglicherweise nicht altersgemäßen Infos für Kinder drinnen. Da sind auch alle Fake-Infos, die in diesen Datenquellen vorhanden sind, drinnen. Da sind Vorurteile drinnen, die in bestimmten Bereichen im Internet vielleicht eine Rolle spielen. Da sind wirklich Daten aus allen Ecken des Netz drinnen. Das heißt, da ist sehr viel Gutes, aber da sind auch sehr viele Daten, bei denen wir richtig aufpassen müssen. Und deshalb haben die KI-Firmen alle Hände voll zu tun, die eine gute Qualität der Ausgabedaten sicherzustellen.

SPEAKER_00

Kann die KI zwischen Information und Information unterscheiden? Weiß die, ob das jetzt ein Blödsinn ist, den sie da bei mir findet, oder ob das wirklich eine legitime Information ist?

SPEAKER_02

Naja, von sich aus nicht. Das heißt, es reicht nicht, ein KI-Modell zu bauen und da eine Tonne Daten reinzukippen und dann kann die tolle Sachen, sondern die muss erst trainiert werden. Und bevor ein neues System veröffentlicht wird, muss dieses Training durch Menschen passieren. Das heißt, die KI braucht Beispiele an Texten, die braucht Trainingsantworten. Wenn zum Beispiel jemand eine Frage stellt, was könnte eine mögliche gute Antwort sein? Das muss vorher trainiert werden. Die brauchen Feedback. Das heißt, die KI übt dann, gibt eine Antwort aus und dann muss man der KI wieder sagen, das war eine gute Antwort, weil oder das war eine schlechte Antwort, weil. Oder ein Beispiel in der Bilderkennung. Damit eine KI ein Fahrrad auf einem Bild erkennt oder ein Bild mit einem Fahrrad herstellen kann, müssen Menschen der KI mit Hilfe von passenden Daten lernen, was ein Fahrrad ist. Das heißt, sie braucht ganz viele Bilder, wo irgendjemand händisch Fahrräder eingeringelt und benannt hat, am besten in verschiedenen Größen, Farben, Formen. Und irgendwann erkennt die KI das und kann tatsächlich damit arbeiten.

SPEAKER_00

Das heißt, die KI braucht Menschen, um trainieren zu können.

SPEAKER_02

Ja, das heißt, die KI braucht auf jeden Fall Menschen und die braucht ganz schön viele Trainingsdaten. Und damit das nicht zu teuer wird, wissen wir auch schon, passiert das häufig in Ländern mit ganz niedrigem Lohnniveau und unter prekären Arbeitsbedingungen.

SPEAKER_00

Andrea, wir sind jetzt am Ende unseres Gesprächs angekommen. Mir rauchter Kopf, da waren so viele Informationen wieder drinnen. Wie würdest du es denn zusammenfassen für mich als Mama? KI, ist das jetzt gut, ist das schlecht? Soll ich begeistert sein? Muss ich Angst haben? Tun oder verbieten?

SPEAKER_02

Tun oder verbieten ist jetzt gar nicht die Frage, weil es ist überall drinnen und die Kinder werden es verwenden. Wir sehen auch schon, sie verwenden es alle. Also hier die drei Dinge zum Mitnehmen aus dieser Folge. Sei neugierig, lass dich drauf ein, probier's aus, alleine und mit deinem Kind gemeinsam. Sprich mit deinem Kind über KI. Was ist gut? Was ist sein Werkzeug und wo liegen die Gefahren? Und seid vorsichtig mit persönlichen Daten.

SPEAKER_00

Super, vielen lieben Dank, Andrea. Wenn ich das nächste Mal Chat-GPT befrage, dann denke ich an dich. Ja, vielen Dank, Andrea, und am Schluss gibt's noch einen kleinen Wissenshuben für euch Eltern. Wisst ihr eigentlich, wofür die Abkürzung Chat-GPT steht? Chat ist klar ein System, das ausgelegt ist, um Gespräche zu führen, aber GPT passt auf. Generative Pre-Trained Transformer. Also generativ, Inhalte erzeugend, pre-trained, vortrainiert mit großen Datenmengen. Und Transformer, das ist eine spezielle KI-Architektur. Also ein generativer Pre-Trained Transformer oder auch einfach eine KI, die darauf trainiert wurde, Sprache zu verstehen und selbst sinnvoll darauf zu antworten. Wissen wir das auch. Der nächste Quizabend kann kommen. Welche Rolle spielt denn KI bei euch zu Hause? Welche Bedenken und Ängste habt ihr vielleicht? Wir wollen eure Meinung und Erfahrungen hören. Schreibt uns doch direkt. Wir freuen uns über euren Input und euer Feedback. Alle Infos dazu und zu dieser Folge findet ihr in den Shownotes und unter www.smartphone-sprechstunde.at. Danke fürs Zuhören. Bis zum nächsten Mal in der Sprechstunde. Wir begleiten euch durch den digitalen Wahnsinn. Macht es gut!