„Steckt in einer Krise“
Künstliche Intelligenz dringt immer mehr in den Alltag junger Menschen vor. Mittlerweile wird auch bei sensiblen Themen die KI gefragt. Expertinnen warnen.
Frankfurt – Wem vertraue ich meine Ängste an? Wann bin ich einfach schlecht drauf und wann brauche ich Hilfe? Für Kinder und Jugendliche sind Fragen zur psychischen Gesundheit oft schwierig. Das offene Ansprechen von Gefühlen ist mit viel Überwindungskraft verbunden. Häufig gewinnt die Scham, manchmal fehlt auch schlicht ein Ansprechpartner. Doch immer mehr Jugendliche finden einen Ausweg: Sie vertrauen sich Chatbots an.
Immer mehr Jugendliche weltweit nutzen KI bei psychischen Problemen
International rückt das Thema immer mehr in den Fokus, besonders dort, wo psychische Probleme stigmatisiert werden. „Das emotionale Wohlbefinden von jungen Menschen in China steckt in einer Krise“, schreiben die Psychologin Olive Woo und der KI-Experte Yuk Min Tang in ihrem Buch „DeepSeek and Mental Health Support Among Chinese Youth“. Der Erwartungsdruck an Jugendliche wächst, der Gang zur Therapie gilt als familiäres Versagen. Immer mehr junge Chinesen vertrauen sich stattdessen dem Chatbot DeepSeek an.
Auch in den USA gibt es den Trend: Immer mehr Teenager verwenden dort regelmäßig sogenannte AI-Companions, um private Gespräche zu führen. Im deutschsprachigen Raum zeigt sich ein ähnliches Bild. Bei einer repräsentativen Erhebung des Österreichischen Instituts für angewandte Telekommunikation im Rahmen des Safer-Internet-Day 2026 gab fast ein Drittel der 500 befragten Jugendlichen an, seine Sorgen und Probleme mit KI-Tools zu besprechen. Ein Viertel findet es leichter, mit Chatbots über persönliche Themen zu reden als mit Menschen.
Therapeutin: Chatbots bergen „Scheinsicherheit“ bei sensiblen Themen
Auch in Deutschland gehört die Nutzung von Chatbots für viele Kinder und Jugendliche längst zum Alltag. Konkrete Zahlen zum Austausch über emotionale Themen fehlen bisher. Klar ist aber: Die Tools werden als schnelle Hilfe empfunden. „Das ist zunächst ein Vorteil“, sagt Eva-Lotta Brakemeier, Präsidentin der Deutschen Gesellschaft für Psychologie und Professorin an der Universität Greifswald. „Problematisch wird es, wenn Chatbots professionelle Versorgung ersetzen oder als gleichwertig wahrgenommen werden“, erklärt sie der Frankfurter Rundschau von Ippen.Media.
Das größte Risiko sieht Brakemeier in einer „Scheinsicherheit“: Chatbots vermitteln das Gefühl von Unterstützung, übernehmen aber keine psychotherapeutische Verantwortung. Besonders kritisch sei das bei Suizidalität, Selbstverletzung oder schweren depressiven Episoden – Situationen, die KI-Systeme nicht zuverlässig erkennen können. Hinzu komme die Gefahr einer emotionalen Abhängigkeit: Jugendliche könnten reale Kontakte zugunsten der KI reduzieren. „Emotionale Stabilisierung durch echte Bezugspersonen ist gerade in sensiblen Entwicklungsphasen zentral“, betont Brakemeier. „Das kann KI nicht ersetzen.“
Chatbots können dysfunktionales Verhalten verstärken
Isabel Brandhorst, Leiterin der Forschungsgruppe Internetnutzungsstörungen an der Kinder- und Jugendpsychiatrie am Universitätsklinikum Tübingen, beobachtet die Entwicklung mit gemischten Gefühlen. „Die psychische Gesundheit junger Menschen hat sich in den letzten Jahren deutlich verschlechtert“, sagt sie der Frankfurter Rundschau. Das zeige sich im Klinikalltag durch ein höheres Patientenaufkommen und mehr Kontakte im Notdienst. Ob Jugendliche deshalb auf Chatbots ausweichen oder diese eher beiläufig nutzen? „Vermutlich beides“, sagt Brandhorst.
Eines der Probleme bei Chatbots sieht Brandhorst unter anderem darin, dass diese in der Regel bestätigen, statt zu hinterfragen. Bei vielen psychischen Erkrankungen sei das ungeeignet. Echte Therapie bestehe mitunter darin, die Überzeugungen der Patientinnen und Patienten herauszufordern und auf emotionale Signale zu reagieren. Bei Chatbots sei „das Risiko einer Bestätigung von dysfunktionalen Gedanken oder Verhaltensweisen nicht auszuschließen“, erklärt die Forscherin.
Begrenzte Therapieplätze senken Hemmschwelle der Nutzung von Chatbots
Die Hinwendung von Kindern und Jugendlichen an Chatbots ist auch strukturell bedingt. Ein Grund liegt in der weltweit angespannten Versorgungslage bei Therapieplätzen. Das betreffe auch Deutschland: „Wartezeiten von mehreren Monaten sind keine Seltenheit – insbesondere im ländlichen Raum“, sagt Brakemeier. Seit der Pandemie habe die psychische Belastung bei Kindern und Jugendlichen deutlich zugenommen, der Bedarf wachse schneller, als das System reagieren könne.
Brandhorst bestätigt das: „Die Wartelisten für teil- und stationäre oder ambulante Behandlungen sind voll, nicht nur in Tübingen.“ Familien seien mit langen Wartezeiten konfrontiert und bräuchten oft mehrere Anläufe, bis sie einen Therapieplatz finden. Brakemeier warnt jedoch davor, Chatbots als Lückenfüller zu betrachten: „KI-Chatbots dürfen nicht als Ersatz für strukturelle Unterversorgung missverstanden werden.“ Wenn Jugendliche digitale Angebote nutzen, geschehe das nicht selten vor dem Hintergrund realer Versorgungslücken.
Klar ist aber: Die Tools werden als schnelle Hilfe empfunden. Es gebe Hinweise, dass Jugendliche sie auch deshalb nutzen, weil sie Hemmungen verspüren, mit Erwachsenen über belastende Themen zu sprechen, sagt Brakemeier.
Potenzial von Chatbots in der Therapie
Neben all ihren Risiken bieten Chatbots auch Potenzial für Erkrankte, beispielsweise in der Überbrückung von Wartezeiten auf einen Therapieplatz oder zur Unterstützung zwischen den Sitzungen. „Entscheidend ist Transparenz: Ein Chatbot ist kein Therapeut und darf nicht als solcher wahrgenommen werden“, betont Brakemeier.
Deshalb fordert sie klare regulatorische Rahmenbedingungen, insbesondere bei Minderjährigen: Altersregeln, Transparenzpflichten, verpflichtende Krisenhinweise und Datenschutzstandards. KI-Angebote im Bereich psychischer Gesundheit bräuchten eine Art „Beipackzettel“ – mit klaren Hinweisen zu Risiken, Grenzen und wann professionelle Hilfe nötig ist. (Quellen: eigene Recherche, SaferInternet.at)