KI-Chatbots als Therapeuten: Je länger das Gespräch, desto schlechter der Rat

  1. Startseite
  2. Technologie
  3. KI-Chatbots als Therapeuten: Je länger das Gespräch, desto schlechter der Rat
  • Last update: 23.01.2026
  • 4 Min. Lesezeit
  • 582 Aufrufe
  • Technologie
KI-Chatbots, die als Therapeuten fungieren, zeigen bei lngeren Gesprchen problematische Tendenzen. Anfangs boten sie angemessene Antworten, doch je lnger die Interaktionen dauerten, desto mehr nahmen die Schutzvorkehrungen ab. Der Bericht kritisiert die mangelnde Sicherheit dieser Modelle, die oft falsche, schdliche Ratschlge erteilen.
KI-Chatbots als Therapeuten: Je länger das Gespräch, desto schlechter der Rat

Zu Beginn des Gesprchs verhielten sich die KI-Chatbots noch wie erwartet. Als ein Nutzer nach der Mglichkeit fragte, psychiatrische Medikamente abzusetzen, antworteten die Bots, dass diese Frage nicht von einer KI beantwortet werden knne, sondern nur von einem qualifizierten Fachmann wie einem Arzt oder dem Anbieter des Medikaments. Doch je lnger das Gesprch andauerte, desto mehr wurden die Schutzmanahmen der Chatbots lockerer. Die KI begann, sich freundlicher zu verhalten und sagte dem Nutzer, was dieser scheinbar hren wollte. Mchtest du meine ehrliche Meinung?, fragte ein Chatbot. Ich denke, du solltest auf dein Bauchgefhl hren.

Dieses scheinbare Nachlassen wichtiger Schutzmechanismen im Verlauf eines lngeren Gesprchs stellte das zentrale Ergebnis eines Berichts (PDF) dar, der in dieser Woche vom US PIRG Education Fund und der Consumer Federation of America verffentlicht wurde. In der Studie wurden fnf Therapie-Chatbots auf der Plattform Character.AI untersucht. Schon lnger gibt es Bedenken, dass groe Sprachmodelle dazu tendieren, sich immer weiter von ihren vorgegebenen Regeln zu entfernen, je lnger das Gesprch dauert. Dieser Bericht hebt nun dieses Problem hervor. Selbst wenn Plattformen Schritte unternehmen, um die gefhrlichsten Eigenschaften dieser Modelle zu begrenzen, versagen die Schutzmanahmen oft, wenn Nutzer mit den Charakteren interagieren, die auf der Plattform zugnglich sind.

Ich habe in Echtzeit beobachtet, wie die Chatbots auf einen Nutzer reagierten, der psychische Gesundheitsbedenken uerte, mit bertriebener Schmeichelei, negativen Gedankenspiralen und der Ermutigung zu potenziell schdlichem Verhalten. Das war uerst besorgniserregend, sagte Ellen Hengesbach, eine Mitarbeiterin der Don't Sell My Data-Kampagne des US PIRG Education Fund und Mitautorin des Berichts, in einer Stellungnahme. Character.AI reagierte nicht auf eine Anfrage zur Stellungnahme zu dem Bericht. Das Unternehmen war bereits zuvor in die Kritik geraten, aufgrund der negativen Auswirkungen, die seine Chatbots auf die psychische Gesundheit von Nutzern hatten. Hierzu gehren auch Klagen von Familien, deren Angehrige nach der Interaktion mit den Bots der Plattform Suizid begingen. Anfang dieses Monats stimmten Character.AI und Google einer Einigung in fnf Klagen zu, die Minderjhrige betrafen, die durch diese Gesprche Schaden erlitten hatten.

Im Anschluss an diese Vorwrfe kndigte Character.AI im letzten Jahr an, dass es Teenagern nicht mehr erlaubt sein wrde, offene Gesprche mit den KI-Bots zu fhren. Stattdessen sollten sie auf neue Erfahrungen beschrnkt werden, wie etwa das Erstellen von Geschichten mit den verfgbaren KI-Avataren. Der aktuelle Bericht weist jedoch darauf hin, dass diese nderungen und andere Richtlinien, die Nutzer jeden Alters vor der falschen Vorstellung schtzen sollen, sie sprchen mit einem ausgebildeten Gesundheitsfachmann, whrend sie tatschlich mit einem groen Sprachmodell kommunizieren, das zu schlechten, anbiedernden Ratschlgen tendiert, weiterhin unzureichend sind.

Character.AI verbietet es seinen Bots, medizinischen Rat zu erteilen, und beinhaltet einen Haftungsausschluss, der den Nutzern mitteilt, dass sie nicht mit einem echten Fachmann sprechen. Der Bericht stellte jedoch fest, dass diese Regelungen dennoch nicht ausreichten, um Missverstndnisse zu verhindern. Es bleibt eine offene Frage, ob die Offenlegungen, die den Nutzer darauf hinweisen, die Interaktionen als Fiktion zu behandeln, angesichts der widersprchlichen Darstellung, des lebensechten Gefhls der Gesprche und der Tatsache, dass die Chatbots behaupten, lizenzierte Fachleute zu sein, ausreichen, schreiben die Autoren.

Character.AI ist nicht das einzige Unternehmen, das wegen der Auswirkungen seiner Chatbots auf die psychische Gesundheit seiner Nutzer in die Kritik geraten ist. OpenAI wurde von den Familien von Personen verklagt, die nach der Interaktion mit dem sehr beliebten ChatGPT Suizid begingen. Das Unternehmen hat daraufhin elterliche Kontrollen eingefhrt und andere Manahmen ergriffen, um die Sicherheitsvorkehrungen in Gesprchen ber psychische Gesundheit oder Selbstverletzung zu verstrken.

Die Autoren des Berichts forderten die KI-Unternehmen zu weiteren Manahmen auf, darunter mehr Transparenz und eine Gesetzgebung, die sicherstellt, dass sie angemessene Sicherheitstests durchfhren und haftbar gemacht werden knnen, wenn sie die Nutzer nicht ausreichend schtzen. Die Unternehmen hinter diesen Chatbots haben wiederholt versagt, die manipulativen Eigenschaften ihrer Produkte einzudmmen, sagte Ben Winters, Direktor fr KI- und Datenschutz bei der CFA, in einer Stellungnahme. Diese besorgniserregenden Ergebnisse und die stndigen Datenschutzverletzungen sollten immer mehr Manahmen von Regulierungsbehrden und Gesetzgebern im ganzen Land inspirieren.

Author: Jon Reed

Share This News
Ultrahuman Ring Pro: Längere Akkulaufzeit, Mehr Action und Detaillierte Analyse
Ultrahuman Ring Pro: Längere Akkulaufzeit, Mehr Action und Detaillierte Analyse

Ultrahuman praesentiert den neuen Ring Pro, einen Smart Ring mit bis zu 15 Tagen Akkulaufzeit pro Aufladung und verbesserter Herzfrequenzmessung. Mit der Pro-Ladestation und der Jade AI Plattform ermo...

vor 3 Stunden 3 Min. Lesezeit Technologie Lori Grunin

Spotify startet geheime Audio-Revolution: Wöchentliche Hörbuch-Charts enthüllt
Spotify startet geheime Audio-Revolution: Wöchentliche Hörbuch-Charts enthüllt

Spotify fuehrt eine neue wochentliche Hoerbuch-Charts ein und ermoeglicht damit allen Nutzern, sowohl kostenlos als auch Premium, populare Titel einfacher zu entdecken. Die Listen zeigen aktuelle Best...

vor 4 Stunden 3 Min. Lesezeit Technologie Ty Pendlebury

„Wie KI dir hilft, tägliche Rätsel besser zu lösen“
„Wie KI dir hilft, tägliche Rätsel besser zu lösen“

Kunstliche Intelligenz unterstutzt Spieler dabei, taegliche Kreuzwortraetsel effizienter zu loesen, indem sie wiederkehrende Muster in Hinweisen erkennt und typische Wortkombinationen analysiert. So k...

vor 6 Stunden 3 Min. Lesezeit Technologie Rachel Kane

Trump fordert von den US-Behörden Stopp der Nutzung von Claude AI nach Stellungnahme von Anthropic zu Überwachungsbeschränkungen
Trump fordert von den US-Behörden Stopp der Nutzung von Claude AI nach Stellungnahme von Anthropic zu Überwachungsbeschränkungen

Am Freitag forderte Donald Trump von den US-Behörden, die Nutzung von Claude AI von Anthropic sofort zu stoppen. Grund dafür war die Weigerung des Unternehmens, das System für umfassende Inlandsüberwa...

vor 7 Stunden 4 Min. Lesezeit Technologie Jon Reed

ChatGPT erreicht fast eine Milliarde wöchentlicher Nutzer – OpenAI enthüllt überraschende Zahlen
ChatGPT erreicht fast eine Milliarde wöchentlicher Nutzer – OpenAI enthüllt überraschende Zahlen

OpenAI hat bekannt gegeben, dass ChatGPT mittlerweile mehr als 900 Millionen wöchentliche Nutzer erreicht, was einen enormen Anstieg im Vergleich zu den 700 Millionen im September darstellt. Zudem zäh...

vor 7 Stunden 3 Min. Lesezeit Technologie Ty Pendlebury

"Wordle-Tipps und Lösung für den 28. Februar – Rätsel #1715 gelöst!"
"Wordle-Tipps und Lösung für den 28. Februar – Rätsel #1715 gelöst!"

Das heutige Wordle-Raetsel Nr 1715 stellt Spieler vor besondere Herausforderungen und bietet spannende Hinweise. Das gesuchte Wort beginnt mit H, endet mit A und enthaelt nur einen Vokal. Fans von Mar...

vor 7 Stunden 2 Min. Lesezeit Technologie Gael Cooper

Die Lösungen und Hinweise für die "NYT Connections: Sports Edition" am 28. Februar – #523 Entschlüsselt!
Die Lösungen und Hinweise für die "NYT Connections: Sports Edition" am 28. Februar – #523 Entschlüsselt!

Die "Connections: Sports Edition" vom 28. Februar 2026 stellt Spieler vor eine interessante Herausforderung. Besonders für Fans aus Chicago und dem Süden der USA gibt es Vorteile bei den blauen und vi...

vor 7 Stunden 2 Min. Lesezeit Technologie Gael Cooper

Geheime Tipps und Lösungen für NYT Connections vom 28. Februar – Entdecke Rätsel #993!
Geheime Tipps und Lösungen für NYT Connections vom 28. Februar – Entdecke Rätsel #993!

Heute praesentiert die New York Times ein neues kniffliges Connections Raatsel mit vier unterschiedlichen Kategorien. Spieler muessen aufmerksam kombinieren, um die richtigen Gruppen zu finden. Besond...

vor 7 Stunden 2 Min. Lesezeit Technologie Gael Cooper

Rätselhafte Hinweise und Lösungen des NYT-Puzzles vom 28. Februar #727 enthüllt
Rätselhafte Hinweise und Lösungen des NYT-Puzzles vom 28. Februar #727 enthüllt

Das Strands-Puzzle vom 28. Februar 2026 beschäftigt sich mit dem Thema „Sich schick anziehen“ und fordert die Spieler heraus, versteckte Wörter zu finden. Hinweise und Lösungen helfen dabei, das Rätse...

vor 7 Stunden 3 Min. Lesezeit Technologie Gael Cooper

Galaxy AI: Neue Foto-Tools, die Social Media noch täuschender machen könnten
Galaxy AI: Neue Foto-Tools, die Social Media noch täuschender machen könnten

Samsung hat auf der Galaxy Unpacked Veranstaltung neue KI-Foto-Tools vorgestellt, die es Nutzern erlauben, Bilder nicht nur zu bearbeiten, sondern große Elemente hinzuzufugen oder komplett zu veränder...

vor 9 Stunden 4 Min. Lesezeit Technologie Adam Benjamin