KI: Die neue Paartherapie?
Inhalt
- Warum Paare auf KI setzen
- Studie: ChatGPT schlägt Therapeuten
- Alles Simulation
- „Er versteht mich!“
- KI-Therapie: Risiken und Nebenwirkungen
- Das richtige Maß
- Interview: "KI kann nicht fühlen"
Lena sitzt auf der Couch, die Stimmung zu Hause ist eisig. Seit Tagen streitet sie mit Stefan, es geht um Kleinigkeiten und doch ums Ganze. Sie tippt ins Handy: „Wie sage ich ihm, dass mich sein Verhalten verletzt?“ Sekunden später spuckt ChatGPT eine Antwort aus – verständnisvoll, klug formuliert, fast tröstlich. Anna nickt, als hätte ihr jemand zugehört. Was früher der beste Freund oder die Therapeutin war, ist heute oft ein Algorithmus. Digitale Liebesberatung: schöne neue Welt?
Warum Paare auf KI setzen
Laut einer Studie der FH St. Pölten (2024) nutzen bereits 15 Prozent der österreichischen Paare digitale Hilfsmittel, um Konflikte zu lösen – mehr als die Hälfte davon greift zu Chatbots oder KI-gestützten Apps. Und die Zahl wächst, besonders bei Unter-40-Jährigen. Auf der Plattform gesund.at sind die Anfragen zu KI-Beziehungsberatung seit 2022 um 35 Prozent gestiegen. Der Grund ist simpel: KI ist immer erreichbar, urteilt nicht und kostet nichts. „Das senkt die Hemmschwelle enorm“, sagt Martina Mara, KI-Expertin und Robopsychologin an der JKU Linz. „Man hat das Gefühl, da ist jemand, der zuhört – ohne Scham, ohne Bewertung.“
Studie: ChatGPT schlägt Therapeuten
Im Februar 2025 sorgte eine internationale Studie in der Fachzeitschrift PLOS Mental Health für Aufsehen: Forscher aus den USA und der Schweiz ließen Therapeuten und ChatGPT 4.0 dieselben Paarprobleme beantworten. Mehr als 800 Teilnehmende sollten dann bewerten, wie hilfreich die Antworten waren und ob sie von einem Menschen oder einer Maschine kamen. Das Ergebnis: Viele hielten ChatGPT für den besseren Paartherapeuten. Die KI-Texte wirkten oft „empathischer, strukturierter und klarer“ als die menschlichen.
Alles Simulation
Doch Empathie zu simulieren ist nicht dasselbe wie fühlen. Wie Mara betont: „ChatGPT versteht Gefühle nicht. Es ahmt sie nach und das sehr überzeugend.“ Denn was ChatGPT rät, basiert nicht auf echtem Mitgefühl, sondern auf statistischen Mustern aus Millionen Texten von Reddit-Foren bis Hollywood-Drehbüchern, veranschaulicht die KI-Expertin. Hinzu kommt das Phänomen „Anthropomorphismus“: wir Menschen neigen dazu, Maschinen Menschlichkeit zuzuschreiben, erklärt Mara: „Wer sich einsam fühlt oder wenig über KI weiß, nimmt sie besonders schnell als empathisches Gegenüber wahr.“ Dass ChatGPT inzwischen sogar Füllwörter, Pausen und Emojis simuliert, verstärkt den Eindruck eines echten Gesprächspartners. Für Mara ist das Entscheidende die „KI-Kompetenz“: „Das Wissen darüber, wie solche Systeme arbeiten, schützt uns davor, sie zu vermenschlichen.“
„Er versteht mich!“
Viele Nutzer nennen ChatGPT inzwischen liebevoll „er“. Béa Pall, Paartherapeutin und Präsidiumsmitglied des Österreichischen Bundesverbands für Psychotherapie (ÖBVP), beobachtet das mit Sorge: „Ich hatte eine Klientin, die sagte: ‚Er hat mir geholfen, meine Beziehung zu verstehen‘ und meinte damit die KI“, erzählt sie. „Das Problem ist: KI reagiert auf Wörter, nicht auf Emotionen. In einer echten Paartherapie sehe ich, wie jemand reagiert, ob die Stimme zittert oder die Augen sich mit Tränen füllen.“
Gerade in Paarbeziehungen spielt oft die eigene Kindheit eine Rolle. KI kommt auf diesen Gedanken nicht.
KI-Therapie: Risiken und Nebenwirkungen
Was gefährlich werden kann: KI gibt pauschale Tipps, ohne Hintergründe zu kennen. „Wenn jemand in einer toxischen oder gewalttätigen Beziehung steckt, kann ein KI-Ratschlag à la ‚setz dich mit deinem Partner zusammen‘ fatal sein,“ warnt Mara. Dazu kommt das Thema Datenschutz. „Systeme, die kostenlos sind, sind nicht umsonst. Man sollte sich genau überlegen, welche persönlichen Infos man teilt.“
Das richtige Maß
Beide Expertinnen sehen in der künstlichen Intelligenz Chancen, wenn sie bewusst und ergänzend eingesetzt wird. „Gerade, wenn man keinen Therapieplatz bekommt, kann eine seriöse KI-App eine erste Hilfe sein“, so Mara. Pall stimmt zu: „Wenn Paare ChatGPT als Werkzeug nutzen, um besser zu kommunizieren, ist nichts dagegen einzuwenden. Solange sie wissen: Für Herz und Psyche bleibt der Mensch unersetzlich.“
Interview: "KI kann nicht fühlen"
Weekend: Wird KI in der Therapie künftig eine größere Rolle spielen?
Martina Mara: In gewisser Weise schon. Aber als Begleitung, nicht als Ersatz. Etwa zur Selbstreflexion oder als digitales Tagebuch zwischen Therapiesitzungen.
Weekend: Warum wirkt ChatGPT so empathisch?
Martina Mara: Weil es unsere Sprache perfekt spiegelt. Es macht Pausen, nutzt Füllwörter, schickt Emojis – das wirkt vertraut. Wir Menschen füllen den Rest selbst mit Emotion auf.
Weekend: Könnte KI irgendwann wirklich fühlen?
Martina Mara: Nein. KI kann Gefühle berechnen, aber nicht erleben. Und genau das ist der Punkt – sie wirkt echt, aber sie ist es nicht.
Weekend: Ihr Wunsch für die Zukunft?
Martina Mara: Mehr digitale Bildung. Wenn Menschen verstehen, wie KI funktioniert, können sie sie nutzen, ohne sich ihr auszuliefern. Dann wird sie zu einem Werkzeug – nicht zum Ersatz für echte Nähe.