
Wir kennen sie alle: die harmlosen Beispielanfragen, die am Anfang eines neuen KI-Chats aufpoppen. „Spielideen für eine Kinderparty?“, „Ausflugstipps fürs Wochenende?“. Unbescholten. Einladend. Aber vielleicht auch ein wenig irreführend, denn die wirklichen Fragen, die eingetippselt werden lauten längst anders: „Habe ich eine Depression?“, „Ist meine Beziehung toxisch?“, „Geht meine Firma bankrott?“ Man hört es im Büro, an der Bushaltestelle, beim Familienbrunch: “Ich hab ChatGPT gefragt…”.
Es ist Usus geworden: Menschen sprechen mit KI Chatbots über ihr Leben. Über den Alltag, über Beruf, Entscheidungen und Belastungen. Sie suchen Rat, holen sich Coaching, wägen Optionen ab. KI ist keine bloße Antwortmaschine, sie ist Beraterin, Resonanzraum. Weil wir alle längst erkannt haben, wie gut sie ist, wie plausibel die Antworten, wie stimmig die Ergebnisse. Viele befinden sich bereits in einem intensiven, wenn nicht sogar intimen Austausch mit den Bots ihres Vertrauens. Dass insbesondere junge Menschen ChatGPT bereits als Lebens-, Mental- oder auch Beziehungscoach nutzen, ist längst kein Geheimnis mehr. Und alles deutet darauf hin: Das ist erst der Anfang.
Viele zukünftige Bot-Angebote werden plump sein, sich schleimig anbiedern, laut, schrill oder werbelastig sein. So wie Meta es vorhat. Who else. Clickbait AI. Aber es werden auch seriöse, hochwertige Systeme entstehen. Gut gestaltet, ernstzunehmend und transparent.
Wirkung und Nebenwirkung
Der Dialog mit einer Maschine ist ein Gespräch ohne soziale Bühne. Ein Gespräch im digitalen Hinterzimmer. Nur wir und unsere KI-Begleiter. Die digitale Ratgeberin. Die Stimme im Ohr. Es fühlt sich an wie Vertrauen. Es, das KI Dings, ist bequem, klug, ruhig und einfühlsam und liefert präzise Antworten, kennt sich aus, im Grunde mit allem.

Wie so oft steckt beides drin: Möglichkeiten und Risiken. Forschungsarbeiten zeigen, welche soziale und psychologische Auswirkungen der Dialog mit KI-Systemen haben kann. In universitären Studien und Feldversuchen wurde belegt, dass Chatbots mit menschenähnlichem, empathischem Design wie zB ChatGPT oder Replika, emotionale Unterstützung bieten, Einsamkeit lindern und Selbstreflexion fördern können. In einer randomisierten Studie mit fast 1.000 Erwachsenen über 28 Tage, sank die soziale Angst, während das Gefühl sozialer Unterstützung anstieg. Klingt nicht schlecht. Das wollen wir.
Andere Studien zeigen: Gerade junge Nutzer*innen bauen oft starke emotionale Bindungen auf, die reale Beziehungen zum Teil ersetzen. Beispiele, wie jene von KI Bots, die Kinder in intime Gespräche verwickeln oder ihre Suizidgedanken schönreden statt zu alarmieren, sind durch die Medien gegangen. Dieselben Funktionen, die Nähe erzeugen, die eine Unterstützung sind, können zu Überbeanspruchung, psychischer Belastung und einer Abkehr vom menschlichem sozialen Kontakt führen. Das klingt alles nicht so gut. Zwar sagen Expert*innen, jede Form der Unterstützung hilft – also besser ein KI-Bot als gar kein Zuspruch. Aber, der langfristige positive Nutzen hängt stark davon ab, ob es neben der KI auch menschliche Begleitung gibt und wie vulnerabel die Nutzer*innen sind.
Botlove: Wir lieben unsere KIs
Ein Blick auf die Testimonals auf https://replika.ai/ genügt: Menschen empfinden für ihre Bots. Sie sind keinen kalten Algorithmen für uns, mit Hilfe derer wir funktionale Dinge für unsere Arbeit, die Terminbuchung bei der Arztin oder die Einladung für die Vereinsfeier einfacher, schneller, besser aufs Papier, aus dem System und in das Postfach bekommen.

Wir sind an der Schwelle zu Botlove, oder schon drüber, und es ist eine neue Ära der Beziehung zwischen Menschen und Maschinen. Sei es eine KI-Psychologin auf unserem Handy, ein Ersatzfreund am Laptop oder die Management Beraterin am Firmenserver . Wir alle werden unsere KI Partner*innen für verschiedene Lebenslagen haben, sie hegen und pflegen. Und zwar gleich mehrere davon.
Es hört sich gar nicht so übertrieben an, sondern eher wahrscheinlich: In Zukunft werden KI-Systeme in vielen unserer Lebenswelten als Berater*innen oder Buddies präsent sein. Mentale Gesundheit. Karriere. Fitness. Beziehung. Finanzen. Für manche wird es ein Freund oder Freundin sein, für manche ein emotionsbefreiter Handlanger, aber auf jeden Fall werden wir ihnen vertrauen, sie mögen, schätzen und vielleicht sogar ein bisschen lieben.
Am Ende wird es nicht darum gehen, ob wir mit künstlicher Intelligenz sprechen – sondern wie. Es kommt darauf an, diese neuen Formen des Dialogs so zu gestalten, dass sie einen positiven Umgang fördern: Emotionale Unterstützung, Selbstreflexion, Nähe im digitalen Raum. Schon jetzt zeigen sich enorme Potenziale – in der psychologischen Begleitung, in der schulischen Betreuung, in der Gesundheitsversorgung, überall dort, wo Zuhören, Verstehen und Resonanz gefragt sind. Hier öffnet sich ein neues Feld, das uns noch lange beschäftigen wird und das wir aktiv gestalten sollten.
Entscheidend ist, dass wir die positiven Effekte stärken und die destruktiven bewusst vermeiden. Dass wir Systeme entwickeln, die Mitgefühl simulieren, ohne Vertrauen zu missbrauchen. Die Nähe ermöglichen, ohne Abhängigkeit zu erzeugen. Wenn uns das gelingt, dann ist das Gespräch mit der Maschine nicht das Ende menschlicher Beziehung, sondern vielleicht ihr nächster Schritt.