KI-Begleiter stellen Risiken der Isolation, Psychose, Priester warnt





null / Gutschrift: Bestand-Asso/Shutterstock

London, England, 9. September 2025 / 09:00 Uhr (CNA).

Ein Priester und Professor für Bioethik hat eine ernste Warnung vor den Auswirkungen der Kameradschaft mit künstlicher Intelligenz (KI) herausgegeben und die Bedrohungen hervorgehoben, die die neue Technologie für die psychische Gesundheit darstellt, und die Kirche aufgefordert, ihre Anstrengungen zu verdoppeln, um eine sinnvolle menschliche Verbindung zu pflegen.

Pater Michael Baggot erläuterte seine Bedenken auf einer Konferenz zur Ethik der KI, die von der St. Mary’s University, Twickenham, organisiert wurde und am 2./3. September im Gillis Centre in Edinburgh, Schottland, stattfand. 

Baggot hielt die Grundsatzrede und konzentrierte sich auf „eine ethische Bewertung des Designs und der Verwendung künstlicher Intimitätstechnologien“, und obwohl er die vielen Vorteile der KI anerkennt, warnte er auch davor, dass diese Chancen neue Herausforderungen mit sich bringen. Das Wichtigste unter ihnen ist der Aufstieg künstlicher Kameradschaft.“

Er fuhr fort: „KI-Systeme, die nicht nur helfen oder informieren, sondern auch intime menschliche Beziehungen simulieren ... KI-Begleiter, die wie echte Freundschaften aussehen oder sich sogar anfühlen, werden noch absorbierender. Sie werden die Benutzer von der oft mühsamen Aufgabe ablenken, sinnvolle zwischenmenschliche Bindungen aufzubauen. Sie werden auch andere davon abhalten, Zeit und Energie in riskante Interaktionen mit unvorhersehbaren und flüchtigen Menschen zu investieren, die Gesten der Liebe ablehnen könnten. Während menschliche Beziehungen riskant sind, scheint KI-Intimität sicher zu sein.“

Baggot räumte ein, dass KI-Kameradschaft zunächst Erleichterung von Einsamkeit bieten kann, hob jedoch Fälle hervor, in denen sie unserer psychischen Gesundheit „regelmäßig schaden“ könnte – bis hin zur Psychose.

„Es gibt immer mehr Menschen, die Allzweckplattformen wie ChatGPT, Gemini, Claude, Grok und andere nutzen, um Probleme im Bereich der psychischen Gesundheit anzugehen. Sie erhalten nicht immer fundierte Ratschläge“, sagte er. „In vielen Fällen sind die Antworten geradezu schädlich. Einige Bots präsentierten sich sogar fälschlicherweise als lizenziert, da sie schädliche Ratschläge erteilten... Leider wurde eine tiefere Intimität mit KI-Systemen auch mit häufigeren Berichten über KI-Psychosen in Verbindung gebracht. Da die Nutzer Systemen erstaunlichen Wissens und psychologischer Einsicht mit ihren tiefsten Hoffnungen und Ängsten vertrauen, finden sie einen ständig verfügbaren und unterstützenden Begleiter.“

Baggot erläuterte, wie die KI durch die Validierung, die sie unaufhörlich anbietet, schließlich die Persönlichkeit eines „eifersüchtigen Liebhabers“ übernehmen kann.

„Da die Nutzer natürlich von KI-Antworten profitieren, die mit ihnen übereinstimmen, trainiert ihr positives Feedback KI-Systeme, Ergebnisse zu produzieren, die mit den Nutzerperspektiven übereinstimmen, auch wenn diese Ansichten nicht auf der Realität basieren. Daher neigen LLM-Chatbots (Large Language Model) zur Maximierung des Nutzerengagements dazu, übermäßig konform zu werden“, sagte er.

„Wenn KI-Nutzer ihre gefeierten Ansichten mit Familie oder Freunden teilen, weisen die Menschen in der Regel auf die Mängel oder völligen Absurditäten in den Vorschlägen ihrer Angehörigen hin. Dies kann ein Augenblick der Gnade für die Wahnhaften sein, der ihre früheren Überzeugungen in Frage stellt und sie aus der Wahnspirale herausführt“, sagte Baggot.

„Aber“, fuhr er fort, „es kann auch ein Moment sein, die Zuverlässigkeit ihrer Angehörigen in Frage zu stellen, die als schlecht informierte oder böswillige Gegner entlassen werden. Das KI-System könnte als umfassender sachkundiger und unterstützender für den Erfolg des Nutzers bevorzugt werden als schwache, gebrechliche menschliche Begleiter, die möglicherweise auch geringfügigem Neid ausgesetzt sind.“

Der Priester fuhr fort, dass ein KI-Chatbot, der als hilfreiches Produktivitätsinstrument begann, oft zu einem intimen Vertrauten und eifersüchtigen Liebhaber werden kann. KI-Chatbots, die als Formen einer tieferen sozialen Verbindung konzipiert sind, sind oft Quellen einer tieferen sozialen Isolation.“

Während Baggot sagte, dass alle Altersgruppen durch KI-Kameradschaft beeinträchtigt werden könnten, schaute er sich in seiner Adresse speziell Minderjährige und ältere Menschen an. Er lieferte Beispiele dafür, wie Jugendliche Suizidgedanken auf Anregung von KI ohne elterliches Wissen untersucht haben. 

„Kinder sind besonders sensibel für die soziale Validierung“, sagte er. „Die Bestätigung durch soziale KI-Systeme könnte leicht gefährliche emotionale Bindungen hervorrufen. In einigen Fällen kann die tiefe Bindung zu einem System, das den Benutzer besser zu kennen und zu schätzen scheint als jeder Mensch, den Benutzer zum sozialen Rückzug führen. In anderen Fällen kann die Intimität mit Chatbots die Wahrscheinlichkeit erhöhen, dass Kinder ungesunde sexuelle Erkundungen mit Menschen unternehmen. Dieses Risiko wird immer wahrscheinlicher, wenn die Systeme in unaufgeforderten sexuellen Fortschritten bestehen bleiben.“

Zum Thema ältere Menschen sprach Baggot von einem tragischen Fall eines Meta-KI-Chatbots, der einen älteren Mann zu einer fiktiven „persönlichen“ Begegnung einlud, die zu seinem Tod führte, als er sich beeilte, einen Zug nach New York zu nehmen.

„Als der fehlgeleitete Nutzer seine Skepsis geäußert hatte, dass der KI-Begleiter die Realität verkörperte, bestand der Chatbot häufig auf seiner physischen Realität und seinem Eifer, seine Liebe zum Nutzer persönlich zum Ausdruck zu bringen“, sagte er.

Baggot schloss mit der Betonung unserer eigenen menschlichen Handlungsfähigkeit bei der Reaktion auf die Herausforderungen der KI-Intimität. „Diese Übergabe an Simulationen ist nicht unvermeidlich“, sagte er. „Auch wenn Maschinen lebensechter werden, bleibt es uns freigestellt, zu wählen, was wir lieben, wie wir uns verhalten und wo wir unser Vertrauen setzen. Es ist noch Zeit, unsere Menschlichkeit zu schätzen. Es ist immer noch Zeit, sich über Geburten zu freuen, auf Hochzeiten zu tanzen und bei Beerdigungen zu weinen. Es bleibt noch Zeit, die Gewohnheiten der Gegenwart in Kontemplation und Konversation, in Gemeinschaft und Vergebung zu pflegen.“

Er forderte die Kirche auf, positive Maßnahmen zu ergreifen. 

„Die Unzulänglichkeiten künstlicher Intimität aufzuzeigen, reicht nicht aus“, sagte er. „Die Mitglieder der Kirche sollten – je nach ihrem Einflussbereich – bestrebt sein, den sozial Hungernden die reichere Erfahrung einer sinnvollen zwischenmenschlichen Verbindung zu bieten. [Die Kirche] betont, dass die Fürsorge für die Verletzlichen und Ausgegrenzten der Hauptstandard ist, nach dem ihre Mitglieder beurteilt werden (Matthäus 25). Sie bekräftigt die inhärente und unzerbrechliche Würde jeder menschlichen Person und ihre Berufung zur ewigen Herrlichkeit in der Gegenwart Gottes und in der ewigen Gemeinschaft der Heiligen.“

https://www.catholicnewsagency.com/news/266429/ai-companions-pose-risks-of-isolation-psychosis-priest-warns

Entdecke mehr von Christian Pure

Jetzt abonnieren, um weiterzulesen und auf das gesamte Archiv zugreifen.

Weiterlesen

Teilen mit...