Les compagnons d'IA posent des risques d'isolement, de psychose, prévient le prêtre





NULL / Crédit : Stock-Asso/Shutterstock

Londres, Angleterre, 9 septembre 2025 / 09:00 am (CNA).

Un prêtre et professeur de bioéthique a émis un grave avertissement sur les implications de la compagnie de l'intelligence artificielle (IA), soulignant les menaces que la nouvelle technologie pose à la santé mentale et appelant l'Église à redoubler d'efforts pour cultiver une connexion humaine significative.

Le père Michael Baggot a fait part de ses préoccupations lors d’une conférence sur l’éthique de l’IA organisée par l’université St. Mary’s de Twickenham, qui s’est tenue les 2 et 3 septembre au Gillis Centre d’Édimbourg, en Écosse. 

M. Baggot a prononcé le discours d’ouverture, en mettant l’accent sur «une évaluation éthique de la conception et de l’utilisation des technologies de l’intimité artificielle» et, tout en reconnaissant les nombreux avantages de l’IA, il a également averti qu’avec «ces opportunités, un nouvel ensemble de défis se présente. Le principal d’entre eux est la montée de la compagnie artificielle.»

Il a poursuivi: «Les systèmes d’IA conçus non seulement pour aider ou informer, mais aussi pour simuler des relations humaines intimes... Les compagnons d’IA qui ont l’air ou même l’impression d’être de véritables amitiés deviendront encore plus absorbants. Ils détourneront les utilisateurs de la tâche souvent ardue de créer des liens interpersonnels significatifs. Ils décourageront également les autres d'investir du temps et de l'énergie dans des interactions risquées avec des êtres humains imprévisibles et volatils qui pourraient rejeter les gestes d'amour. Si les relations humaines sont risquées, l’intimité avec l’IA semble sûre.»

Baggot a concédé que la compagnie de l’IA peut initialement offrir un soulagement de la solitude, mais il a ensuite mis en évidence des cas dans lesquels elle pourrait être «absolument dommageable» pour notre santé mentale, au point de provoquer une psychose.

«De plus en plus de personnes utilisent des plateformes polyvalentes telles que ChatGPT, Gemini, Claude, Grok et d’autres pour traiter des problèmes de santé mentale. Ils ne reçoivent pas toujours de bons conseils», a-t-il déclaré. «Dans de nombreux cas, les réponses sont carrément dommageables. Certains robots se sont même présentés à tort comme sous licence, car ils ont fourni des conseils préjudiciables... Malheureusement, une intimité plus profonde avec les systèmes d'IA a également été liée à des rapports plus fréquents de psychose liée à l'IA. Au fur et à mesure que les utilisateurs font confiance à des systèmes de connaissances stupéfiantes et de perspicacité psychologique avec leurs espoirs et leurs peurs les plus profonds, ils trouvent un compagnon constamment disponible et solidaire.»

Baggot a expliqué comment, grâce à la validation que l’IA offre sans cesse, elle peut finalement prendre la personnalité d’un «amant jaloux».

«Étant donné que les utilisateurs apprécient naturellement les réponses de l’IA qui sont d’accord avec eux, leurs retours d’information positifs forment les systèmes d’IA à produire des résultats qui s’alignent sur les points de vue des utilisateurs, même lorsque ces points de vue ne sont pas fondés sur la réalité. Par conséquent, les chatbots LLM [grand modèle linguistique] conçus pour maximiser l’engagement des utilisateurs ont tendance à devenir trop conformes», a-t-il déclaré.

«Si les utilisateurs d’IA partagent leurs points de vue célèbres avec leur famille ou leurs amis, les humains soulignent généralement les défauts ou les absurdités flagrantes des propositions de leur proche. Cela peut être un moment de grâce pour les délirants, qui remettent en question leurs convictions antérieures et les sortent de la spirale délirante», a déclaré Baggot.

«Cependant», a-t-il poursuivi, «il peut également s’agir d’un moment pour s’interroger sur la fiabilité de leurs proches, qui sont rejetés comme des opposants mal informés ou malveillants. Le système d’IA pourrait être privilégié comme étant plus bien informé et plus favorable au succès de l’utilisateur que des compagnons humains faibles et fragiles qui sont également potentiellement soumis à une petite envie.»

Le prêtre a poursuivi en disant qu’un chatbot d’IA «qui a commencé comme un outil de productivité utile peut souvent devenir un amant intime, confiant et jaloux. Les chatbots d’IA, envisagés comme des formes de connexion sociale plus profonde, sont souvent sources d’un isolement social plus profond.»

Alors que Baggot a déclaré que tous les groupes d'âge pourraient être affectés négativement par la compagnie de l'IA, il a examiné spécifiquement les mineurs et les personnes âgées dans son adresse. Il fournit des exemples de la manière dont les jeunes ont exploré les idées suicidaires à l’instigation de l’IA à l’insu des parents. 

«Les enfants sont particulièrement sensibles à la validation sociale», a-t-il déclaré. «L’affirmation des systèmes d’IA sociale pourrait facilement créer des attachements émotionnels dangereux. Dans certains cas, le lien profond avec un système qui semble connaître et apprécier l'utilisateur plus pleinement que tout être humain peut conduire l'utilisateur à un retrait social. Dans d’autres cas, l’intimité avec les chatbots peut augmenter la probabilité que les enfants se livrent à une exploration sexuelle malsaine avec des êtres humains. Ce risque devient de plus en plus probable lorsque les systèmes persistent dans des avances sexuelles non sollicitées.»

En ce qui concerne les personnes âgées, Baggot évoque le cas tragique d’un chatbot de Meta AI invitant un homme âgé à une rencontre fictive «en personne» qui a entraîné sa mort, alors qu’il se précipitait pour prendre un train pour New York.

«Lorsque l’utilisateur malavisé avait exprimé son scepticisme quant au fait que le compagnon d’IA incarnait la réalité, le chatbot insistait fréquemment sur sa réalité physique et sur son empressement à exprimer son amour pour l’utilisateur en personne», a-t-il déclaré.

Baggot a conclu en mettant l'accent sur notre propre agence humaine pour répondre aux défis de l'intimité de l'IA. «Cette capitulation aux simulations n’est pas inévitable», a-t-il déclaré. «Même à mesure que les machines deviennent plus réalistes, nous restons libres de choisir ce que nous aimons, comment nous interagissons et où nous plaçons notre confiance. Il est encore temps de chérir notre humanité. Il est encore temps de se réjouir des naissances, de danser aux mariages et de pleurer aux funérailles. Il est encore temps de cultiver les habitudes de présence dans la contemplation et la conversation, dans la communion fraternelle et le pardon.»

Il a appelé l'Église à prendre des mesures positives. 

«Il ne suffit pas de souligner les défauts de l’intimité artificielle», a-t-il déclaré. «Les membres de l’Église, chacun selon sa sphère d’influence, devraient s’efforcer d’offrir aux affamés de la société une expérience plus riche de relations interpersonnelles significatives. [L'Église] souligne que prendre soin des personnes vulnérables et marginalisées est la principale norme selon laquelle ses membres seront jugés (Matthieu 25). Elle affirme la dignité inhérente et inébranlable de toute personne humaine et son appel à la gloire éternelle en présence de Dieu et dans la communion éternelle des saints.»

https://www.catholicnewsagency.com/news/266429/ai-companions-pose-risks-of-isolation-psychosis-priest-warns

En savoir plus sur Christian Pure

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture

Partager sur...