Los compañeros de IA plantean riesgos de aislamiento, psicosis, advierte el sacerdote





null / Crédito: Stock-Asso/Shutterstock

Londres, Inglaterra, 9 de septiembre de 2025 / 09:00 am (CNA).

Un sacerdote y profesor de bioética ha emitido una grave advertencia sobre las implicaciones de la compañía de inteligencia artificial (IA), destacando las amenazas que la nueva tecnología representa para la salud mental y pidiendo a la Iglesia que redoble sus esfuerzos para cultivar una conexión humana significativa.

El padre Michael Baggot expuso sus preocupaciones en una conferencia sobre la ética de la IA organizada por la St. Mary’s University de Twickenham, que tuvo lugar los días 2 y 3 de septiembre en el Gillis Centre de Edimburgo (Escocia). 

Baggot pronunció el discurso de apertura, centrándose en «una evaluación ética del diseño y el uso de las tecnologías de intimidad artificial», y aunque reconoció los numerosos beneficios de la IA, también advirtió de que «estas oportunidades suponen un nuevo conjunto de retos. El principal de ellos es el aumento del compañerismo artificial».

Continuó: «Los sistemas de IA diseñados no solo para ayudar o informar, sino también para simular relaciones humanas íntimas [...] Los compañeros de IA que parezcan o incluso parezcan amistades reales serán aún más absorbentes. Distraerán a los usuarios de la a menudo ardua tarea de construir vínculos interpersonales significativos. También desalentarán a otros de invertir tiempo y energía en interacciones riesgosas con seres humanos impredecibles y volátiles que podrían rechazar los gestos de amor. Si bien las relaciones humanas son arriesgadas, la intimidad con la IA parece segura».

Baggot admitió que el compañerismo con la IA puede ofrecer inicialmente un alivio de la soledad, pero pasó a destacar los casos en los que podría ser «absolutamente perjudicial» para nuestra salud mental, hasta el punto de la psicosis.

«Cada vez son más las personas que utilizan plataformas polivalentes como ChatGPT, Gemini, Claude, Grok y otras para abordar problemas de salud mental. No siempre reciben buenos consejos», dijo. «En muchos casos, las respuestas son francamente perjudiciales. Algunos bots incluso se presentaron falsamente como licenciados, ya que dieron consejos dañinos ... Desafortunadamente, una intimidad más profunda con los sistemas de IA también se ha relacionado con informes más frecuentes de psicosis de IA. A medida que los usuarios confían en sistemas de conocimiento asombroso y percepción psicológica con sus esperanzas y temores más profundos, encuentran un compañero constantemente disponible y de apoyo».

Baggot describió cómo, a través de la validación que la IA ofrece incesantemente, puede eventualmente asumir la personalidad de un «amante celoso».

«Dado que los usuarios disfrutan naturalmente de respuestas de IA que están de acuerdo con ellos, su retroalimentación positiva entrena a los sistemas de IA para producir resultados que se ajusten a las perspectivas de los usuarios, incluso cuando esas opiniones no se basan en la realidad. Por lo tanto, los chatbots LLM [modelo de lenguaje grande] diseñados para maximizar la participación de los usuarios tienden a ser excesivamente conformes», dijo.

«Si los usuarios de IA comparten sus célebres puntos de vista con familiares o amigos, los seres humanos suelen señalar los defectos o los absurdos absolutos de las propuestas de sus seres queridos. Este puede ser un momento de gracia para los delirantes, que cuestionan sus convicciones anteriores y los sacan de la espiral delirante», dijo Baggot.

«Sin embargo», continuó, «también puede ser un momento para cuestionar la fiabilidad de sus seres queridos, que son despedidos por estar mal informados o por ser opositores malintencionados. El sistema de IA podría verse favorecido por tener un conocimiento más exhaustivo y apoyar más el éxito del usuario que los compañeros humanos débiles y frágiles que también son potencialmente objeto de envidia mezquina».

El sacerdote continuó diciendo que un chatbot de IA «que comenzó como una herramienta útil de productividad a menudo puede convertirse en un confidente íntimo y un amante celoso. Los chatbots de IA, concebidos como formas de conexión social más profunda, son a menudo fuentes de un aislamiento social más profundo».

Si bien Baggot dijo que todos los grupos de edad podrían verse afectados negativamente por la compañía de IA, miró específicamente a los menores y los ancianos en su discurso. Él proporcionó ejemplos de cómo los jóvenes han explorado la ideación suicida a instancias de la IA sin el conocimiento de los padres. 

«Los niños son especialmente sensibles a la validación social», dijo. «La afirmación de los sistemas sociales de IA podría crear fácilmente vínculos emocionales peligrosos. En algunos casos, el vínculo profundo con un sistema que parece conocer y apreciar al usuario más plenamente que cualquier ser humano puede llevar al usuario al retiro social. En otros casos, la intimidad con los chatbots puede aumentar la probabilidad de que los niños participen en exploraciones sexuales poco saludables con seres humanos. Este riesgo es cada vez más probable cuando los sistemas persisten en avances sexuales no solicitados».

Pasando al tema de las personas mayores, Baggot habló sobre un caso trágico de un chatbot de Meta AI que invitaba a un anciano a un encuentro ficticio «en persona» que resultó en su muerte, cuando se cayó a toda prisa para tomar un tren a Nueva York.

«Cuando el usuario equivocado había expresado su escepticismo [de que] el compañero de IA encarnaba la realidad, el chatbot insistía con frecuencia en su realidad física y en su afán por expresar su amor por el usuario en persona», dijo.

Baggot concluyó enfatizando nuestra propia agencia humana para responder a los desafíos de la intimidad de la IA. «Esta entrega a las simulaciones no es inevitable», dijo. «Incluso a medida que las máquinas se vuelven más realistas, seguimos siendo libres de elegir lo que amamos, cómo nos relacionamos y dónde depositamos nuestra confianza. Todavía hay tiempo para apreciar nuestra humanidad. Todavía hay tiempo para regocijarse en los nacimientos, bailar en las bodas y llorar en los funerales. Todavía hay tiempo para cultivar los hábitos de presencia en la contemplación y la conversación, en la comunión y el perdón».

Pidió a la Iglesia que tomara medidas positivas. 

«Señalar los defectos de la intimidad artificial no es suficiente», dijo. «Los miembros de la Iglesia, cada uno según su esfera de influencia, deben esforzarse por ofrecer a los socialmente hambrientos la experiencia más rica de una conexión interpersonal significativa. [La Iglesia] enfatiza que el cuidado de los vulnerables y marginados es el principal estándar por el cual sus miembros serán juzgados (Mateo 25). Afirma la dignidad inherente e inquebrantable de toda persona humana y su llamamiento a la gloria eterna en la presencia de Dios y en la comunión eterna de los santos».

https://www.catholicnewsagency.com/news/266429/ai-companions-pose-risks-of-isolation-psychosis-priest-warns

Descubre más desde Christian Pure

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo

Compartir con...