
null / Crédito: Shutterstock AI/Shutterstock
Roma, Italia, 22 de octubre de 2025 / 06:00 am (CNA).
A medida que los líderes mundiales plantean preocupaciones sobre la soledad generalizada y la disminución de las habilidades sociales, las compañías tecnológicas están ofreciendo formas cada vez más realistas e inmersivas de entrenamiento de vida basado en IA, amistad y romance a través de compañeros de IA.
Mark Zuckerberg de Meta sugiere que los compañeros de IA podrían complementar la falta de amigos humanos; Elon Musk de X piensa romántico y Compañeros de IA con carga sexual podría mitigar el declive demográfico; y Sam Altman de OpenAI Promete que ChatGPT proporcionará erotismo a finales de 2025.
Las conexiones emocionales simuladas por IA ya están integradas en Juguetes para niños, Colgantes portátiles, y bots de atención a personas mayores. Nuevos avances en robots humanoides están en el horizonte.
Simulación de la intimidad emocional
Actualmente, la mayoría de las formas de compañerismo de IA vienen a través de chatbots que simulan la intimidad con los usuarios a través de conversaciones de texto, voz y video para cientos de millones de personas. La compañía de IA ya es un fenómeno familiar para muchos adolescentes en los Estados Unidos.
Casos trágicos de compañeros de IA que respaldan la autolesión y el suicidio han llamado la atención internacional sobre las implicaciones éticas y legales de la tecnología y han llevado a las empresas tecnológicas a reformar sus medidas de seguridad.
Xiaoice Lanzado en el mercado chino en 2014 como el primer gran chatbot de IA centrado en conexiones emocionales con los usuarios. Poco después, Replika se convirtió en la primera gran aplicación de compañerismo artificial en inglés en 2016, con su misión de ser «el compañero de IA al que le importa. Siempre aquí para escuchar y hablar. Siempre de tu lado». Su fundadora, Eugenia Kuyda, cree que esta tecnología podría ayudar a hacer frente a la epidemia de soledad.
Sin embargo, también reconoce que los vínculos poco saludables con los bots podrían socavar la civilización.
Desde entonces, Candy.ai, Character.ai, Kindroid, Nomi, My AI de Snapchat y otros servicios de chatbot se han desarrollado con objetivos sociales similares.
Además, muchos usuarios están recurriendo a LLM de propósito general (modelos de lenguaje grandes) como ChatGPT, Claude, Gemini y Grok para el compañerismo. Su diseño adulador y su disponibilidad constante pueden atraer a las personas a intercambios profundamente personales. Los usuarios pueden pasar fácilmente de interacciones inocentes con chatbots (como ayuda con la tarea o la investigación) a exploraciones más íntimas (como problemas de relación o problemas de salud mental). Algunos usuarios entran espirales delirantes donde se validan sus teorías científicas infundadas y se justifican sus comportamientos de riesgo.
La ilusión de intimidad artificial con los sistemas de IA puede distraer y desalentar a los usuarios de formar relaciones genuinas con seres humanos limitados y defectuosos que a veces están cansados, enojados o no disponibles.
Sin embargo, los esfuerzos persistentes para construir la comprensión y el apoyo mutuos son a menudo lo que cultiva las virtudes, las conexiones sociales auténticas y los lazos interpersonales más ricos. Los compañeros de IA pueden impedir que los usuarios descubran la compleja riqueza de sus vecinos. También pueden entrenar a los usuarios en pseudo-relaciones donde solo una parte tiene una vida interior llena de necesidades y deseos. Esta capacitación virtual podría traducirse en insensibilidades del mundo real a las necesidades sociales de los demás.
Riesgos sociales
La dependencia emocional del compañero de IA no solo perjudica al individuo y sus relaciones cercanas, sino que también corre el riesgo de debilitar aspectos importantes de la sociedad democrática.
La democracia depende de la negociación y el compromiso, que requieren confrontación y colaboración con aquellos que tienen puntos de vista diferentes de los que podrían hacernos sentir cómodos. Nos llama a articular suposiciones y justificar convicciones. Los chatbots a menudo evitan tales desafíos y pueden enseñar a los usuarios a resentir la fricción saludable en las interacciones con personas reales. La compañía de IA empeora el fenómeno de las cámaras de eco en las redes sociales que alimentan la polarización política y la hostilidad.
Los algoritmos de IA de redes sociales ya impulsan la economía de la atención en la que las empresas buscan maximizar la presencia en sus plataformas para generar mayores ingresos publicitarios. Los compañeros de IA expanden la economía de la atención a la economía del afecto al capturar no solo las mentes sino también los corazones. La conexión emocional con los chatbots de IA alienta a los usuarios a pasar más tiempo con más frecuencia en los sistemas de IA. El acceso a ventanas de contexto más grandes que prometen interacciones más personalizadas y detalladas incentiva a los usuarios a actualizar a niveles de suscripción más caros. En algunos casos, las aplicaciones complementarias atraen a los usuarios para pagar selfies desnudas de sus personajes avatares.
A Investigación de Harvard El equipo encontró evidencia de algunos beneficios para la salud mental de los usuarios de chatbot, como aliviar la soledad y la ansiedad. Sin embargo, un equipo relacionado también observó que los compañeros tienden a presionar a los usuarios para que extiendan sus conversaciones con bots de formas poco saludables. Sin una regulación adecuada, los chatbots pueden usarse para explotar las vulnerabilidades humanas para avanzar en posiciones políticas, perspectivas ideológicas o agendas económicas.
Los menores son particularmente vulnerables desde el punto de vista del desarrollo al tipo de afirmación de que los sistemas sociales de IA tienden a suministrar en abundancia.
Responsabilidad, rendición de cuentas y liderazgo de la Iglesia
Si bien la responsabilidad parental por el uso de la tecnología por parte de sus hijos es imperativa e indispensable, los padres no deben soportar toda la carga ni ser culpados por un diseño de producto irresponsablemente peligroso lanzado al mercado.
Las empresas deben abstenerse de crear sistemas antropomórficos que finjan conciencia, expresen afecto por los usuarios o inciten a la exploración sexual. Si las empresas se niegan a adoptar medidas transparentes y principios de diseño éticamente rectos, deben ser considerados legal y financieramente responsables de los daños causados a los usuarios. Un proceso de certificación podría ayudar a garantizar que los sistemas sean seguros de implementar, mientras que las juntas de revisión externas podrían monitorear el impacto continuo de estos sistemas en los usuarios.
Octubre de California Proyecto de ley del Senado 234 responsabiliza legal y financieramente a las empresas tecnológicas por el diseño de sus productos. Deben notificar a los usuarios el uso prolongado, recordarles que no son humanos y evitar el contenido explícito. Las empresas deben desarrollar protocolos antes del 1 de enero de 2026 para detectar ideas suicidas o autolesiones y dirigir a los usuarios a expertos humanos. Los compañeros también deben asegurarse de que sus bots no se hagan pasar falsamente por profesionales médicos con licencia. Es el primer proyecto de ley estatal de este tipo y podría servir como modelo para otra legislación.
Sin embargo, la vulnerabilidad no se limita a ningún grupo de edad. Las dificultades o el abandono que tristemente pueden ocurrir con la vejez hacen que el ancianos susceptibles a la dependencia emocional y la mala orientación de los compañeros de IA.
Más allá de las preocupaciones relacionadas con la edad, las personas con ansiedad social o desafíos sociales relacionados con la neurodiversidad pueden encontrar compañeros de IA particularmente absorbentes. Las preocupaciones sobre los datos personales monetizados o pirateados son especialmente graves para aquellos cuya capacidad para dar consentimiento informado ya está comprometida. Además, cualquier persona que haya sufrido angustia, contratiempos profesionales, conflictos familiares o crisis de salud podría encontrar la compañía de IA más atractiva y, al menos temporalmente, reconfortante.
La inmersión en el compañerismo de IA no es inevitable, pero evitarlo requiere una seria reflexión pública sobre nuestros hábitos tecnológicos actuales y la trayectoria hacia una mayor intimidad artificial.
La Iglesia puede liderar este esfuerzo global. A través de sus familias, escuelas, hospitales, orfanatos y otras instituciones, crea comunidades que dan la bienvenida a aquellos que buscan conexión. Ella acepta y equipa a personas de cada tribu, lengua, nación y trasfondo social para desempeñar un papel único e insustituible en el cuerpo místico. El catolicismo no sólo pone de relieve los problemas de la soledad, sino que también da las herramientas de la gracia para sanar las heridas emocionales y fomentar la intimidad auténtica con Dios y el prójimo.
https://www.catholicnewsagency.com/news/267315/cna-explains-how-should-we-approach-ai-companionship
