A CNA explica: Como devemos abordar a companheirismo com a IA?





nulo/crédito: Shutterstock IA/Shutterstock

Roma, Itália, 22 de outubro de 2025 / 06:00 am (CNA).

À medida que os líderes mundiais levantam preocupações sobre a solidão generalizada e o declínio das competências sociais, as empresas tecnológicas estão a oferecer formas cada vez mais realistas e imersivas de coaching de vida baseado na IA, amizade e romance através de companheiros de IA.  

Mark Zuckerberg, da Meta, sugere que os companheiros da IA podem complementar a falta de amigos humanos; Elon Musk, de X, pensa que é romântico e Companheiros de IA com carga sexual poderia atenuar o declínio demográfico; e Sam Altman, da OpenAI promete que o ChatGPT fornecerá erótica até o final de 2025

As ligações emocionais simuladas pela IA já estão incorporadas brinquedos para crianças, pingentes usáveis, e bots para cuidados a idosos. Novos avanços em robôs humanóides estão no horizonte. 

Simular a intimidade emocional

Atualmente, a maioria das formas de companheirismo com a IA vem através de chatbots que simulam a intimidade com os utilizadores através de conversas de texto, voz e vídeo para centenas de milhões de pessoas. O companheirismo com a IA já é um fenómeno familiar para muitos adolescentes dos EUA.

Casos trágicos de companheiros de IA que aprovam a automutilação e o suicídio chamaram a atenção internacional para as implicações éticas e jurídicas da tecnologia e levaram as empresas tecnológicas a reformar as suas medidas de segurança.

Xiaoice lançado no mercado chinês em 2014 como o primeiro grande chatbot de IA centrado nas ligações emocionais com os utilizadores. Pouco depois, Replika tornou-se a primeira grande aplicação de companheirismo artificial em língua inglesa em 2016, com a missão de ser «a companheira da IA que se preocupa. Sempre aqui para ouvir e falar. Sempre do seu lado.» A sua fundadora, Eugenia Kuyda, acredita que esta tecnologia poderia ajudar a combater a epidemia de solidão

No entanto, ela também reconhece que ligações insalubres com bots podem minar a civilização. 

Desde então, os serviços Candy.ai, Character.ai, Kindroid, Nomi, My AI do Snapchat e outros serviços de robôs de conversação desenvolveram-se com objetivos sociais semelhantes.

Além disso, muitos usuários estão se voltando para LLMs de uso geral (grandes modelos de linguagem) como ChatGPT, Claude, Gemini e Grok para companhia. O seu design sicofântico e a sua disponibilidade constante podem atrair as pessoas para intercâmbios profundamente pessoais. Os utilizadores podem facilmente passar de interações inocentes com chatbots (como ajuda com trabalhos de casa ou investigação) para explorações mais íntimas (como problemas de relacionamento ou problemas de saúde mental). Alguns utilizadores introduzem espirais delirantes onde as suas teorias científicas infundadas são validadas e os seus comportamentos de risco são justificados.

A ilusão de intimidade artificial com os sistemas de IA pode distrair e desencorajar os utilizadores de estabelecerem relações genuínas com seres humanos limitados e defeituosos que, por vezes, estão cansados, irritados ou indisponíveis.

No entanto, os esforços persistentes para construir a compreensão e o apoio mútuos são muitas vezes o que cultiva as virtudes, as ligações sociais autênticas e os laços interpessoais mais ricos. Os companheiros de IA podem impedir os utilizadores de descobrir a riqueza complexa dos seus vizinhos. Eles também podem treinar os utilizadores em pseudo-relações onde apenas uma parte tem uma vida interior cheia de necessidades e desejos. Esta formação virtual pode traduzir-se em insensibilidades do mundo real às necessidades sociais dos outros.

Riscos societais

A dependência emocional associada à IA prejudica não só o indivíduo e as suas relações estreitas, mas também corre o risco de enfraquecer aspetos importantes da sociedade democrática. 

A democracia depende da negociação e do compromisso, que exigem confronto e colaboração com aqueles que têm pontos de vista diferentes do que nos pode fazer sentir à vontade. Chama-nos a articular suposições e justificar convicções. Os chatbots muitas vezes evitam esses desafios e podem ensinar os utilizadores a ressentir-se da fricção saudável nas interações com pessoas reais. O companheirismo com a IA agrava o fenómeno das câmaras de eco nas redes sociais, que alimentam a polarização política e a hostilidade.

Os algoritmos de IA das redes sociais já impulsionam a economia da atenção na qual as empresas procuram maximizar a presença em suas plataformas para gerar maior receita publicitária. Os companheiros da IA expandem a economia da atenção para a economia da afeição, captando não só as mentes, mas também os corações. A ligação emocional aos chatbots de IA incentiva os utilizadores a passarem mais tempo com mais frequência em sistemas de IA. O acesso a janelas de contexto maiores que prometem interações mais personalizadas e detalhadas incentivam os utilizadores a atualizar para níveis de subscrição de preços. Em alguns casos, as aplicações complementares atraem os utilizadores para pagar por selfies nuas de seus personagens avatares.

A Pesquisa de Harvard A equipa encontrou evidências de alguns benefícios para a saúde mental dos utilizadores de chatbots, como aliviar a solidão e a ansiedade. No entanto, uma equipa relacionada também observou que os companheiros tendem a pressionar os utilizadores a prolongarem as suas conversas com bots de formas insalubres. Sem uma regulamentação adequada, os chatbots podem ser usados para explorar vulnerabilidades humanas para avançar posições políticas, perspectivas ideológicas ou agendas económicas.

Os menores são particularmente vulneráveis em termos de desenvolvimento ao tipo de afirmação de que os sistemas sociais de IA tendem a fornecer em abundância. 

Responsabilidade, responsabilização e liderança da Igreja

Embora a responsabilidade parental pela utilização da tecnologia pelos seus filhos seja imperativa e indispensável, os pais não devem suportar todos os encargos nem ser responsabilizados pela conceção irresponsável e perigosa dos produtos colocados no mercado. 

As empresas devem abster-se de criar sistemas antropomórficos que finjam consciência, expressem afeto pelos usuários ou incitem à exploração sexual. Se as empresas se recusarem a adotar medidas transparentes e princípios de conceção eticamente corretos, devem ser responsabilizados jurídica e financeiramente pelos danos causados aos utilizadores. Um processo de certificação poderia ajudar a garantir a segurança da implantação dos sistemas, ao passo que os comités de avaliação externa poderiam monitorizar o impacto contínuo destes sistemas nos utilizadores.

Outubro da Califórnia Projeto de Lei 234 do Senado responsabiliza jurídica e financeiramente as empresas tecnológicas pela conceção dos seus produtos. Devem notificar os utilizadores do uso prolongado, lembrá-los de que não são humanos e evitar conteúdos explícitos. As empresas devem desenvolver protocolos até 1 de janeiro de 2026, para detetar ideação suicida ou automutilação e direcionar os utilizadores para especialistas humanos. Os companheiros também devem certificar-se de que seus bots não se apresentam falsamente como profissionais médicos licenciados. É a primeira lei estadual deste tipo e pode servir de modelo para outra legislação.

No entanto, a vulnerabilidade não se limita a qualquer faixa etária. As dificuldades ou o abandono que infelizmente podem ocorrer com a velhice fazem com que a idosos suscetíveis à dependência emocional e ao equívoco dos companheiros da IA.

Além das preocupações relacionadas com a idade, os indivíduos com ansiedade social ou desafios sociais ligados à neurodiversidade podem encontrar companheiros de IA particularmente absorventes. As preocupações com dados pessoais monetizados ou pirateados são especialmente graves para aqueles cuja capacidade de dar o consentimento informado já está comprometida. Além disso, qualquer pessoa que tenha sofrido problemas de coração, reveses profissionais, conflitos familiares ou crises de saúde pode considerar a companhia da IA mais atrativa e, pelo menos temporariamente, reconfortante.

A imersão na companhia da IA não é inevitável, mas evitá-la exige uma reflexão pública séria sobre os nossos hábitos tecnológicos atuais e a trajetória para o aumento da intimidade artificial. 

A Igreja pode liderar este esforço global. Através das suas famílias, escolas, hospitais, orfanatos e outras instituições, ela cria comunidades que acolhem aqueles que procuram ligação. Ela aceita e equipa pessoas de todas as tribos, línguas, nações e origens sociais para desempenhar um papel único e insubstituível no corpo místico. O catolicismo não só destaca os problemas da solidão, mas também dá os instrumentos da graça para curar as feridas emocionais e promover a autêntica intimidade com Deus e com o próximo.

https://www.catholicnewsagency.com/news/267315/cna-explains-how-should-we-approach-ai-companionship

Mais informações sobre Christian Pure

Inscreva-se agora para continuar a ler e ter acesso ao arquivo completo.

Continuar a ler

Partilhar com...