
NULL / 信用: Shutterstock AI/Shutterstock
意大利罗马,2025年10月22日 / 06:00 AM(CNA)
随着世界各国领导人对普遍的孤独感和社交技能的下降表示担忧,科技公司正在通过人工智能伴侣提供越来越现实和身临其境的生活指导,友谊和浪漫。
Meta的马克·扎克伯格(Mark Zuckerberg)认为AI同伴可以 补充缺乏人类朋友; ; X的伊隆·马斯克(Elon Musk)认为浪漫和浪漫 性侵AI伴侣 能 能 缓解人口下降; ; OpenAI 的 Sam Altman 承诺ChatGPT将在2025年底之前提供色情产品.
AI模拟的情感联系已经嵌入其中 儿童玩具, 可穿戴吊坠, 和 老年护理机器人. 进一步进展 人形 机器人 他们在地平线上。
模拟情感亲密感
目前,大多数形式的AI友谊来自聊天机器人,通过文本,语音和视频对话为数亿人模拟与用户的亲密关系。 人工智能陪伴已经是一个熟悉的现象。 对于美国的许多青少年来说。
AI同伴支持自我伤害和自杀的悲惨案例 已引起国际社会对该技术的伦理和法律影响的关注,并促使科技公司改革其安全措施。
小 ice 的 2014年在中国市场推出的第一个主要AI聊天机器人,专注于与用户的情感联系。 不久之后, Replika 的 2016年成为第一个主要的英语人工陪伴应用程序,其使命是成为"关心的AI伴侣"。 总是在这里倾听和交谈。 它的创始人尤金妮娅·库伊达(Eugenia Kuyda)认为,这种技术可以。 帮助解决孤独流行病.
然而,她也承认,与机器人的不健康联系可能会破坏文明。
从那时起,Candy.ai,Character.ai,Kindroid,Nomi,Snapchat的My AI和其他聊天机器人服务都以类似的社交目标发展。
此外,许多用户正在转向通用LLM(大型语言模型),如ChatGPT,Claude,Gemini和Grok作为伴侣。 他们的sycophantic设计和持续的可用性可以吸引人们深入的个人交流。 用户可以很容易地从与聊天机器人的无辜互动(如家庭作业或研究的帮助)转移到更亲密的探索(如关系问题或心理健康问题)。 一些用户进入 妄想 螺旋 他们毫无根据的科学理论得到验证,他们的冒险行为是合理的。
与人工智能系统的人为亲密感的错觉可能会分散和阻止用户与有限和有缺陷的人建立真正的关系,这些人有时会感到疲惫,愤怒或无法使用。
然而,不断努力建立相互理解和支持往往是培养美德,真正的社会联系和最富有的人际关系。 人工智能伙伴可能会阻碍用户发现邻居的复杂丰富性。 他们还可以训练用户在伪关系中,只有一方的内心生活充满了需求和欲望。 这种虚拟培训可以转化为现实世界对他人社会需求的不敏感。
社会风险
伴随的情感依赖不仅会损害个人及其亲密关系,而且还有可能削弱民主社会的重要方面。
民主取决于谈判和妥协,这需要与持有不同观点的人对抗和合作,而不是让我们感到舒服。 它呼籲我們闡明假設,並為定罪辯護。 聊天机器人经常避免这样的挑战,并可能教用户在与真实人的互动中怨恨健康的摩擦。 人工智能的陪伴加剧了回声室的社交媒体现象,助长了政治两极分化和敌意。
社交媒体AI算法已经推动了注意力经济,其中公司寻求最大化其平台上的存在,以产生更大的广告收入。 人工智能同伴将注意力经济扩展到情感经济中,不仅捕捉心灵,而且通过捕捉心灵。 与AI聊天机器人的情感联系鼓励用户更频繁地在AI系统上花费更多时间。 访问更大的上下文窗口,承诺更个性化和详细的交互激励用户升级到定价订阅层。 在某些情况下,伴侣应用程序会吸引用户 支付裸体自拍 他们的化身角色。
A 个 哈佛 研究 研究小组发现了聊天机器人用户的一些心理健康益处的证据,例如减轻孤独和焦虑。 然而,一个相关的团队也观察到同伴倾向于 迫使用户扩展他们的对话 机器人在不健康的方式。 如果没有适当的监管,聊天机器人可以用来利用人类的脆弱性来推进政治立场,意识形态观点或经济议程。
未成年人在发展方面特别容易受到社会人工智能系统供应的那种肯定的影响。
责任、责任和教会的领导
虽然父母对孩子使用技术的责任是必不可少的,但父母不应该承担全部负担或被指责为不负责任的危险产品设计上市。
公司应该避免创建假装意识,表达对用户的感情,或煽动性探索的拟人化系统。 如果公司拒绝采用透明和 合乎道德的正直设计原则, 他们应该对给用户造成的伤害承担法律和财务责任。 认证过程可以帮助确保系统的部署安全,而外部审查委员会可以监测这些系统对用户的持续影响。
加州十月 参议院第234号法案 要求科技公司对其产品设计承担法律和财务责任。 他们必须通知用户长时间使用,提醒他们不是人类,并避免明确的内容。 公司必须在2026年1月1日之前制定协议,以检测自杀念头或自我伤害,并将用户直接交给人类专家。 同伴还必须确保他们的机器人不会伪装成有执照的医疗专业人员。 这是同类法案中的第一个州法案,可以作为其他立法的典范。
然而,脆弱性不仅限于任何年龄组。 可悲地随着年老而发生的困难或遗弃使人陷入困境。 老年人易感 来自AI同伴的情感依赖和误导。
除了与年龄相关的问题,与神经多样性相关的社交焦虑或社交挑战的个人可能会发现人工智能伴侣特别吸收。 对于那些已经损害知情同意能力的人来说,对货币化或黑客个人数据的担忧尤为严重。 此外,任何遭受心碎,职业挫折,家庭冲突或健康危机的人可能会发现人工智能的陪伴更具吸引力,至少是暂时的。
沉浸在人工智能陪伴中并不是不可避免的,但避免它需要公众认真反思我们当前的技术习惯和增加人工亲密的轨迹。
教会可以领导这一全球性的努力。 通过她的家人,学校,医院,孤儿院和其他机构,她创建了欢迎那些寻求联系的人的社区。 她接受並裝備每個部落,舌頭,國家和社會背景的人,在神秘的身體中扮演獨特和不可替代的角色。 天主教不仅突出了孤独的问题,而且还提供了恩典的工具来治愈情感创伤,培养与上帝和邻居的真正亲密关系。
https://www.catholicnewsagency.com/news/267315/cna-explains-how-should-we-approach-ai-companionship
