
NULL /クレジット: Shutterstock AI/シャッターストック
ローマ,イタリア,10月22, 2025 / 06:00 am(CNA).
世界のリーダーが、広範な孤独と社会的スキルの低下について懸念を提起する中、テクノロジー企業はAIベースのライフコーチング、友情、ロマンスをAIコンパニオンを通じてますます現実的で没入感のある形で提供しています。
メタのMark Zuckerberg氏は、AIのコンパニオンは可能だと示唆している。 人間の友人の欠如を補う; ; の Xのイーロン・マスクは、ロマンチックで考える 性的なAIコンパニオン 「 Could 」 人口減少を緩和する; ; の OpenAI の Sam Altman ChatGPTが2025年末までにエロチカを提供するという約束.
AIシミュレートされた感情的なつながりはすでに埋め込まれています。 子供のおもちゃ, ウェアラブルペンダント, << そして 高齢者ケアボット. さらなる前進 in ヒューマノイド ロボット 地平線上にある。
感情的な親密さをシミュレートする
現在、AIのコンパニオンシップの大部分は、テキスト、音声、ビデオの会話を通じてユーザーとの親密さをシミュレートするチャットボットを経由しています。 AIのコンパニオンシップはすでにお馴染みの現象です。 米国の多くのティーンエイジャーのために。
自傷行為と自殺を支持するAI仲間の悲劇的な事例 テクノロジーの倫理的および法的影響に国際的な注意を喚起し、技術企業は安全対策を改革するよう促しました。
シャオイツェ 氏 2014年に中国市場で開始された最初の主要なAIチャットボットは、ユーザーとの感情的なつながりに焦点を当てました。 まもなく、 「 レプリカ 」 2016年に最初の主要な英語人工コンパニオンシップアプリとなり、「気遣うAIコンパニオン」をミッションとしました。 いつもここにいて、話したり聞いたりする。 その創設者、ユーゲニア・クイダは、そのような技術は可能だと信じています。 孤独の流行に対処するのを助ける.
しかし、彼女はまた、ボットとの不健康な絆が文明を損なう可能性があることを認めています。
それ以来、Candy.ai、Character.ai、Kindroid、Nomi、SnapchatのMy AI、およびその他のチャットボットサービスは、同様の社会的目標を持って開発しました。
さらに、多くのユーザーは、ChatGPT、Claude、Gemini、Grokなどの汎用LLM(大規模な言語モデル)に目を向けています。 彼らのサイコファンティックなデザインと絶え間ない可用性は、人々を深く個人的な交換に引き込むことができます。 ユーザーは、チャットボットとの無邪気なやり取り(宿題や研究の助けなど)から、より親密な探求(関係の問題やメンタルヘルスの懸念など)を簡単に移動できます。 一部のユーザーが入力 妄想 スパイラル 彼らの根拠のない科学的理論が検証され、危険な行動が正当化される。
AIシステムとの人工的な親密さの錯覚は、時に疲れたり、怒ったり、利用できない、制限された欠陥のある人間との真の関係を形成することをユーザーが気散らせたり、妨げたりする可能性があります。
しかし、相互理解と支援を構築するための持続的な努力は、しばしば美徳、真の社会的つながり、そして最も豊かな対人関係を育むものです。 AIコンパニオンは、ユーザーが隣人の複雑な豊かさを発見するのを妨げることができます。 彼らはまた、ニーズと欲望で満たされた内面的な生活を持っている擬似関係でユーザーを訓練することができます。 この仮想トレーニングは、現実世界の無感受性を他者の社会的ニーズに変える可能性があります。
社会 リスク 社会 リスク
AIコンパニオンの感情的依存は、個人とその親密な関係だけでなく、民主社会の重要な側面を弱体化させるリスクもあります。
民主主義は交渉と妥協に依存しており、それは私たちを快適にするかもしれないものとは異なる見解を持つ人々との対決と協力を必要とする。 それは、仮定を明確にし、信念を正当化することを求めています。 チャットボットは、多くの場合、そのような課題を避け、実際の人々との対話で健全な摩擦に憤慨するようにユーザーに教えるかもしれません。 AIのコンパニオンシップは、政治的二極化と敵意を煽るエコー室のソーシャルメディア現象を悪化させます。
ソーシャルメディアAIアルゴリズムはすでに、広告収入を増やすためにプラットフォーム上での存在感を最大化しようとしている注目経済を牽引しています。 AIコンパニオンは、心だけでなく心も捉えることで、注目経済を愛情経済に拡大します。 AIチャットボットとの感情的なつながりは、ユーザーがAIシステムにより多くの時間を費やすように促します。 よりパーソナライズされた詳細なインタラクションを約束するより大きなコンテキストウィンドウへのアクセスにより、ユーザーはプライサーのサブスクリプション層にアップグレードするよう促します。 場合によっては、コンパニオンアプリがユーザーを魅了する ヌードセルフィーを払うには アバターの登場人物たち。
「 A 」 ハーバード ・ 研究 チームは、孤独や不安を軽減するなど、チャットボットユーザーのメンタルヘルス上の利点の証拠を発見しました。 しかし、関連チームは、同伴者が ユーザーに会話を拡大するよう圧力をかける ボットは不健康な方法で 適切な規制がなければ、チャットボットを使用して、人間の脆弱性を悪用して、政治的立場、イデオロギー的見通し、または経済アジェンダを前進させることができます。
未成年者は、社会的なAIシステムが豊富に供給する傾向があるという種類の肯定に対して、特に発達的に脆弱である。
責任、説明責任、教会のリーダーシップ
子供の技術使用に対する親の責任は不可欠であり、不可欠ですが、親は市場にリリースされる無責任に危険な製品設計の責任を負うべきではありません。
企業は、意識を偽装したり、ユーザーへの愛情を表現したり、性的探求を扇動したりする擬人化システムの作成を控えるべきです。 企業が透明化を拒否し、 倫理的に直立したデザイン原則, 利用者に生じた損害に対して法的・経済的責任を負わなければなりません。 認証プロセスは、システムが安全に展開できることを保証し、外部のレビューボードは、これらのシステムがユーザーに及ぼす継続的な影響を監視することができます。
カリフォルニア の 10 月 上院法案 234 テクノロジー企業に製品設計の法的および財政的責任を負わせる。 彼らは、ユーザーに長期間の使用を通知し、彼らが人間ではないことを思い出させ、明示的なコンテンツを避ける必要があります。 企業は2026年1月1日までに、自殺念慮や自傷行為を検出し、ユーザーを人間専門家に誘導するためにプロトコルを開発しなければならない。 コンパニオンはまた、ボットが認可された医療専門家として偽装していないことを確認する必要があります。 これは、この種の最初の州法案であり、他の法律のモデルとして機能する可能性があります。
しかし、脆弱性は年齢層に限定されるものではありません。 老齢とともに悲しいことが起こるかもしれない苦難や放棄は、 感受性高齢者 AIコンパニオンからの感情的な依存と誤解。
年齢関連の懸念を超えて、社会的不安や神経多様性に関連する社会的課題を抱える個人は、AIの仲間が特に吸収されることを見つけるかもしれません。 収益化またはハッキングされた個人データに関する懸念は、インフォームドコンセントを提供する能力がすでに侵害されている人にとって特に深刻です。 さらに、悲痛、職業的な挫折、家族の葛藤、健康危機を経験した人は誰でも、AIの仲間をより魅力的にし、少なくとも一時的には快適に感じるかもしれません。
AIのコンパニオンシップに没頭することは避けられないものではありませんが、それを避けるには、現在の技術習慣と人工親密さの増加に向けた軌道に真剣に反映する必要があります。
教会は、このグローバルな取り組みを主導することができます。 家族、学校、病院、孤児院、その他の施設を通じて、彼女はつながりを求める人々を歓迎するコミュニティを作り上げます。 彼女は、あらゆる部族、舌、国家、社会的背景の人々に、神秘的な体の中でユニークでかけがえのない役割を果たします。 カトリックは孤独の問題を強調するだけでなく、感情的な傷を癒し、神と隣人との真の親密さを育むための恵みのツールを与えます。
https://www.catholicnewsagency.com/news/267315/cna-explains-how-should-we-approach-ai-companionship
