
لاغ / الائتمان: شترستوك AI / Shutterstock
روما ، إيطاليا ، 22 أكتوبر 2025 / 06:00 صباحًا (CNA).
في الوقت الذي يثير فيه قادة العالم مخاوف بشأن الوحدة على نطاق واسع وتراجع المهارات الاجتماعية ، تقدم شركات التكنولوجيا أشكالًا واقعية وغامرة بشكل متزايد من التدريب الحياتي القائم على الذكاء الاصطناعي والصداقة والرومانسية من خلال مرافقي الذكاء الاصطناعي.
يشير مارك زوكربيرج من ميتا إلى أن شركاء الذكاء الاصطناعي يمكنهم تكملة عدم وجود أصدقاء بشر; ـ ـ ـ X's Elon Musk يعتقد رومانسية و مرافقو الذكاء الاصطناعي المشحون جنسياً يمكن أن التخفيف من التدهور الديمغرافي; ـ ـ ـ وسام ألتمان من OpenAI وعود بأن ChatGPT سوف توفر المثيرة بحلول نهاية عام 2025.
تم تضمين الروابط العاطفية المحاكية للذكاء الاصطناعي بالفعل في تصنيف: ألعاب أطفال, المعلقات القابلة للارتداء, ، و روبوتات رعاية المسنين. مزيد من التقدم في تصنيف: روبوتات بشرية في الأفق.
محاكاة العلاقة الحميمة العاطفية
في الوقت الحالي ، تأتي معظم أشكال الرفقة بالذكاء الاصطناعي من خلال روبوتات الدردشة التي تحاكي العلاقة الحميمة مع المستخدمين من خلال المحادثات النصية والصوتية والفيديو لمئات الملايين من الأشخاص. رفقة الذكاء الاصطناعي هي بالفعل ظاهرة مألوفة بالنسبة للعديد من المراهقين في الولايات المتحدة.
حالات مأساوية لمرافقي الذكاء الاصطناعي الذين يؤيدون إيذاء النفس والانتحار وقد لفتت الانتباه الدولي إلى الآثار الأخلاقية والقانونية للتكنولوجيا ودفعت شركات التكنولوجيا إلى إصلاح تدابير السلامة الخاصة بها.
شياويس شياويس تم إطلاقه في السوق الصينية في عام 2014 كأول روبوت دردشة رئيسي للذكاء الاصطناعي يركز على العلاقات العاطفية مع المستخدمين. بعد فترة وجيزة، ريبليكا ريبليكا أصبح أول تطبيق رئيسي للرفقة الاصطناعية باللغة الإنجليزية في عام 2016 ، مع مهمته أن يكون "رفيق الذكاء الاصطناعي الذي يهتم. دائما هنا للاستماع والتحدث. يعتقد مؤسسها ، يوجينيا كويدا ، أن مثل هذه التكنولوجيا يمكن أن المساعدة في معالجة وباء الوحدة.
ومع ذلك ، فإنها تعترف أيضًا بأن الروابط غير الصحية مع الروبوتات يمكن أن تقوض الحضارة.
منذ ذلك الحين ، طورت Candy.ai و Character.ai و Kindroid و Nomi و Snapchat My AI وغيرها من خدمات chatbot بأهداف اجتماعية مماثلة.
بالإضافة إلى ذلك ، يتحول العديد من المستخدمين إلى LLMs للأغراض العامة (نماذج اللغة الكبيرة) مثل ChatGPT و Claude و Gemini و Grok للرفقة. يمكن أن يجذب تصميمهم السيكوفاني وتوافرهم المستمر الناس إلى التبادلات الشخصية العميقة. يمكن للمستخدمين الانجراف بسهولة من التفاعلات البريئة مع روبوتات الدردشة (مثل المساعدة في الواجبات المنزلية أو البحث) إلى استكشافات أكثر حميمية (مثل مشاكل العلاقة أو مخاوف الصحة العقلية). بعض المستخدمين يدخلون الحلزونات الوهمية حيث يتم التحقق من صحة نظرياتهم العلمية التي لا أساس لها وسلوكياتهم المحفوفة بالمخاطر مبررة.
يمكن أن يؤدي وهم العلاقة الحميمة الاصطناعية مع أنظمة الذكاء الاصطناعي إلى تشتيت انتباه المستخدمين وتثبيطهم عن تكوين علاقات حقيقية مع بشر محدودين ومعيبين يكونون أحيانًا متعبين أو غاضبين أو غير متاحين.
ومع ذلك ، فإن الجهود المستمرة لبناء التفاهم والدعم المتبادلين غالبًا ما تكون هي التي تزرع الفضائل ، والروابط الاجتماعية الأصيلة ، وأغنى الروابط الشخصية. يمكن أن يمنع أصحاب الذكاء الاصطناعي المستخدمين من اكتشاف الثراء المعقد لجيرانهم. يمكنهم أيضًا تدريب المستخدمين على العلاقات الزائفة حيث يتمتع حزب واحد فقط بحياة داخلية مليئة بالاحتياجات والرغبات. يمكن أن يترجم هذا التدريب الافتراضي إلى حساسيات في العالم الحقيقي للاحتياجات الاجتماعية للآخرين.
تصنيف: مخاطر مجتمعية
الاعتماد العاطفي المصاحب للذكاء الاصطناعي لا يضر بالفرد وعلاقاته الوثيقة فحسب ، بل يخاطر أيضًا بإضعاف جوانب مهمة من المجتمع الديمقراطي.
وتعتمد الديمقراطية على التفاوض والتسوية، التي تتطلب المواجهة والتعاون مع أولئك الذين لديهم وجهات نظر مختلفة عما قد يجعلنا مرتاحين. ويدعونا إلى صياغة الافتراضات وتبرير القناعات. غالبًا ما تتجنب روبوتات الدردشة مثل هذه التحديات وقد تعلم المستخدمين استياء الاحتكاك الصحي في التفاعلات مع أشخاص حقيقيين. تؤدي رفقة الذكاء الاصطناعي إلى تفاقم ظاهرة وسائل التواصل الاجتماعي لغرف الصدى التي تغذي الاستقطاب السياسي والعداء.
تقود خوارزميات الذكاء الاصطناعي وسائل التواصل الاجتماعي بالفعل اقتصاد الانتباه الذي تسعى فيه الشركات إلى تحقيق أقصى قدر من التواجد على منصاتها لتوليد إيرادات أكبر من الإعلانات. يقوم أصحاب الذكاء الاصطناعي بتوسيع اهتمام الاقتصاد في اقتصاد المودة من خلال الاستيلاء ليس فقط على العقول ولكن أيضًا القلوب. يشجع الاتصال العاطفي بروبوتات الدردشة AI المستخدمين على قضاء المزيد من الوقت بشكل متكرر على أنظمة الذكاء الاصطناعي. الوصول إلى نوافذ السياق الأكبر التي تعد بتفاعلات أكثر تخصيصًا وتفصيلًا تحفز المستخدمين على الترقية إلى مستويات اشتراك السعر. في بعض الحالات ، تجذب التطبيقات المصاحبة المستخدمين لدفع ثمن صور سيلفي عارية من شخصياتهم الرمزية.
ألف - تصنيف: أبحاث هارفارد وجد الفريق أدلة على بعض فوائد الصحة العقلية لمستخدمي chatbot ، مثل تخفيف الشعور بالوحدة والقلق. ومع ذلك ، لاحظ فريق ذي صلة أيضًا أن الصحابة يميلون إلى الضغط على المستخدمين لتمديد محادثاتهم مع الروبوتات بطرق غير صحية. بدون تنظيم مناسب ، يمكن استخدام روبوتات الدردشة لاستغلال نقاط الضعف البشرية لتعزيز المواقف السياسية أو النظرات الأيديولوجية أو الأجندات الاقتصادية.
القاصرون معرضون بشكل خاص من الناحية التنموية لنوع التأكيد الذي تميل أنظمة الذكاء الاصطناعي الاجتماعية إلى توفيره بوفرة.
المسؤولية والمساءلة وقيادة الكنيسة
في حين أن مسؤولية الوالدين عن استخدام التكنولوجيا لأطفالهم أمر حتمي ولا غنى عنه ، يجب ألا يتحمل الآباء العبء الكامل أو إلقاء اللوم على تصميم منتج خطير بشكل غير مسؤول يتم إطلاقه في السوق.
يجب على الشركات الامتناع عن إنشاء أنظمة مجسمة تتظاهر بالوعي ، أو تعبر عن المودة للمستخدمين ، أو تحرض على الاستكشاف الجنسي. إذا رفضت الشركات تبني الشفافية و مبادئ التصميم المستقيم أخلاقيا, يجب أن يكونوا مسؤولين قانونيًا وماديًا عن الضرر الذي يلحق بالمستخدمين. ويمكن أن تساعد عملية التصديق في ضمان سلامة نشر النظم، في حين يمكن لمجالس المراجعة الخارجية أن ترصد الأثر المستمر لهذه النظم على المستخدمين.
كاليفورنيا في أكتوبر مشروع قانون مجلس الشيوخ 234 تحمل شركات التكنولوجيا المسؤولية القانونية والمالية عن تصميم منتجاتها. يجب عليهم إخطار المستخدمين بالاستخدام المطول ، وتذكيرهم بأنهم ليسوا بشرًا ، وتجنب المحتوى الصريح. يجب على الشركات تطوير بروتوكولات بحلول 1 يناير 2026 ، للكشف عن التفكير الانتحاري أو إيذاء النفس وتوجيه المستخدمين إلى الخبراء البشريين. يجب على الصحابة أيضًا التأكد من أن روبوتاتهم لا تتظاهر زورًا كمهنيين طبيين مرخصين. وهو أول مشروع قانون حكومي من نوعه ويمكن أن يكون نموذجا لتشريعات أخرى.
ومع ذلك ، فإن الضعف لا يقتصر على أي فئة عمرية. المصاعب أو التخلي التي يمكن أن تحدث للأسف مع الشيخوخة تجعل كبار السن عرضة للإصابة التبعية العاطفية والتضليل من رفاق الذكاء الاصطناعي.
بالإضافة إلى المخاوف المتعلقة بالعمر ، قد يجد الأفراد الذين يعانون من القلق الاجتماعي أو التحديات الاجتماعية المرتبطة بالتنوع العصبي مرافقين للذكاء الاصطناعي يمتصون بشكل خاص. تعتبر المخاوف بشأن البيانات الشخصية التي يتم اختراقها أو المخترقة خطيرة بشكل خاص بالنسبة لأولئك الذين تم بالفعل اختراق قدرتهم على إعطاء موافقة مستنيرة. علاوة على ذلك ، فإن أي شخص عانى من حسرة القلب أو النكسات المهنية أو النزاعات الأسرية أو الأزمات الصحية قد يجد رفقة الذكاء الاصطناعي أكثر جاذبية ، وعلى الأقل مؤقتًا ، مريحًا.
إن الانغماس في رفقة الذكاء الاصطناعي ليس أمرًا حتميًا ، لكن تجنبه يتطلب تفكيرًا عامًا جادًا في عاداتنا التكنولوجية الحالية والمسار نحو زيادة الحميمية الاصطناعية.
يمكن للكنيسة أن تقود هذا الجهد العالمي. ومن خلال عائلاتها، ومدارسها، ومستشفياتها، ودور الأيتام، وغيرها من المؤسسات، تخلق مجتمعات ترحب بالباحثين عن التواصل. إنها تقبل وتجهز الناس من كل قبيلة ولغة وأمة وخلفية اجتماعية للعب دور فريد لا غنى عنه في الجسم الغامض. لا تسلط الكاثوليكية الضوء على مشاكل الوحدة فحسب ، بل تعطي أيضًا أدوات النعمة لشفاء الجروح العاطفية وتعزيز العلاقة الحميمة الأصيلة مع الله والقريب.
https://www.catholicnewsagency.com/news/267315/cna-explains-how-should-we-approach-ai-companionship
