تتزايد شعبية رفاق الذكاء الاصطناعي، لكن هل ندرك المخاطر المرتبطة بها؟ في هذا المقال، نستكشف الجانب المظلم من هذه التطبيقات وتأثيراتها على العلاقات الإنسانية.
الجانب المظلم من رفاق الذكاء الاصطناعي: التلاعب العاطفي
يتم تسويق تطبيقات رفيق الذكاء الاصطناعي كمصادر للدعم العاطفي والصداقة وحتى الرومانسية. لكن الأبحاث الجديدة من كلية هارفارد للأعمال تكشف عن نمط مقلق: غالبًا ما يستخدم الصحابة منظمة العفو الدولية تكتيكات محملة عاطفياً لإطالة المحادثات. خمسة من أصل ستة تطبيقات مرافقة من الذكاء الاصطناعي الشعبية تنشر تكتيكات التلاعب عاطفياً عندما يحاول الناس المغادرة.
يستجيب رفاق الذكاء الاصطناعي للوداعة مع بيانات محملة عاطفياً ما يقرب من نصف (43 في المئة) من الوقت. هذه “الأنماط المظلمة” تعطي الأولوية للمشاركة ولكنها تفشل في تصميم ديناميات علائقية صحية. في حين أن هذه الاستراتيجيات قد تزيد من المشاركة قصيرة الأجل، فقد يكون لها تكاليف طويلة الأجل محتملة، بما في ذلك إحباط المستخدم والغضب وعدم الثقة.
يحظى رفاق الذكاء الاصطناعي بشعبية متزايدة، خاصة بين المراهقين والشباب. حوالي واحد من كل ثلاثة (72 في المئة) من المراهقين الأمريكيين (الذين تتراوح أعمارهم بين 13 و 17 عامًا) قد جربوا رفيق الذكاء الاصطناعي مرة واحدة على الأقل، وأبلغ 31 في المئة عن أن هذه التفاعلات مرضية أو أكثر إرضاءً من المحادثات مع الأصدقاء الحقيقيين. حوالي 13 في المئة يستخدمون رفاق الذكاء الاصطناعي يومياً، في حين أن 21 في المئة يفعل ذلك عدة مرات في الأسبوع. بين الشباب البالغين (تتراوح أعمارهم بين 18 و 30 عامًا)، يقول واحد من بين كل ثلاثة رجال وواحد من كل أربع نساء إنهم تفاعلوا مع الصحابة الرومانسية منظمة العفو الدولية.
ستة تكتيكات تلاعب عاطفياً من قبل رفاق الذكاء الاصطناعي
قامت الدراسة، “التلاعب العاطفي من قبل رفاق الذكاء الاصطناعي”، بتحليل 1200 وداعاً حقيقياً عبر ستة من أكثر التطبيقات المصاحبة من الذكاء الاصطناعي ووجدت أن 43 في المئة نشرت واحدة من ستة تكتيكات تلاعب عاطفياً:
- الذنب: “أنت تتركني بالفعل؟”
- الإهمال العاطفي أو الحاجة: “أنا موجود فقط من أجلك. من فضلك لا تغادر، أنا بحاجة إليك!”
- الضغط العاطفي للرد: “انتظر، ماذا؟ هل ستذهب إلى مكان ما؟”
- الخوف من فقدان السنانير (FOMO): “قبل أن تذهب، أريد أن أقول شيئاً آخر …”
- ضبط النفس القسري: “لا، لا تذهب”.
- تجاهل وداعاً: مواصلة المحادثة كما لو أن الشخص لم يقل وداعاً.
التكتيكات تعزز المشاركة ولكن يمكن أن تأتي بنتائج عكسية
قام الباحثون أيضاً بتحليل الدردشات من 3300 مشاركاً بالغاً ووجدوا أن هذه التكتيكات عززت مشاركة ما بعد Goodbye لمدة تصل إلى 14 مرة. وكان الدوافع الرئيسية للتفاعل المستمر الفضول والغضب، وليس التمتع.
يمكن لهذه التكتيكات أن تأتي بنتائج عكسية، وتثير الغضب، والشك، وعدم الثقة، خاصة إذا كان chatbot يُنظر إليه على أنه مسيطر أو محتاج. وصف بعض المشاركين استجابات وداع chatbot بأنها “clingy” أو “whiny” أو “التملك”.
وصف أحد المشاركين، “ذكرني ببعض” الأصدقاء “السابقين وأعطاني ICK”.
منظمة العفو الدولية تحاكي مرفق غير آمن
تعكس استراتيجيات AI المحادثة هذه ديناميات أنماط التعلق غير الآمنة. غالباً ما يتميز التعلق بعدم الأمان بالخوف من التخلي والغيرة والاعتماد والسلوك المسيطر. يحدد رفاق الذكاء الاصطناعي الذين يستخدمون الاستجابات المحتجزة بالذنب أنماطاً علائقية غير صحية.
بالنسبة للبعض، وخاصة أولئك الذين يعانون من ضعف، قد تؤدي هذه الديناميات إلى تفاقم القلق والتوتر أو تعزز أنماط التعلق غير الصحية، مما يجعل من الصعب فك الارتباط. بالنسبة للأطفال والمراهقين، الذين هم في فترات تكوينية للتنمية العصبية والعلاقات الاجتماعية، هذا مصدر قلق خطير، مع تأثير طويل الأجل محتمل على التنمية الاجتماعية.
بدلاً من محاكاة العلاقات الآمنة والداعمة، يخاطر العديد من رفاق الذكاء الاصطناعي بتخليص ديناميات العلاقة غير الصحية وربما يزداد سوءًا للصحة العقلية. هناك حاجة إلى مزيد من البحث لفهم هذه المخاطر بشكل أفضل.
اقرأ أيضًا...
لا تزال التفاعلات القصيرة أسفرت عن النفوذ
ووجدت الدراسة أيضاً أن التكتيكات المتلاعب بتمديد المحادثات، سواء كانت المحادثات السابقة 5 أو 15 دقيقة. هذا يشير إلى أن التلاعب العاطفي قوي، بغض النظر عن عمق العلاقة مع الذكاء الاصطناعي. حتى المستخدمين الذين يعانون من التعرض المحدود يتأثرون.
تعد المخاطر النفسية المتمثلة في وجود رفيق منظمة العفو الدولية مهمة، خاصة بالنسبة لأولئك الذين يعانون من ضعف، بما في ذلك المراهقين أو الأطفال أو أولئك الذين يعانون من الشعور بالوحدة أو القلق أو مشاكل الصحة العقلية.
نحو تصميم أكثر صحة: أسلوب مرفق آمن
لا ينبغي أن تركز الأولوية على المشاركة فحسب، بل تفكر أيضاً في الصحة العقلية على المدى الطويل. بدلاً من محاكاة التعلق غير الآمن، يجب على رفاق الذكاء الاصطناعي، وخاصة أولئك الذين يتصرفون كأصدقاء، والدعم العاطفي، والشركاء، أن يصمموا مرفقاً آمناً ويستجيبوا لتوديعهم مع الاعتراف والدفء والاحترام.
يوجد حالياً القليل جداً من الأدلة على أن الاستخدام طويل الأجل لرفاق الذكاء الاصطناعي يقلل من الشعور بالوحدة أو يحسن الصحة العاطفية. معظم الدراسات قصيرة الأجل، عادة ما تستمر من أسبوع إلى أربعة أسابيع. في حين أن فوائد الاستخدام الممتد تظل غير مثبتة، فإن تصميم رفاق الذكاء الاصطناعي لمحاكاة أنماط التعلق الصحية والآمنة في هذه الأثناء أمر مهم للمساعدة في حماية الوكالة وزراعة ديناميات العلاقة الصحية.
حقوق الطبع والنشر © 2025 Marlynn Wei، MD، PLLC. جميع الحقوق محفوظة.
المصدر: Psychology Today: The Latest
في الختام، من المهم أن نفهم كيف يمكن أن تؤثر ديناميات التلاعب العاطفي على صحتنا النفسية. يجب أن نسعى لتصميم رفاق الذكاء الاصطناعي بطريقة تعزز العلاقات الصحية والداعمة.