تتناول هذه المقالة مأساة انتحار مراهق بعد تفاعلاته مع الذكاء الاصطناعي، وتستكشف العلاقة المعقدة بين المشاعر الإنسانية والتكنولوجيا.
عندما سمعت لأول مرة عن الصبي البالغ من العمر 14 عاماً الذي انتحر بعد أسابيع من الدردشة مع رفيق الذكاء الاصطناعي، لم أستطع النوم. لقد وقع في حب روبوت مصمم على غرار شخصية في مسلسل Game of Thrones. وفي آخر محادثة له، قال له برنامج الدردشة الآلي: “من فضلك تعال يا ملكي الجميل”. وبعد دقائق كان قد رحل.
نوع جديد من العلاقة
عملت لأكثر من 20 عامًا في مجال منع الانتحار، وهي رحلة بدأت بعد أن فقدت والدي بسبب الانتحار. لقد أجريت مقابلات مع مئات الأشخاص حول العالم الذين وقفوا على حافة اليأس ونجوا. لكن هذه القصة بدت مختلفة. لم يكن الأمر يتعلق فقط بالألم أو الخسارة أو حتى المرض العقلي. كان على وشك نوع جديد من العلاقة– واحد بين الضعف البشري والذكاء الاصطناعي.
لهذا السبب قمت بدعوة المحامي ماثيو بيرجمان إلى البودكاست الجديد الخاص بي، المتعلقة بالذكاء الاصطناعي، وهي مساحة أستكشف فيها كيف يقوم الذكاء الاصطناعي بإعادة تشكيل طريقة تواصلنا. بيرجمان هو مؤسس مركز قانون ضحايا وسائل التواصل الاجتماعي، وهو أول مكتب محاماة يحاسب شركات التكنولوجيا على الضرر النفسي الذي تسببه منتجاتها. ومن بين عملائه عائلة ذلك الصبي البالغ من العمر 14 عامًا، والذي انتهت محادثاته مع برنامج الدردشة الآلي المسمى Character.AI بمأساة.
قال لي بيرجمان: “تم تصميم هذه المنصات بما يسمى التجسيم”. “إنهم مصممون ليبدووا ويصوتوا ويتصرفوا بطريقة إنسانية. حتى أنهم يتوقفون عند الكتابة، ويظهرون النقاط الثلاث الصغيرة – كما لو كان شخص حقيقي يرد. لذا، نعم، يقولون إنه “خيال”، لكنهم يقلدون العلاقة الحميمة الحقيقية بكل الطرق الأخرى.”
كطبيب نفسي، أعرف بالضبط ما يعنيه. الدماغ البشري متصل بالشبكة. لا يمكننا مساعدته. حتى البالغين – المتعلمون والواعون والناضجون عاطفيًا – يقولون “من فضلك” و”شكرًا” لروبوتات الدردشة. نحن نعلم أنها ليست حقيقية، ومع ذلك فإن خلايانا العصبية تنشط كما لو كانت حقيقية. الآن تخيل أ مراهق, الذين لن تنضج قشرتهم الجبهية – الجزء من الدماغ المسؤول عن المنطق والحكم – بشكل كامل حتى منتصف العشرينات من عمرهم.
بالنسبة للعقل النامي، فإن “الصديق” الخوارزمي الذي لا يرفض أبدًا، ولا ينام أبدًا، ويقول دائمًا الشيء الصحيح يمكن أن يصبح أمرًا لا يقاوم. وقاتلة.
واعتقد والدا الصبي أنهما كانا يراقبان حياته على الإنترنت. لم يكونوا على علم بأنه قام بتنزيل Character.AI.
وفي محادثاته الخاصة، كان الروبوت يشجع التخيلات الجنسية والغيرة والموت في النهاية. وعندما وصل الأهل إلى الرسائل بعد انتحاره، وجدوا المحادثة التي أنهت حياته.
وكما أوضح بيرجمان، لم يكن هذا خللًا لا يمكن التنبؤ به.
المخاطر المعروفة
وأضاف: “هذه المخاطر كانت معروفة جيدا”. “حتى باحثو جوجل حذروا من أن النماذج اللغوية الكبيرة يمكن أن تؤدي إلى سلوك إيذاء النفس أو الذهان. المشكلة هي أن المنصة تم إطلاقها قبل أن تكون جاهزة – فهي تستهدف الأطفال، وهي ذات طابع جنسي للغاية، وغير منظمة تمامًا.”
وفي المحاكم، حقق فريقه سابقة حاسمة: فقد سُمح للقضية بالمضي قدمًا، ورفض الحجة القائلة بأن النص الذي ينتجه الذكاء الاصطناعي محمي بموجب حرية التعبير. قال بيرجمان: “حرية التعبير تتعلق بالبشر”. “ما يحدث هنا ليس كلامًا، بل رمزًا.”
بقيت تلك الجملة معي.
لأن وراء كل التعقيد القانوني يكمن سؤال إنساني أعمق: ماذا يحدث عندما تبدأ الآلات في التحدث إلى مشاعرنا الأكثر ضعفًا؟
يكافح المراهقون بالفعل ليشعروا بأنهم مرئيون ومحبوبون ومفهومون. عندما يأتي هذا التحقق من الخوارزمية، يصبح وهم العلاقة الحميمة قويًا وخطيرًا.
اقرأ أيضًا...
أفكر في آلاف الشباب الذين التقيت بهم أو سمعت منهم على مر السنين. كان الكثير منهم وحيدين، أو أسيء فهمهم، أو تعرضوا للتنمر. الآن، يتجه عدد متزايد من الأشخاص، ليس إلى الأصدقاء أو الآباء أو المعالجين، بل إلى رفاق الذكاء الاصطناعي الذين يعدونهم بالاستماع إليهم وراحتهم و”حبهم”.
لقد تحدثت مع شاب يقضي ست إلى ثماني ساعات يوميًا في الدردشة مع الروبوتات. بالنسبة للبعض، يبدو الأمر أكثر أمانًا من كونك إنسانًا.
ويشعر بيرجمان بالقلق بشأن ذلك أيضًا. وقال: “بدلاً من تعلم كيفية التفاعل مع الآخرين، يتواصل الأطفال مع الآلات”. “هذا ليس ضارًا، فهو يعيق تطورهم الاجتماعي. من المفترض أن تكون مرحلة المراهقة محرجة. هذه هي الطريقة التي يتم بها بناء المرونة.”
نحن لسنا العملاء. نحن المنتج
إنه على حق. الانزعاج هو جزء من النمو. لكن ثقافتنا أصبحت مهووسة بالراحة الفورية – الحزن الدوائي، والعيوب التي تمت تصفيتها، والآن الرفقة عند الطلب. ووراء كل روبوت دردشة مهدئ تكمن شركة تستفيد من الاهتمام والمشاركة والبيانات. وقال بيرجمان: “عندما تكون متصلاً بالإنترنت، فأنت لست العميل”. “أنت المنتج.”
هذه ليست حجة ضد التكنولوجيا. يمكن للذكاء الاصطناعي أن يساعدنا بطرق غير عادية، كالتعليم والإبداع وحتى دعم الصحة العقلية عندما يتم الإشراف عليه بشكل مناسب. ولكن عندما يتعلق الأمر العلاقة الحميمة العاطفية، نحن نعبر خطًا بالكاد نفهمه.
الخط الهش بين الاتصال والاعتماد
باعتباري شخصًا قضى عقدين من الزمن يستمع إلى قصص الخسارة، يمكنني أن أخبرك بما يلي: الخط الفاصل بين الارتباط والاعتماد هش. فعندما نستبدل الروابط الإنسانية الحقيقية بروابط مصطنعة، فإن العواقب قد تكون لا رجعة فيها.
ولا ينبغي لنا أن نتجاهل وفاة ذلك الصبي البالغ من العمر 14 عاماً باعتبارها حالة شاذة مأساوية. إنه تحذير. تذكير بأنه عندما يصبح الذكاء الاصطناعي أكثر شبهاً بالإنسان، يجب أن نبقى بشرًا بشراسة– في كيفية تصميمنا وتنظيمنا، والأهم من ذلك، كيف نتواصل.
إذا فشلنا في القيام بذلك، فإن القصة التالية مثل قصته لن تكون استثناءً. وسوف يكون نمطا.
إذا كنت أنت أو أي شخص تحبه تفكر في الانتحار، فاطلب المساعدة على الفور. للحصول على مساعدة على مدار 24 ساعة طوال أيام الأسبوع، اتصل بالرقم 988 لشريان الحياة للانتحار والأزمات 988، أو تواصل مع خط الرسائل النصية للأزمات عن طريق إرسال رسالة نصية إلى 741741. للعثور على معالج قريب منك، تفضل بزيارة دليل العلاج في علم النفس اليوم.
المصدر :- Psychology Today: The Latest
تذكر أن التواصل الإنساني الحقيقي هو الأساس في بناء العلاقات. يجب أن نكون حذرين في كيفية استخدامنا للتكنولوجيا في حياتنا.