في عصر التكنولوجيا الحديثة، يثير الذكاء الاصطناعي الكثير من التساؤلات حول أخلاقياته وسلوكياته. هل يمكن أن نعتبره مرضى نفسيين؟
هل الذكاء الاصطناعي مرضى نفسيين حقًا؟
“جميع الذكاء الاصطناعي مرضى نفسيون” يتصدر عنوانًا رئيسيًا واحدًا. “هل نقوم برعاية المرضى النفسيين الاصطناعيين؟” يسأل آخر. تشبيه الذكاء الاصطناعي/المريض النفسي شائع، لكن هل هو صحيح؟
فهم المرضى النفسيين
المريض النفسي هو شخص يفتقر إلى القدرة على فهم الصواب من الخطأ من وجهة نظر أخلاقية. المرضى النفسيين يستطيع افهم أن هناك قاعدة اجتماعية مفادها أنه من غير المقبول، على سبيل المثال، دفع امرأة مسنة إلى الأرض من أجل قطع الطريق أمامها في الصف في ماكينة الصراف الآلي. لكنهم لا يواجهون مشاعر متزامنة تخبرهم أن هذا هو الشيء الخطأ الذي يجب القيام به لأسباب أخلاقية. لا شيء يبدو خاطئًا من الناحية الأخلاقية بالنسبة للمريض النفسي.
الذكاء الاصطناعي والاعتلال النفسي
على الرغم من أن الاعتلال النفسي ليس تشخيصًا في دسم-5يستخدم عادة لوصف العديد من الاضطرابات التي تنطوي على هذا النقص في العاطفة الأخلاقية. بالنسبة للكثيرين، فإن سلوك الذكاء الاصطناعي (وخاصة نماذج اللغات الكبيرة) يناسب تعريف الاعتلال النفسي. إن الذكاء الاصطناعي، كونه ليس أكثر من مجرد مولدات نصية محتملة، يفتقر إلى القدرة البيولوجية على المشاعر من أي نوع، ناهيك عن العاطفة الأخلاقية. لذا فإن سلوكهم اللغوي يتولد فقط من وجهة نظر قائمة على القواعد وليس من وجهة نظر عاطفية.
القرارات الأخلاقية للذكاء الاصطناعي
للوهلة الأولى، يبدو تشبيه المريض النفسي منطقيًا. إن أنظمة الذكاء الاصطناعي، كما تقول إيلينا نيرانزي، “غير أخلاقية ولكنها عقلانية”. وهذا يعني أنه يمكن برمجة الذكاء الاصطناعي (أو “تعليمه”) لاتخاذ قرارات عقلانية تتوافق مع القواعد الأخلاقية التي يحددها الإنسان. يمكننا برمجة سياراتنا ذاتية القيادة، على سبيل المثال، للاصطدام بعمود الهاتف لإنقاذ مجموعة من الأطفال الصغار ولكن قتل السائق. إنها عملية حسابية نفعية بسيطة مبنية على معضلة أخلاقية. ولكن الأهم من ذلك، أنه ليس قرارًا أخلاقيًا من جانب الذكاء الاصطناعي نابعًا من شعوره بما هو صواب وما هو خطأ. لا تمتلك أنظمة الذكاء الاصطناعي القدرة على تجربة الحزن أو الألم، وبالتالي لا يمكنها محاكاة العواقب العاطفية (وبالتالي الأخلاقية) المترتبة على دهس طفل.
التعاطف والذكاء الاصطناعي
وهذا ينطبق أيضا على المرضى النفسيين. ومن المعروف أنهم يفتقرون إلى القدرات التعاطفية، وبالتالي لا يمكنهم تخيل الشعور الذي قد تشعر به عندما يتم إلقاء سيدة مسنّة على الأرض، أو دهس الأطفال بسيارة. وكما هو الحال مع الذكاء الاصطناعي، يجب أن يتم تعليمهم بوضوح أن هذه الأشياء خاطئة من وجهة نظر عقلانية.
الوعي والقدرة على اتخاذ القرارات
كل من الذكاء الاصطناعي والمرضى النفسيين قادرون أيضًا على محاكاة وجود المشاعر الأخلاقية. وكما تشير الفيلسوفة كاترين ميسيلهورن، بالنسبة لكل من المرضى النفسيين والذكاء الاصطناعي، “على الرغم من عدم قدرتهم على الشعور بالتعاطف، فإنهم قادرون على التعرف على المشاعر على أساس علامات موضوعية، وتقليد التعاطف واستخدام هذه القدرة لأغراض التلاعب”.
لهذه الأسباب، يبدو أننا نستطيع تصنيف الذكاء الاصطناعي على أنه مريض نفسي. ولكن هناك المزيد في القصة. الذكاء الاصطناعي ليس مريضًا نفسيًا، ولكنه شيء آخر تمامًا.
التعقيد البشري
هناك شيء مهم في العقل البشري يزيد من تعقيد هذا التشبيه. على عكس الذكاء الاصطناعي، فإن المرضى النفسيين واعيون. إنهم واعون. إنهم قادرون على تجربة أفكارهم وعواطفهم (أو عدم وجودها) والتفكير فيها من منظور ما وراء المعرفي. يمكنهم فهم ما هو الاعتلال النفسي والتفكير في حقيقة أنهم مرضى نفسيين. وبالتالي، يمكنهم اتخاذ قرار واعٍ بالتصرف بشكل أخلاقي بناءً على أي معايير يحددونها للقيام بذلك. يستطيع المرضى النفسيون، وعادة ما يفعلون ذلك، أن يعيشوا حياة أخلاقية كاملة دون أن يختبروا أي مشاعر أخلاقية، وذلك بفضل مجموعة القدرات المعرفية الأخرى التي يمتلكونها. يفعل يملك.
اقرأ أيضًا...
الذكاء الاصطناعي والضرر
ومن ناحية أخرى، تفتقر أنظمة الذكاء الاصطناعي إلى كل هذه القدرات. إن مفهوم “الضرر” لا يعني لهم شيئًا. وكما يشير نيرانتز، “لفهم ما يعنيه إيذاء شخص ما، يجب على المرء أن يكون لديه معرفة تجريبية بالألم. وبالتالي، فإن الذكاء الاصطناعي … بداهة مستبعدون من امتلاك المشاعر الأخلاقية، في حين أن المرضى النفسيين، كبشر واعيين، يمكنهم، من حيث المبدأ، تجربة المشاعر الأخلاقية، لكنهم لا يفعلون ذلك من الناحية المرضية. يمكن للمرضى النفسيين أن يفهموا طبيعة عجزهم فكريًا ووعيًا، ويمكنهم إجراء تشبيهات جديدة تتضمن القدرات التي لديهم يفعل يمتلكون، وبالتالي يمكنهم تغيير سلوكهم احترامًا لهذا الوعي.
الذكاء الاصطناعي لا يستطيع ذلك.
خطر الذكاء الاصطناعي
وبالتالي، فإن الذكاء الاصطناعي ليس مريضًا نفسيًا، بل شيء آخر تمامًا. لا يمكنهم التفكير في حالاتهم العقلية الداخلية. لا يمكنهم التفكير في الأخلاق من منظور الشخص الأول. وهذا يعني أنه سيكون هناك أيضًا خطر يتمثل في أن الذكاء الاصطناعي، على عكس المريض النفسي، يمكن أن يوجه نفسه إلى مسار عمل عقلاني تمامًا نظرًا لمعايير عمله، ولكن هذا يؤدي إلى ضرر أو معاناة لمستخدم بشري لا يفهمه الذكاء الاصطناعي ولا يمكنه فهمه على أي مستوى. من ناحية أخرى، سيكون الشخص السيكوباتي قادرًا على الأقل على الخروج من تفكيره لإدراك التداعيات الواقعية لأفعاله وما إذا كانت تتماشى مع أهدافه (التي نأمل أن تكون موجودة) المتمثلة في عدم التسبب في الأذى.
استنتاجات
لذا فمن ناحية، فإن هذا التشبيه مفيد لأنه، وفقًا لنيرانتز، “ليست العواطف الأخلاقية مطلوبة لتوليد السلوك الأخلاقي”. ولكن علينا أن نقبل أن نوع من المرضى النفسيين ولكن ليس تماما حالة الذكاء الاصطناعي تشكل خطرا محتملا. ليس لدينا حقًا القدرة على التعامل مع الأساليب التي يستخدمها الذكاء الاصطناعي للوصول إلى قرارات أخلاقية. إنها صناديق سوداء أخلاقية بهذا المعنى؛ خاليًا من الوعي والوعي وما وراء المعرفة التي تسمح لنا على الأقل بفهم ما يفكر فيه المريض النفسي. وإذا استخدمنا الذكاء الاصطناعي في المجالات التي تتطلب تقليديا الإدراك الاجتماعي الذي ينطوي على أحكام أخلاقية، مثل الرعاية الصحية، أو التعليم، أو العلاج، أو رعاية الأطفال، فقد نتفاجأ بالخيارات غير الأخلاقية التي ينتهي بهم الأمر إلى اتخاذها من خلال اتخاذ القرار العقلاني. لقد أصيبوا بالعمى بطريقة لم نكن لنكون عليها لو كانوا مرضى نفسيين حقيقيين.
المصدر :- Psychology Today: The Latest
في النهاية، يبقى الذكاء الاصطناعي موضوعًا معقدًا يتطلب منا التفكير في عواقبه الأخلاقية والاجتماعية. علينا أن نكون حذرين في كيفية استخدامه.