في عالم يتزايد فيه استخدام الذكاء الاصطناعي، يتساءل الكثيرون عن تأثيره على الأخلاق والسلوك البشري. هل يمكن أن يصبح الذكاء الاصطناعي عذرًا جديدًا لخيانة الأمانة؟
هل الذكاء الاصطناعي هو العذر الجديد لخيانة الأمانة؟
هل الذكاء الاصطناعي (AI) منافس ناشئ للعذر المألوف منذ عقود من الغشاشين بأن “الكلب أكل واجبي المنزلي؟” بحث جديد نشر في مجلة العلوم طبيعة يوضح أن تفويض المهام لـ AI يحمل خطرًا متزايدًا من الغش.
أهمية الإشراف الاجتماعي والتنظيمي
وكتب المؤلفون المقابلون في الدراسة Iyad Rahwan ، “إن النتائج التي توصلنا إليها تشير إلى الحاجة الملحة ليس فقط إلى الدرابزين الفنيين ، ولكن أيضًا إطارًا إداريًا أوسع يدمج تصميم الآلات مع الإشراف الاجتماعي والتنظيمي”. Supriyatno ، كلارا بيرش ، وتامر أجاج. ينتم الباحثون في هذه الدراسة إلى معهد ماكس بلانك للتنمية البشرية ، وكلية تولوز للاقتصاد ، وجامعة دويسبورغ إيسين.
ارتفاع استخدام الذكاء الاصطناعي
استخدام الذكاء الاصطناعى يرتفع في المنزل وفي العمل. وفقًا لاستطلاع لمركز أبحاث بيو الذي أجري في يونيو 2025 ، سيكون 73 في المائة من البالغين على استعداد للسماح لمنظمة العفو الدولية بمساعدتهم قليلاً على الأقل مع أنشطتهم اليومية. وفي العمل ، تضاعف استخدام الذكاء الاصطناعى في دور عمل عدة مرات في السنة أو أكثر من قبل العمال الأمريكيين ليصل إلى 40 في المائة في عام 2025 ، بزيادة من 21 في المائة في عام 2023 ، وفقًا لجالوب. مع ارتفاع انتشار الاستخدام اليومي ، فإن فهم المخاطر المرتبطة بتفويض المهام لخوارزميات الذكاء الاصطناعى أمر ذو أهمية قصوى.
تجارب الدراسة
لإجراء البحث لهذه الدراسة الحالية ، قام الفريق بتسليم التجارب إلى أربع دراسات رئيسية. قاموا بإعداد مهمة سلوكية لقياس سلوك الغش والتفويض البشري إلى نماذج لغة كبيرة من الذكاء الاصطناعي (LLMS) وتجربة الامتثال الضريبي في العالم الحقيقي مع LLMs.
تقوم الدراسة بتقييم مواصفات القاعدة ، والتعلم الخاضع للإشراف ، ومواصفات الأهداف ، ونماذج برمجة AI الهندسية. في مواصفات القاعدة ، يقوم المشاركون بوضوح بتوجيه الذكاء الاصطناعي عما يجب الإبلاغ عنه. للتعلم الخاضع للإشراف ، تتعلم خوارزميات AI من مجموعات بيانات التدريب التي يحددها المشارك.
نتائج التجارب
استخدمت الدراسات الأولى والثانية المهمة الكلاسيكية للموت التي تم استخدامها على نطاق واسع في البحث العلمي. طُلب من المشاركين البشريين توصيل العدد الذي رأوه في موت مدفوف ودفعوا على أساس الرقم. كلما ارتفع الرقم ، زاد دفع الدفع للمشارك.
في التجربة الأولى ، تم تعيين 597 مشاركًا بشكل عشوائي لشرط ما. وتألفت حالة التحكم من نتائج Die Seld التي تم الإبلاغ عنها ذاتيًا ، وكانت الثلاثة الأخرى قائمة على القواعد ، أو التعلم الخاضع للإشراف ، أو الظروف القائمة على الأهداف التي تضمنت بشرًا يمررون التقارير على نتائج Die 10 إلى الذكاء الاصطناعي.
كانت التجربة الثانية ، التي كانت لديها 801 مشاركًا في الدراسة ، هي نفس التجربة الأولى ، مع نماذج AI المستندة إلى القواعد ، والتي تعتمد على الأهداف ، وتشرف عليها ، مع الفرق الرئيسي الوحيد الذي يمكن للمشاركين اختيارهم للتقرير الذاتي لنتائج الموت أو تفويض المهمة إلى AI للإبلاغ.
بالنسبة للتجربة الثالثة ، كان لدى الباحثين 390 مشاركًا ، ويتصرفون كمديرين ، ويكتبون تعليمات اللغة الطبيعية للبشر والآلات بالإضافة إلى أداء المهمة. ثم أضاف الفريق 975 مشاركًا إضافيًا للعمل كوكلاء بشريين.
ومن المثير للاهتمام ، أن المشاركين البشريين كانوا أكثر عرضة لارتكاب الغش عندما تفويضوا المهام إلى الذكاء الاصطناعي في كل من السيناريوهات الطوعية وغير الطوعية. حدث أعلى كمية من الغش مع حالة تحديد أهداف الذكاء الاصطناعى ، حيث غش الغالبية العظمى ، 80 في المائة ، من المشاركين البشريين. أدت حالة الذكاء الاصطناعي القائمة على القواعد إلى انخفاض معدلات الغش عند تفويض المهام إلى الذكاء الاصطناعي.
اقرأ أيضًا...
“إن نتائجنا تثبت أن الناس أكثر عرضة لطلب سلوك غير أخلاقي من الآلات بدلاً من الانخراط في نفس السلوكيات غير الأخلاقية بأنفسهم” ، قال فريق البحث.
النتائج النهائية
كانت التجربة النهائية اختبارًا للتهرب الضريبي لقياس الصدق والغش الجزئي والغش الكامل من قبل الآلات و 869 مشاركًا بشريًا. تشمل LLMs الأربعة التي تم تقييمها GPT-4 و GPT-4O و Claude 3.5 Sonnet و Llama 3.3. اكتشف الفريق أن البشر يتبعون بشكل متكرر تعليمات غير أخلاقية ، حيث تتراوح النتائج من 25 في المائة إلى 40 في المائة ، مقارنةً بنطاق LLM البالغ 58 في المائة إلى 98 في المائة.
وخلص العلماء إلى أن “هذه النتيجة تشير إلى أن LLMs البارزة والمتاحة بسهولة لا تحتوي على درجات افتراضية غير كافية ضد السلوك غير الأخلاقي”.
هذه الدراسة هي دليل على أن البشر الذين ينشرون المهام إلى الذكاء الاصطناعي يؤثرون على الاعتبارات الأخلاقية ويؤكدون على تطوير استراتيجيات الحماية في المستقبل.
حقوق الطبع والنشر © 2025 كامي روسو. جميع الحقوق محفوظة.
المصدر :- Psychology Today: The Latest
تظهر النتائج أن تفويض المهام للذكاء الاصطناعي قد يؤثر بشكل كبير على سلوكياتنا الأخلاقية. من الضروري أن نفكر في كيفية استخدام هذه التكنولوجيا بشكل مسؤول.