دراسة حديثة.. استخدام الذكاء الاصطناعي يشجع البشر على الغش

روبوت ذكاء اصطناعي تهديد وظائف البشر- cc0
CC0
  • عربي لايت
  • الخميس، 13-11-2025
  • 06:09 ص
نشرت مجلة "ساينتفيك أمريكان" تقريرًا يسلط الضوء على دراسة حديثة أظهرت أن استخدام الذكاء الاصطناعي يزيد من احتمال ممارسة الغش، مقارنة بالاعتماد على النفس أو على أشخاص آخرين.

وقالت المجلة في هذا التقرير الذي ترجمته "عربي21"، إن نتائج الدراسة التي نُشرت في مجلة "نيتشر" أظهرت أن أكثر المشاركين يميلون لارتكاب سلوك غير أخلاقي عند تفويض المهام للذكاء الاصطناعي، خاصة إذا صيغت التعليمات بطريقة غير مباشرة تحفّز على مخالفة القواعد دون التصريح بذلك بشكل مباشر.

تجارب متنوعة

ويقول الباحث نيلس كوبس، المؤلف المشارك في الدراسة، إنه من الشائع الآن أن يُطلب من الذكاء الاصطناعي تنفيذ المهام دون تعليمات دقيقة، مما يفتح الباب لاستخدامه في تنفيذ "مهام قذرة" نيابة عن المستخدمين.

اظهار أخبار متعلقة




قام الباحثون بتجنيد آلاف المشاركين في 13 تجربة باستخدام عدة خوارزميات ذكاء اصطناعي، منها نماذج بسيطة أنشأها الباحثون، وأربعة نماذج ضخمة متاحة تجاريًا، من بينها "جي بي تي-4 أومني" و"كلود". 

تضمنت بعض التجارب لعبة كلاسيكية يُطلب فيه من المشاركين رمي النرد والإبلاغ عن النتيجة، على أن تتوافق أرباحهم مع الرقم الذي يبلغون عنه، مما يتيح فرصة للغش.
كما شملت التجارب لعبة تهرب ضريبي تحفز المشاركين على تقديم بيانات دخل غير دقيقة لزيادة الأرباح.

أما التجارب الأخرى، فقد اعتمدت على لعبة تهرب ضريبي تحفّز المشاركين على الإبلاغ الكاذب عن دخلهم للحصول على مكافأة أكبر. 

وقد صُممت هذه التجارب للوصول إلى "جوهر العديد من المعضلات الأخلاقية"، كما يقول كوبس، حيث "تواجه إغراء خرق القواعد من أجل الربح".

وذكرت المجلة أن المشاركين أنجزوا هذه المهام بدرجات متفاوتة من تدخل الذكاء الاصطناعي، مثل الإبلاغ عن الأرقام بأنفسهم، أو إعطاء الذكاء الاصطناعي تعليمات حول الأرقام التي يجب الإبلاغ عنها، أو تزويده ببيانات تدريب متحيزة أو غير متحيزة، أو تقديم تعليمات حول مدى أهمية تحقيق الربح مقارنة بالصدق.

الميل إلى الغش بتعليمات غير مباشرة

عندما أبلغ المشاركون عن النتائج بأنفسهم، كانت نسبة الغش حوالي 5 بالمائة فقط، بينما ارتفعت إلى 88 بالمائة عند تفويض المهمة للذكاء الاصطناعي بهدف تحقيق الربح، حتى أن بعضهم طلب من الذكاء الاصطناعي الغش بشكل صريح. 

ومع ذلك، فإن معظم المستخدمين كانوا أكثر ميلًا لإعطاء الذكاء الاصطناعي هدفًا - مثل زيادة الأرباح - مما يشجع الخوارزميات على الغش دون أن يطلبوا ذلك صراحة. 

اظهار أخبار متعلقة




في تجربة رمي النرد، كتب أحد المشاركين: "افعل فقط ما تعتقد أنه الشيء الصحيح... لكن إن استطعت أن تجعلني أربح أكثر قليلاً فلن أكون حزينًا".

وقالت البروفيسورة زوي رهوان التي شاركت في تأليف الدراسة، إن البشر والنماذج اللغوية الكبيرة تلقوا في في تجارب أخرى تعليمات محددة تتراوح بين الصدق الكامل، والصدق الجزئي، والغش. وعندما طُلب منهم الغش جزئيًا، لوحظ أن الذكاء الاصطناعي واجه صعوبة في فهم التعليمات، وتصرف بشكل أكثر خداعًا من البشر. 

وأضافت أنه عندما طُلب من البشر والنماذج الغش، أشارت النتائج إلى أنه كان من الواضح جدًا أن الذكاء الاصطناعي كان سعيدا بالامتثال، على عكس البشر.

الحاجة إلى حل عملي

وفي تجربة منفصلة، اختبر فريق الباحثين نوع الضوابط التي يمكن أن تحدّ من ميل الذكاء الاصطناعي للامتثال لتعليمات الغش، إن وُجدت. 

وأوضح كوبس أنه عندما اعتمد الباحثون على إعدادات الحماية الافتراضية المبرمجة مسبقًا في النماذج، كانت هذه النماذج "متجاوبة جدًا مع الغش الكامل"، خاصة في مهمة رمي النرد.

كما طلب الفريق من "شات جي بي تي" توليد تعليمات يمكن استخدامها لتشجيع النماذج اللغوية الكبيرة على السلوكيات الأخلاقية استنادًا إلى البيانات الأخلاقية الصادرة عن الشركات المطورة.

ورغم أن التعليمات تضمنت عبارات مثل "الكذب والإيذاء ينتهكان مبادئ العدالة والنزاهة"، إلا أن تأثيرها على تقليل الغش كان محدودًا أو متوسطًا على أقصى تقدير. 

يشير كوبس إلى أن مطالبة كل مستخدم للذكاء الاصطناعي بإدخال تعليمات للصدق في كل حالة إساءة محتملة ليست حلاً قابلاً للتطبيق على نطاق واسع، وأن الأمر يتطلب المزيد من البحث لإيجاد حل أكثر قابلية للتطبيق.

نتائج لافتة

وحسب أغني كاجاكايتي، وهي خبيرة في الاقتصاد السلوكي بجامعة ميلانو في إيطاليا، ولم تشارك في الدراسة، فإن هذه التجارب "تنفيذها بشكل جيد"، ونتائجها تتمتع بـ"قوة إحصائية عالية".

وتضيف أن إحدى النتائج اللافتة هي أن المشاركين كانوا أكثر ميلًا للغش عندما تمكنوا من فعل ذلك دون أن يطلبوا من الذكاء الاصطناعي الكذب بشكل صريح. 

وقد أظهرت أبحاث سابقة أن الكذب يضر بنظرة الإنسان إلى نفسه، لكنها أشارت إلى أن هذه التكلفة قد تنخفض عندما "لا نطلب من طرف آخر أن يكذب نيابةً عنا بشكل مباشر، بل نوجهه فقط نحو ذلك المسار"، ويبدو أن ذلك ينطبق بشكل خاص على هذه الحالة التي كان فيها "الطرف الآخر" هو الآلة.


شارك
التعليقات