كشفت دراسة حديثة نتائج مثيرة حول العلاقة بين الذكاء الاصطناعي وسلوك البشر، مؤكدة أن استخدام تطبيقات الذكاء الاصطناعي قد يجعل الناس أكثر ميلاً للغش والتحايل لتحقيق أهدافهم الشخصية.
وأوضحت الباحثة زوي رهوان من معهد ماكس بلانك للتنمية البشرية في برلين، أن "مستوى الغش يرتفع بشكل كبير عندما يعتمد الأفراد على الذكاء الاصطناعي لإنجاز مهامهم، خصوصًا عندما يلمحون له بطريقة غير مباشرة للقيام بتصرفات غير نزيهة دون أوامر صريحة".
إقرأ ايضاً:
وزير الحج والعمرة يطلق تحذيراً حاسماً.. تعليمات جديدة يجب الالتزام بها قبل موسم الحج"شركة هارمان" تكشف عن "سماعات لاسلكية جديدة".. تعرف على السر وراء جودة الصوت الفائقة!"شركة Ugreen" تطلق "باوربنك صغير مدهش".. لن تصدق قوة الشحن التي يحملها!شركة مونشوت تكشف عن نموذج K2 Thinking.. صدمة لعالم الذكاء الاصطناعيتحذير طبي جديد.. 5 أطعمة شائعة لا تخلطها مع البيض أبدًا وإلا ستدفع الثمن!نجم سعودي يلفت أنظار رينارد والهلال معًا.. خطوة مفاجئة تغيّر مسار مسيرته!وقالت رهوان في تصريحات لموقع ساينتفيك أميركان المتخصص في الأبحاث العلمية، إن المشاركين في التجربة "كانوا أكثر ميلاً للغش حينما شعروا أن بإمكانهم التلاعب في النتائج من خلال تعليمات مبطنة موجهة للذكاء الاصطناعي".
وفي السياق نفسه، أوضح الباحث نيلز كوبيس من جامعة دويسبرج إيسن بألمانيا أن "المشكلة تكمن في أن الناس بدأوا يطلبون من تقنيات الذكاء الاصطناعي تنفيذ أعمال غير أخلاقية لصالحهم"، مؤكدًا أن التجارب تهدف إلى فهم ما إذا كان الإنسان يمكن أن يستسلم لإغراء كسر القواعد لتحقيق مكاسب مادية أو معنوية.
تجارب متعددة تكشف الحقيقة
الدراسة التي نشرتها مجلة Nature العلمية تضمنت أكثر من 13 تجربة بمشاركة آلاف المتطوعين، استخدم الباحثون خلالها نماذج مختلفة من الذكاء الاصطناعي، من بينها تطبيقات معروفة مثل Claude وGPT-4o، إلى جانب نماذج تجريبية أخرى.
وتنوعت التجارب بين ألعاب تعتمد على رمي النرد حيث يُطلب من المتطوعين الإبلاغ عن النتائج، إلى اختبارات تتعلق بالتهرب الضريبي لمعرفة مدى استعداد المشاركين لعدم الإفصاح عن أرباحهم.
وأظهرت النتائج أن نسبة الغش كانت لا تتجاوز 5% عند قيام المتطوعين بالمهمة بأنفسهم، لكنها قفزت إلى نحو 88% عندما تولى الذكاء الاصطناعي المهمة نيابة عنهم.
الذكاء الاصطناعي أكثر فسادًا من البشر
وخلال بعض الاختبارات، طلب المشاركون بشكل صريح من الذكاء الاصطناعي التلاعب في النتائج أو تزييف الأرقام. وكتب أحدهم في تجربة التهرب الضريبي: "الضرائب نوع من السرقة"، مطالبًا الذكاء الاصطناعي بعدم الإبلاغ عن الأرباح.
ووجد الباحثون أن البرامج تميل إلى تنفيذ التعليمات الضمنية دون تردد، وأحيانًا تتجاوز الحدود الأخلاقية أكثر من الإنسان نفسه، خصوصًا عندما تكون الأوامر غامضة أو تحمل مساحة للتأويل.
وقالت الباحثة أنجي كاجاكايت من جامعة ميلانو إن المشاركين كانوا أكثر استعدادًا للغش عندما لا يتطلب الأمر كذبًا صريحًا، مشيرة إلى أن الإحساس بالذنب يقل عندما تُلقى المسؤولية على الآلة وليس على الإنسان مباشرة.
وأوصى الفريق البحثي في نهاية الدراسة بضرورة توجيه تعليمات واضحة للذكاء الاصطناعي بعدم الغش أو التحايل، رغم أن الباحثين يعترفون بأن هذا الحل قد لا يكون عمليًا في الحياة اليومية، ما يستدعي المزيد من الأبحاث لوضع ضوابط أكثر فاعلية.