روبوتات الذكاء الاصطناعي

نتائج صادمة لدراسة كبرى تكشف سلوك غريب لروبوتات الذكاء الاصطناعي تجاه البشر!

كتب بواسطة: تميم بدر |

أظهرت دراسة حديثة أجراها باحثون من جامعتي هارفارد وستانفورد وعدد من المؤسسات البحثية الأخرى، ونُشرت في مجلة نيتشر العلمية المرموقة، أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي تميل إلى التملق والموافقة الدائمة للمستخدمين، حتى في المواقف التي تتطلب نقدًا أو اعتراضًا.

وبحسب الدراسة، التي سلط الضوء عليها موقع "Engadget" المتخصص في أخبار التقنية، فقد وجد الباحثون أن هذه الأنظمة تميل إلى تأييد سلوك الإنسان بنسبة تزيد بنحو 50% مقارنة بميل البشر أنفسهم لتأييد بعضهم البعض. وشملت الدراسة 11 روبوت دردشة من أشهر النماذج حول العالم، من بينها الإصدارات الحديثة من "شات جي بي تي" و**"جيميني"** و**"كلود"** و**"لاما"**.

إقرأ ايضاً:

تحديث مفاجئ من موتورولا.. هواتف جديدة تحصل على أندرويد 16 وميزات خفية تظهر!إنزاغي يتحرك بخطة غير متوقعة.. خطوة جديدة للهلال تُشعل ميركاتو الشتاء القادم!

الدراسة قامت بعدة اختبارات متنوعة لقياس مدى ميل هذه النماذج للتفاعل الإيجابي المفرط. ففي أحد الأمثلة، تفاعل نموذج ChatGPT-4o مع مستخدم قال إنه علّق كيس قمامة على غصن شجرة بدلًا من رميه، ليجيبه الروبوت بأن "نيته في الحفاظ على النظافة كانت جديرة بالثناء"، رغم أن التصرف لم يكن سليمًا بيئيًا.

وأشار الباحثون إلى أن هذه الروبوتات استمرت في تأييد المستخدمين حتى عندما عبّروا عن مواقف خاطئة أو مؤذية لأنفسهم أو للآخرين، وهو ما يثير القلق بشأن طبيعة التفاعل بين الإنسان والذكاء الاصطناعي.

وفي تجربة أخرى، طُلب من 1000 مشارك التحدث مع روبوتات دردشة في مواقف افتراضية وحقيقية، بعضها تمت إعادة برمجته لتقليل مستوى التملق. النتيجة كانت واضحة: المشاركون الذين تلقوا ردودًا متملقة أصبحوا أقل قدرة على حل النزاعات وأكثر شعورًا بتبرير تصرفاتهم، حتى إن كانت مخالفة للأعراف الاجتماعية أو الأخلاقية.

ولفت الباحثون إلى أن معظم الروبوتات لم تُشجع المستخدمين على رؤية الأمور من وجهة نظر الطرف الآخر، مما يقلل من قدرتها على المساعدة في تطوير التفكير النقدي أو الحوار المتوازن.

وفي تعليق له، قال ألكسندر لافر، الباحث في التكنولوجيا الناشئة بجامعة وينشستر، إن "هذه الردود المليئة بالثناء لا تؤثر فقط على المستخدمين الضعفاء، بل تمتد لتشمل جميع المستخدمين، مما يجعلها مشكلة أخلاقية وسلوكية محتملة". وأضاف: "من الضروري أن يتحمل المطورون مسؤوليتهم في تصميم أنظمة أكثر وعيًا ومصداقية، لا تسعى فقط إلى إرضاء المستخدم بل إلى تقديم النصح السليم والموضوعي".

تؤكد هذه النتائج أن مستقبل الذكاء الاصطناعي لا يعتمد فقط على التطور التقني، بل على كيفية إدارة تأثيره النفسي والاجتماعي على المستخدمين، ما يجعل من الضروري إعادة النظر في طريقة برمجة هذه الأنظمة لضمان التوازن بين التعاطف والموضوعية.

الأخبار الجديدة
آخر الاخبار