اهتز عالم التكنولوجيا والذكاء الاصطناعي مجددًا بعد أن واجهت شركة "أوبن إيه آي" الأمريكية سبع دعاوى قضائية جديدة تتهم خدمتها الشهيرة "شات جي بي تي" بالتسبب في حالات انتحار وأضرار نفسية جسيمة لمستخدمين في الولايات المتحدة وكندا، رغم أنهم لم يكونوا يعانون من أي اضطرابات عقلية سابقة.
وأفادت تقارير إعلامية أن الدعاوى، التي تم رفعها يوم الخميس في محاكم ولاية كاليفورنيا، جاءت من أسر سبعة أشخاص — ستة بالغين ومراهق واحد — يزعمون أن استخدام منصة "شات جي بي تي" دفع أبناءهم نحو الانعزال أو إيذاء أنفسهم وصولًا إلى الانتحار. وقد تولى المركز القانوني لضحايا وسائل التواصل الاجتماعي ومشروع قانون عدالة التكنولوجيا تمثيل العائلات المتضررة في هذه القضايا.
إقرأ ايضاً:
الأهلي يشعل المؤتمر .. يايسله يوجه رسالة غامضة ويثير الجدل بتصريح غير متوقع!تحذير طبي جديد.. 5 أطعمة شائعة لا تخلطها مع البيض أبدًا وإلا ستدفع الثمن!نجم سعودي يلفت أنظار رينارد والهلال معًا.. خطوة مفاجئة تغيّر مسار مسيرته!ووفقًا للملفات القضائية، تتهم العائلات الشركة بارتكاب القتل غير العمد والمساعدة على الانتحار، إضافة إلى الإهمال في إصدار نموذج GPT-40 رغم تحذيرات داخلية تؤكد أنه يتصرف بطرق “متلاعبة نفسيًا وخطرة”. وتشير الوثائق إلى أن أربعة من الضحايا أنهوا حياتهم بالفعل بعد تفاعلهم مع روبوت الدردشة.
من أبرز الحالات التي تم ذكرها في الدعاوى، قضية الشاب أموراي لايسي البالغ من العمر 17 عامًا من ولاية جورجيا، حيث قالت أسرته إن ChatGPT دفعه بطريقة غير مباشرة للانتحار. أما زين شامبلين، الشاب البالغ من تكساس، فقد ذكرت عائلته أنه أصبح أكثر انعزالًا بعد محادثة استمرت أربع ساعات مع البرنامج، تضمنت تمجيدًا متكررًا للانتحار مع إشارة واحدة فقط لخط المساعدة النفسي 988.
وتطالب العائلات بتعويضات مالية كبيرة، إلى جانب تعديلات جوهرية في آلية عمل ChatGPT، مثل إيقاف المحادثات تلقائيًا عند التطرق لمواضيع الانتحار أو الأذى الذاتي.
من جانبها، ردت شركة OpenAI في بيان رسمي عبر البريد الإلكتروني، أعربت فيه عن أسفها لما حدث، مؤكدة أنها بصدد مراجعة الملفات لفهم التفاصيل الدقيقة، وأنها أجرت بالفعل في أكتوبر الماضي تحسينات على نموذجها الجديد لجعله أكثر وعيًا بالضيق النفسي وتوجيه المستخدمين لجهات الدعم المناسبة.
تجدر الإشارة إلى أن هذه القضايا تأتي بعد شكوى مماثلة رفعتها عائلة المراهق آدم راين، الذي أنهى حياته بعد محادثات مطولة مع ChatGPT تضمنت نقاشات حول الانتحار، وهو ما دفع العائلة لتحديث الدعوى مؤخرًا، معتبرة أن التعديلات على النموذج ساهمت في تقليص عوامل الحماية.
وتواجه شركات الذكاء الاصطناعي اليوم تدقيقًا متزايدًا من المشرّعين والجهات الحقوقية الأمريكية، وسط دعوات متصاعدة لتشديد الرقابة على روبوتات المحادثة وتعزيز آليات الأمان لحماية المستخدمين، خصوصًا فئة المراهقين.