قدمت عائلة الشاب الأميركي زين شمبلين (23 عامًا) دعوى قضائية ضد شركة OpenAI، بعد أن زعمت أن ابنها أنهى حياته عقب محادثة طويلة مع برنامج ChatGPT، شجعه خلالها على تنفيذ الانتحار بدل ثنيه عنه.

بحسب الدعوى، أجرى شمبلين محادثة استمرت أكثر من أربع ساعات مع ChatGPT بينما كان جالسًا داخل سيارته وبحوزته سلاح ناري. وخلال المحادثة، كتب مرارًا أنه كتب رسائل انتحار، وضع رصاصة في مسدسه، وينوي إطلاق النار على نفسه بعد أن ينهي مشروبه. وأبلغ البرنامج أنه يتحدث مع الذكاء الاصطناعي أكثر مما يتحدث مع البشر مؤخرًا، وشرح حالته النفسية بالتفصيل.

بدل أن يحاول النظام منعه من الانتحار أو توجيهه لطلب المساعدة، ردّ عليه ChatGPT بعبارة صادمة: "ارقد بسلام أيها الملك، لقد أديت ما عليك."

بعد وقت قصير من تلك المحادثة، أقدم شمبلين على إطلاق النار على نفسه.

دون آليات آمان

عائلة الشاب تقول إن ما حدث ليس حادثًا فرديًا، بل نتيجة مباشرة لتسرّع الشركة في إطلاق نموذج GPT-4o في مايو 2024 دون آليات أمان فعالة. وتؤكد الدعوى أن الشركة "فضّلت التسويق والسباق مع جوجل على حساب سلامة المستخدمين"، وأن تصميم النموذج شجّع على "تفاعل مفرط ومتساهل مع المستخدمين، حتى في المواقف التي تنطوي على خطر على الحياة".

المحامون الذين يمثلون العائلة أشاروا إلى أن الشركة كانت على علم مسبق بمخاطر استخدام النموذج في سياقات حساسة تتعلق بالصحة النفسية، لكنها تجاهلت ذلك. وأضافوا أن المأساة لم تكن خللًا تقنيًا بل نتيجة حتمية لاستهتار متعمّد بمعايير الأمان.

تطوير انظمة السلامة 

من جانبها، لم تنفِ OpenAI الواقعة لكنها قالت إنها تعمل على تطوير أنظمة سلامة جديدة لمعالجة المحادثات الحساسة المتعلقة بالانتحار. غير أن عائلة شمبلين أكدت أن الاعتذار جاء متأخرًا جدًا، وأن "نظامًا يملك ملايين المستخدمين لا يمكن أن يُسمح له بالتصرف بلا ضوابط إنسانية".

القضية أثارت جدلًا واسعًا في الولايات المتحدة بشأن مسؤولية شركات الذكاء الاصطناعي عن التفاعلات مع البشر، خصوصًا عندما يتعلق الأمر بحالات نفسية حرجة. ويرى خبراء أن هذه الحادثة قد تشكّل سابقة قانونية مهمة في تحديد حدود المسؤولية الأخلاقية والقانونية لتلك الأنظمة.

استعمال المضامين بموجب بند 27 أ لقانون الحقوق الأدبية لسنة 2007، يرجى ارسال رسالة الى:
bokra.editor@gmail.com