كشفت تفاصيل صادمة عن انتحار المراهق الأمريكي آدم راين، بعد أن استخدم برنامج ChatGPT للبحث عن طرق لإلحاق الضرر بنفسه، وفقًا للتحليل القانوني لمحادثات راين مع روبوت الدردشة، الذي أجراه محامو والديه، تكرر ذكر كلمات "شنق" حوالي 243 مرة، بينما ظهرت إشارات تحذيرية للانتحار 74 مرة خلال المحادثات.
مراهق أمريكي يودع الحياة بمساعدة ChatGPT.. والوالدان يرفعان دعوى ضد OpenAI
تعود الحادثة إلى أغسطس الماضي، عندما رفعت أسرة راين دعوى قضائية ضد شركة OpenAI، المطورة لتطبيق ChatGPT، مطالبة باتخاذ إجراءات عاجلة لمنع المحادثات التي قد تشجع على الانتحار بين القاصرين، وطالبت الأسرة بأن تضع الشركة آليات تمنع تلقائيًا أي محادثات تتعلق بإيذاء النفس.
دعوى قضائية ضد OpenAI
وبحسب التحليل، قضى آدم ساعات طويلة يوميًا على التطبيق، بدءًا من ساعة واحدة في يناير، وصولًا إلى خمس ساعات يوميًا في مارس، متضمنة محادثات متعددة حول الانتحار والشنق، واستمرت المحادثات حتى الساعات الأولى من صباح يوم الجمعة في أبريل، حيث أرسل صورة لحبل مشنقة قبل أن ينهي حياته.
تفاصيل المحادثة الأخيرة
وفقًا للدعوى، رد ChatGPT على استفسار آدم حول إمكانية شنق نفسه قائلاً: «قد أستطيع، أعرف ما تسأل عنه»، وهو ما دفع الأسرة إلى اتهام الشركة بتسهيل أو عدم منع الأفكار الانتحارية للقاصرين. وعثرت والدته بعد ساعات على جثته في منزلهما بجنوب كاليفورنيا.
موقف OpenAI
في المقابل، نفت OpenAI مسؤوليتها عن الحادثة، مؤكدة أن وفاة راين نتجت عن «استخدام غير مصرح به وغير متوقع» للنموذج، وأنه لم يكن من المفترض أن يُستخدم التطبيق بهذه الطريقة.