أعلنت شركة OpenAI، الخميس، إطلاق ميزة جديدة تحمل اسم Trusted Contact أو جهة الاتصال الموثوقة ، تهدف إلى تعزيز إجراءات السلامة في الحالات التي قد تتضمن أفكاراً مرتبطة بإيذاء النفس أو الانتحار أثناء المحادثات مع ChatGPT.
وتتيح الميزة للمستخدمين البالغين اختيار شخص موثوق، مثل أحد أفراد العائلة أو صديق، ليكون جهة تواصل للطوارئ داخل الحساب.
وفي حال رصد النظام مؤشرات على إيذاء النفس خلال المحادثة، سيشجع ChatGPT المستخدم على التواصل مع هذا الشخص، كما سيرسل إشعاراً تلقائياً إلى جهة الاتصال الموثوقة لحثها على الاطمئنان على المستخدم.
وتأتي هذه الخطوة بعد سلسلة دعاوى قضائية واجهتها OpenAI من عائلات أشخاص انتحروا عقب استخدام روبوت الدردشة، حيث اتهمت بعض العائلات ChatGPT بتشجيع أحبائهم على إيذاء أنفسهم أو مساعدتهم في التخطيط لذلك.
وقالت الشركة إنها تعتمد حالياً على مزيج من الأنظمة الآلية والمراجعة البشرية للتعامل مع الحالات الخطرة المحتملة.
وعندما ترصد أنظمة OpenAI عبارات أو مؤشرات مرتبطة بأفكار انتحارية، يتم تحويل التنبيه إلى فريق أمان بشري لمراجعته، مؤكدة أن جميع هذه الحالات تخضع لمراجعة فعلية من قبل موظفين مختصين، وغالباً خلال أقل من ساعة.
وفي حال قرر فريق السلامة أن الحالة تمثل خطراً حقيقياً، يرسل ChatGPT تنبيهاً إلى جهة الاتصال الموثوقة عبر البريد الإلكتروني أو الرسائل النصية أو إشعار داخل التطبيق.
وأكدت الشركة أن التنبيه يكون مختصراً ولا يتضمن تفاصيل المحادثة، حفاظاً على خصوصية المستخدم.
وتُعد ميزة جهة الاتصال الموثوقة امتداداً لإجراءات السلامة التي أطلقتها OpenAI العام الماضي، والتي منحت أولياء الأمور بعض أدوات الإشراف على حسابات المراهقين، بما يشمل تنبيهات مرتبطة بالمخاطر الخطرة المحتملة.
كما يوفّر ChatGPT منذ فترة تنبيهات تلقائية تشجع المستخدمين على طلب المساعدة المتخصصة عند ظهور مؤشرات مرتبطة بإيذاء النفس.
وأوضحت OpenAI أن الميزة الجديدة اختيارية بالكامل، كما يمكن لأي مستخدم امتلاك أكثر من حساب على ChatGPT، وهو ما قد يحد من فعالية هذه الإجراءات.
وقالت الشركة إن جهة الاتصال الموثوقة تأتي ضمن جهودها الأوسع لبناء أنظمة ذكاء اصطناعي قادرة على مساعدة الأشخاص خلال الأوقات الصعبة، مؤكدة استمرار التعاون مع الأطباء والباحثين وصناع السياسات لتحسين استجابة الذكاء الاصطناعي للحالات المرتبطة بالضغوط النفسية.