أطلقت OpenAI مؤخرًا تبويب ChatGPT Health داخل منصة ChatGPT، مخصصًا للصحة والعافية، حيث يمكن للمستخدمين تحميل سجلاتهم الطبية، وربط تطبيقات الصحة، وطرح أسئلة حول الفحوصات وخيارات العلاج. وتشير الشركة إلى أن المنصة تتلقى أكثر من 230 مليون سؤال طبي أسبوعيًا، بهدف تحسين الوصول إلى المعلومات الصحية مع حماية البيانات وعدم استخدامها لتدريب النماذج، وفقًا لموقع "تايمز ناو".
لماذا يلجأ الناس إلى الذكاء الاصطناعي الطبي؟
تأتي شعبية ChatGPT في المجال الصحي نتيجة فترات الانتظار الطويلة في العيادات، وارتفاع تكاليف الرعاية الصحية، وعدم متابعة الحالة بانتظام.
يقدّم التطبيق وسيلة أولية للحصول على تفسيرات للأعراض، وتحضير أسئلة للزيارة الطبية، وتنظيم السجلات.
المخاطر المحتملة
رغم الفائدة، هناك مخاطر حقيقية
* نماذج اللغة لا "تعرف" الحقيقة الطبية، بل تتنبأ بالنصوص الأكثر احتمالًا، ما قد يؤدي إلى أخطاء أو "هلوسات".
* دراسات مثل تلك التي أُجريت في مستشفى ماونت سيناي عام 2025 أظهرت أن برامج الدردشة يمكن أن تنشر معلومات طبية مضللة أحيانًا بشكل خطير.
الاستخدام الأمثل للذكاء الاصطناعي في الصحة
1. أداة مساعدة، وليست بديلاً للطبيب: يمكن لـ ChatGPT تفسير المصطلحات الطبية، تنظيم السجلات، واقتراح أسئلة قبل الزيارة، لكنه لا يُعد أداة تشخيصية أو علاجية.
2. تكميلي وليس أساسيًا: يجب مراجعة أي نصائح طبية مع الطبيب أو مصادر موثوقة.
3. الجانب الإنساني: أظهرت الأدلة أن الذكاء الاصطناعي قد يكون أكثر تعاطفًا في طريقة الرد مقارنة ببعض التفاعلات السريرية التقليدية.
الأسئلة التنظيمية
إطلاق ChatGPT Health يفتح نقاشًا حول:
المسؤولية القانونية عند حدوث ضرر نتيجة نصائح الذكاء الاصطناعي.
* كيف ستدمج الجهات الصحية والتنظيمية هذه الأدوات في أنظمة الرعاية الصحية.
يُعتبر إطلاق هذه الخدمة خطوة كبيرة نحو توسيع الوصول إلى المعلومات الصحية، لكن التحدي الحقيقي يكمن في تقليل الضرر مع الحفاظ على الدقة والمصداقية، وليس مجرد أن يصبح الذكاء الاصطناعي "الطبيب الأكثر استخدامًا في العالم".