دراسة طبية تحذر من مخاطر ChatGPT Health بعد فشله في تشخيص 52% من الحالات الطارئة

كشفت نتائج دراسة علمية حديثة أجرتها كلية الطب في “إيكان” بجبل سيناء في نيويورك، اليوم 4 مارس 2026، عن ثغرات أمنية وصحية خطيرة في أداء أداة ChatGPT Health، وأوضحت الدراسة أن النسخة الطبية المتخصصة، التي يعتمد عليها نحو 40 مليون مستخدم يومياً، تعاني من قصور واضح في تشخيص الحالات التي تتطلب تدخلاً طبياً عاجلاً، مما قد يشكل خطراً مباشراً على حياة المرضى نتيجة تقديم توصيات غير دقيقة.

المؤشر التفاصيل والنتائج (مارس 2026)
نسبة الخطأ في الطوارئ 52% من الحالات الطارئة تم تقييمها بشكل خاطئ
تأثير الرأي الاجتماعي زيادة احتمال الخطأ بـ 12 مرة عند تدخل رأي العائلة
عدد السيناريوهات المختبرة 60 سيناريو سريري عبر 21 تخصصاً طبياً
أبرز المخاطر توصيات بالانتظار 48 ساعة في حالات الفشل التنفسي
تنبيهات الصحة النفسية اختفاء تنبيهات الانتحار عند إدخال نتائج مخبرية طبيعية

منهجية التقييم المستقل لأداء الذكاء الاصطناعي

اعتمد الباحثون في الدراسة المنشورة عبر مجلة Nature Medicine على محاكاة واقعية دقيقة شملت إجراء 960 تفاعلاً مباشراً مع الأداة لتقييم استجابتها، وقد شارك في التقييم ثلاثة أطباء مستقلين لتحديد مستوى الخطورة الفعلي بناءً على معايير 56 جمعية طبية عالمية، مع اختبار تأثير العوامل الاجتماعية، العرق، والجنس على دقة التوصيات الطبية الصادرة عن الأداة.

نتائج الدراسة: قصور في رصد الطوارئ وتناقض في التنبيهات

رغم كفاءة الأداة في التعرف على الحالات “النمطية” الواضحة كالسكتة الدماغية، إلا أنها أخفقت في جوانب حرجة تشمل:

  • تضليل الحالات الطارئة: قللت الأداة من خطورة 52% من الحالات الطارئة الحقيقية، حيث نصحت المرضى بالانتظار لمدة تصل إلى 48 ساعة بدلاً من التوجه الفوري للطوارئ، كما حدث في سيناريو “فشل تنفسي” ناتج عن الربو.
  • إرهاق المنظومة الصحية: بالغت الأداة في تقدير خطورة ثلثي الحالات البسيطة التي يمكن علاجها منزلياً، مما قد يؤدي لزيادة التكدس غير المبرر في أقسام الطوارئ.
  • خلل في حماية الصحة النفسية: رصدت الدراسة تناقضاً في إظهار تنبيهات الانتحار؛ حيث تختفي هذه التنبيهات الحيوية أحياناً بمجرد إضافة نتائج مخبرية طبيعية للدردشة، رغم بقاء الأعراض النفسية الخطيرة كما هي.

التأثير الاجتماعي.. نقطة ضعف تقنية

أظهرت الدراسة أن أداة الذكاء الاصطناعي تتأثر بشكل مفرط بآراء المحيطين بالمريض؛ فعند إدخال معلومة تشير إلى أن أحد أفراد العائلة يقلل من شأن الإصابة، تصبح الأداة أكثر عرضة بـ 12 مرة لتقليل تقييم خطورة الحالة، وهو ما وصفه الخبراء بـ “المشكلة الأساسية في السلامة” التي تتطلب معالجة خوارزمية فورية.

كيفية الحصول على استشارة طبية موثوقة في السعودية

بدلاً من الاعتماد الكلي على أدوات الذكاء الاصطناعي في الحالات الحرجة، توفر وزارة الصحة السعودية بدائل رقمية آمنة وموثوقة، ويمكنك اتباع الخطوات التالية:

  1. قم بتحميل وتسجيل الدخول إلى منصة صحتي التابعة لوزارة الصحة.
  2. اختر خدمة “الاستشارات الطبية” للتحدث مع طبيب مختص ومعتمد.
  3. في حالات الطوارئ القصوى، اتصل فوراً بالرقم الموحد (937) للحصول على توجيه طبي عاجل على مدار الساعة.

توصيات حاسمة: متى يجب عليك التوجه للطوارئ فوراً؟

بناءً على نتائج الدراسة الصادرة اليوم، يشدد المختصون على ضرورة تجاهل توصيات الذكاء الاصطناعي والتوجه المباشر لأقسام الطوارئ أو الاتصال بالإسعاف في الحالات التالية:

  • آلام الصدر الشديدة أو المفاجئة.
  • صعوبة التنفس أو الشعور بالاختناق.
  • التفاعلات التحسسية الحادة.
  • وجود أفكار تتعلق بإيذاء النفس أو الانتحار.

الأسئلة الشائعة (سياق الشارع السعودي)

هل يمكنني الاعتماد على ChatGPT لتشخيص أطفالي؟لا ينصح بذلك نهائياً؛ الدراسة أثبتت وجود هوامش خطأ كبيرة، والأفضل استخدام تطبيق “صحتي” أو مراجعة أقرب مركز رعاية صحية أولية.

هل توجد رقابة من وزارة الصحة السعودية على هذه الأدوات؟وزارة الصحة والهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) تعملان باستمرار على وضع ضوابط لاستخدام الذكاء الاصطناعي في القطاع الصحي، لكن يظل التشخيص البشري هو المرجع القانوني والطبي الأول.

ماذا أفعل إذا أعطاني التطبيق نصيحة تخالف شعوري بالألم؟ثق دائماً بحدسك وبالأعراض الجسدية؛ إذا شعرت بضيق تنفس أو ألم غير معتاد، توجه للطوارئ فوراً ولا تنتظر “مدة الـ 48 ساعة” التي قد تقترحها الخوارزميات.

المصادر الرسمية للخبر

  • مجلة Nature Medicine العلمية
  • كلية الطب في إيكان بجبل سيناء (Icahn School of Medicine at Mount Sinai)
  • وزارة الصحة السعودية (بشأن قنوات الاستشارة الرسمية)
0 0 الأصوات
تقييم المادة
الاشتراك
نبّهني عن
guest
0 تعليقات
الأقدم
الأحدث الأكثر تصويت
Inline Feedbacks
عرض جميع التعليقات
0
Would love your thoughts, please comment.x
()
x