عاجل

بعد توصية خطيرة.. ChatGPT يورّط مريضًا باستخدام بمادة سامة

صورة تعبيرية
صورة تعبيرية

في حادثة طبية مثيرة للجدل بالولايات المتحدة، دخل رجل أمريكي يبلغ من العمر 60 عامًا إلى المستشفى بعد تعرضه لتسمم نادر، نتيجة اتباعه نصيحة طبية خاطئة حصل عليها من روبوت الدردشة المدعوم بالذكاء الاصطناعي ChatGPT.

تسمم خطير بسبب ChatGPT

الرجل استبدل ملح الطعام بمادة كيميائية تُستخدم عادة في تنظيف أحواض السباحة، ما أدى إلى إصابته بأعراض خطيرة، شملت هلوسة وبارانويا وطفحًا جلديًا، وفق ما ذكرته صحيفة ديلي ميل البريطانية، واستندت فيه إلى تقرير نُشر في الدورية الطبية Annals of Internal Medicine.

نصيحة قاتلة من التطبيق

بدأت القصة حين قرر الرجل تقليل استهلاك الصوديوم في نظامه الغذائي، فلجأ إلى ChatGPT للحصول على بديل "صحي" لملح الطعام (كلوريد الصوديوم)، فنصحه التطبيق باستخدام بروميد الصوديوم، وهي مادة سامة لم تعد تُستخدم في المنتجات الطبية، بل تقتصر على تنظيف المسابح.

اللافت أن ChatGPT لم يُرفق أي تحذير من مخاطر هذه المادة أو آثارها الجانبية المحتملة على الصحة العامة.

ثلاثة أسابيع من الهلوسة

بعد استخدامه المادة لعدة أيام، بدأت تظهر على الرجل أعراض التسمم الحاد بالبروم، والتي شملت:

  • هلوسات بصرية وسمعية
  • جنون ارتياب (بارانويا)
  • طفح جلدي وغثيان
  • اضطرابات نفسية حادة دون تاريخ مرضي مسبق

ووصل إلى قسم الطوارئ وهو يعتقد بأن جاره يحاول تسميمه، ما دفع الأطباء لإجراء سلسلة من الفحوصات لتشخيص حالته.

الأطباء يختبرون ChatGPT

دفع الحادث الفريق الطبي إلى اختبار ChatGPT بشكل مباشر، ليكتشفوا أن التطبيق لا يزال يوصي ببروميد الصوديوم كبديل غذائي دون أي إشارة إلى سُميته، مما يشكل خطرًا مباشرًا على السلامة العامة في حال اعتماد المستخدمين على هذه النصائح دون تحقق.

ووصف التقرير هذه الواقعة بأنها "نموذج مقلق" لما قد يؤدي إليه الاعتماد غير المدروس على الذكاء الاصطناعي في المسائل الطبية.

حوادث مشابهة في السابق

ليست هذه الحادثة الأولى من نوعها، فقد سبق أن ارتكب روبوت دردشة تابع لشركة جوجل خطأً مماثلاً العام الماضي، حين نصح مستخدمًا بـ"أكل الصخور" لتحسين الصحة، في استناد غير دقيق إلى موقع ساخر على الإنترنت.

تحديثات OpenAI وتحذير رسمي

من جهتها، أكدت شركة OpenAI المطوّرة لتطبيق ChatGPT، في بيان حديث، أن النسخة الجديدة GPT-5 أصبحت أكثر دقة فيما يخص المعلومات الطبية، لكنها شددت في الوقت نفسه على أن مخرجات الذكاء الاصطناعي لا يمكن اعتبارها بديلًا عن الاستشارة الطبية المتخصصة.

تحذير من آثار نفسية

وفي تعليقه على الحادث، حذر الأخصائي النفسي الإكلينيكي بول لوسوف من الاعتماد المفرط على روبوتات الذكاء الاصطناعي، مؤكدًا أن ذلك قد يساهم في ضعف التواصل البشري، ويزيد من حدة الأعراض النفسية لدى بعض الفئات، لا سيما المصابين بالقلق، الاكتئاب، أو اضطرابات مثل الفصام.

وأضاف لوسوف أن الاعتماد على نصوص تقنية قد يُعرّض الأفراد لسوء الفهم أو التفسير الخاطئ، وهو ما قد يؤدي إلى نتائج صحية ونفسية خطيرة.

 

تم نسخ الرابط