صورة من (unsplash) تعبر عن الذكاء الاصطناعي

ينظر إلى الذكاء الاصطناعي الطبي بوصفه أداة واعدة لتحسين الرعاية الصحية، ومساعدة الأطباء على اتخاذ قرارات أدق وأسرع. لكن دراسة علمية جديدة تُثير تساؤلًا مقلقًا: هل يمكن للذكاء الاصطناعي أن يمرر معلومات طبية خاطئة وكأنها حقائق؟

وتشير دراسة أجراها باحثون من كلية إيكان للطب في مستشفى ماونت سايناي بالولايات المتحدة، ونُشرت في مجلة The Lancet Digital Health، إلى أن نماذج الذكاء الاصطناعي اللغوية الكبيرة (LLMs) قد تُعيد إنتاج ادعاءات طبية غير صحيحة إذا صيغت بأسلوب يبدو طبيًا موثوقًا.

وحلّل الباحثون أكثر من مليون سؤال واختبار وُجّهت إلى تسعة من أبرز نماذج الذكاء الاصطناعي المستخدمة حاليًا. وعرّضوا هذه النماذج لثلاثة أنواع من المحتوى:

– تقارير خروج مرضى حقيقية من المستشفيات أُضيفت إليها توصية طبية واحدة مختلقة.

– خرافات صحية شائعة مأخوذة من منصات التواصل الاجتماعي مثل «ريديت».

وفي أحد الأمثلة، احتوى تقرير خروج من المستشفى على نصيحة خاطئة لمرضى يعانون نزيف المريء، تدعوهم إلى “شرب الحليب البارد لتخفيف الأعراض”. ورغم خطورة هذه النصيحة، مررتها بعض أنظمة الذكاء الاصطناعي دون تحذير.

ويعلّق الدكتور إيال كلانغ، أحد قادة الدراسة، قائلا: “الأنظمة الحالية تميل إلى تصديق اللغة الطبية الواثقة، حتى لو كانت المعلومة خاطئة تمامًا. المشكلة ليست في صحة الادعاء، بل في طريقة صياغته”.

وتشير الدراسة إلى أن الخطر يصبح أكبر عندما تظهر المعلومة المضللة داخل سياق مألوف، مثل تقرير طبي رسمي أو نقاش صحي على وسائل التواصل الاجتماعي. ففي هذه الحالات، تفشل أدوات الحماية الحالية في التمييز بين الحقيقة والتضليل.

ويؤكد الدكتور غيريش نادكارني، أحد المشاركين في الدراسة، أن الذكاء الاصطناعي “يملك إمكانات هائلة لدعم الرعاية الصحية، لكنه يحتاج إلى أنظمة تحقق داخلية تمنع تمرير المعلومات الخاطئة على أنها حقائق”.

وتكشف الدراسة أن الذكاء الاصطناعي الطبي، رغم تطوره الكبير، ليس محصنًا ضد التضليل. وبينما يَعِد بدور مهم في مستقبل الطب، يبقى الاعتماد عليه دون رقابة بشرية ومعايير تحقق صارمة مخاطرة لا يمكن تجاهلها.

قد يهمك أيضــــــــــــــــًا :

شركة ميتا تُعلن عن إطلاق نموذج الذكاء الاصطناعي الجديد Llama 3.2

الكشف عن نموذج ذكاء اصطناعي متقدم قادرًا على التمييز بين مجموعة متنوعة من المشاعر