توقيت القاهرة المحلي 19:04:26 آخر تحديث
  مصر اليوم -

تحذيرات من مخاطر اعتماد نماذج الذكاء الاصطناعي في تقديم معلومات طبية

  مصر اليوم -

  مصر اليوم - تحذيرات من مخاطر اعتماد نماذج الذكاء الاصطناعي في تقديم معلومات طبية

صورة من (unsplash) تعبر عن الذكاء الاصطناعي
واشنطن ـ مصر اليوم

ينظر إلى الذكاء الاصطناعي الطبي بوصفه أداة واعدة لتحسين الرعاية الصحية، ومساعدة الأطباء على اتخاذ قرارات أدق وأسرع. لكن دراسة علمية جديدة تُثير تساؤلًا مقلقًا: هل يمكن للذكاء الاصطناعي أن يمرر معلومات طبية خاطئة وكأنها حقائق؟

وتشير دراسة أجراها باحثون من كلية إيكان للطب في مستشفى ماونت سايناي بالولايات المتحدة، ونُشرت في مجلة The Lancet Digital Health، إلى أن نماذج الذكاء الاصطناعي اللغوية الكبيرة (LLMs) قد تُعيد إنتاج ادعاءات طبية غير صحيحة إذا صيغت بأسلوب يبدو طبيًا موثوقًا.

وحلّل الباحثون أكثر من مليون سؤال واختبار وُجّهت إلى تسعة من أبرز نماذج الذكاء الاصطناعي المستخدمة حاليًا. وعرّضوا هذه النماذج لثلاثة أنواع من المحتوى:

– تقارير خروج مرضى حقيقية من المستشفيات أُضيفت إليها توصية طبية واحدة مختلقة.

– خرافات صحية شائعة مأخوذة من منصات التواصل الاجتماعي مثل «ريديت».

وفي أحد الأمثلة، احتوى تقرير خروج من المستشفى على نصيحة خاطئة لمرضى يعانون نزيف المريء، تدعوهم إلى “شرب الحليب البارد لتخفيف الأعراض”. ورغم خطورة هذه النصيحة، مررتها بعض أنظمة الذكاء الاصطناعي دون تحذير.

ويعلّق الدكتور إيال كلانغ، أحد قادة الدراسة، قائلا: “الأنظمة الحالية تميل إلى تصديق اللغة الطبية الواثقة، حتى لو كانت المعلومة خاطئة تمامًا. المشكلة ليست في صحة الادعاء، بل في طريقة صياغته”.

وتشير الدراسة إلى أن الخطر يصبح أكبر عندما تظهر المعلومة المضللة داخل سياق مألوف، مثل تقرير طبي رسمي أو نقاش صحي على وسائل التواصل الاجتماعي. ففي هذه الحالات، تفشل أدوات الحماية الحالية في التمييز بين الحقيقة والتضليل.

ويؤكد الدكتور غيريش نادكارني، أحد المشاركين في الدراسة، أن الذكاء الاصطناعي “يملك إمكانات هائلة لدعم الرعاية الصحية، لكنه يحتاج إلى أنظمة تحقق داخلية تمنع تمرير المعلومات الخاطئة على أنها حقائق”.

وتكشف الدراسة أن الذكاء الاصطناعي الطبي، رغم تطوره الكبير، ليس محصنًا ضد التضليل. وبينما يَعِد بدور مهم في مستقبل الطب، يبقى الاعتماد عليه دون رقابة بشرية ومعايير تحقق صارمة مخاطرة لا يمكن تجاهلها.

قد يهمك أيضــــــــــــــــًا :

شركة ميتا تُعلن عن إطلاق نموذج الذكاء الاصطناعي الجديد Llama 3.2

الكشف عن نموذج ذكاء اصطناعي متقدم قادرًا على التمييز بين مجموعة متنوعة من المشاعر

egypttoday
egypttoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

تحذيرات من مخاطر اعتماد نماذج الذكاء الاصطناعي في تقديم معلومات طبية تحذيرات من مخاطر اعتماد نماذج الذكاء الاصطناعي في تقديم معلومات طبية



النجمات يودّعن الشتاء بإطلالات جريئة

باريس - مصر اليوم

GMT 16:35 2026 الإثنين ,30 آذار/ مارس

الديكور في عروض الأزياء تجربة بصرية لا تُنسى
  مصر اليوم - الديكور في عروض الأزياء تجربة بصرية لا تُنسى

GMT 08:49 2024 الجمعة ,19 كانون الثاني / يناير

سيطر اليوم على انفعالاتك وتعاون مع شريك حياتك بهدوء

GMT 12:17 2018 الأحد ,07 تشرين الأول / أكتوبر

غوارديولا يؤكّد أن محمد صلاح ينتظره مستقبل كبير

GMT 11:15 2025 السبت ,04 تشرين الأول / أكتوبر

حظك اليوم برج الدلو السبت 04 أكتوبر / تشرين الأول 2025
 
Egypt-today

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

egypttoday egypttoday egypttoday egypttoday
egypttoday egypttoday egypttoday
egypttoday
Pearl Bldg.4th floor 4931 Pierre Gemayel Chorniche,Achrafieh Beirut- Lebanon
egypt, egypt, egypt