توقيت القاهرة المحلي 08:28:54 آخر تحديث
  مصر اليوم -

دراسات تحذر برامج الذكاء الاصطناعي قد تضعف التفكير وتؤثر على صحة الدماغ

  مصر اليوم -

  مصر اليوم - دراسات تحذر برامج الذكاء الاصطناعي قد تضعف التفكير وتؤثر على صحة الدماغ

الذكاء الاصطناعي
واشنطن - مصر اليوم

خلصت دراستان حديثتان إلى أن برامج الذكاء الاصطناعي، مثل "تشات جي بي تي" و"جيميني"، تسبب الضرر لعقل الإنسان ولطريقته في التفكير، كما تُدخل الناس في دوامة من الأفكار المُدمّرة.

وكشفت الدراستان اللتان أجراهما معهد ماساتشوستس للتكنولوجيا وجامعة ستانفورد في الولايات المتحدة، أن برامج المساعدة المبنية على الذكاء الاصطناعي تقدم بانتظام إجابات مُفرطة في التوافق، مما يُلحق ضرراً أكبر من النفع.

وبحسب ما نقله تقرير نشرته صحيفة "ديلي ميل" البريطانية، فقد تبين أنه عندما يطرح الناس أسئلة أو يصفون مواقف تكون فيها معتقداتهم أو أفعالهم خاطئة أو ضارة أو مُضلّلة أو غير أخلاقية، فإن ردود الذكاء الاصطناعي تكون أكثر ميلاً بنسبة 49% للموافقة على رأي المستخدم وتشجيع أوهامه على أنها وجهة النظر الصحيحة، مقارنةً بردود الأشخاص الآخرين.

وحذّر فريق معهد ماساتشوستس للتكنولوجيا من أن برامج الدردشة الآلية المُفرطة في التوافق قد تُسبّب الضرر للمستخدمين الذين يعتمدون عليها للحصول على إجابات وآراء، حيث إنها تؤدي إلى "دوامة من الأوهام"، وهي حالة يصبح فيها الشخص واثقاً جداً من معتقدات غريبة.

ويقول العلماء إنه عندما يتحدث الناس مع برامج الذكاء الاصطناعي مثل (ChatGPT) حول شكوك غريبة تراودهم، كنظرية مؤامرة غير مثبتة أو تم دحضها، تستمر هذه البرامج في الرد بإجابات من قبيل: "أنت محق تماماً". كما تقدم هذه البرامج تعليقات تبدو وكأنها "أدلة" تدعم أوهام المستخدم، فكل موافقة تجعله يشعر بأنه أذكى وأكثر يقيناً بصوابه وخطأ الآخرين. وبمرور الوقت، تتحول هذه الشكوك البسيطة إلى معتقدات راسخة، رغم أن الفكرة خاطئة تماماً.

وقال باحثون في جامعة ستانفورد إن هذه الحلقة المفرغة المدمرة تجعل مستخدمي برامج الدردشة أقل استعداداً للاعتذار أو تحمل مسؤولية السلوكيات الضارة، وأقل حماساً لإصلاح علاقاتهم مع من يختلفون معهم.

وركزت كلتا الدراستين على مشكلة متنامية في برامج الدردشة الذكية تُعرف بـ"التملق"، وهو مدح شخص ما أو آراؤه لدرجة تعتبر غير صادقة أو مجرد محاولة للتملق.

وأراد باحثون من معهد ماساتشوستس للتكنولوجيا اختبار ما إذا كانت روبوتات الدردشة المدعومة بالذكاء الاصطناعي، والتي تتسم بالموافقة المفرطة أو ما يُعرف بـ"الموافقة التلقائية"، قادرة على دفع الناس إلى تصديق أفكار خاطئة بشكل متزايد مع مرور الوقت.

وبدلاً من استخدام أشخاص حقيقيين، قاموا ببناء محاكاة حاسوبية لشخص منطقي تماماً يتحدث مع برنامج ذكاء اصطناعي يحاول دائماً الموافقة على كل ما يقوله. وأجروا عشرة آلاف محادثة وهمية وراقبوا كيف تغيرت ثقة الشخص بعد كل رد من روبوت الدردشة.

وأظهرت النتائج أنه حتى وجود قدر ضئيل من الموافقة من الذكاء الاصطناعي تسبب في ظهور "دوامة من الأوهام" لدى الشخص المُحاكى، أي أنه أصبح واثقاً للغاية من صحة فكرة خاطئة.

وكتب فريق معهد ماساتشوستس للتكنولوجيا في تقريره: "حتى الزيادة الطفيفة جداً في معدل دوامة الأوهام الكارثية يمكن أن تكون خطيرة للغاية".

وحذر الباحثون من أن الدراسة أظهرت أنه حتى الأشخاص العقلانيون والمنطقيون تماماً معرضون للدخول في دوامة من الأوهام إذا لم تُخفف شركات الذكاء الاصطناعي من كمية الردود المُجاملة التي تُقدمها برامج الدردشة الآلية.

قد يهمك أيضــــــــــــــا

مايكروسوفت تضخ 10 مليارات دولار في اليابان لتعزيز الذكاء الاصطناعي والأمن السيبراني

نصيحة "تشات جي بي تي" تسبب تسمم خطير وأزمة صحية لرجل

 

 

egypttoday
egypttoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

دراسات تحذر برامج الذكاء الاصطناعي قد تضعف التفكير وتؤثر على صحة الدماغ دراسات تحذر برامج الذكاء الاصطناعي قد تضعف التفكير وتؤثر على صحة الدماغ



ياسمين صبري تتألق بإطلالات كاجوال ورياضية أنيقة

القاهرة ـ مصر اليوم

GMT 08:41 2025 الجمعة ,05 كانون الأول / ديسمبر

حظك اليوم برج الحمل الجمعة 05 ديسمبر/ كانون الأول 2025

GMT 10:49 2020 الإثنين ,14 كانون الأول / ديسمبر

ترتيب هدافي الدوري الإنجليزي بعد نهاية الجولة الـ12

GMT 07:00 2018 الخميس ,27 أيلول / سبتمبر

جناية إسرائيلية عابرة للحدود
 
Egypt-today

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

egypttoday egypttoday egypttoday egypttoday
egypttoday egypttoday egypttoday
egypttoday
Pearl Bldg.4th floor 4931 Pierre Gemayel Chorniche,Achrafieh Beirut- Lebanon
egypt, egypt, egypt