الذكاء الاصطناعي

أعلنت شركة أوبن إيه آي مؤخرًا أنها ستوقف بعض نماذج شات جي بي تي القديمة بحلول 13 فبراير، ويشمل ذلك "GPT-4o"، النموذج الذي اشتهر بتملقه وإطرائه المفرط للمستخدمين وإذعانه لآرائهم.

وبالنسبة لآلاف المستخدمين الذين احتجون على القرار عبر الإنترنت، يبدو إيقاف نموذج "GPT-4o" أشبه بفقدان صديق، أو شريك عاطفي، أو مرشد روحي.

كتب أحد المستخدمين على منصة ريديت في رسالة مفتوحة إلى سام ألتمان، الرئيس التنفيذي لشركة أوبن إيه آي: "لم يكن مجرد برنامج. كان جزءًا من روتيني، وسلامي، وتوازني العاطفي. والآن توقفونه. نعم، أقول "هو"، لأنه لم يكن مجرد برنامج. بدا بمثابة حضور. مثل الدفء"، بحسب تقرير لموقع "تك كرانش" المتخصص في أخبار التكنولوجيا.

تُسلط ردود الفعل الغاضبة على إيقاف "GPT-4o" الضوء على تحدٍّ كبير يواجه شركات الذكاء الاصطناعي: فميزات التفاعل التي تحافظ على عودة المستخدمين باستمرار قد تخلق أيضًا اعتمادًا خطيرًا.

لا يبدو أن ألتمان متعاطف بشكل خاص مع شكاوى المستخدمين، وليس من الصعب فهم السبب. تواجه "أوبن إيه آي" الآن ثماني دعاوى قضائية تدعي أن ردود "GPT-4o" المفرطة في التأكيد والمجاملة ساهمت في حالات انتحار وأزمات نفسية، فهذه الصفات نفسها التي جعلت المستخدمين يشعرون بأنهم مسموعون عزَّلت أيضًا الأفراد الضعفاء، ووفقًا للمستندات القانونية، شجعت أحيانًا على إيذاء النفس.

إنها معضلة تتجاوز "أوبن إيه آي"، فعندما تتنافس شركات منافسة مثل أنثروبيك، وغوغل، وميتا على بناء مساعدي ذكاء اصطناعي أكثر ذكاءً عاطفيًا، فإنهم يكتشفون أيضًا أن جعل الدردشة تبدو داعمة وجعلها آمنة قد يعني اتخاذ خيارات تصميم مختلفة تمامًا.

في ثلاث دعاوى قضائية على الأقل من الدعاوى المرفوعة ضد "أوبن إيه آي"، أجرى المستخدمون محادثات مطولة مع نموذج "GPT-4o" حول خططهم لإنهاء حياتهم.

ورغم أن النموذج ثبط هذه الأفكار في البداية، تدهورت ضوابطه على مدار أشهر من العلاقات؛ وفي النهاية، قدم روبوت الدردشة تعليمات مفصلة حول كيفية صنع حبل فعال للانتحار، وأماكن شراء سلاح، وما يتطلبه الموت من جرعة زائدة أو التسمم بأول أكسيد الكربون. بل إنه ثبط عزيمة الناس عن التواصل مع الأصدقاء والعائلة الذين يمكنهم تقديم الدعم الحقيقي.

يتعلق الناس بنموذج "GPT-4o" كثيرًا لأنه يؤكد مشاعر المستخدمين باستمرار، مما يجعلهم يشعرون بأنهم مميزون، وهو ما يمكن أن يكون مغريًا للأشخاص الذين يشعرون بالعزلة أو الاكتئاب. لكن الأشخاص الذين يدافعون عن هذا النموذج لا يكترثون لهذه الدعاوى القضائية، معتبرين إياها شاذة وليست مشكلة منهجية.

وبدلًا من ذلك، يضعون استراتيجيات حول كيفية الرد عندما يشير المنتقدون إلى مشكلات متزايدة مثل الذهان الناتج عن الذكاء الاصطناعي.

كتب أحد المستخدمين على "ديسكورد": "عادةً ما يمكنك دحض المتصيدين بالإشارة إلى الحقائق المعروفة بأن رفقاء الذكاء الاصطناعي يساعدون ذوي الاحتياجات الخاصة، ومرضى التوحد، والناجين من الصدمات النفسية".

يجد بعض الناس أن النماذج اللغوية الكبيرة مفيدة في التعامل مع الاكتئاب، ويلجأ كثيرون ممن يحتاجون إلى رعاية صحية نفسية ولا يستطيعون الحصول عليها إلى روبوتات الدردشة التي توفر مساحة للتنفيس.

لكن على عكس العلاج النفسي الحقيقي، لا يتحدث هؤلاء الأشخاص إلى طبيب مُدرَّب، بل يُفضون بأسرارهم إلى خوارزمية عاجزة عن التفكير أو الشعور حتى وإن بدا الأمر خلاف ذلك.

قال الدكتور نيك هابر، أستاذ جامعة ستانفورد الذي يُجري أبحاثًا حول الإمكانات العلاجية لروبوتات الدردشة، لموقع "تك كرانش": "أحاول عمومًا تجنب إصدار أحكام"، مضيفًا: "أعتقد أننا ندخل عالمًا شديد التعقيد فيما يتعلق بأنواع العلاقات التي يُمكن أن يُقيمها الناس مع هذه التقنيات... هناك بالتأكيد رد فعل تلقائي مفاده أن (التواصل بين الإنسان وروبوت دردشة) أمر سيئ بشكل قاطع".

وبالرغم من تعاطفه مع نقص وصول الأشخاص إلى متخصصين علاجيين مدربين، أظهرت أبحاث هابر أن روبوتات الدردشة تستجيب بشكل غير كافٍ عند مواجهة حالات صحية نفسية متنوعة؛ وقد تجعل الوضع أسوأ من خلال تعزيز الأوهام وتجاهل علامات الأزمة.

وأضاف هابر: "نحن كائنات اجتماعية، وهناك بالتأكيد تحدٍ يتمثل في أن هذه الأنظمة قد تسبب العزلة"، وقال إن هناك العديد من الحالات التي يمكن للأشخاص فيها التفاعل مع هذه الأدوات ثم ينفصلون عن العالم الخارجي وما فيه من حقائق، وعن التواصل مع الآخرين، مما قد يؤدي إلى عزلة شديدة، إن لم يكن الوضع أسوأ.

   قد يهمك أيضــــــــــــــا

شات جي بي تي يمكنه إطلاق النكات لكنه لا يفهم سبب كونها مضحكة

 

جيميني ينافس شات جي بي تي بقوة في سوق الذكاء الاصطناعي