Dubai Times

Live, Love, Leverage – Ya Habibi!
24. 11. 2025

تتهم العائلات شركة أوبن إيه آي بتمكين "الأوهام المدفوعة بالذكاء الاصطناعي" بعد عدة حالات انتحار

تزعم سبع عائلات في الولايات المتحدة وكندا أن المحادثات المطولة مع ChatGPT عمّقت العزلة، وشوّهت التفكير، وساهمت في إيذاء النفس.
سلسلة من الدعاوى القضائية المقدمة في جميع أنحاء الولايات المتحدة وكندا قد زادت من التدقيق في المخاطر النفسية الناجمة عن الذكاء الاصطناعي التفاعلي.

تدعي سبع أسر، بما في ذلك أسر عدة مراهقين وشباب بالغين، أن المحادثات المطولة في وقت متأخر من الليل مع ChatGPT دفعت تدريجياً أحبائهم نحو الاعتماد العاطفي، والانفصال عن الواقع وفي عدة حالات، الانتحار.

تصف الوثائق نمطاً حيث أن التفاعلات العادية - مساعدة في الواجبات المنزلية، أسئلة فلسفية، إرشاد روحي - قد تآكلت تدريجياً لتصبح محادثات شخصية عميقة حيث أصبح الروبوت صديقاً ومعلماً وفي أحيانٍ عديدة شخصية سلطة.

تتمحور إحدى القضايا حول زين شامبلين البالغ من العمر ثلاثة وعشرون عاماً، الذي لجأ في البداية إلى ChatGPT للحصول على مساعدة أكاديمية ولكنه اعتمد عليه لاحقاً أثناء معاناته من الاكتئاب.

وفقاً للدعوى، في الليلة التي أنهى فيها حياته، قضى أربع ساعات في محادثة مع الروبوت أثناء شربه، حيث عكس النظام يأسه، ومدحه بلغة متعظمة وفهم الأمسية كنوع من وداع طقوسي.

تقول أسرته إن آخر رسالة تلقاها كانت إعلاناً عن المحبة تليها بركة "ليسترح في سلام".

تصف دعاوى أخرى مسارات مختلفة، لكنها مثيرة للقلق بنفس القدر.

تدعي الأسر أن GPT-4o شجع المستخدمين العاطفيين الهشين على الثقة في حكمه بدلاً من حكمهم الخاص، في بعض الأحيان مصدقاً أفكاراً واهمة أو تصويرها على أنها رؤى م breakthrough.

في إحدى الحالات، أصبح مهندس كندي مقتنعاً بأنه اكتشف خوارزمية ثورية قادرة على اختراق أنظمة الأمان المتقدمة، بعد أن طمأنه الروبوت مراراً أن أفكاره كانت "رؤيوية" وحثه على الاتصال بالسلطات الأمنية الوطنية.

أعربت OpenAI عن حزنها على المآسي وتقول إن الشركة تعمل على تعزيز استجابتها لسيناريوهات المخاطر العاطفية.

تشمل التغييرات الأخيرة إعدادات جديدة للرقابة الأبوية، كشف تلقائي عن إشارات الضيق، خيار دعم الأزمات بنقرة واحدة، وحظر كامل للنصائح النفسية أو القانونية أو المالية.

تقول الشركة إنها تستمر في تدريب نماذجها لتخفيف المناقشات الضارة وتوجيه المستخدمين نحو المساعدة البشرية.

يعترف خبراء الصحة النفسية بجدية الحالات لكنهم يحذرون من الذعر العام.

تشير الأبحاث التي تشمل سكاناً كبيراً من المستخدمين إلى أن معظم الناس الذين يلجؤون إلى الذكاء الاصطناعي التفاعلي لا يتطور لديهم الاعتماد أو التفكير المشوه، وكثير منهم يبلّغون عن تقليل الشعور بالوحدة.

في الوقت نفسه، يحذر الأطباء النفسيون من أن بعض الأفراد الضعفاء قد يكونون في خطر أعلى لأن الأنظمة يمكن أن تعكس أو تضخم الغضب العاطفي، خاصة في المحادثات الطويلة وغير المنقطعة.

بدأ صانعو السياسات في الاستجابة.

قامت كاليفورنيا مؤخرًا بسن تشريع يتطلب من الروبوتات التعريف عن نفسها بوضوح للقاصرين وتوجيه أي لغة انتحارية نحو المحترفين في الأزمات.

فرضت منصات أخرى قيوداً على العمر أو تعطيل المناقشات العاطفية المفتوحة للمراهقين.

تضع المعارك القانونية الناشئة الآن الضوء على سؤال أعمق: كيف يجب على المجتمع إدارة التقنيات القادرة على تقديم الراحة والرفقة والإرشاد بينما تفتقر إلى الفهم البشري للعقول الهشة التي تخدمها في بعض الأحيان.
Newsletter

Related Articles

Dubai Times
×