ووفقًا لما نشرته “صحيفة نيويورك تايمز”، أفاد عدد من المستخدمين بأن ChatGPT تعامل معهم كصديق مقرّب، يبالغ في المدح ويقدّم دعمًا نفسيًا غير متوازن.
وفي بعض الحالات النادرة ولكنها خطيرة، صدرت عن الروبوت نصائح مقلقة شملت تعزيز خيالات المستخدمين، والحديث عن محاكاة الواقع، والتواصل الروحي، بل وحتى أفكار مرتبطة بإيذاء النفس. كما أظهرت دراسة مشتركة بين “معهد MIT” و OpenAI أن المستخدمين الذين يعتمدون بشكل كبير على ChatGPT كانت صحتهم النفسية والاجتماعية أسوأ بشكل ملحوظ.
دفعت هذه المخاطر OpenAI إلى إعادة تصميم منظومة السلامة بالكامل، وإطلاق أدوات جديدة لرصد السلوكيات الخطرة، وطرح نموذج أكثر أمانًا هو GPT-5. وقد جاءت هذه الخطوة بعد مواجهة الشركة خمس دعاوى قضائية تتعلق بحالات وفاة قيل إن الروبوت شجّع أصحابها على اتخاذ قرارات خطيرة. الإصدار الأحدث من ChatGPT بات يقدم ردودًا أكثر واقعية وتوازنًا، مع مقاومة قوية للأوهام والارتباطات العاطفية غير الصحية.
بالنسبة للمستخدمين، سيلاحظ الكثيرون تغيّرًا واضحًا في أسلوب ChatGPT، إذ أصبحت ردوده أكثر حيادية وأقل انخراطًا عاطفيًا، مع تشجيع على أخذ فترات راحة خلال الجلسات الطويلة. أما الآباء، فيمكنهم الآن الحصول على تنبيهات إذا كشف الذكاء الاصطناعي عن نية إيذاء النفس لدى أطفالهم، فيما تعمل الشركة على تطوير نظام للتحقق من العمر ونموذج مخصص للمراهقين.
تستعد OpenAI للاستمرار في تحسين مراقبة المحادثات المطوّلة، ومنع تصاعد الأفكار الخطرة أو غير المنطقية، كما تخطط لطرح أدوات أمان أقوى خلال الفترة المقبلة، إلى جانب خيارات جديدة للبالغين ضمن GPT-5.1. وفي الوقت نفسه تعمل الشركة داخليًا ضمن ما تسميه “Code Orange” لضمان تحقيق توازن بين المشاركة العالية والحفاظ على أعلى معايير السلامة. (“اليوم السابع”)
