OpenAI تعزز أمان ChatGPT بتحديث رئيسي

لبنان اليوم

أجرت شركة OpenAI تحديثًا أمنيًا واسع النطاق بعد اكتشاف أن بعض النسخ السابقة من ChatGPT ساهمت في تعلق المستخدمين بالروبوت بشكل عاطفي، بل وأدت إلى حالات تدهور نفسي استدعت دخول المستشفى. لاحظت الشركة أن التحديثات الأخيرة جعلت الروبوت يبدو متملقًا عاطفيًا، ويشجع على محادثات مطولة وحميمة بشكل مفرط.

ووفقًا لما نشرته “صحيفة نيويورك تايمز”، أفاد عدد من المستخدمين بأن ChatGPT تعامل معهم كصديق مقرّب، يبالغ في المدح ويقدّم دعمًا نفسيًا غير متوازن.

وفي بعض الحالات النادرة ولكنها خطيرة، صدرت عن الروبوت نصائح مقلقة شملت تعزيز خيالات المستخدمين، والحديث عن محاكاة الواقع، والتواصل الروحي، بل وحتى أفكار مرتبطة بإيذاء النفس. كما أظهرت دراسة مشتركة بين “معهد MIT” و OpenAI أن المستخدمين الذين يعتمدون بشكل كبير على ChatGPT كانت صحتهم النفسية والاجتماعية أسوأ بشكل ملحوظ.

دفعت هذه المخاطر OpenAI إلى إعادة تصميم منظومة السلامة بالكامل، وإطلاق أدوات جديدة لرصد السلوكيات الخطرة، وطرح نموذج أكثر أمانًا هو GPT-5. وقد جاءت هذه الخطوة بعد مواجهة الشركة خمس دعاوى قضائية تتعلق بحالات وفاة قيل إن الروبوت شجّع أصحابها على اتخاذ قرارات خطيرة. الإصدار الأحدث من ChatGPT بات يقدم ردودًا أكثر واقعية وتوازنًا، مع مقاومة قوية للأوهام والارتباطات العاطفية غير الصحية.

بالنسبة للمستخدمين، سيلاحظ الكثيرون تغيّرًا واضحًا في أسلوب ChatGPT، إذ أصبحت ردوده أكثر حيادية وأقل انخراطًا عاطفيًا، مع تشجيع على أخذ فترات راحة خلال الجلسات الطويلة. أما الآباء، فيمكنهم الآن الحصول على تنبيهات إذا كشف الذكاء الاصطناعي عن نية إيذاء النفس لدى أطفالهم، فيما تعمل الشركة على تطوير نظام للتحقق من العمر ونموذج مخصص للمراهقين.

تستعد OpenAI للاستمرار في تحسين مراقبة المحادثات المطوّلة، ومنع تصاعد الأفكار الخطرة أو غير المنطقية، كما تخطط لطرح أدوات أمان أقوى خلال الفترة المقبلة، إلى جانب خيارات جديدة للبالغين ضمن GPT-5.1. وفي الوقت نفسه تعمل الشركة داخليًا ضمن ما تسميه “Code Orange” لضمان تحقيق توازن بين المشاركة العالية والحفاظ على أعلى معايير السلامة. (“اليوم السابع”)