لبنان اليوم

أعلنت شركة “أوبن أيه آي” الأمريكية عن إطلاق نموذجين جديدين للذكاء الاصطناعي، وهما مصممان خصيصًا لتحديد وتصنيف المخالفات والمخاطر الرقمية على المنصات الإلكترونية المختلفة. يحمل هذان النموذجان الاسمين: “gpt-oss-safeguard-120b” و “gpt-oss-safeguard-20b”.

وتعتبر هذه الإصدارات المطورة امتدادًا لسلسلة “gpt-oss” التي كشفت عنها الشركة في شهر آب/أغسطس الماضي. تتميز هذه النماذج بأنها “مفتوحة الوزن”، مما يعني أن بيانات التدريب والمعايير المستخدمة متاحة للجمهور، ولكن دون نشر الشيفرة البرمجية الكاملة كما هو الحال في النماذج مفتوحة المصدر.

تهدف النماذج الجديدة إلى تزويد الشركات والمطورين بمزيد من الشفافية والتحكم في طريقة تصنيف المحتوى، بما في ذلك التحريض أو الأخبار المضللة أو السلوك العدواني على الإنترنت. يمكن للمنصات تخصيص النماذج وفقًا لسياساتها الداخلية. على سبيل المثال، يمكن لموقع لمراجعات المنتجات اكتشاف التقييمات المزيفة، أو يمكن لمنتدى ألعاب فيديو تصنيف المنشورات التي تناقش أساليب الغش أو الاختراق.

تعتمد النماذج على ما تسميه الشركة “النمذجة القائمة على التفكير”، وهذا يعني أن الذكاء الاصطناعي يوضح للمستخدم الطريقة التي توصل بها إلى نتيجة معينة، مما يزيد من إمكانية التتبع والمساءلة.

تم تطوير هذه النماذج بالشراكة مع منصات وشركات تقنية، بما في ذلك: Discord و SafetyKit ومنظمة ROOST، وهي منظمة تركز على تطوير أدوات أمان مفتوحة المصدر. ستتوفر هذه النماذج مبدئيًا في نسخة بحثية تجريبية عبر منصة Hugging Face، مع دعوة الباحثين وخبراء السلامة لتجربة قدراتها وتقديم الملاحظات.

يرى المحللون أن هذه الخطوة تأتي لتعزيز صورة “أوبن أيه آي” في مجال أخلاقيات الذكاء الاصطناعي، وذلك بعد الانتقادات التي طالت توسعها التجاري السريع، في ظل تجاوز عدد مستخدمي تطبيقها الشهير ChatGPT 800 مليون مستخدم أسبوعيًا، وتقدير قيمة الشركة بنحو 500 مليار دولار.

وقالت كاميل فرانسوا: “مع تزايد قوة الذكاء الاصطناعي، يجب أن تتطور أدوات الأمان بنفس السرعة، وأن تكون متاحة للجميع”.