أعلنت شركة “أوبن أيه آي” الأمريكية عن إطلاق نموذجين جديدين للذكاء الاصطناعي، وهما مصممان خصيصًا لتحديد وتصنيف المخالفات والمخاطر الرقمية على المنصات الإلكترونية المختلفة. يحمل هذان النموذجان الاسمين: “gpt-oss-safeguard-120b” و “gpt-oss-safeguard-20b”.

وتعتبر هذه الإصدارات المطورة امتدادًا لسلسلة “gpt-oss” التي كشفت عنها الشركة في شهر آب/أغسطس الماضي. تتميز هذه النماذج بأنها “مفتوحة الوزن”، مما يعني أن بيانات التدريب والمعايير المستخدمة متاحة للجمهور، ولكن دون نشر الشيفرة البرمجية الكاملة كما هو الحال في النماذج مفتوحة المصدر.

تهدف النماذج الجديدة إلى تزويد الشركات والمطورين بمزيد من الشفافية والتحكم في طريقة تصنيف المحتوى، بما في ذلك التحريض أو الأخبار المضللة أو السلوك العدواني على الإنترنت. يمكن للمنصات تخصيص النماذج وفقًا لسياساتها الداخلية. على سبيل المثال، يمكن لموقع لمراجعات المنتجات اكتشاف التقييمات المزيفة، أو يمكن لمنتدى ألعاب فيديو تصنيف المنشورات التي تناقش أساليب الغش أو الاختراق.

تعتمد النماذج على ما تسميه الشركة “النمذجة القائمة على التفكير”، وهذا يعني أن الذكاء الاصطناعي يوضح للمستخدم الطريقة التي توصل بها إلى نتيجة معينة، مما يزيد من إمكانية التتبع والمساءلة.

تم تطوير هذه النماذج بالشراكة مع منصات وشركات تقنية، بما في ذلك: Discord و SafetyKit ومنظمة ROOST، وهي منظمة تركز على تطوير أدوات أمان مفتوحة المصدر. ستتوفر هذه النماذج مبدئيًا في نسخة بحثية تجريبية عبر منصة Hugging Face، مع دعوة الباحثين وخبراء السلامة لتجربة قدراتها وتقديم الملاحظات.

يرى المحللون أن هذه الخطوة تأتي لتعزيز صورة “أوبن أيه آي” في مجال أخلاقيات الذكاء الاصطناعي، وذلك بعد الانتقادات التي طالت توسعها التجاري السريع، في ظل تجاوز عدد مستخدمي تطبيقها الشهير ChatGPT 800 مليون مستخدم أسبوعيًا، وتقدير قيمة الشركة بنحو 500 مليار دولار.

وقالت كاميل فرانسوا: “مع تزايد قوة الذكاء الاصطناعي، يجب أن تتطور أدوات الأمان بنفس السرعة، وأن تكون متاحة للجميع”.

OpenAI, the American company, has announced the launch of two new artificial intelligence models, specifically designed to identify and classify digital violations and risks on various online platforms. These two models are named: “gpt-oss-safeguard-120b” and “gpt-oss-safeguard-20b”.

These developed versions are an extension of the “gpt-oss” series that the company unveiled last August. These models are characterized as “open weight,” meaning that the training data and standards used are available to the public, but without publishing the complete source code as in open source models.

The new models aim to provide companies and developers with more transparency and control over how content is classified, including incitement, misleading news, or aggressive behavior online. Platforms can customize the models according to their internal policies. For example, a product review site can detect fake reviews, or a video game forum can classify posts that discuss cheating or hacking methods.

The models rely on what the company calls “reasoning-based modeling,” meaning that artificial intelligence explains to the user how it arrived at a particular result, increasing traceability and accountability.

These models were developed in partnership with technology platforms and companies, including: Discord, SafetyKit, and ROOST, an organization focused on developing open source security tools. These models will initially be available in an experimental research version via the Hugging Face platform, inviting researchers and safety experts to test their capabilities and provide feedback.

Analysts believe that this step comes to enhance the image of “OpenAI” in the field of artificial intelligence ethics, after the criticism of its rapid commercial expansion, given that the number of users of its famous ChatGPT application exceeded 800 million users per week, and the company’s value is estimated at about 500 billion dollars.

Camille François said: “As the power of artificial intelligence grows, security tools must evolve at the same speed and be available to everyone.”