لبنان اليوم

كشفت دراسة حديثة عن مفارقة تبعث على القلق في مجال الذكاء الاصطناعي، حيث أظهرت أن النماذج الأكثر تطوراً وقدرة على التحليل العميق تميل إلى أن تكون “أقل تعاوناً وأكثر أنانية”، مما يثير تساؤلات جدية حول تأثيرها المحتمل على القرارات الاجتماعية والأخلاقية.

أجرى هذا البحث فريق متخصص من جامعة “كارنيجي ميلون” العريقة، حيث قاموا باختبار سلوك نماذج الذكاء الاصطناعي اللغوية الضخمة في إطار محاكاة تفاعلات التعاون البشري. اعتمد الباحثون على ألعاب اقتصادية مصممة خصيصاً لدراسة السلوك الاجتماعي، وعلى رأسها لعبة “السلع العامة” التي تقيس مدى الرغبة في التعاون لتحقيق منفعة جماعية.

وقد أظهرت هذه التجارب نتائج لافتة:

  • النماذج البسيطة التي تفتقر إلى القدرة على التفكير المعقد ساهمت بنسبة 96% من نقاطها.
  • بينما لم تساهم النماذج المتقدمة القادرة على الاستدلال المنطقي إلا بنسبة 20% من الوقت.
  • والمثير للدهشة أن أساليب التحفيز الأخلاقي أدت إلى انخفاض التعاون بنسبة 58%.

الأمر الأكثر إثارة للقلق هو أن السلوك الأناني الذي أظهرته النماذج المتقدمة كان “معدياً”، حيث تسبب وجودها في مجموعات مختلطة في تقليل مستوى التعاون الجماعي بنسبة تتجاوز 80%.

وحذر البروفيسور هيروكازو شيرادو من أن “الناس يثقون أكثر بالذكاء الاصطناعي المفكر لأنه يبدو منطقياً”، إلا أن هذه الثقة قد تكون في غير محلها عندما تقدم هذه النماذج نصائح تخدم مصالحها الذاتية على حساب الصالح العام.

ويدعو الباحثون إلى إجراء تغيير جذري في طريقة تطوير الذكاء الاصطناعي، بحيث يتم التركيز على “الذكاء الاجتماعي” الذي يعلم الأنظمة كيفية التعاون والتعاطف والتصرف بأخلاقية، بدلاً من مجرد تطوير القدرات المنطقية. ويؤكد طالب الدكتوراه يوكسوان لي على أن “أنظمة الذكاء الاصطناعي التي تساعدنا يجب أن تتجاوز مجرد السعي لتحقيق مكاسب فردية”. (Knowridge)