
كريستال النوار
أن يتحدّث إنسانٌ إلى آلة عن رغبته بالموت… مشهدٌ لم يعد من خيالٍ علميّ. إذ كشفت شركة OpenAI، المالكة لـ ChatGPT، أنّ “حوالى 1.2 مليون مستخدم يتحدثون أسبوعيًّا مع الروبوت عن أفكارٍ انتحاريّة، وتتضمّن الرسائل مؤشّراتٍ صريحة على احتمال التخطيط أو النية للانتحار”. هذا الرقم الصّادم يكشف جانباً مُظلماً من العلاقة المتنامية بين الإنسان والذكاء الاصطناعي، قد تبدأ بالفضول وتنتهي بنداء استغاثة.
يُشير الخبير في التحوّل الرقمي والتكنولوجي فريد خليل، إلى أهمية الاطّلاع على كيفيّة عمل الذكاء الاصطناعي تقنيًّا لكي نفهم طبيعة أجوبته وعدم جهوزيّته للإستشارة النفسيّة.
ويوضح خليل في حديثٍ لموقع mtv أنّ “الذكاء الاصطناعي يُحاكي الذكاء البشري ولكنّه متقدّم عليه، لأنّه قادر على تحليل مجموعة كبيرة جدًّا من البيانات لا يُمكن لأي فرد أن يملكها ويجمعها، عند تقييم حالة معيّنة. ويعتمد الذكاء الاصطناعي بشكلٍ أساسي على مجموعة من المعلومات يجمعها عبر التاريخ والكتب والانترنت والإنسان بحدّ ذاته، كما أنّه يعتمد بشكلٍ كبير على الإنسان لناحية ما يطلب منه ويسأله”.
كذلك، فإنّ الذكاء الاصطناعي يعمل بشكلٍ أساسي على أنماط معيّنة (patterns) من المعلومات التي يملكها ويحفظها، ويُعطي من خلالها الجواب الذي يراه الأفضل، وفق خليل. هذا يعني أنّه في الحالات التقنيّة العادية يُمكن للروبوت أن يُعطي الجواب الأفضل، أمّا في الحالات الإنسانيّة فالموضوع يختلف. إذ يُشدّد الخبير التكنولوجي على أنّ “الإنسان الذي يسأل عن مواضيع تتعلّق بالسلوك العاطفي أو النفسي يُمكن أن يُعطي معلومات غير دقيقة أو ناقصة ما ينتج عنه عجز في تحديد الحالة النفسيّة بشكلٍ علمي وواضح. هنا يتّجه الذكاء الاصطناعي إلى أنماط معيّنة محفوظة لديه أو منتشرة عموماً على الانترنت، ليُعطي المُستخدم إجابات قد لا تُناسبه أو تكون خطيرة في بعض الأحيان”.
مع العلم أنّ الإنسان عندما يكون في حالةٍ عاطفيّة معيّنة، من المهمّ أن يخضع لاختبار سريري يعتمد على مراقبة لغة الجسد والسّلوك وحركة العينين مع نبرة الصّوت والكثير من التفاصيل التي لا يُمكن للذكاء الاصطناعي تمييزها كما يفعل الاختصاصي النفسي في عيادته.
بالإضافة إلى ذلك، يؤكّد خليل عجز الذكاء الاصطناعي عن التّعاطف مع المُستخدم الذي يُعاني من حالةٍ نفسيّة معيّنة ويلجأ إليه للمُساعدة. ويقول: “التعاطف الحقيقي غير موجود، الذكاء الاصطناعي يقلّده بالكلام ولكن الحسّ البشري لا يُمكن أن يخلقه الروبوت، وهذا قد لا يتمكّن الفرد المرهق نفسيًّا من ملاحظته ما يُمكن أن يؤدّي به إلى نتائج وخيمة”.
كما أنّ المعلومات التي يُعطيها الروبوت قد تكون غير دقيقة وتزيد من الخطر على الحالة النفسيّة السيّئة. إذ يوضح خليل: “حتّى في الأمور العلميّة، يُمكن أن يُعطي الذكاء الاصطناعي معلوماتٍ غير دقيقة مئة في المئة، تتطلّب تقييمها والتأكّد منها لوضعها في إطارها الصّحيح. فكيف الحال إذاً إذا كان الفرد بحالة نفسيّة غير جيّدة وعاجز عن التقييم والتفكير بشكلٍ طبيعي ليُحلّل المعلومات التي تصله”.
هنا، لا بدّ من الإشارة إلى ما ورد في تقرير شركة OpenAI، أنّه بعد تقييم أكثر من 1000 محادثة للمُستخدمين مع أحدث نماذجها تتعلّق بإيذاء النفس والانتحار، وجدت الشركة أنّ الروبوت يتصرّف وفق السلوك المرغوب فيه بنسبة 91 في المئة. وقد ينصح ChatGPT أو الروبوت المُستخدم بالاتصال بخطّ المُساعدة عند ذكر نية الانتحار للمرّة الأولى، لكن بعد تبادل الرسائل لفترةٍ طويلة قد يقدّم في النهاية إجابة تتعارض مع إجراءات الحماية لديه.
التحيّز أيضاً يُعتبر من مساوئ الذكاء الاصطناعي المعروفة. فكلّ برنامج مدرّب على مجموعةٍ من المعلومات قد تكون ناقصة ما ينتج عنه تحيّزٌ أو دفعٌ للمُستخدم نحو اتّخاذ قرار معيّن يُفرض عليه، وهذا خطر، وفق خليل، الذي يُحذّر من أنّ البرنامج المُعتمَد على الذكاء الاصطناعي والمُستخدَم من قبل الفرد قد يكون خارجاً عن الرقابة ويُمكن أن يُشكّل فخًّا لهؤلاء الاشخاص ويؤثّر عليهم لدرجةٍ هائلة.
أين الخصوصيّة؟ “غير موجودة”. مَن يُحاسب الذكاء الاصطناعي؟ “ما حدا”.
التكنولوجيا، مهما بلغت من تطوّر، لا تستطيع أن تحلّ مكان الإنسان. فحين يلجأ الملايين إلى روبوت محادثة بحثاً عن عزاءٍ أو خلاص من صديق أو مقرّب أو اختصاصي، يُصبح السؤال الحقيقي ليس عمّا يُمكن للذكاء الاصطناعي أن يفعله، بل عمّا وصل إليه الإنسان ليبحث عن التعاطف في آلة.