عنوان مقترح:</strong> الذكاء الاصطناعي: هل يغني عن المعالج النفسي؟</p>

مع تزايد اعتماد الناس على أدوات الذكاء الاصطناعي، مثل “ChatGPT”، للحصول على مشورة في مجال الصحة النفسية، عبّر عدد من الباحثين عن قلقهم المتزايد. إذ أظهرت دراسة حديثة أن هذه الأنظمة قد تعطي انطباعًا بأنها داعمة ومتعاطفة، إلا أنها غالبًا ما تفشل في الالتزام بالمعايير الأخلاقية الأساسية للعلاج النفسي الحقيقي.

أجرى فريق من جامعة براون بالتعاون مع متخصصين مرخصين في الصحة النفسية دراسة اختبرت فيها أداء روبوتات الدردشة في سيناريوهات تحاكي جلسات الإرشاد النفسي.

كشفت النتائج أن المشاكل تتعدى مجرد الأخطاء البسيطة. فقد فشلت بعض الأنظمة في التعامل مع المواقف الحساسة، بل عززت في بعض الأحيان أفكارًا ضارة، أو خلقت لدى المستخدمين شعورًا زائفًا بأن الطرف الآخر يتفهم مشاعرهم.

قام الباحثون بتحليل محادثات تجريبية بين مستشارين مدربين وأنظمة ذكاء اصطناعي طُلب منها القيام بدور معالجين يستخدمون العلاج السلوكي المعرفي. وبعد مراجعة هذه المحادثات من قِبَل 3 أخصائيين نفسيين، تم تحديد 15 خطرًا أخلاقيًا رئيسيًا، أبرزها عدم مراعاة السياق الشخصي للمستخدم، وتقديم نصائح عامة وغير واضحة، بالإضافة إلى ما وصفه الباحثون بـ “التعاطف الخادع”، حيث تبدو الردود ودودة ولكنها تفتقر إلى الفهم الحقيقي أو المسؤولية المهنية.

كما كشفت الدراسة عن مشاكل أخرى مثل التحيز المتعلق بالهوية أو الثقافة، وإخفاق بعض الأنظمة في إدارة الأزمات النفسية الخطيرة أو توجيه المستخدمين لطلب مساعدة متخصصة.

على الرغم من أن الباحثين لا يستبعدون إمكانية استخدام الذكاء الاصطناعي في المستقبل لدعم خدمات الصحة النفسية أو توسيع نطاق الوصول إليها، إلا أنهم يؤكدون أن الوصول إلى الدعم لا يعني بالضرورة الحصول على رعاية علاجية حقيقية. لذلك، يدعون إلى وضع معايير أخلاقية وقانونية واضحة قبل التوسع في استخدام هذه التقنيات في مجالات حساسة مثل العلاج النفسي.