
يحذر خبراء الأمن السيبراني من أن انتشار صور الرسوم الكاريكاتورية المولدة بالذكاء الاصطناعي، التي تعكس صورة ملونة لكل ما يعرفه روبوت الدردشة عن شخص ما، قد يشكل مخاطر أمنية جسيمة.
يقوم المستخدمون بتحميل صور شخصية لهم، وأحيانًا مع شعار الشركة أو تفاصيل وظائفهم، ويطلبون من روبوت الدردشة “ChatGPT” التابع لشركة “OpenAI” إنشاء رسوم كاريكاتورية لهم ولطبيعة عملهم بناءً على المعلومات المتوفرة لديه عنهم.
أخبر خبراء الأمن السيبراني “Euronews Next” أن تحديات وسائل التواصل الاجتماعي، مثل رسوم الذكاء الاصطناعي الكاريكاتورية، يمكن أن توفر للمحتالين كمية هائلة من المعلومات القيمة. صورة واحدة، مقترنة بتفاصيل شخصية، قد تكشف عن معلومات أكثر بكثير مما يتوقعه المستخدمون.
وفي هذا السياق، صرح بوب لونغ، نائب رئيس شركة “Daon” المتخصصة في التحقق من السن: “أنتم تقومون بعمل المحتالين نيابة عنهم؛ إذ تقدمون لهم تمثيلاً بصرياً واضحاً لهويتكم”.
وأشار إلى أن مجرد الطريقة التي يتم بها الترويج لهذا الاتجاه يجب أن تدق ناقوس الخطر، لأنها “تبدو كما لو أن محتالاً هو من أطلقها عمداً لتسهيل عمله”.
ماذا يحدث للصور بعد تحميلها؟
يوضح مستشار الأمن السيبراني جاك مور أنه عندما يقوم المستخدم بتحميل صورة إلى روبوت دردشة يعتمد على الذكاء الاصطناعي، يقوم النظام بمعالجة الصورة لاستخراج بيانات مثل مشاعر الشخص وبيئته والمعلومات التي قد تكشف عن موقعه الجغرافي، ثم يمكن تخزين هذه البيانات لفترة غير محددة.
ويرى لونغ أن الصور التي يتم جمعها من المستخدمين يمكن استخدامها والاحتفاظ بها لتدريب مولدات الصور العاملة بالذكاء الاصطناعي، كجزء من مجموعات البيانات الخاصة بها.
أي اختراق لبيانات شركة مثل “OpenAI” قد يعني أن بيانات حساسة، مثل الصور التي تم تحميلها والمعلومات الشخصية التي يجمعها روبوت الدردشة، قد تقع في أيدي جهات خبيثة يمكن أن تستغلها.
ووفقًا لشارلوت ويلسون، رئيسة قطاع الشركات في شركة الأمن السيبراني الإسرائيلية “Check Point”، فإن وقوع صورة واحدة عالية الدقة في الأيدي الخطأ قد يتيح إنشاء حسابات مزيفة على شبكات التواصل الاجتماعي، أو مقاطع “ديب فيك” مزيفة شديدة الواقعية يمكن استخدامها لتنفيذ عمليات احتيال.
وقالت: “صور السيلفي تساعد المجرمين على الانتقال من عمليات احتيال عامة إلى انتحال هوية شخصي ومقنع للغاية”.
تشير إعدادات الخصوصية لدى “OpenAI” إلى أن الصور التي يتم تحميلها قد تُستخدم لتحسين النموذج، بما في ذلك تدريبه. وعند سؤال “ChatGPT” عن إعدادات الخصوصية الخاصة بالنموذج، أوضح أن ذلك لا يعني أن كل صورة تُحفظ في قاعدة بيانات متاحة للعامة.
وأضاف روبوت الدردشة أنه بدلاً من ذلك يستخدم أنماط المحتوى الذي يقدمه المستخدمون لتحسين الطريقة التي يولد بها النظام الصور.
كيف تشاركون في صيحات الذكاء الاصطناعي بأمان؟
ينصح من يرغب في الاستمرار في متابعة هذه الصيحات بالحد قدر الإمكان مما يشاركه من بيانات.
تقول ويلسون إنه يجب على المستخدمين تجنب تحميل صور تكشف أي معلومات تعريفية عنهم، وأضافت: “اقطعوا الصورة بإحكام، واجعلوا الخلفية خالية من التفاصيل قدر الإمكان، ولا تظهروا شارات أو زياً رسمياً أو بطاقات تعريف عمل أو دلالات على الموقع أو أي شيء يربطكم بصاحب عملكم أو بعاداتكم اليومية”.
كذلك، حذرت ويلسون من مشاركة قدر مفرط من المعلومات الشخصية في مطالبات الاستخدام، مثل المسمى الوظيفي أو المدينة أو اسم صاحب العمل.
وفي السياق نفسه، ينصح مور بمراجعة إعدادات الخصوصية قبل المشاركة، بما في ذلك خيار استبعاد البيانات من تدريب نماذج الذكاء الاصطناعي.
تتيح بوابة الخصوصية لدى “OpenAI” للمستخدمين إيقاف استخدام بياناتهم في التدريب عبر اختيار خيار “do not train on my content”.
أيضاً، يمكن للمستخدمين تعطيل استخدام محادثاتهم النصية مع “ChatGPT” في التدريب، من خلال إيقاف إعداد “improve the model for everyone”.
وبموجب قانون حماية البيانات في الاتحاد الأوروبي، يحق للمستخدمين طلب حذف بياناتهم الشخصية التي تجمعها الشركة. غير أن “OpenAI” توضح أنها قد تحتفظ ببعض المعلومات حتى بعد حذفها، للتعامل مع قضايا الاحتيال وإساءة الاستخدام والمخاوف الأمنية. (euronews)