قام مؤيدو Artificial Intelligence (AI) التوليدي بدفع عجلة الابتكار التكنولوجي إلى الأمام، مما أدى إلى تمكين أدوات Deepfake غير القانونية وجعلها في متناول الأفراد العاديين. مؤخرًا، ظهرت إعلانات غير لائقة على الشريط الجانبي للمواقع الإلكترونية الشهيرة وبين منشورات Facebook، تتضمن صورًا مزيفة وغير واقعية لشخصيات عامة تم تداولها بشكل واسع.
وقد أثرت هذه المشكلة بشكل مباشر على حياة المستخدمين، بما في ذلك الشباب، حيث تسربت من الفضاء الإلكتروني إلى الواقع. ومن هذا المنطلق، يُعتبر مطورو وموزعو تقنيات الذكاء الاصطناعي متورطين في هذا الأمر بطريقة أو بأخرى.
في المقابل، تعمل الحكومات على معالجة هذه الظاهرة من خلال سن القوانين والتشريعات، في حين تحاول شركات التكنولوجيا إيجاد توازن بين مسؤوليتها تجاه المستخدمين وبين الحاجة إلى الاستمرار في الابتكار. ولكن محاربة Deepfake ليست بالمهمة السهلة؛ فهذه التكنولوجيا تعتمد على تقنيات متقدمة، مما يجعل من الصعب كشفها أو محاربتها بسياسات مؤسسية بسيطة.
تُعد مشكلة Deepfake إحدى أكبر التحديات في العصر الرقمي؛ فهي ليست مجرد معضلة تقنية، بل أخلاقية أيضًا. هناك صعوبة كبيرة في الكشف عن التزييف العميق وتحديد مصدره، بالإضافة إلى الخلافات حول من يتحمل المسؤولية.
وتحارب منظمات الحقوق المدنية السيبرانية مثل Cyber Civil Rights Organization مشكلة توزيع الصور الخاصة بدون موافقة، المعروفة اختصارًا بـ NDII. ويُعرّف Deepfake على أنه أي صورة أو مقطع فيديو مُعدل يُظهر شخصًا حقيقيًا في سلوك زائف.
وبالرغم من أن NDII لا ترتبط دائمًا بالذكاء الاصطناعي، فإن أدوات Generative AI أصبحت مرتبطة بقوة بإنشاء التزييف العميق. وقد ظهر مصطلح Deepfake لأول مرة في عام 2017 للإشارة إلى أي تعديل بصري أو صوتي معتمد على الذكاء الاصطناعي. ويشمل هذا التعديل إما تغييرات طفيفة أو خلق شخصيات مزيفة بالكامل.
يمكن استخدام هذه الصور المُعدلة لأغراض إساءة الاستخدام. ولكن تنظيم ومراقبة إنشاء هذه الصور أمر ممكن من خلال السياسات والقيود التي تُفرض على أدوات الذكاء الاصطناعي. وبالإمكان حظر هذه الأدوات أو تقييد استخدامها بالمسؤوليات الجنائية أو المدنية على من يصنعها أو يوزعها.
بعض الشركات اختارت أن تتعامل مع Deepfake بطرق مختلفة؛ فقد اعتبرته بعض الشركات جريمة يجب التعامل معها من خلال المراقبة المباشرة، بينما اعتبرته شركات أخرى انتهاكًا لشروط الخدمة. وهناك شركات تعتقد أنه ببساطة ليس من مسؤوليتها.
سياسات الشركات الكبرى تجاه Deepfake
فيما يلي نظرة على كيفية تعامل بعض الشركات الكبرى مع Deepfake والسياسات التي تبنتها في هذا الصدد:
1. Apple
وضعت Apple ومتجر التطبيقات الخاص بها تحت المراقبة بسبب السماح لبعض تطبيقات Deepfake المسيئة. وعلى الرغم من أن سياسات Apple App Store ليست واضحة تمامًا مثل منافسيها مثل Google Play، فإن الشركة قد عززت سياساتها لمكافحة المحتوى المسيئ في إعلاناتها وقواعد متجرها.
في المقابل، واجهت Apple اتهامات بالتقصير في التعامل مع انتشار مواد مسيئة على سواء الحقيقية أو الناتجة عن الذكاء الاصطناعي. وبإطلاق Apple Intelligence قريبًا، من المتوقع أن تثار المزيد من الأسئلة حول كيفية تعامل الشركة مع الرقابة على هذا النوع من المحتوى.
ذكرت Apple في موقعها الرسمي أن تطبيق Apple News لا يسمح بأي محتوى إعلاني يروج لمواضيع موجهة للبالغين أو محتوى مسيئ. كما أن متجر التطبيقات يمنع المحتوى المسيئ أو التطبيقات التي تسهل الاتجار بالبشر.
2. Google
تلعب Google دورًا متعدد الأبعاد، كونها مضيفًا ومطورًا للصور الاصطناعية في الوقت ذاته. أعلنت الشركة عن تغييرات كبيرة في سياساتها للحد من وصول ونشر المحتوى الاصطناعي غير المقبول عبر Google Search، حيث يتم خفض تصنيف المواد المسيئة المُنشأة بالذكاء الاصطناعي في نتائج البحث.
أوضحت Google في سياستها أن الإعلانات التجارية لا يمكن أن تروج للخدمات التي تنشئ أو توزع محتوى مسيئ صريح أو مواد غير مقبولة مُنشأة بواسطة الذكاء الاصطناعي. كما يتوجب على المطورين في Google Play التأكد من أن تطبيقات الذكاء الاصطناعي لا تنتج محتوى مسيئًا.
3. YouTube
باعتبارها منصة محتوى ضخمة، ركزت YouTube على مراقبة الفيديوهات التي يرفعها المستخدمون، وأطلقت آليات فعّالة للإبلاغ عن محتويات Deepfake. وفي سياساتها، أكدت YouTube على منع المحتوى المسيئ والمُعدل.
كما تطلب المنصة من منشئي المحتوى الكشف عن المواد المُنشأة بواسطة الذكاء الاصطناعي عندما تكون واقعية بشكل كبير، حتى لا يختلط الأمر على المشاهدين.
4. Microsoft
تقدم Microsoft أدوات Generative AI الخاصة بها مثل Bing Image Creator و Copilot. وفي سبتمبر 2023، قامت الشركة بتحديث سياساتها لحماية المستخدمين من إساءة استخدام الذكاء الاصطناعي، مؤكدة على منع مشاركة أو إنشاء صور مسيئة باستخدام Deepfake دون موافقة الأطراف المعنية.
أصدرت Microsoft سياسة جديدة في يوليو 2023 تقدم توصيات لصانعي السياسات للمساعدة في حماية المستخدمين.
5. OpenAI
تُعتبر OpenAI من الأسماء الرائدة في مجال الذكاء الاصطناعي، حيث تُدمج نماذجها في العديد من أدوات Generative AI حول العالم. تفرض OpenAI شروط استخدام صارمة لحماية المستخدمين من التزييف العميق، حيث تمنع استخدام خدماتها لإيذاء الآخرين أو التلاعب بصورهم.
6. Meta
اعتبارًا من يناير 2023، فرضت Meta على المعلنين الإفصاح عن استخدام الذكاء الاصطناعي في الإعلانات على Facebook و Instagram. تواصل Meta جهودها في مكافحة Deepfake من خلال سياسات واضحة تمنع استخدامه لخداع المستخدمين.
7. TikTok
في مايو 2023، أعلنت TikTok أنها ستبدأ في وضع علامات على المحتويات المُنشأة بالذكاء الاصطناعي مثل الصور والفيديوهات التي ينشرها المستخدمون. وتمنع المنصة المحتوى الاصطناعي الذي يشبه شخصيات معروفة أو يظهر شخصية عامة تدعم منتجًا.
8. X (Twitter)
تختلف منصة X عن غيرها من المنصات، حيث قامت في مايو 2023 بتحديث سياساتها لتسمح بمشاركة محتوى الكبار بشرط موافقة الأطراف المعنية. ومع ذلك، تمنع المنصة نشر أو مشاركة صور أو مقاطع فيديو مسيئة لشخص ما دون موافقته باستخدام Deepfake.
Deepfake يمثل تحديًا تقنيًا وأخلاقيًا لشركات التكنولوجيا الكبرى، وما زالت الجهود مستمرة للحد من انتشاره وحماية المستخدمين من التلاعب باستخدام هذه التقنية.