UCSD scientists developed a technique that fools deepfake detection systems
مع تطور تقنية deepfake، أصبح من الصعب بشكل متزايد معرفة متى يتم التلاعب بالفيديو. لحسن الحظ، طورت مجموعات مختلفة شبكات عصبية متطورة لاكتشاف الوجوه المزيفة. ومع ذلك، كشف علماء الكمبيوتر الأسبوع الماضي أن لديهم طريقة لخداع حتى أقوى نماذج الاكتشاف للاعتقاد بأن التزييف العميق حقيقي.
طور باحثون في جامعة كاليفورنيا، سان دييجو، تقنية يمكنها خداع الخوارزميات المدربة على اكتشاف مقاطع الفيديو المزيفة. باستخدام طريقة من خطوتين، يأخذ علماء الكمبيوتر مزيفًا عميقًا يمكن اكتشافه ثم يصنعون طبقة "مثال عدائي adversarial example" في كل إطار لإنشاء مزيف جديد لا يمكن اكتشافه فعليًا.
الأمثلة العدائية هي ببساطة صور تم التلاعب بها والتي تفسد نظام التعلم الآلي مما يؤدي إلى التعرف على الصورة بشكل غير صحيح. أحد الأمثلة على ذلك الذي رأيناه في الماضي هو الملصقات العدائية أو حتى الشريط الكهربائي المستخدم لخداع المركبات ذاتية القيادة في قراءة إشارات المرور بشكل خاطئ. ومع ذلك، على عكس تشويه إشارات المرور، فإن طريقة UCSD لا تغير المظهر المرئي للفيديو الناتج. هذا الجانب مهم لأن الهدف هو خداع كل من برنامج الكشف والمشاهد (انظر الفيديو أدناه).
أظهر الباحثون نوعين من الهجمات- "الصندوق الأبيض White Box" و "الصندوق الأسود Black Box". مع استغلال الصندوق الأبيض، يعرف الممثل السيئ كل شيء عن نموذج الكشف المستهدف. تحدث هجمات الصندوق الأسود عندما يكون المهاجم غير مدرك لبنية التصنيف المستخدمة. كلتا الطريقتين "قوية لبرامج ترميز ضغط الفيديو والصورة robust to video and image compression codecs" ويمكنهما خداع حتى أكثر أنظمة الكشف "الأكثر تطورًا state-of-the-art".
طور باحثون في جامعة كاليفورنيا، سان دييجو، تقنية يمكنها خداع الخوارزميات المدربة على اكتشاف مقاطع الفيديو المزيفة. باستخدام طريقة من خطوتين، يأخذ علماء الكمبيوتر مزيفًا عميقًا يمكن اكتشافه ثم يصنعون طبقة "مثال عدائي adversarial example" في كل إطار لإنشاء مزيف جديد لا يمكن اكتشافه فعليًا.
الأمثلة العدائية هي ببساطة صور تم التلاعب بها والتي تفسد نظام التعلم الآلي مما يؤدي إلى التعرف على الصورة بشكل غير صحيح. أحد الأمثلة على ذلك الذي رأيناه في الماضي هو الملصقات العدائية أو حتى الشريط الكهربائي المستخدم لخداع المركبات ذاتية القيادة في قراءة إشارات المرور بشكل خاطئ. ومع ذلك، على عكس تشويه إشارات المرور، فإن طريقة UCSD لا تغير المظهر المرئي للفيديو الناتج. هذا الجانب مهم لأن الهدف هو خداع كل من برنامج الكشف والمشاهد (انظر الفيديو أدناه).
أظهر الباحثون نوعين من الهجمات- "الصندوق الأبيض White Box" و "الصندوق الأسود Black Box". مع استغلال الصندوق الأبيض، يعرف الممثل السيئ كل شيء عن نموذج الكشف المستهدف. تحدث هجمات الصندوق الأسود عندما يكون المهاجم غير مدرك لبنية التصنيف المستخدمة. كلتا الطريقتين "قوية لبرامج ترميز ضغط الفيديو والصورة robust to video and image compression codecs" ويمكنهما خداع حتى أكثر أنظمة الكشف "الأكثر تطورًا state-of-the-art".
أثارت تقنية Deepfakes قدرا كبيرا من الجدل منذ ظهورها على الإنترنت قبل بضع سنوات. في البداية، كان المشاهير في المقام الأول غاضبين من ظهور صورهم في مقاطع الفيديو الإباحية. ومع ذلك، مع تحسن التكنولوجيا، أصبح من الواضح أن الجهات الفاعلة السيئة أو الدول المارقة يمكن أن تستخدمها للدعاية أو لأغراض شائنة.
كانت الجامعات أول من طور خوارزميات لاكتشاف التزييف العميق، وتبعتها بسرعة وزارة الدفاع الأمريكية. طور العديد من عمالقة التكنولوجيا، بما في ذلك Twitter و Facebook و Microsoft، طرقًا لاكتشاف التزييف العميق على منصاتهم. يقول الباحثون إن أفضل طريقة لمكافحة هذه التقنية هي القيام بتدريب الخصم على أنظمة الكشف.
أوضح المؤلف المشارك Paarth Neekhara في الورقة البحثية للفريق: "نوصي بأساليب مشابهة للتدريب العدواني لتدريب أجهزة كشف التزييف العميق القوية". "أي، أثناء التدريب، يواصل الخصم التكيفي إنتاج تقنية Deepfakes جديدة يمكنها تجاوز الحالة الحالية للكاشف ويستمر الكاشف في التحسن من أجل اكتشاف التزييف العميق الجديد".
نشرت المجموعة عدة أمثلة لعملها على GitHub. للمهتمين بتفاصيل التقنية، تحقق من الورقة المنشورة من خلال arXivLabs من Cornell.
كانت الجامعات أول من طور خوارزميات لاكتشاف التزييف العميق، وتبعتها بسرعة وزارة الدفاع الأمريكية. طور العديد من عمالقة التكنولوجيا، بما في ذلك Twitter و Facebook و Microsoft، طرقًا لاكتشاف التزييف العميق على منصاتهم. يقول الباحثون إن أفضل طريقة لمكافحة هذه التقنية هي القيام بتدريب الخصم على أنظمة الكشف.
أوضح المؤلف المشارك Paarth Neekhara في الورقة البحثية للفريق: "نوصي بأساليب مشابهة للتدريب العدواني لتدريب أجهزة كشف التزييف العميق القوية". "أي، أثناء التدريب، يواصل الخصم التكيفي إنتاج تقنية Deepfakes جديدة يمكنها تجاوز الحالة الحالية للكاشف ويستمر الكاشف في التحسن من أجل اكتشاف التزييف العميق الجديد".
نشرت المجموعة عدة أمثلة لعملها على GitHub. للمهتمين بتفاصيل التقنية، تحقق من الورقة المنشورة من خلال arXivLabs من Cornell.