الأخبار

تحذيرات من الاستخدام المتزايد لتقنية "التزييف العميق" في عالم الجريمة

حذرت وكالة الشرطة الأوروبية "Europol"، الخميس، من انتشار استخدام تقنية "التزييف العميق deep fake" في عالم الجريمة، مشيرة إلى خطورة هذا الأمر وضرورة مكافحته.

قالت يوروبول إن القدرة على جعل الناس يظهرون على الإنترنت ليقولوا أو يفعلوا أشياء لم يسبق لهم قولها أو فعلها، أو انتحال شخصيات جديدة تمامًا، يمكن أن يكون لها تأثير مدمر إذا وقعت التكنولوجيا في الأيدي الخطأ.

وأضافت الوكالة التي تتخذ من لاهاي مقرا لها أن انتشار "المعلومات المضللة والتزييف العميق سيكون له تأثير عميق على طريقة رؤية الناس للسلطة ووسائل الإعلام".

نشرت الوكالة الأوروبية تقريرًا من 23 صفحة يدرس آثار استخدام الذكاء الاصطناعي والتكنولوجيا المزيفة العميقة على العالم الإجرامي، بما في ذلك تقويض ثقة الناس بالسلطة والحقائق الرسمية.

وذكر التقرير أن "الخبراء يخشون أن يؤدي ذلك إلى وضع لا يمتلك فيه المواطنون حقيقة مشتركة، أو يخلق ارتباكًا في المجتمع حول أي وسائل إعلام يمكن الوثوق بها، وهو الوضع الذي يطلق عليه أحيانًا (نهاية عالم المعلومات) أو ( اللامبالاة بالحقيقة) ".

يمكن للمجرمين أيضًا استخدام تقنية "التزييف العميق" لابتزاز الأشخاص عبر الإنترنت، في أمور غير أخلاقية، أو إنتاج مواد مزيفة وتزوير الأدلة الإلكترونية المتعلقة بالتحقيقات القانونية والتلاعب بها. عالم الأعمال ليس بمنأى عن هذا الخطر.

أعطت الوكالة مثالاً على ذلك باستخدام مجرمين يستخدمون تقنية "التزييف العميق" لتقليد صوت رئيس تنفيذي لشركة ليأمر موظفًا بتحويل 35 مليون دولار.

وقالت وكالة الشرطة الأوروبية: "هذا يجعل من الضروري أن تكون على دراية بهذا النوع من التلاعب، وأن تكون مستعدًا للتعامل مع هذه الظاهرة والتمييز بين الاستخدام الجيد والخبيث لهذه التكنولوجيا".

على الرغم من أن البشر لا يزالون قادرين على اكتشاف الصور المزيفة عن طريق الملاحظة في كثير من الحالات، فقد تطورت تقنيات التزييف وأصبح الاكتشاف صعبًا بشكل متزايد.

ابتكرت العديد من شركات التكنولوجيا أنظمة لمنع "التزييف العميق"، بما في ذلك Meta، التي تمتلك Facebook و Instagram و Tik Tok و Reddit و YouTube.

وأشار يوروبول إلى أن "صناع السياسات ووكالات إنفاذ القانون بحاجة إلى تقييم السياسات والممارسات الحالية وتكييفها حتى نكون مستعدين للتعامل مع الواقع الجديد للتزييف العميق".
 
الحالات الأولى
ظهرت الحالة الأولى لهذه التقنية في عام 1997، عندما قام برنامج "Video Rewrite" بتحويل مقطع فيديو لشخص يتحدث عن موضوع معين إلى فيديو لنفس الشخص، ولكنه يتحدث عن موضوع آخر، وينطق كلمات جديدة لم تكن في الفيديو الأصلي.

عادة ما يتم استغلال هذه التقنية في المجال الأكاديمي في مجال الرؤية الاصطناعية التي تقوم على الذكاء الاصطناعي ولكن استخدامها لا يقتصر فقط على هذا المجال.

يرجع استخدام مصطلح deepfake إلى اسم مستخدم Reddit الذي شارك، في أواخر عام 2017، مقاطع فيديو مزيفة صنعها للمشاهير، وحققت مقاطع الفيديو هذه مشاهدات عالية.