الأخبار

كيف يصنع الذكاء الاصطناعي عالمًا أكثر أمانًا عبر الإنترنت

من التنمر الإلكتروني على وسائل التواصل الاجتماعي social media cyberbullying إلى الاعتداء في metaverse، يمكن أن يكون الإنترنت مكانًا خطيرًا. يعد الإشراف على المحتوى عبر الإنترنت أحد أهم الطرق التي يمكن للشركات من خلالها جعل منصاتها أكثر أمانًا للمستخدمين.

ومع ذلك، فإن تعديل المحتوى ليس بالمهمة السهلة. حجم المحتوى على الإنترنت مذهل. يجب على الوسطاء التعامل مع كل شيء من خطاب الكراهية والدعاية الإرهابية إلى العري والدماء. تتفاقم "البيانات الزائدة data overload" في العالم الرقمي فقط من خلال حقيقة أن الكثير من المحتوى يتم إنشاؤه بواسطة المستخدم ويمكن أن يكون من الصعب تحديده وتصنيفه.
 
الذكاء الاصطناعي لاكتشاف الكلام الذي يحض على الكراهية تلقائيًا
وهنا يأتي دور الذكاء الاصطناعي Artificial Intelligence AI. باستخدام خوارزميات التعلم الآلي machine learning algorithms لتحديد المحتوى وتصنيفه، يمكن للشركات تحديد المحتوى غير الآمن بمجرد إنشائه، بدلاً من الانتظار لساعات أو أيام للمراجعة البشرية، وبالتالي تقليل عدد الأشخاص المعرضين للمحتوى غير الآمن.

على سبيل المثال، يستخدم تويتر Twitter الذكاء الاصطناعي AI لتحديد الدعاية الإرهابية وإزالتها من منصته. يشير AI إلى أكثر من نصف التغريدات التي تنتهك شروط الخدمة، في حين جعل الرئيس التنفيذي باراغ أغراوال Parag Agrawal تركيزه على استخدام الذكاء الاصطناعي لتحديد خطاب الكراهية والمعلومات المضللة. ومع ذلك، يجب القيام بالمزيد، حيث لا تزال السمية متفشية على المنصة.

وبالمثل، يكتشف الذكاء الاصطناعي في Facebook ما يقرب من 90% من خطاب الكراهية الذي تمت إزالته بواسطة النظام الأساسي، بما في ذلك العري والعنف والمحتويات الأخرى التي يحتمل أن تكون مسيئة. ومع ذلك، مثل Twitter، لا يزال أمام Facebook طريق طويل لنقطعه.
 
أين يذهب الذكاء الاصطناعي بشكل خاطئ
على الرغم من وعده، يواجه الإشراف على المحتوى المستند إلى الذكاء الاصطناعي العديد من التحديات. أحدها هو أن هذه الأنظمة غالبًا ما تحدد عن طريق الخطأ المحتوى الآمن على أنه غير آمن، مما قد يكون له عواقب وخيمة. على سبيل المثال، وضع Facebook علامة على المقالات الإخبارية الشرعية حول فيروس كورونا كرسائل غير مرغوب فيها في بداية الوباء. لقد حظرت عن طريق الخطأ صفحة فيسبوك للحزب الجمهوري لأكثر من شهرين.

ومع ذلك، فإن المشكلة صعبة. يمكن أن يكون للفشل في الإبلاغ عن المحتوى آثار أكثر خطورة. نشر الرماة في حادثتي إطلاق النار في El Paso و Gilroy نواياهم العنيفة على 8chan و Instagram قبل الشروع في هجومهم. روبرت باورز Robert Bowers، المتهم بارتكاب المذبحة في كنيس يهودي في بيتسبرغ، كان نشطًا على موقع Gab، وهو موقع على تويتر يستخدمه أنصار التفوق الأبيض. تلقت المعلومات المضللة حول الحرب في أوكرانيا ملايين المشاهدات والإعجابات عبر Facebook و Twitter و YouTube و TikTok.

هناك مشكلة أخرى وهي أن العديد من أنظمة الاعتدال القائمة على الذكاء الاصطناعي تظهر تحيزات عنصرية تحتاج إلى معالجة من أجل إيجاد بيئة آمنة وقابلة للاستخدام للجميع.
 
تحسين الذكاء الاصطناعي للاعتدال Improving AI for moderation
لإصلاح هذه المشكلات، تحتاج أنظمة الإشراف بالذكاء الاصطناعي إلى بيانات تدريب عالية الجودة. اليوم، تقوم العديد من الشركات بالاستعانة بمصادر خارجية للبيانات لتدريب أنظمة الذكاء الاصطناعي الخاصة بها على مراكز الاتصال منخفضة المهارات وضعيفة التدريب في دول العالم الثالث. يفتقر هؤلاء المصممون إلى المهارات اللغوية والسياق الثقافي لاتخاذ قرارات اعتدال دقيقة. على سبيل المثال، ما لم تكن على دراية بالسياسة الأمريكية، فمن المحتمل أنك لن تعرف ما تشير إليه الرسالة التي تشير إلى "6 يناير" أو "Rudy and Hunter"، على الرغم من أهميتها للإشراف على المحتوى. إذا لم تكن متحدثًا أصليًا للغة الإنجليزية، فمن المحتمل أن تفرط في فهرسة المصطلحات البذيئة، حتى عندما يتم استخدامها في سياق إيجابي.

إحدى الشركات التي تحل هذا التحدي هي Surge AI، وهي منصة لتسمية البيانات مصممة لتدريب الذكاء الاصطناعي في الفروق الدقيقة في اللغة. تم تأسيسها من قبل فريق من المهندسين والباحثين الذين قاموا ببناء منصات الثقة والأمان على Facebook و YouTube و Twitter.

على سبيل المثال، واجه Facebook العديد من المشكلات المتعلقة بجمع بيانات عالية الجودة لتدريب أنظمة الإشراف الخاصة به على اللغات المهمة. على الرغم من حجم الشركة ونطاقها كمنصة اتصالات عالمية، إلا أنها بالكاد لديها محتوى كافٍ للتدريب والحفاظ على نموذج للغة العربية الفصحى، ناهيك عن عشرات اللهجات. أدى افتقار الشركة إلى قائمة شاملة للافتراءات السامة باللغات التي يتم التحدث بها في أفغانستان إلى فقدها للعديد من المنشورات المخالفة. كان يفتقر إلى نموذج خطاب الكراهية الأسامي، على الرغم من أن الموظفين وضعوا علامة على خطاب الكراهية باعتباره خطرًا كبيرًا في ولاية آسام، نظرًا لتزايد العنف ضد الجماعات العرقية هناك. هذه هي القضايا التي تساعد Surge AI في حلها، من خلال تركيزها على اللغات بالإضافة إلى مجموعات بيانات السمية والألفاظ النابية.

باختصار، مع مجموعات البيانات الأكبر والأعلى جودة، يمكن لمنصات الوسائط الاجتماعية تدريب خوارزميات أكثر دقة لتعديل المحتوى لاكتشاف المحتوى الضار، مما يساعد في الحفاظ عليها آمنة وخالية من إساءة الاستخدام. مثلما غذت مجموعات البيانات الكبيرة أحدث نماذج الجيل اللغوي اليوم، مثل GPT-3 من OpenAI، يمكنها أيضًا دعم ذكاء اصطناعي أفضل للاعتدال. باستخدام بيانات كافية، يمكن لنماذج التعلم الآلي أن تتعلم اكتشاف السمية بدقة أكبر، وبدون التحيزات الموجودة في مجموعات البيانات منخفضة الجودة.

لا يُعد الإشراف على المحتوى بمساعدة الذكاء الاصطناعي حلاً مثاليًا، ولكنه أداة قيمة يمكن أن تساعد الشركات في الحفاظ على أنظمتها الأساسية آمنة وخالية من الأذى. مع الاستخدام المتزايد للذكاء الاصطناعي، يمكننا أن نأمل في مستقبل يكون فيه عالم الإنترنت مكانًا أكثر أمانًا للجميع.