في خطوة مثيرة للجدل، تخطط شركة Meta للاعتماد بشكل كبير على الذكاء الاصطناعي (AI) في تقييم مخاطر منتجاتها، بدلاً من فرق المراجعة البشرية 👩💻🤖، بحسب تقرير حديث نشرته NPR.
📊 التقييم بالذكاء الاصطناعي بنسبة 90%
تشير الوثائق الداخلية التي اطلعت عليها NPR إلى أن Meta تهدف إلى أن تتم نحو 90٪ من تقييمات المخاطر باستخدام AI، حتى في المجالات الحساسة مثل:
- مخاطر المحتوى الموجه للشباب 👶
- مراجعة النزاهة (Integrity)، والتي تشمل العنف، المعلومات المضللة، والمحتوى الضار ⚠️
مع أن الهدف من الخطوة هو تسريع الإجراءات، إلا أن بعض الموظفين الحاليين والسابقين في Meta حذروا من أن AI قد يتغاضى عن مخاطر خطيرة قد يكتشفها البشر 👀.
🛠️ كيف تعمل المنظومة الجديدة؟
العملية تتم كالتالي:
➊ يقوم الفريق المطوّر بملء استبيان خاص بالمنتج 📝
➋ يتم إرسال الاستبيان إلى نظام الذكاء الاصطناعي للمراجعة الآلية 🤖
➌ يحصل الفريق على قرار فوري (Instant Decision) يحدد المجالات التي تحتوي على مخاطر 🔍
➍ يجب معالجة الملاحظات المطلوبة قبل إطلاق المنتج بشكل رسمي 🚀
🔍 هل المخاطر ستزداد؟
صرّح مسؤول سابق في Meta لـ NPR:
"تقليل التدقيق يعني خلق مخاطر أعلى... ومن المحتمل ألا يتم تدارك الآثار السلبية قبل أن تظهر في العالم".
ومع ذلك، أكدت Meta أنها لا تزال تعتمد على الخبرة البشرية لمعالجة القضايا الجديدة والمعقدة، بينما تترك القرارات ذات المخاطر المنخفضة للذكاء الاصطناعي فقط.
📉 تراجع في عدد المحتويات المحذوفة... ولكن!
جاء هذا التغيير بعد أيام فقط من إصدار تقارير النزاهة الفصلية من Meta، وهي الأولى منذ تعديل سياسات مراقبة المحتوى (Content Moderation) والتحقق من المعلومات (Fact-checking) في بداية هذا العام.
ولُوحظ انخفاض في عدد المنشورات التي تم حذفها، لكن مع تسجيل زيادة طفيفة في حالات التنمر، والتحرش، والمحتوى العنيف والرسومي 💢📈.
🎯 هل ترى أن الاعتماد على الذكاء الاصطناعي في مراجعة المخاطر قرار ذكي أم خطوة محفوفة بالمخاطر؟ شاركنا رأيك في التعليقات! 💬👇