قد تكون ويكيبيديا هي مصدر الانتقال في كل شيء تقريبًا هذه الأيام، ولكن وفقًا لـ Meta، فهي مليئة بالاقتباسات المراوغة وغير الدقيقة.
لكن لا تقلق، تقول الشركة إن الذكاء الاصطناعي الخاص بها موجود هنا للمساعدة، بعد أن طورت Sphere، وهو نموذج قادر على مسح مئات الآلاف من الاستشهادات في وقت واحد للتحقق مما إذا كانت تدعم بالفعل الادعاءات المقابلة.
تدعي Meta أنها أنشأت مجموعة بيانات جديدة من 134 مليون صفحة ويب عامة كمصدر للمعرفة للنموذج، والذي يقول إنه "ترتيب من حيث الحجم أكبر وأكثر تعقيدًا بكثير من أي وقت مضى يستخدم لهذا النوع من البحث".
لكن لا تقلق، تقول الشركة إن الذكاء الاصطناعي الخاص بها موجود هنا للمساعدة، بعد أن طورت Sphere، وهو نموذج قادر على مسح مئات الآلاف من الاستشهادات في وقت واحد للتحقق مما إذا كانت تدعم بالفعل الادعاءات المقابلة.
تدعي Meta أنها أنشأت مجموعة بيانات جديدة من 134 مليون صفحة ويب عامة كمصدر للمعرفة للنموذج، والذي يقول إنه "ترتيب من حيث الحجم أكبر وأكثر تعقيدًا بكثير من أي وقت مضى يستخدم لهذا النوع من البحث".
اقتباسات ميتا
يستخدم Sphere بيانات الويب المفتوحة بدلاً من محركات البحث التقليدية المسجلة الملكية مثل Google، وقد قام بالفعل بتجميع 134 مليون مستند من جميع أنحاء الويب.
تم تصميم Sphere باستخدام CCNet، وهو أحد أشكال الزحف المشترك، كما تقول Meta إن Sphere سيساعد الباحثين الآخرين في مجال الذكاء الاصطناعي الذين يعملون في مشاريع استرجاع المعرفة.
تقول Meta إن الهدف النهائي للمشروع هو بناء منصة لمساعدة محرري Wikipedia على اكتشاف مشكلات الاقتباس بشكل منهجي وإصلاح الاقتباس بسرعة أو تصحيح محتوى المقالة المقابلة على نطاق واسع.
وبحسب ما ورد، فإن الأداة تلفت الانتباه إلى الاستشهادات المشكوك فيها، مما يسمح للمحررين البشريين بتقييم الحالات التي يُرجح أن تكون معيبة دون الحاجة إلى التدقيق في آلاف البيانات التي تم الاستشهاد بها بشكل صحيح.
إذا بدا الاقتباس غير ذي صلة، تقول Meta إن نموذجها سيقترح مصدرًا أكثر قابلية للتطبيق، حتى أنه يشير إلى المقطع المحدد الذي يدعم الادعاء.
تأتي هذه الأخبار في الوقت الذي تبحث فيه ويكيبيديا عن طرق جديدة لزيادة الإيرادات بخلاف التبرعات.
أعلنت منصة Wikimedia Enterprise مؤخرًا أنها ستبدأ في فرض رسوم على شركات مثل Google و Amazon و Facebook التي تستخدم ويكيبيديا كمورد.
يمكنك الحصول على الكود المصدري للمشروع على GitHub هنا، ويمكن أيضًا للأطراف المهتمة قراءة النص الكامل لنتائج المشروع هنا أو الوصول إلى العرض التوضيحي هنا.