الأخبار

شركة Google تطلق أدوات خصوصية تفاضلية للاحتفال بيوم خصوصية البيانات

يعد الذكاء الاصطناعي AI بتحويل- وقد قام بالفعل بتحويل- صناعات بأكملها، من التخطيط المدني والرعاية الصحية إلى الأمن السيبراني. لكن الخصوصية تظل تحديًا لم يتم حله. لتسليط الضوء على المشكلة، قبل عامين، أزالت Microsoft بهدوء مجموعة بيانات بها أكثر من 10 ملايين صورة لأشخاص بعد أن تبين أن بعض الأشخاص لم يكونوا على علم بإدراجهم في تلك البيانات.

تم اقتراح حل جزئي لمشكلة الخصوصية في الذكاء الاصطناعي وهو الخصوصية التفاضلية. تتضمن الخصوصية التفاضلية differential privacy حقن كمية صغيرة من الضوضاء في البيانات قبل إدخالها في نظام الذكاء الاصطناعي، مما يجعل من الصعب استخراج البيانات الأصلية من النظام. لا يستطيع أي شخص يرى تنبؤات نظام ذكاء اصطناعي خاص تفاضليًا معرفة ما إذا تم استخدام معلومات شخص معين لتطوير النظام.

في محاولة لجعل أدوات الخصوصية التفاضلية في متناول المزيد من الأشخاص، أعلنت Google اليوم عن توسيع مكتبة الخصوصية التفاضلية الحالية لتشمل لغة برمجة Python بالشراكة مع OpenMined، وهو مجتمع مفتوح المصدر يركز على تقنيات الحفاظ على الخصوصية. أصدرت الشركة أيضًا أداة خصوصية تفاضلية جديدة تدعي أنها تتيح للممارسين تصور وتحسين المعلمات المستخدمة لإنتاج معلومات خاصة تفاضلية، بالإضافة إلى تقنيات مشاركة الورق لتوسيع نطاق الخصوصية التفاضلية لمجموعات البيانات الكبيرة.
 
توسيع الخصوصية التفاضلية Expanding differential privacy
يصادف إعلان Google على حد سواء عام منذ أن بدأت التعاون مع OpenMined ويوم خصوصية البيانات Data Privacy Day، والذي يحيي ذكرى توقيع الاتفاقية 108 في يناير 1981، وهي أول معاهدة دولية ملزمة قانونًا تتعامل مع حماية البيانات. قامت Google بفتح مكتبة الخصوصية التفاضلية الخاصة بها - والتي تدعي الشركة أنها تستخدم في المنتجات الأساسية مثل خرائط Google - في سبتمبر 2019، قبل وصول وحدة Google التجريبية التي تختبر خصوصية نماذج الذكاء الاصطناعي.

كتب Miguel Guevara، قائد منتجات الخصوصية التفاضلية في Google، في منشور بالمدونة: "في عام 2019، أطلقنا إصدارنا مفتوح المصدر من مكتبة الخصوصية التفاضلية التأسيسية الخاصة بنا في C ++ و Java و Go. كان هدفنا أن نتحلى بالشفافية وأن نسمح للباحثين بفحص الكود الخاص بنا. لقد تلقينا قدرًا هائلاً من الاهتمام من المطورين الذين أرادوا استخدام المكتبة في تطبيقاتهم الخاصة، بما في ذلك الشركات الناشئة مثل Arkhn، والتي مكنت المستشفيات المختلفة من التعلم من البيانات الطبية بطريقة تحافظ على الخصوصية، والمطورين في أستراليا الذين سرعوا الاكتشاف العلمي من خلال بيانات خاصة يمكن إثباتها"، "منذ ذلك الحين، ونحن نعمل على مشاريع مختلفة وطرق جديدة لجعل الخصوصية التفاضلية أكثر سهولة في الوصول إليها واستخدامها".

تقول Google إن الدعم الجديد لمكتبة الخصوصية الاحترافية الخاصة بها لـ Python قد مكّن المؤسسات بالفعل من البدء في تجربة حالات استخدام جديدة، مثل عرض صفحات الويب الأكثر زيارة للموقع على أساس كل بلد "بطريقة مجمعة ومجهولة الهوية". كما هو الحال من قبل، يمكن استخدام المكتبة - التي تُكمل خصوصية TensorFlow، وهي أداة الخصوصية التفاضلية من Google والتي تم تعيينها لـ TensorFlow - مع محركات معالجة البيانات مثل أطر عمل Spark و Beam، مما قد يؤدي إلى مزيد من المرونة في النشر.
 
دعم متزايد Growing support
تعد Google من بين العديد من عمالقة التكنولوجيا الذين أصدروا أدوات خصوصية تفاضلية للذكاء الاصطناعي في السنوات الأخيرة. في مايو 2020، طرحت Microsoft برنامج SmartNoise، الذي تم تطويره بالتعاون مع باحثين في جامعة هارفارد. حتى لا يتفوق عليها، قامت Meta (المعروفة سابقًا باسم Facebook) مؤخرًا بفتح مكتبة PyTorch للخصوصية التفاضلية التي يطلق عليها اسم Opacus.

تؤكد الدراسات على الحاجة الملحة لتقنيات لإخفاء البيانات الخاصة في مجموعات البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي. أظهر الباحثون أنه حتى مجموعات بيانات الأشعة السينية "مجهولة المصدر anonymized" يمكنها الكشف عن هويات المرضى، على سبيل المثال. ومن المعروف أن نماذج اللغات الكبيرة مثل GPT-3 الخاصة بـ OpenAI، عند تغذية مطالبات معينة، تسريب أسماء وأرقام هواتف وعناوين وغير ذلك من مجموعات بيانات التدريب.