الأخبار

الأكاديميون : تدابير بناء الثقة Confidence-building measures ضرورية للاستخدام العسكري للذكاء الاصطناعي

نظرًا لأن ممارسة تقنية الذكاء الاصطناعي (AI) artificial intelligence أصبحت سائدة في حياتنا اليومية، فقد بدأت القوى العظمى في دمج أساليب التعلم الآلي machine learning في عملية بناء قواتها العسكرية.

ومع ذلك، فإن مجموعة المخاطر التي يمكن أن يولدها تطبيق الذكاء الاصطناعي أشعلت الجدل الدولي. وصف وزير الدفاع السنغافوري Ng Eng Hen الاستخدام العسكري للذكاء الاصطناعي العام الماضي بأنه "التأثير الكبير المحتمل للتدمير والاضطراب في عصرنا" في قمة تكنولوجيا الدفاع في سنغافورة. الذي عقد في 12 أكتوبر.

تناول العديد من الخبراء العسكريين أيضًا التهديدات المحتملة التي يشكلها الاندماج المتزايد للذكاء الاصطناعي في الأنظمة العسكرية.

قرر محررو تقرير مؤسسة RAND لعام 2020 أنه في حين أن تقنية الذكاء الاصطناعي التي تعمل على البيانات الضخمة والتعلم الآلي ستساعد في اتخاذ القرارات بشكل أسرع، فإن المنافسة الدولية يمكن أن تشجع البلدان على تسريع التنمية. ذكاء اصطناعي عسكري دون إيلاء الاهتمام الكافي للأمن والموثوقية والعواقب الإنسانية.

وقالوا إن تطوير الذكاء الاصطناعي ينطوي على مخاطر تتراوح بين وجهات النظر الأخلاقية والتشغيلية والاستراتيجية.

تنبع المخاطر التشغيلية من موثوقية وهشاشة وأمن أنظمة الذكاء الاصطناعي، في حين أن المخاطر الإستراتيجية يمكن أن تجتذب احتمالية نشوب حرب، وتؤدي إلى تفاقم النزاعات الجارية وتكاثر الجهات الفاعلة الخبيثة، وفقًا للتقرير. .

استمر تسليط الضوء على المخاوف الأخلاقية بسبب الأخطاء المحتملة التي يمكن أن ترتكبها تقنية الذكاء الاصطناعي- عندما تصنف برامج التعرف على الوجه المواطنين الأبرياء على أنهم مجرمون أو إرهابيون، على سبيل المثال.

وجد محررو التقرير استنادًا إلى تقييم العديد من التحقيقات، أنه حتى مع وجود نظام ذكاء اصطناعي متوازن، فإن قدرته على اتخاذ القرارات وسحق السيطرة البشرية تقلق المجتمع الدولي.

قال المحررون والزملاء المشاركون في برنامج التكنولوجيا والأمن القومي إن الاستخدام العسكري للذكاء الاصطناعي يشكل مخاطر كبيرة على الاستقرار الدولي لأنه يعيد تشكيل خصائص الحرب المستقبلية ويحرض على أعمال عسكرية غير متوقعة. لمركز الأمن الأمريكي الجديد (CNAS) Center for a New American Security في تقرير نُشر عام 2021.

يقول Michael Horowitz و Paul Scharre محررو تقرير CNAS: "إن إدراك المخاطر ليس كافياً". واقترحوا مناهج عملية تستكشف الاستخدام المحتمل لتدابير بناء الثقة (CBMs) Confidence Building Measures...

وأضافوا أن اعتماد CMB يتطلب "إجراءات أحادية وثنائية و / أو متعددة الأطراف يمكن أن تتخذها الدول لبناء الثقة ومنع النزاعات العسكرية غير المقصودة".

في هذا المجال، اقترحت الصين ورقة موقف بشأن تنظيم التطبيقات العسكرية للذكاء الاصطناعي في المؤتمر الاستعراضي السادس لاتفاقية الأمم المتحدة بشأن أسلحة تقليدية معينة في 13 ديسمبر 2021..

دعت الوثيقة إلى "رؤية أمنية عالمية مشتركة وشاملة وتعاونية ومستدامة" و "السعي إلى توافق في الآراء بشأن تنظيم التطبيقات العسكرية للذكاء الاصطناعي من خلال الحوار والتعاون، وإنشاء نظام حوكمة. فعالة من أجل تجنب الأضرار الجسيمة أو حتى الكوارث. بسبب التطبيقات العسكرية للذكاء الاصطناعي للبشرية.

كما يتفق هورويتز وشاري، فإن بناء تدابير بناء الثقة يعزز الاستقرار الدولي، واستكشاف طرق لتشكيل الحوار حول الذكاء الاصطناعي يمكن أن يزيد من احتمالية تبني تدابير بناء الثقة.

أظهرت ورقة الموقف الصينية عزمها على تعزيز حوكمة الأمن الدولي، بحسب لي سونغ Li Song، السفير الصيني لشؤون نزع السلاح.

وقال لي: "ستساعد مثل هذه الجهود على تعزيز الثقة المتبادلة بين الدول، والحفاظ على الاستقرار الاستراتيجي العالمي، ومنع سباق التسلح وتخفيف المخاوف الإنسانية. من أجل الإنسانية في مجال الذكاء الاصطناعي".