ذكاء اصطناعي مسؤول، أخلاقي، جدير بالثقة. أطلق عليه ما تريد- إنه مفهوم من المستحيل تجاهله إذا كنت تهتم بصناعة التكنولوجيا. مع تقدم الذكاء الاصطناعي (AI) artificial intelligence وتطوره بسرعة، انضم المزيد والمزيد من الأصوات إلى الصراخ لضمان بقائه آمنًا. الإجماع شبه الكامل هو أن الذكاء الاصطناعي يمكن أن يصبح متحيزًا وغير أخلاقي وخطير بسهولة.
لمعالجة هذه القضية المتنامية باستمرار، أصدر البيت الأبيض مخططًا لقانون حقوق الذكاء الاصطناعي Blueprint for an AI Bill of Rights. يحدد هذا خمسة مبادئ يجب أن توجه تصميم واستخدام ونشر الأنظمة الآلية لحماية الأمريكيين في عصر الذكاء الاصطناعي.
إن المشكلات المتعلقة بالذكاء الاصطناعي موثقة جيدًا، كما يشير المخطط- من الأنظمة غير الآمنة في رعاية المرضى إلى الخوارزميات التمييزية المستخدمة في قرارات التوظيف والائتمان.
كما جاء في الكتاب: "مخطط ميثاق حقوق الذكاء الاصطناعي هو دليل لمجتمع يحمي جميع الناس من هذه التهديدات - ويستخدم التقنيات بطرق تعزز قيمنا العليا".
مخطط لتشريع حقوق الذكاء الاصطناعي - ليس بعيدًا بما يكفي
قاد الاتحاد الأوروبي الطريق نحو تحقيق مستقبل أخلاقي للذكاء الاصطناعي من خلال قانون الاتحاد الأوروبي للذكاء الاصطناعي المقترح. تطرق العديد من المنظمات أيضًا إلى مفهوم تطوير إطار عمل شامل.
لكن الولايات المتحدة تخلفت بشكل ملحوظ في المناقشة- قبل اليوم، لم تقدم الحكومة الفيدرالية أي إرشادات ملموسة بشأن حماية المواطنين من مخاطر الذكاء الاصطناعي، حتى عندما دعا الرئيس جو بايدن إلى حماية الخصوصية وجمع البيانات.
وما زال الكثيرون يقولون إن Blueprint، رغم أنها بداية جيدة، لا تذهب بعيدًا بدرجة كافية وليس لديها ما يلزم لاكتساب قوة دفع حقيقية.
قال جيمس هندلر، رئيس مجلس السياسة التكنولوجية لجمعية آلات الحوسبة (ACM) Association for Computing Machinery: "من المثير رؤية الولايات المتحدة تنضم إلى حركة دولية للمساعدة في فهم تأثير تقنيات الحوسبة الجديدة والسيطرة عليها، وخاصة الذكاء الاصطناعي، للتأكد من أن التقنيات تعزز المجتمع البشري بطرق إيجابية".
أشار هندلر، الأستاذ في معهد Rensselaer Polytechnic وأحد منشئي الويب الدلالي، إلى التصريحات الأخيرة بما في ذلك نداء روما لأخلاقيات الذكاء الاصطناعي Rome Call for AI Ethics، ولوائح الاتحاد الأوروبي المقترحة بشأن الذكاء الاصطناعي، وبيانات من لجنة الأمم المتحدة.
وقال إنهم "يطالبون جميعًا بمزيد من الفهم لتأثيرات الأنظمة المستقلة بشكل متزايد على حقوق الإنسان والقيم الإنسانية". "يعمل مجلس التكنولوجيا العالمي التابع لـ ACM مع اللجان الأعضاء لدينا لتحديث البيانات السابقة حول المساءلة الخوارزمية، حيث نعتقد أن تنظيم هذه التكنولوجيا يجب أن يكون جهدًا عالميًا، وليس وطنيًا فقط".
وبالمثل، نشرت رابطة العدالة الخوارزمية على صفحتها على تويتر أن المخطط هو "خطوة في الاتجاه الصحيح في الكفاح من أجل العدالة الخوارزمية". تجمع الرابطة بين الفن والبحث لزيادة الوعي العام بالعنصرية والتمييز على أساس الجنس والقدرات وغيرها من أشكال التمييز الضارة التي يمكن أن تكرسها الذكاء الاصطناعي.
يشير آخرون إلى حقيقة أن المخطط لا يتضمن أي توصيات بشأن القيود على استخدام الأشكال المثيرة للجدل من الذكاء الاصطناعي- مثل تلك التي يمكن أن تحدد الأشخاص في الوقت الحقيقي من خلال البيانات الحيوية أو صور الوجه. يشير البعض أيضًا إلى أنه لا يعالج القضية الحرجة المتمثلة في الأسلحة الفتاكة المستقلة أو المدن الذكية.
خمسة مبادئ أساسية
تحدث مكتب سياسة العلوم والتكنولوجيا (OSTP) Office of Science and Technology Policy التابع للبيت الأبيض، والذي يقدم المشورة للرئيس بشأن العلوم والتكنولوجيا، لأول مرة عن رؤيته للمخطط العام الماضي.
المبادئ الخمسة المحددة:
- أنظمة آمنة وفعالة: يجب حماية الناس من الأنظمة غير الآمنة أو غير الفعالة.
- الحماية من التمييز الخوارزمي: يجب ألا يواجه الناس تمييزًا من خلال الخوارزميات، ويجب استخدام الأنظمة وتصميمها بطريقة منصفة.
- خصوصية البيانات: يجب حماية الأشخاص من ممارسات البيانات المسيئة من خلال وسائل الحماية المضمنة وأن يكون لديهم وكالة على كيفية استخدام البيانات المتعلقة بهم.
- الإشعار والشرح: يجب أن يعرف الناس أنه يتم استخدام نظام آلي وأن يفهموا كيف ولماذا يساهم في النتائج التي تؤثر عليهم.
- البدائل البشرية، والاعتبارات والاحتياطات: يجب أن يكون الأشخاص قادرين على الانسحاب، عند الاقتضاء، والوصول إلى شخص يمكنه النظر بسرعة في المشكلات التي يواجهونها ومعالجتها.
المخطط مصحوب بكتيب، "من المبادئ إلى الممارسة"، مع "خطوات مفصلة نحو تحقيق هذه المبادئ في عملية التصميم التكنولوجي."
لقد تم تأطيرها بناءً على رؤى من الباحثين والتقنيين والمدافعين والصحفيين وصانعي السياسات، وتلاحظ أنه على الرغم من أن الأنظمة الآلية "جلبت فوائد غير عادية"، إلا أنها تسببت أيضًا في ضرر كبير.
ويخلص إلى أن "هذه المبادئ تساعد في توفير التوجيه كلما تمكنت الأنظمة الآلية من التأثير بشكل هادف على حقوق الجمهور أو الفرص أو الوصول إلى الاحتياجات الضرورية".
لمعالجة هذه القضية المتنامية باستمرار، أصدر البيت الأبيض مخططًا لقانون حقوق الذكاء الاصطناعي Blueprint for an AI Bill of Rights. يحدد هذا خمسة مبادئ يجب أن توجه تصميم واستخدام ونشر الأنظمة الآلية لحماية الأمريكيين في عصر الذكاء الاصطناعي.
إن المشكلات المتعلقة بالذكاء الاصطناعي موثقة جيدًا، كما يشير المخطط- من الأنظمة غير الآمنة في رعاية المرضى إلى الخوارزميات التمييزية المستخدمة في قرارات التوظيف والائتمان.
كما جاء في الكتاب: "مخطط ميثاق حقوق الذكاء الاصطناعي هو دليل لمجتمع يحمي جميع الناس من هذه التهديدات - ويستخدم التقنيات بطرق تعزز قيمنا العليا".
مخطط لتشريع حقوق الذكاء الاصطناعي - ليس بعيدًا بما يكفي
قاد الاتحاد الأوروبي الطريق نحو تحقيق مستقبل أخلاقي للذكاء الاصطناعي من خلال قانون الاتحاد الأوروبي للذكاء الاصطناعي المقترح. تطرق العديد من المنظمات أيضًا إلى مفهوم تطوير إطار عمل شامل.
لكن الولايات المتحدة تخلفت بشكل ملحوظ في المناقشة- قبل اليوم، لم تقدم الحكومة الفيدرالية أي إرشادات ملموسة بشأن حماية المواطنين من مخاطر الذكاء الاصطناعي، حتى عندما دعا الرئيس جو بايدن إلى حماية الخصوصية وجمع البيانات.
وما زال الكثيرون يقولون إن Blueprint، رغم أنها بداية جيدة، لا تذهب بعيدًا بدرجة كافية وليس لديها ما يلزم لاكتساب قوة دفع حقيقية.
قال جيمس هندلر، رئيس مجلس السياسة التكنولوجية لجمعية آلات الحوسبة (ACM) Association for Computing Machinery: "من المثير رؤية الولايات المتحدة تنضم إلى حركة دولية للمساعدة في فهم تأثير تقنيات الحوسبة الجديدة والسيطرة عليها، وخاصة الذكاء الاصطناعي، للتأكد من أن التقنيات تعزز المجتمع البشري بطرق إيجابية".
أشار هندلر، الأستاذ في معهد Rensselaer Polytechnic وأحد منشئي الويب الدلالي، إلى التصريحات الأخيرة بما في ذلك نداء روما لأخلاقيات الذكاء الاصطناعي Rome Call for AI Ethics، ولوائح الاتحاد الأوروبي المقترحة بشأن الذكاء الاصطناعي، وبيانات من لجنة الأمم المتحدة.
وقال إنهم "يطالبون جميعًا بمزيد من الفهم لتأثيرات الأنظمة المستقلة بشكل متزايد على حقوق الإنسان والقيم الإنسانية". "يعمل مجلس التكنولوجيا العالمي التابع لـ ACM مع اللجان الأعضاء لدينا لتحديث البيانات السابقة حول المساءلة الخوارزمية، حيث نعتقد أن تنظيم هذه التكنولوجيا يجب أن يكون جهدًا عالميًا، وليس وطنيًا فقط".
وبالمثل، نشرت رابطة العدالة الخوارزمية على صفحتها على تويتر أن المخطط هو "خطوة في الاتجاه الصحيح في الكفاح من أجل العدالة الخوارزمية". تجمع الرابطة بين الفن والبحث لزيادة الوعي العام بالعنصرية والتمييز على أساس الجنس والقدرات وغيرها من أشكال التمييز الضارة التي يمكن أن تكرسها الذكاء الاصطناعي.
يشير آخرون إلى حقيقة أن المخطط لا يتضمن أي توصيات بشأن القيود على استخدام الأشكال المثيرة للجدل من الذكاء الاصطناعي- مثل تلك التي يمكن أن تحدد الأشخاص في الوقت الحقيقي من خلال البيانات الحيوية أو صور الوجه. يشير البعض أيضًا إلى أنه لا يعالج القضية الحرجة المتمثلة في الأسلحة الفتاكة المستقلة أو المدن الذكية.
خمسة مبادئ أساسية
تحدث مكتب سياسة العلوم والتكنولوجيا (OSTP) Office of Science and Technology Policy التابع للبيت الأبيض، والذي يقدم المشورة للرئيس بشأن العلوم والتكنولوجيا، لأول مرة عن رؤيته للمخطط العام الماضي.
المبادئ الخمسة المحددة:
- أنظمة آمنة وفعالة: يجب حماية الناس من الأنظمة غير الآمنة أو غير الفعالة.
- الحماية من التمييز الخوارزمي: يجب ألا يواجه الناس تمييزًا من خلال الخوارزميات، ويجب استخدام الأنظمة وتصميمها بطريقة منصفة.
- خصوصية البيانات: يجب حماية الأشخاص من ممارسات البيانات المسيئة من خلال وسائل الحماية المضمنة وأن يكون لديهم وكالة على كيفية استخدام البيانات المتعلقة بهم.
- الإشعار والشرح: يجب أن يعرف الناس أنه يتم استخدام نظام آلي وأن يفهموا كيف ولماذا يساهم في النتائج التي تؤثر عليهم.
- البدائل البشرية، والاعتبارات والاحتياطات: يجب أن يكون الأشخاص قادرين على الانسحاب، عند الاقتضاء، والوصول إلى شخص يمكنه النظر بسرعة في المشكلات التي يواجهونها ومعالجتها.
المخطط مصحوب بكتيب، "من المبادئ إلى الممارسة"، مع "خطوات مفصلة نحو تحقيق هذه المبادئ في عملية التصميم التكنولوجي."
لقد تم تأطيرها بناءً على رؤى من الباحثين والتقنيين والمدافعين والصحفيين وصانعي السياسات، وتلاحظ أنه على الرغم من أن الأنظمة الآلية "جلبت فوائد غير عادية"، إلا أنها تسببت أيضًا في ضرر كبير.
ويخلص إلى أن "هذه المبادئ تساعد في توفير التوجيه كلما تمكنت الأنظمة الآلية من التأثير بشكل هادف على حقوق الجمهور أو الفرص أو الوصول إلى الاحتياجات الضرورية".