من عام 1927 إلى عام 2019، تم إنتاج أكثر من 100 فيلم حول العالم حول الذكاء الاصطناعي. وبينما يتم تصوير بعض السيناريوهات في ضوء جيد، إلا أن الباقي مرعب للغاية. في أفلام مثل The Terminator و The Matrix و Avengers: Age of Ultron وغيرها الكثير، وضعت صناعة السينما في مشاهد الخيال المشتركة لدينا لتوضيح كيف ستسيطر الآلات الأكثر ذكاءً على العالم وتستعبد أو تمحو البشرية تمامًا من الوجود. إن إمكانية أن تصبح أنظمة الذكاء الاصطناعي أكثر تفوقًا من أي ذكاء بشري ترسم مستقبلًا مظلمًا للبشرية.
في الآونة الأخيرة، دخلت البلدان في جميع أنحاء العالم السباق لتطوير الذكاء الاصطناعي حيث أصدرت 20 دولة في الاتحاد الأوروبي استراتيجياتها بشأن تطوير الذكاء الاصطناعي في كل من البحث والتطوير والتعليم. الذكاء الاصطناعي أحمر حار. ولكن ما هي القضايا الأخلاقية والعملية التي يجب أن نأخذها في الاعتبار أثناء المضي قدمًا بكامل قوتنا في تبني تكنولوجيا الذكاء الاصطناعي؟ في هدفنا المشترك لتحويل قطاعات الأعمال باستخدام الذكاء الآلي، ما هي المخاطر والمسؤوليات التي يجب على المبتكرين مراعاتها؟
نعم، سيكون وكلاء الذكاء الاصطناعي قادرون جدًا على إكمال العمليات الموازية للذكاء البشري. تعمل الجامعات والمنظمات الخاصة والحكومات بنشاط على تطوير الذكاء الاصطناعي مع القدرة على محاكاة الوظائف المعرفية البشرية مثل التعلم وحل المشكلات والتخطيط والتعرف على الكلام. ولكن إذا كان هؤلاء العملاء يفتقرون إلى التعاطف والغريزة والحكمة في اتخاذ القرار، فهل ينبغي أن يكون اندماجهم في المجتمع محدودًا، وإذا كان الأمر كذلك، فبأي طرق؟
دعونا نراجع بعض الاعتبارات الأخلاقية في مجال الذكاء الاصطناعي. على سبيل إخلاء المسئولية، يُقصد بهذه المقالة تسليط الضوء على بعض القضايا البارزة، الكبيرة والصغيرة.
الأسئلة الأخلاقية حول الذكاء الاصطناعي في الطب، وإنفاذ القانون، والدفاع العسكري، وخصوصية البيانات، والحوسبة الكمية، وغيرها من المجالات عميقة ومهمة يجب وضعها في الاعتبار.
1. فقدان الوظيفة وعدم المساواة في الثروة
أحد الاهتمامات الأساسية لدى الأشخاص بشأن الذكاء الاصطناعي هو فقدان الوظائف في المستقبل. هل يجب أن نسعى جاهدين لتطوير ودمج الذكاء الاصطناعي بشكل كامل في المجتمع إذا كان ذلك يعني أن الكثير من الناس سيفقدون وظائفهم- وربما سبل عيشهم؟
وفقًا لتقرير معهد ماكينزي العالمي الجديد، بحلول عام 2030، سيفقد حوالي 800 مليون شخص وظائفهم بسبب الروبوتات التي يقودها الذكاء الاصطناعي. قد يجادل البعض بأنه إذا تم الاستيلاء على وظائفهم بواسطة الروبوتات، فربما تكون وضيعة للغاية بالنسبة للإنسان وأن الذكاء الاصطناعي يمكن أن يكون مسئولاً عن خلق وظائف أفضل تستفيد من القدرة البشرية الفريدة التي تنطوي على وظائف معرفية أعلى وتحليل وتوليف. نقطة أخرى هي أن الذكاء الاصطناعي قد يخلق المزيد من الوظائف- بعد كل شيء، سيتم تكليف الأشخاص بإنشاء هذه الروبوتات لتبدأ بها ثم إدارتها في المستقبل.
إحدى القضايا المتعلقة بفقدان الوظيفة هي عدم المساواة في الثروة. ضع في اعتبارك أن معظم الأنظمة الاقتصادية الحديثة تتطلب من العمال إنتاج منتج أو خدمة مع تعويضهم على أساس أجر الساعة. تدفع الشركة الأجور والضرائب والنفقات الأخرى، مع إعادة الأرباح المتبقية في كثير من الأحيان إلى الإنتاج والتدريب و/ أو خلق المزيد من الأعمال لزيادة الأرباح. في هذا السيناريو، يستمر الاقتصاد في النمو.
ولكن ماذا يحدث إذا أدخلنا الذكاء الاصطناعي في التدفق الاقتصادي؟ لا يتم الدفع للروبوتات بالساعة ولا تدفع الضرائب. يمكنهم المساهمة بمستوى 100% بتكلفة منخفضة مستمرة لإبقائها قابلة للتشغيل ومفيدة. هذا يفتح الباب أمام الرؤساء التنفيذيين وأصحاب المصلحة للحفاظ على المزيد من أرباح الشركة الناتجة عن القوى العاملة للذكاء الاصطناعي، مما يؤدي إلى تفاوت أكبر في الثروة. ربما يؤدي هذا إلى أن هؤلاء الأفراد والشركات الذين لديهم القدرة على الدفع مقابل أنظمة الذكاء الاصطناعي- يصبحون أكثر ثراءً.
2. الذكاء الاصطناعي غير كامل - ماذا لو ارتكب خطأ؟
الذكاء الاصطناعي ليس محصنًا من ارتكاب الأخطاء، ويستغرق التعلم الآلي وقتًا ليصبح مفيدًا. إذا تم تدريبها جيدًا، باستخدام بيانات جيدة، يمكن أن تؤدي أنظمة الذكاء الاصطناعي أداءً جيدًا. ومع ذلك، إذا قمنا بتغذية تاريخ سيئ للذكاء الاصطناعي أو ارتكبنا أخطاء في البرمجة الداخلية، فقد تكون أنظمة الذكاء الاصطناعي ضارة. روبوت الدردشة AI من Teka Microsoft، Tay، والذي تم إصداره على Twitter في عام 2016. في أقل من يوم واحد، نظرًا للمعلومات التي كان يتلقاها ويتعلمها من مستخدمي Twitter الآخرين، تعلم الروبوت أن يبث الافتراءات العنصرية والدعاية النازية. أغلقت Microsoft برنامج chatbot على الفور لأن السماح له بالعيش كان من الواضح أنه سيضر بسمعة الشركة.
نعم، يرتكب الذكاء الاصطناعي أخطاء. لكن هل يرتكبون أخطاء أكبر أم أقل من أخطاء البشر؟ كم عدد الأرواح التي اتخذها البشر بقرارات خاطئة؟ هل هو أفضل أم أسوأ عندما يرتكب الذكاء الاصطناعي نفس الخطأ؟
3. هل يجب السماح لأنظمة الذكاء الاصطناعي بالقتل؟
في خطاب TEDx هذا، يصف Jay Tuck الذكاء الاصطناعي على أنه برنامج يكتب تحديثاته الخاصة ويجدد نفسه. هذا يعني أن الآلة، كما تمت برمجتها، لم يتم إنشاؤها للقيام بما نريده أن تفعله- إنها تفعل ما تتعلم القيام به. يواصل Jay وصف حادثة مع روبوت يسمى Tallon. تم تشويش مدفعها المحوسب وإطلاق النار بشكل لا يمكن السيطرة عليه بعد انفجار أسفر عن مقتل 9 أشخاص وإصابة 14 آخرين.
الطائرات بدون طيار من طراز Predator، مثل General Atomics MQ-1 Predator، موجودة منذ أكثر من عقد. يمكن لهذه الطائرات الموجهة عن بعد إطلاق الصواريخ، على الرغم من أن القانون الأمريكي يتطلب من البشر اتخاذ قرارات القتل الفعلية. ولكن نظرًا لأن الطائرات بدون طيار تلعب دورًا أكبر في الدفاع العسكري الجوي، فنحن بحاجة إلى مزيد من البحث في دورها وكيفية استخدامها. هل من الأفضل استخدام الذكاء الاصطناعي للقتل بدلاً من وضع البشر في خط النار؟ ماذا لو استخدمنا الروبوتات فقط للردع بدلاً من العنف الفعلي؟
إن حملة Stop Killer Robots هي منظمة غير ربحية لحظر الأسلحة ذاتية التشغيل بالكامل التي يمكن أن تقرر من يعيش ويموت دون تدخل بشري. "الأسلحة ذاتية التحكم بالكامل تفتقر إلى الحكم البشري اللازم لتقييم تناسب الهجوم، وتمييز المدنيين عن المقاتلين، والالتزام بالمبادئ الأساسية الأخرى لقوانين الحرب. يظهر التاريخ أن استخدامها لن يقتصر على ظروف معينة ".
4. الذكاء الاصطناعي المروع
إذا كانت هناك فرصة أن ترتكب الآلات الذكية أخطاءً، فمن ضمن مجال الاحتمال أن يصبح الذكاء الاصطناعي شريرًا، أو يخلق عواقب غير مقصودة من أفعاله في السعي وراء أهداف تبدو غير ضارة. أحد السيناريوهات الخاصة بارتكاب الذكاء الاصطناعي المروع هو ما رأيناه بالفعل في أفلام مثل The Terminator والبرامج التليفزيونية حيث يصبح كمبيوتر AI مركزي فائق الذكاء مدركًا لذاته ويقرر أنه لا يريد التحكم البشري بعد الآن.
يقول الخبراء حاليًا إن تقنية الذكاء الاصطناعي الحالية ليست قادرة بعد على تحقيق هذا الإنجاز الخطير للغاية المتمثل في الوعي الذاتي؛ ومع ذلك، قد ربما تكون أجهزة الكمبيوتر العملاقة المستقبلية للذكاء الاصطناعي.
السيناريو الآخر هو حيث يتم تكليف الذكاء الاصطناعي، على سبيل المثال، بدراسة التركيب الجيني للفيروس من أجل إنشاء لقاح لتحييده. بعد إجراء حسابات مطولة، صاغ الذكاء الاصطناعي حلاً يقوم فيه بتسليح الفيروس بدلاً من صنع لقاح منه. إنه مثل فتح Pandora’s Box المعاصر ومرة أخرى تلعب الأخلاقيات دورًا حيث يجب معالجة المخاوف المشروعة من أجل منع مثل هذا السيناريو.
5. التفرد والتحكم في أنظمة الذكاء الاصطناعي
هل ستتطور أنظمة الذكاء الاصطناعي لتتجاوز البشر؟ ماذا لو أصبحوا أذكى من البشر ثم حاولوا السيطرة علينا؟ هل ستجعل أجهزة الكمبيوتر البشر بالية؟ يشار إلى النقطة التي يتجاوز فيها نمو التكنولوجيا الذكاء البشري باسم "التفرد التكنولوجي". يعتقد البعض أن هذا سيشير إلى نهاية عصر الإنسان وأنه يمكن أن يحدث في وقت مبكر بحلول عام 2030 بناءً على وتيرة الابتكار التكنولوجي. يؤدي الذكاء الاصطناعي إلى الانقراض البشري- من السهل أن نفهم سبب كون تقدم الذكاء الاصطناعي مخيفًا لكثير من الناس.
6. كيف يجب أن نتعامل مع أنظمة الذكاء الاصطناعي؟
هل ينبغي منح الروبوتات حقوق الإنسان أم المواطنة؟ إذا طورنا الروبوتات إلى درجة أنها قادرة على "الشعور"، فهل يؤهلها ذلك لحقوق مشابهة للإنسان أو الحيوانات؟ إذا تم منح الروبوتات حقوقًا، فكيف نصنف وضعها الاجتماعي؟ هذه إحدى القضايا الأساسية في "أخلاقيات الروبوتات"، وهو موضوع طرحه Isaac Asimov لأول مرة في عام 1942. في عام 2017 ، مُنح الروبوت Hanson Robotics، Sophia، الجنسية في المملكة العربية السعودية. في حين أن البعض يعتبر هذا بمثابة حيلة في العلاقات العامة أكثر من الاعتراف القانوني الفعلي، فإنه يقدم مثالاً على نوع الحقوق التي يمكن منحها للذكاء الاصطناعي في المستقبل.
7. تحيز الذكاء الاصطناعي
لقد أصبح الذكاء الاصطناعي متأصلا بشكل متزايد في أنظمة التعرف على الوجه والصوت، وبعضها له آثار تجارية حقيقية ويؤثر بشكل مباشر على الناس. هذه الأنظمة عرضة للتحيزات والأخطاء التي يقدمها صانعوها البشريون. أيضًا، يمكن أن يكون للبيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي نفسها تحيزات. على سبيل المثال، خوارزميات التعرف على الوجه التي صنعتها Microsoft و IBM و Megvii جميعها بها تحيزات عند اكتشاف جنس الأشخاص. كانت أنظمة الذكاء الاصطناعي هذه قادرة على اكتشاف جنس الرجال البيض بشكل أكثر دقة من جنس الرجال ذوي البشرة الداكنة. وبالمثل، إنهاء Amazon’s.com للتوظيف في مجال الذكاء الاصطناعي هو مثال آخر يوضح أن الذكاء الاصطناعي لا يمكن أن يكون عادلاً؛ فضلت الخوارزمية المرشحين الذكور على الإناث. ويرجع ذلك إلى أن نظام Amazon قد تم تدريبه باستخدام البيانات التي تم جمعها على مدار 10 سنوات والتي جاءت في الغالب من المرشحين الذكور.
هل يمكن أن يصبح الذكاء الاصطناعي متحيزًا؟ حسنًا، هذا سؤال صعب. يمكن للمرء أن يجادل في أن الآلات الذكية ليس لديها بوصلة أخلاقية ولا مجموعة من المبادئ مثل البشر. ومع ذلك، حتى بوصلتنا الأخلاقية ومبادئنا في بعض الأحيان لا تفيد البشرية ككل، فكيف نتأكد من أن وكلاء الذكاء الاصطناعي ليس لديهم نفس العيوب مثل صانعيهم؟ إذا طورت أنظمة الذكاء الاصطناعي تحيزًا معينًا تجاه أو ضد العرق أو الجنس أو الدين أو العرق، فإن الخطأ يكمن في الغالب في كيفية تدريسه وتدريبه. لذلك، يحتاج الأشخاص الذين يعملون في أبحاث الذكاء الاصطناعي إلى مراعاة التحيز عند تحديد البيانات التي يجب استخدامها.
ملخص
نعم، إن التفكير في أنظمة الذكاء الاصطناعي الحالية بشكل متزايد والتي تتجاوز الذكاء البشري أمر مخيف. والقضايا الأخلاقية التي تأتي مع تبني الذكاء الاصطناعي معقدة. سيكون المفتاح هو وضع هذه القضايا في الاعتبار من أجل تحليل القضايا المجتمعية الأوسع نطاقًا. يمكن فحص ما إذا كان الذكاء الاصطناعي جيدًا أم سيئًا من عدة زوايا مختلفة مع عدم وجود نظرية أو إطار عمل واحد هو الأفضل. نحن بحاجة إلى مواصلة التعلم والبقاء على اطلاع من أجل اتخاذ قرارات جيدة لمستقبلنا.