طور فريق متعدد التخصصات من الباحثين مخططًا لإنشاء خوارزميات تدمج بشكل أكثر فاعلية المبادئ التوجيهية الأخلاقية في برامج صنع القرار بالذكاء الاصطناعي (AI) Artificial Intelligence. ركز المشروع بشكل خاص على التقنيات التي يتفاعل فيها البشر مع برامج الذكاء الاصطناعي، مثل المساعدين الافتراضيين أو "carebots" المستخدمة في إعدادات الرعاية الصحية.
"من المفترض أن تساعد تقنيات مثل carebots في ضمان سلامة وراحة مرضى المستشفى وكبار السن وغيرهم من الأشخاص الذين يحتاجون إلى مراقبة صحية أو مساعدة جسدية"، كما يقول فيليكو دوبليفيتش، المؤلف المقابل لورقة بحثية عن العمل وأستاذ مشارك في العلوم، برنامج التكنولوجيا والمجتمع في جامعة ولاية كارولينا الشمالية. "من الناحية العملية، هذا يعني أنه سيتم وضع هذه التقنيات في المواقف التي يحتاجون فيها إلى إصدار أحكام أخلاقية".
"على سبيل المثال، لنفترض أن carebot في مكان يحتاج فيه شخصان إلى مساعدة طبية. مريض واحد فاقد للوعي ولكنه يحتاج إلى رعاية عاجلة، بينما المريض الثاني في حاجة أقل إلحاحًا ولكنه يطلب أن يعالجه carebot أولاً. كيف يقرر carebot أي مريض تتم مساعدته أولاً؟"
يقول دوبليفيتش: "كانت الجهود السابقة لدمج صنع القرار الأخلاقي في برامج الذكاء الاصطناعي محدودة النطاق وركزت على التفكير النفعي، الذي يتجاهل تعقيد عملية صنع القرار الأخلاقي للإنسان". "يعالج عملنا هذا، وعلى الرغم من أنني استخدمت carebots كمثال، إلا أنه قابل للتطبيق على مجموعة واسعة من تقنيات العمل الجماعي بين الإنسان والذكاء الاصطناعي".
يركز صنع القرار النفعي على النتائج والعواقب. ولكن عندما يصدر البشر أحكامًا أخلاقية، فإنهم يضعون في اعتبارهم أيضًا عاملين آخرين.
العامل الأول هو القصد من إجراء معين وشخصية الوكيل الذي يقوم بهذا الإجراء. بمعنى آخر، من يقوم بعمل معين وما الذي يحاولون تحقيقه؟ هل هو خير أم خبيث؟ العامل الثاني هو العمل نفسه. على سبيل المثال، يميل الناس إلى رؤية أفعال معينة، مثل الكذب، على أنها سيئة بطبيعتها.
وكل هذه العوامل تتفاعل مع بعضها البعض. على سبيل المثال، قد نتفق على أن الكذب أمر سيء، ولكن إذا كذبت الممرضة على مريض يطالب بمطالب بغيضة من أجل إعطاء الأولوية لعلاج مريض آخر في حاجة أكثر إلحاحًا، فإن معظم الناس يعتبرون هذا أمرًا مقبولاً أخلاقياً.
لمعالجة تعقيد عملية صنع القرار الأخلاقي، طور الباحثون معادلة رياضية وسلسلة ذات صلة من أشجار القرار التي يمكن دمجها في برامج الذكاء الاصطناعي. تعتمد هذه الأدوات على شيء يسمى نموذج الوكيل والفعل والنتائج (ADC) Agent, Deed, and Consequence، والذي تم تطويره بواسطة Dubljević وزملائه لتعكس كيفية اتخاذ الناس لقرارات أخلاقية معقدة في العالم الحقيقي.
يقول Dubljević: "كان هدفنا هنا هو ترجمة نموذج ADC إلى تنسيق يجعله قابلاً للتطبيق للتضمين في برمجة الذكاء الاصطناعي". "نحن لا نقول فقط أن هذا الإطار الأخلاقي سيعمل بشكل جيد للذكاء الاصطناعي، بل نقدمه بلغة يمكن الوصول إليها في سياق علوم الكمبيوتر".
"مع ظهور تقنيات الذكاء الاصطناعي والروبوتات، يحتاج المجتمع إلى مثل هذه الجهود التعاونية بين علماء الأخلاق والمهندسين. مستقبلنا يعتمد عليها".
"من المفترض أن تساعد تقنيات مثل carebots في ضمان سلامة وراحة مرضى المستشفى وكبار السن وغيرهم من الأشخاص الذين يحتاجون إلى مراقبة صحية أو مساعدة جسدية"، كما يقول فيليكو دوبليفيتش، المؤلف المقابل لورقة بحثية عن العمل وأستاذ مشارك في العلوم، برنامج التكنولوجيا والمجتمع في جامعة ولاية كارولينا الشمالية. "من الناحية العملية، هذا يعني أنه سيتم وضع هذه التقنيات في المواقف التي يحتاجون فيها إلى إصدار أحكام أخلاقية".
"على سبيل المثال، لنفترض أن carebot في مكان يحتاج فيه شخصان إلى مساعدة طبية. مريض واحد فاقد للوعي ولكنه يحتاج إلى رعاية عاجلة، بينما المريض الثاني في حاجة أقل إلحاحًا ولكنه يطلب أن يعالجه carebot أولاً. كيف يقرر carebot أي مريض تتم مساعدته أولاً؟"
يقول دوبليفيتش: "كانت الجهود السابقة لدمج صنع القرار الأخلاقي في برامج الذكاء الاصطناعي محدودة النطاق وركزت على التفكير النفعي، الذي يتجاهل تعقيد عملية صنع القرار الأخلاقي للإنسان". "يعالج عملنا هذا، وعلى الرغم من أنني استخدمت carebots كمثال، إلا أنه قابل للتطبيق على مجموعة واسعة من تقنيات العمل الجماعي بين الإنسان والذكاء الاصطناعي".
يركز صنع القرار النفعي على النتائج والعواقب. ولكن عندما يصدر البشر أحكامًا أخلاقية، فإنهم يضعون في اعتبارهم أيضًا عاملين آخرين.
العامل الأول هو القصد من إجراء معين وشخصية الوكيل الذي يقوم بهذا الإجراء. بمعنى آخر، من يقوم بعمل معين وما الذي يحاولون تحقيقه؟ هل هو خير أم خبيث؟ العامل الثاني هو العمل نفسه. على سبيل المثال، يميل الناس إلى رؤية أفعال معينة، مثل الكذب، على أنها سيئة بطبيعتها.
وكل هذه العوامل تتفاعل مع بعضها البعض. على سبيل المثال، قد نتفق على أن الكذب أمر سيء، ولكن إذا كذبت الممرضة على مريض يطالب بمطالب بغيضة من أجل إعطاء الأولوية لعلاج مريض آخر في حاجة أكثر إلحاحًا، فإن معظم الناس يعتبرون هذا أمرًا مقبولاً أخلاقياً.
لمعالجة تعقيد عملية صنع القرار الأخلاقي، طور الباحثون معادلة رياضية وسلسلة ذات صلة من أشجار القرار التي يمكن دمجها في برامج الذكاء الاصطناعي. تعتمد هذه الأدوات على شيء يسمى نموذج الوكيل والفعل والنتائج (ADC) Agent, Deed, and Consequence، والذي تم تطويره بواسطة Dubljević وزملائه لتعكس كيفية اتخاذ الناس لقرارات أخلاقية معقدة في العالم الحقيقي.
يقول Dubljević: "كان هدفنا هنا هو ترجمة نموذج ADC إلى تنسيق يجعله قابلاً للتطبيق للتضمين في برمجة الذكاء الاصطناعي". "نحن لا نقول فقط أن هذا الإطار الأخلاقي سيعمل بشكل جيد للذكاء الاصطناعي، بل نقدمه بلغة يمكن الوصول إليها في سياق علوم الكمبيوتر".
"مع ظهور تقنيات الذكاء الاصطناعي والروبوتات، يحتاج المجتمع إلى مثل هذه الجهود التعاونية بين علماء الأخلاق والمهندسين. مستقبلنا يعتمد عليها".