Google tells its scientists to be more positive about AI
طلبت Google من باحثيها "توجيه نبرة إيجابية strike a positive tone" وإخضاع أبحاثهم حول "الموضوعات الحساسة sensitive topics"، مثل الذكاء الاصطناعي (Artificial Intelligence AI)، إلى مراجعات إضافية، حسبما زعمت تقارير جديدة.
من المفترض أن طلب جولة إضافية من التفتيش هو جزء من الضوابط الجديدة التي تنفذها شركة البحث العملاقة للأوراق حول موضوعات معينة.
الأمر الذي أثار الكثير من الانتقادات في وقت سابق من هذا الشهر بزعم إقالة الدكتورة Timnit Gebru، القائدة المشاركة لفريق Google Ethical AI، بعد خلافات مفترضة مع عملها.
قلق أم رقابة؟
تستشهد التقارير الآن بالباحثين والوثائق الداخلية التي تظهر أنه في ثلاث حالات على الأقل طلب كبار المديرين من المؤلفين الامتناع عن إلقاء تقنيتها في ضوء سلبي.
يقتبس التقرير من إحدى هذه الوثائق قولها: "يؤدي التقدم في التكنولوجيا والتعقيد المتزايد لبيئتنا الخارجية بشكل متزايد إلى مواقف تثير فيها المشاريع التي تبدو غير مسيئة قضايا أخلاقية أو متعلقة بالسمعة أو تنظيمية أو قانونية."
في مراسلات داخلية مزعومة أخرى، نُقل عن أحد كبار مديري Google الذين يراجعون دراسة عن تقنية توصية المحتوى قبل وقت قصير من النشر أنه يطلب من المؤلفين "توخي الحذر الشديد لإعطاء نبرة إيجابية"
توضح المستندات المسربة، والتي لا يمكن التحقق من صحتها بواسطة TechRadar Pro، بعض الموضوعات "الحساسة" مثل "صناعة النفط، الصين، إيران، إسرائيل، COVID-19، أمن المنازل، التأمين، بيانات الموقع، الدين، المركبات والاتصالات والأنظمة ذاتية القيادة التي توصي بمحتوى الويب أو تخصصه".
كما نقلت التقارير أيضًا عن Margaret Mitchell، باحثة بارزة في الذكاء الاصطناعي في Google، قولها إن هذا النوع من التدخل يمكن اعتباره شكلاً من أشكال الرقابة:
"إذا كنا نبحث عن الشيء المناسب نظرًا لخبرتنا، ولا يُسمح لنا بنشر ذلك على أسس لا تتماشى مع مراجعة الأقران عالية الجودة، فإننا نواجه مشكلة خطيرة تتعلق بالرقابة."
من المفترض أن طلب جولة إضافية من التفتيش هو جزء من الضوابط الجديدة التي تنفذها شركة البحث العملاقة للأوراق حول موضوعات معينة.
الأمر الذي أثار الكثير من الانتقادات في وقت سابق من هذا الشهر بزعم إقالة الدكتورة Timnit Gebru، القائدة المشاركة لفريق Google Ethical AI، بعد خلافات مفترضة مع عملها.
قلق أم رقابة؟
تستشهد التقارير الآن بالباحثين والوثائق الداخلية التي تظهر أنه في ثلاث حالات على الأقل طلب كبار المديرين من المؤلفين الامتناع عن إلقاء تقنيتها في ضوء سلبي.
يقتبس التقرير من إحدى هذه الوثائق قولها: "يؤدي التقدم في التكنولوجيا والتعقيد المتزايد لبيئتنا الخارجية بشكل متزايد إلى مواقف تثير فيها المشاريع التي تبدو غير مسيئة قضايا أخلاقية أو متعلقة بالسمعة أو تنظيمية أو قانونية."
في مراسلات داخلية مزعومة أخرى، نُقل عن أحد كبار مديري Google الذين يراجعون دراسة عن تقنية توصية المحتوى قبل وقت قصير من النشر أنه يطلب من المؤلفين "توخي الحذر الشديد لإعطاء نبرة إيجابية"
توضح المستندات المسربة، والتي لا يمكن التحقق من صحتها بواسطة TechRadar Pro، بعض الموضوعات "الحساسة" مثل "صناعة النفط، الصين، إيران، إسرائيل، COVID-19، أمن المنازل، التأمين، بيانات الموقع، الدين، المركبات والاتصالات والأنظمة ذاتية القيادة التي توصي بمحتوى الويب أو تخصصه".
كما نقلت التقارير أيضًا عن Margaret Mitchell، باحثة بارزة في الذكاء الاصطناعي في Google، قولها إن هذا النوع من التدخل يمكن اعتباره شكلاً من أشكال الرقابة:
"إذا كنا نبحث عن الشيء المناسب نظرًا لخبرتنا، ولا يُسمح لنا بنشر ذلك على أسس لا تتماشى مع مراجعة الأقران عالية الجودة، فإننا نواجه مشكلة خطيرة تتعلق بالرقابة."