الانتحال لا يقتصر على المقالات. انتحال البرمجة- حيث يقوم المطور بنسخ الكود عمدا دون الإسناد- هو اتجاه متزايد. وفقًا لمقال نُشر في نيويورك تايمز، في جامعة براون، فإن أكثر من نصف الادعاءات الـ 49 الخاصة بانتهاك الكود الأكاديمي في عام 2016 تضمنت الغش في علوم الكمبيوتر. في جامعة ستانفورد، تم وضع علامة على ما يصل إلى 20% من الطلاب في دورة واحدة لعلوم الكمبيوتر لعام 2015 بسبب الغش المحتمل، وفقًا لتقرير نفس المقالة.
ظل مقياس تشابه البرامج Measure of Software Similarity، أو MOSS، أحد أكثر الأنظمة شيوعًا للكشف عن الانتحال في البرامج منذ تطويره في عام 1994. يمكن لـ MOSS تحليل التعليمات البرمجية في مجموعة من اللغات بما في ذلك C و C ++ و Java، وإدراج أزواج البرامج تلقائيًا مع رمز مشابه وإبراز المقاطع الفردية في البرامج التي تبدو متشابهة.
لكن وجدت دراسة جديدة أنه يمكن استخدام أنظمة الذكاء الاصطناعي artificial intelligence AI المتاحة مجانًا لإكمال مهام البرمجة على المستوى التمهيدي دون تشغيل MOSS. في ورقة شارك في تأليفها باحثون في Booz Allen Hamilton و EleutherAI، تم استخدام نموذج لغوي يسمى GPT-J لإنشاء رمز "يفتقر إلى أي إشارات خاصة بأن تقنيات اكتشاف الانتحال المستقبلية قد تستخدم لمحاولة تحديد الشفرة التي تم إنشاؤها بواسطة الخوارزميات".
قالت Stella Biderman، باحثة الذكاء الاصطناعي في Booz Allen Hamilton والمؤلفة المشاركة للدراسة، لـ VentureBeat عبر البريد الإلكتروني: "كان الهدف الرئيسي من الورقة هو وضع سياق لحقيقة أن GPT-J يمكنها حل تمارين علوم الكمبيوتر التمهيدية في نموذج تهديد واقعي للانتحال في بيئة تعليمية"، "أظهرت النتائج [التي توصلنا إليها] أن الطالب الذي يتمتع بإمكانية الوصول إلى GPT-J ومعرفة قليلة جدًا بعلوم الكمبيوتر يمكنه تقديم مهام على المستوى التمهيدي دون تشغيل MOSS".
كان لدى Biderman وEdward Raff- المؤلف المشارك الآخر - أسئلة إجابات GPT-J التي تطلبت منه ترميز البرامج التي يمكنها إنشاء جداول تحويل من الأميال إلى الكيلومترات، وحساب مؤشر كتلة الجسم وفقًا للوزن والطول، والمزيد. ارتكب GPT-J أخطاء طفيفة تحتاج إلى تصحيح في معظم الحالات، ولكن هذه الأخطاء غالبًا لا تتطلب برمجة تتجاوز القدرة على تشغيل التعليمات البرمجية والبحث في الويب عن رموز الأخطاء.
بينما لم تجد Biderman دليلًا على أن GPT-J تُستخدم في الواقع للغش في المهام، فإن العمل يثير تساؤلات حول ما إذا كان (أو أدوات مثله) يمكن إساءة استخدامها في اختبارات الترميز الاحترافية. تعتمد العديد من شركات التكنولوجيا على الاختبارات، سواء كانت داخلية أو خارجية، لتقييم معرفة موظفي البرمجيات. اعتمادًا على التصميم، قد تكون هذه عرضة- على الأقل من الناحية النظرية- للكود الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
وأضافت Biderman: "تم تطوير MOSS قبل وقت طويل من ظهور أشياء مثل GPT، ولكن هذا يوضح أهمية فهم الطريقة التي تتطور بها الأدوات الرقمية بمرور الوقت لإدخال مخاطر وقيود جديدة".
يقول Rick Brownlow، الرئيس التنفيذي والشريك المؤسس لمنصة Geektastic للتقييم الفني، إنه لم ير أي دليل على الانتحال من قبل أحد المتقدمين للاختبار باستخدام الذكاء الاصطناعي. ويشير إلى أنه بالنسبة لمعظم الشركات، يشكل اختبار الترميز جزءًا فقط من عملية التوظيف. يُتوقع من المرشحين عمومًا أن يكونوا قادرين على شرح حلولهم بطريقة توضح ما إذا كانوا غير أمناء بشأن قدراتهم البرمجية.
"ستظهر أدوات الانتحال عندما يقوم شخص ما بنسخ حل آخر إما بشكل مباشر أو جزئي، [حتى اكتشافه] عندما يقوم شخص ما بإخفاء بعض الشفرات المنسوخة لمحاولة تجنب اكتشافها. إذا - وهذا أمر مهم - يمكن للذكاء الاصطناعي كتابة حل "جيد" لأحد التحديات التي نواجهها في المنزل وكان هذا أصليًا (أي لم يبحث عن الحل ونسخه من الويب)، قال Brownlow لـ VentureBeat: "أعتقد أنه عندما نصل إلى نقطة يكون فيها الذكاء الاصطناعي قادرًا على حل تحديات الترميز المنزلية، سنكون في المرحلة التي لن تقوم فيها بتوظيف مهندسي برمجيات بعد الآن".
يقول Jake Hoffner، الرئيس التنفيذي لشركة Qualified.io، إن شركته، أيضًا، تكتشف الغش بناءً على جوانب مثل "نقص جهود الترميز (على سبيل المثال، النسخ واللصق، الحد الأدنى من التحرير)" ويوصي العملاء بتوجيه المرشحين عبر التعليمات البرمجية الخاصة بهم. لكنه يرى مستقبلاً يغير فيه الذكاء الاصطناعي طبيعة تقييمات البرمجة، ويحول التركيز بعيدًا عن الترميز الفعلي إلى مهارات إدارة الكود.
في الواقع، تعد أدوات المراجعة والاقتراحات الناشئة المدعومة بالذكاء الاصطناعي بخفض تكاليف التطوير مع السماح للمبرمجين بالتركيز على المهام الأقل تكرارًا. خلال مؤتمر مطوري Build في مايو 2021، قامت Microsoft بتفصيل ميزة في Power Apps التي تنقر على نموذج لغة OpenAI's GPT-3 لمساعدة الأشخاص في اختيار الصيغ. يمكن لنظام Codex الخاص بـ OpenAI، الذي يدعم خدمة Copilot من GitHub، اقتراح أسطر كاملة من التعليمات البرمجية. يمكن لـ ControlFlag من Intel اكتشاف أخطاء الترميز تلقائيًا. ويقوم TransCoder على Facebook بتحويل الكود من لغة برمجة إلى أخرى.
قال Hoffner: "[في] النقطة التي يبدأ فيها الذكاء الاصطناعي في كتابة المزيد من الأكواد عالية الجودة، تبدأ الصناعة ككل في التحرك نحو المطورين…. توجيه الآلات لكتابة التعليمات البرمجية ولكن مشاركة أقل في الترميز الفعلي"، "[T] يحتاج إلى أي رمز للمشاركة يبدأ في شغل المقعد الخلفي للعديد من مهام "إعادة اختراع العجلة" التي لا يزال المطورون يؤدونها حتى اليوم، مثل تجميع تطبيق جوال يسترجع البيانات ويكتبها. ينتقل المبرمجون من هذه المهام الشائعة إلى الأشياء الأقل تحديدًا والجديدة. هذه هي المجالات حيث لن يكون هناك ما يكفي من التعليمات البرمجية الحالية لأنظمة الذكاء الاصطناعي للتعلم منها، لذلك سيظل المبرمجون بحاجة إلى تنفيذها - وهذه هي المهام التي سنبدأ في اختبارها على أساس التقييم".
يقول Nis Frome، المدير العام في تحدي البرمجة والمنصة التعليمية Coderbyte، إنه يرى مخاطر أقل في استخدام الذكاء الاصطناعي للغش في اختبارات الترميز مقارنة بأصحاب العمل "[التضحية] بخبرات المرشح العظيمة من أجل المرشحين النزيهين". يقول إن الكثير من التركيز على منع الغش يأتي عادةً على حساب التوظيف وتحديد المصادر، مما يؤدي إلى إبعاد المرشحين.
أظهر استطلاع للرأي أجري عام 2022 من CoderPad و CodinGame المشكلة بشكل حاد. ما يقرب من نصف القائمين بالتوظيف يشيرون إلى العثور على مطورين مؤهلين باعتباره التحدي الأول بالنسبة لهم، حيث قال 39% أنهم وسعوا الآن مجموعة المتقدمين إلى المطورين من خلفيات غير أكاديمية - ارتفاعًا من 23% في عام 2021.
"نرى تقنيات لا حصر لها للغش، من إرسال التقييم لشخص آخر إلى نسخ الإجابات عبر الإنترنت. ليس لدينا أدنى شك في أن المرشحين حاولوا استخدام GPT-J أو مساعد الطيار عند إجراء تقييمات الكود على Coderbyte، "قال Frome لـ VentureBeat عبر البريد الإلكتروني. "[لكن] الغش سيكون دائمًا لعبة القط والفأر ... الاحتمالات هي أنه إذا كان معظم المرشحين يغشون، فستواجه مشكلة في تحديد المصادر! ربما تحتاج إلى المزيد من كبار المرشحين ولا ينبغي أن تنشر أدوارًا في مجالس الوظائف بالجامعة. الحل لا يكمن في تقديم تجربة سلطوية ومملة لجميع المرشحين".
تشير Biderman إلى أن الحفاظ على النزاهة، سواء كان ذلك باستخدام الذكاء الاصطناعي أم لا، ليس مسعىً جديدًا. على غرار تنبؤ هوفنر، فإن ظهور ذكاء اصطناعي سهل الاستخدام لتوليد الكود قد يتطلب ببساطة تقييمات جديدة حيث تتم مهام التصحيح باستخدام الحلول التي تم إنشاؤها بواسطة الذكاء الاصطناعي، كما تقول.
"لا يزال بإمكاننا تعليم الطلاب مهارات علوم الكمبيوتر المهمة التي يحتاجون إليها وإيجاد تطبيقات جديدة لـ [AI]. وأضاف بايدرمان أن هذه التغييرات الهيكلية يمكن أن تحقق نتائج أفضل للتخفيف من الانتحال والاختصارات، بينما تمهد الطريق لمستقبل تكون فيه المزيد من أدوات التطوير المدعومة بالذكاء الاصطناعي في أيدي مجموعة أوسع من المستخدمين. يساعدنا هذا أيضًا في الاستعداد لمستقبل محتمل يمكن فيه للذكاء الاصطناعي والتعلم الآلي القيام بأكثر من مجرد مهام المستوى التمهيدي، ويجب أن نبدأ في الاستعداد لذلك".
ظل مقياس تشابه البرامج Measure of Software Similarity، أو MOSS، أحد أكثر الأنظمة شيوعًا للكشف عن الانتحال في البرامج منذ تطويره في عام 1994. يمكن لـ MOSS تحليل التعليمات البرمجية في مجموعة من اللغات بما في ذلك C و C ++ و Java، وإدراج أزواج البرامج تلقائيًا مع رمز مشابه وإبراز المقاطع الفردية في البرامج التي تبدو متشابهة.
لكن وجدت دراسة جديدة أنه يمكن استخدام أنظمة الذكاء الاصطناعي artificial intelligence AI المتاحة مجانًا لإكمال مهام البرمجة على المستوى التمهيدي دون تشغيل MOSS. في ورقة شارك في تأليفها باحثون في Booz Allen Hamilton و EleutherAI، تم استخدام نموذج لغوي يسمى GPT-J لإنشاء رمز "يفتقر إلى أي إشارات خاصة بأن تقنيات اكتشاف الانتحال المستقبلية قد تستخدم لمحاولة تحديد الشفرة التي تم إنشاؤها بواسطة الخوارزميات".
قالت Stella Biderman، باحثة الذكاء الاصطناعي في Booz Allen Hamilton والمؤلفة المشاركة للدراسة، لـ VentureBeat عبر البريد الإلكتروني: "كان الهدف الرئيسي من الورقة هو وضع سياق لحقيقة أن GPT-J يمكنها حل تمارين علوم الكمبيوتر التمهيدية في نموذج تهديد واقعي للانتحال في بيئة تعليمية"، "أظهرت النتائج [التي توصلنا إليها] أن الطالب الذي يتمتع بإمكانية الوصول إلى GPT-J ومعرفة قليلة جدًا بعلوم الكمبيوتر يمكنه تقديم مهام على المستوى التمهيدي دون تشغيل MOSS".
كان لدى Biderman وEdward Raff- المؤلف المشارك الآخر - أسئلة إجابات GPT-J التي تطلبت منه ترميز البرامج التي يمكنها إنشاء جداول تحويل من الأميال إلى الكيلومترات، وحساب مؤشر كتلة الجسم وفقًا للوزن والطول، والمزيد. ارتكب GPT-J أخطاء طفيفة تحتاج إلى تصحيح في معظم الحالات، ولكن هذه الأخطاء غالبًا لا تتطلب برمجة تتجاوز القدرة على تشغيل التعليمات البرمجية والبحث في الويب عن رموز الأخطاء.
بينما لم تجد Biderman دليلًا على أن GPT-J تُستخدم في الواقع للغش في المهام، فإن العمل يثير تساؤلات حول ما إذا كان (أو أدوات مثله) يمكن إساءة استخدامها في اختبارات الترميز الاحترافية. تعتمد العديد من شركات التكنولوجيا على الاختبارات، سواء كانت داخلية أو خارجية، لتقييم معرفة موظفي البرمجيات. اعتمادًا على التصميم، قد تكون هذه عرضة- على الأقل من الناحية النظرية- للكود الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
وأضافت Biderman: "تم تطوير MOSS قبل وقت طويل من ظهور أشياء مثل GPT، ولكن هذا يوضح أهمية فهم الطريقة التي تتطور بها الأدوات الرقمية بمرور الوقت لإدخال مخاطر وقيود جديدة".
يقول Rick Brownlow، الرئيس التنفيذي والشريك المؤسس لمنصة Geektastic للتقييم الفني، إنه لم ير أي دليل على الانتحال من قبل أحد المتقدمين للاختبار باستخدام الذكاء الاصطناعي. ويشير إلى أنه بالنسبة لمعظم الشركات، يشكل اختبار الترميز جزءًا فقط من عملية التوظيف. يُتوقع من المرشحين عمومًا أن يكونوا قادرين على شرح حلولهم بطريقة توضح ما إذا كانوا غير أمناء بشأن قدراتهم البرمجية.
"ستظهر أدوات الانتحال عندما يقوم شخص ما بنسخ حل آخر إما بشكل مباشر أو جزئي، [حتى اكتشافه] عندما يقوم شخص ما بإخفاء بعض الشفرات المنسوخة لمحاولة تجنب اكتشافها. إذا - وهذا أمر مهم - يمكن للذكاء الاصطناعي كتابة حل "جيد" لأحد التحديات التي نواجهها في المنزل وكان هذا أصليًا (أي لم يبحث عن الحل ونسخه من الويب)، قال Brownlow لـ VentureBeat: "أعتقد أنه عندما نصل إلى نقطة يكون فيها الذكاء الاصطناعي قادرًا على حل تحديات الترميز المنزلية، سنكون في المرحلة التي لن تقوم فيها بتوظيف مهندسي برمجيات بعد الآن".
يقول Jake Hoffner، الرئيس التنفيذي لشركة Qualified.io، إن شركته، أيضًا، تكتشف الغش بناءً على جوانب مثل "نقص جهود الترميز (على سبيل المثال، النسخ واللصق، الحد الأدنى من التحرير)" ويوصي العملاء بتوجيه المرشحين عبر التعليمات البرمجية الخاصة بهم. لكنه يرى مستقبلاً يغير فيه الذكاء الاصطناعي طبيعة تقييمات البرمجة، ويحول التركيز بعيدًا عن الترميز الفعلي إلى مهارات إدارة الكود.
في الواقع، تعد أدوات المراجعة والاقتراحات الناشئة المدعومة بالذكاء الاصطناعي بخفض تكاليف التطوير مع السماح للمبرمجين بالتركيز على المهام الأقل تكرارًا. خلال مؤتمر مطوري Build في مايو 2021، قامت Microsoft بتفصيل ميزة في Power Apps التي تنقر على نموذج لغة OpenAI's GPT-3 لمساعدة الأشخاص في اختيار الصيغ. يمكن لنظام Codex الخاص بـ OpenAI، الذي يدعم خدمة Copilot من GitHub، اقتراح أسطر كاملة من التعليمات البرمجية. يمكن لـ ControlFlag من Intel اكتشاف أخطاء الترميز تلقائيًا. ويقوم TransCoder على Facebook بتحويل الكود من لغة برمجة إلى أخرى.
قال Hoffner: "[في] النقطة التي يبدأ فيها الذكاء الاصطناعي في كتابة المزيد من الأكواد عالية الجودة، تبدأ الصناعة ككل في التحرك نحو المطورين…. توجيه الآلات لكتابة التعليمات البرمجية ولكن مشاركة أقل في الترميز الفعلي"، "[T] يحتاج إلى أي رمز للمشاركة يبدأ في شغل المقعد الخلفي للعديد من مهام "إعادة اختراع العجلة" التي لا يزال المطورون يؤدونها حتى اليوم، مثل تجميع تطبيق جوال يسترجع البيانات ويكتبها. ينتقل المبرمجون من هذه المهام الشائعة إلى الأشياء الأقل تحديدًا والجديدة. هذه هي المجالات حيث لن يكون هناك ما يكفي من التعليمات البرمجية الحالية لأنظمة الذكاء الاصطناعي للتعلم منها، لذلك سيظل المبرمجون بحاجة إلى تنفيذها - وهذه هي المهام التي سنبدأ في اختبارها على أساس التقييم".
يقول Nis Frome، المدير العام في تحدي البرمجة والمنصة التعليمية Coderbyte، إنه يرى مخاطر أقل في استخدام الذكاء الاصطناعي للغش في اختبارات الترميز مقارنة بأصحاب العمل "[التضحية] بخبرات المرشح العظيمة من أجل المرشحين النزيهين". يقول إن الكثير من التركيز على منع الغش يأتي عادةً على حساب التوظيف وتحديد المصادر، مما يؤدي إلى إبعاد المرشحين.
أظهر استطلاع للرأي أجري عام 2022 من CoderPad و CodinGame المشكلة بشكل حاد. ما يقرب من نصف القائمين بالتوظيف يشيرون إلى العثور على مطورين مؤهلين باعتباره التحدي الأول بالنسبة لهم، حيث قال 39% أنهم وسعوا الآن مجموعة المتقدمين إلى المطورين من خلفيات غير أكاديمية - ارتفاعًا من 23% في عام 2021.
"نرى تقنيات لا حصر لها للغش، من إرسال التقييم لشخص آخر إلى نسخ الإجابات عبر الإنترنت. ليس لدينا أدنى شك في أن المرشحين حاولوا استخدام GPT-J أو مساعد الطيار عند إجراء تقييمات الكود على Coderbyte، "قال Frome لـ VentureBeat عبر البريد الإلكتروني. "[لكن] الغش سيكون دائمًا لعبة القط والفأر ... الاحتمالات هي أنه إذا كان معظم المرشحين يغشون، فستواجه مشكلة في تحديد المصادر! ربما تحتاج إلى المزيد من كبار المرشحين ولا ينبغي أن تنشر أدوارًا في مجالس الوظائف بالجامعة. الحل لا يكمن في تقديم تجربة سلطوية ومملة لجميع المرشحين".
تشير Biderman إلى أن الحفاظ على النزاهة، سواء كان ذلك باستخدام الذكاء الاصطناعي أم لا، ليس مسعىً جديدًا. على غرار تنبؤ هوفنر، فإن ظهور ذكاء اصطناعي سهل الاستخدام لتوليد الكود قد يتطلب ببساطة تقييمات جديدة حيث تتم مهام التصحيح باستخدام الحلول التي تم إنشاؤها بواسطة الذكاء الاصطناعي، كما تقول.
"لا يزال بإمكاننا تعليم الطلاب مهارات علوم الكمبيوتر المهمة التي يحتاجون إليها وإيجاد تطبيقات جديدة لـ [AI]. وأضاف بايدرمان أن هذه التغييرات الهيكلية يمكن أن تحقق نتائج أفضل للتخفيف من الانتحال والاختصارات، بينما تمهد الطريق لمستقبل تكون فيه المزيد من أدوات التطوير المدعومة بالذكاء الاصطناعي في أيدي مجموعة أوسع من المستخدمين. يساعدنا هذا أيضًا في الاستعداد لمستقبل محتمل يمكن فيه للذكاء الاصطناعي والتعلم الآلي القيام بأكثر من مجرد مهام المستوى التمهيدي، ويجب أن نبدأ في الاستعداد لذلك".