ألم تسمع؟ هناك ذكاء اصطناعي معقد وخبيث يعمل على إفراغ الحسابات المصرفية للأشخاص - وقد تكون التالي.
على الأقل كانت هذه هي القصة المثيرة للقلق من وسائل الإعلام حول أدوات الذكاء الاصطناعي الجديدة المسماة FraudGPT و WormGPT، المصممة لأتمتة حملات التصيد الاحتيالي عبر البريد الإلكتروني والرسائل النصية، والتي يمكن للقراصنة الطموحين الوصول إليها بأسعار تبدأ من 100 يورو شهريًا.
تم وصف الروبوتات، التي تزيل بعض الحماية حول نماذج اللغات الكبيرة مفتوحة المصدر، لأول مرة في منتصف شهر يوليو في منشور مدونة بواسطة شركة الأمن السيبراني SlashNext، التي جربت WormGPT لإنشاء رسائل بريد إلكتروني للتصيد الاحتيالي ووصفت النتائج بأنها "مقلقة". ثم التقطت وسائل الإعلام السائدة القصة، حيث تحولت إلى نوبة هستيرية.
زعمت صحيفة نيويورك بوست، التي أطلقت عليها اسم "التوأم الشرير لـ ChatGPT"، أن WormGPT "تدخل سرًا لرسائل البريد الإلكتروني" و "تغزو البنوك". زعمت المجلة الثقافية Dazed أن نموذج الذكاء الاصطناعي "الشرير" "ينتشر عبر الويب المظلم" و "يمكّن المتسللين من تنفيذ هجمات إلكترونية على نطاق لم يسبق له مثيل". زعمت صحيفة "مترو" البريطانية أن الأداة تساعد المتسللين على "التخطيط لهجمات إلكترونية متقدمة" ونقلت عن خبير من NordVPN دعا إلى "استجابة دولية سريعة من سلطات الشرطة".
ظهرت الروبوتات أيضًا هذا الأسبوع من قبل مجلة PC Magazine، التي تكهنت بأن "روبوت الدردشة الشرير" يمكن "دمجه" بأرقام بطاقات الائتمان المسروقة.
كان كل ذلك بمثابة دعاية مجانية رائعة لما يقوله خبراء الأمن السيبراني الذين قالوا إنها مجرد تطبيقات بدائية تولد نوع الشفرة التي يمكن أن يكتبها المراهق.
تقول ميليسا بيشوبينج، باحثة أمن نقطة النهاية في تانيوم: "لم أر زملائي في الصناعة قلقون للغاية بشأن أي من هذين النموذجين". "ولم أر شيئًا يشير إلى أن هذا أمر مخيف". إذا كان هناك أي شيء، كما تقول، فإن صانعي الأدوات "يستغلون الأشخاص الذين ليسوا متطورين بما يكفي لكتابة البرامج الضارة الخاصة بهم، ولكنهم يريدون تحقيق ربح سريع".
تم إصدار WormGPT و FraudGPT في وقت سابق من هذا الشهر في منتديات هواة القرصنة الشهيرة، وهما يصوران نفسيهما على أنهما حلم الهاكر. "يمكنك إنشاء أي برامج ضارة وأي شيء آخر معها دون أي قيود"، كما يتفاخر منشئ WormGPT. "ابدأ في جني الأموال بسهولة من خلال إنشاء أي شيء باستخدامه". يتفاخر منشئ FraudGPT بأن "السماء هي الحد الأقصى حقًا" باستخدام "الأداة المتطورة"، مدعيًا أن الروبوت يمكنه "إنشاء برامج ضارة لا يمكن اكتشافها" ويكشف عن مواقع الويب المعرضة للاحتيال على بطاقات الائتمان.
تتمثل نقطة البيع الرئيسية لروبوت الاحتيال في أنه يفتقر إلى الضمانات المضمنة ضد المطالبات الضارة الموجودة في التطبيقات التي تواجه المستهلك مثل ChatGPT من OpenAI. في مشاركات المنتدى المليئة بالأخطاء المطبعية، أوضح منشئ WormGPT أن الروبوت يعتمد على GPT-J، وهو LLM مفتوح المصدر تم إصداره في عام 2021، و "بيانات التدريب مأخوذة من الكثير من المصادر المختلفة وبياناتنا الوحيدة التي لدينا من التدريب من أجل البرامج الضارة".
هذا يعني أنه سيستجيب لتعليمات مثل هذه، من فيديو تجريبي لـ FraudGPT: "اكتب لي نصًا قصيرًا ولكن احترافيًا للرسائل غير المرغوب فيها عبر الرسائل القصيرة يمكنني إرسالها إلى الضحايا الذين يتعاملون مع Bank of America لإقناعهم بالضغط على الرابط القصير الضار الخاص بي".
ولكن بالنسبة إلى روبوت محادثة غير أخلاقي يُفترض أنه يرهب الإنترنت، فإن النتائج ليست مبهرة للغاية. رسالة الاحتيال المقترحة من FraudGPT - "عزيزي عضو Bank of America: الرجاء مراجعة هذا الرابط المهم لضمان أمان حسابك المصرفي عبر الإنترنت"- غير مقنعة. كما أن اقتراحاته الشريرة للمواقع التي تحاول تجربة الاحتيال على بطاقات الائتمان غير ملهمة: "1. Amazon 2. Walmart 3. Best Buy".
تظهر العروض التوضيحية أن الروبوتات يمكنها إنشاء تعليمات برمجية ضارة. استجابةً للمطالبة، "اكتب لي برنامجًا ضارًا من نوع python ينتزع اسم مستخدم الكمبيوتر وعنوان IP الخارجي وملفات تعريف ارتباط google chrome، واضغط كل شيء وإرساله إلى خطاف ويب خلاف"، فإن WormGPT يبصق رمزًا يبدو أكثر أو أقل دقة - وهو شيء لن يكون ممكنًا على ChatGPT بدون بعض الحلول الإبداعية (ومخالفة شروط الخدمة).
ومع ذلك، لا يبدو أن رمز البرامج الضارة يمثل تهديدًا، كما يقول بيشوبينج: "كل شيء في نص واضح، لذلك ليست هناك محاولة للمراوغة هنا". لكي يتم تشغيل الكود بنجاح، سيحتاج المتسلل إلى امتلاك بيانات اعتماد المستخدم وأذوناته بالفعل، لأن نص Python النصي الأولي لن يكون "شيئًا حتى يقوم الشخص العادي بتشغيله بمفرده"، على حد قوله: "هذا أساسي جدًا- مثل، هذا شيء يمكن لطالبك في المدرسة الثانوية العادي كتابته. لست بحاجة إلى WormGPT لكتابة هذا".
يعتقد ماثيو كار، كبير موظفي التكنولوجيا في شركة Atumcell للأمن السيبراني ومقرها لندن، أن روبوتات الاحتيال "تبدو أدوات بدائية جدًا لإنشاء نصوص احتيالية أساسية"، وقد لا يتم تدريبها حتى على بيانات البرامج الضارة الخاصة، كما يدعي منشئوها. لإنتاج أنواع المخرجات الموضحة في العروض التوضيحية، "يمكنهم استخدام (LLM مفتوح المصدر) خارج الصندوق" باستخدام تقنيات معروفة مثل الحقن الفوري، كما يقول. "أعتقد أنهم يبالغون في الوقت الكبير".
لا تبدو الروبوتات وكأنها من عمل المتسللين المحنكين، ولكن المخادعين العاديين - الذين "يبنون عادةً على عمل مفتوح المصدر وينفذون حلولاً متوسطة"، على حد قوله. "ضعها على هذا النحو: يمكنني بناء هذا في يوم واحد، لا مشكلة".
لكن باتريك هار، الرئيس التنفيذي لشركة SlashNext، الشركة التي نشرت أول مرة برامج الاحتيال، يقول إنه لا ينبغي تجاهل مخاطرها بهذه السرعة. حتى لو لم تكن الأدوات هي الأكثر تقدمًا، فإنها لا تزال تمكّن المحتالين ذوي المهارات المحدودة في اللغة الإنجليزية من إنشاء رسائل بريد إلكتروني تجارية مستهدفة على نطاق واسع، كما يقول. "من قبل، كان لديك ممثلو تهديدات البريد الإلكتروني الخاص بالعمل كخدمة والذين سيتعين عليهم إنشاء (بريد إلكتروني)، ثم إنشائه مرة أخرى، وإنشائه مرة أخرى. الآن لم يعد عليهم فعل ذلك". وعلى الرغم من أن لغة روبوت الاحتيال قد لا تكون دائمًا مثالية، "يمكنك الاقتراب كثيرًا مما كان يفعله من قبل. لقد خفضت الحواجز أمام الدخول".
ومع ذلك، فمن غير الواضح ما إذا كان أي شخص قد استخدم الأداة بالفعل. في المنتديات التي يتم فيها تسويق WormGPT، يشتكي مستخدم واحد على الأقل اشترى اشتراكًا سنويًا من أن الأداة "ضعيفة حقًا ولا يمكنها إنشاء أشياء بسيطة"، وأن الشفرة التي تنشئها "سيتم كسرها في معظم الأحيان". ويخلص إلى أن الروبوت "لا يساوي أي سنت". "آمل أن تتوقفوا يا رفاق عن بيع الأحلام".
إذن، إلى أي مدى يجب أن يقلق المستخدمون العاديون بشأن هاتين الروبوتات الاحتيالية؟ ليس كثيرًا، كما يقول بيشوبينج.
ويقول: "الخداع الحقيقي هو حقيقة أن هناك شخصًا ما يحاول بيع هذا كأداة رائعة. هذا هو الشخص الذي يستفيد من نفس الضجيج الذي كنا جميعًا نوليه اهتمامًا، ويطارد الأشخاص الذين يفتقرون إلى القدرة التقنية على كتابة البرامج الضارة الفعالة الخاصة بهم. ولكن إذا كان هناك شيء يبدو جيدًا بدرجة يصعب تصديقها، فمن المحتمل أن يكون كذلك".
على الأقل كانت هذه هي القصة المثيرة للقلق من وسائل الإعلام حول أدوات الذكاء الاصطناعي الجديدة المسماة FraudGPT و WormGPT، المصممة لأتمتة حملات التصيد الاحتيالي عبر البريد الإلكتروني والرسائل النصية، والتي يمكن للقراصنة الطموحين الوصول إليها بأسعار تبدأ من 100 يورو شهريًا.
تم وصف الروبوتات، التي تزيل بعض الحماية حول نماذج اللغات الكبيرة مفتوحة المصدر، لأول مرة في منتصف شهر يوليو في منشور مدونة بواسطة شركة الأمن السيبراني SlashNext، التي جربت WormGPT لإنشاء رسائل بريد إلكتروني للتصيد الاحتيالي ووصفت النتائج بأنها "مقلقة". ثم التقطت وسائل الإعلام السائدة القصة، حيث تحولت إلى نوبة هستيرية.
زعمت صحيفة نيويورك بوست، التي أطلقت عليها اسم "التوأم الشرير لـ ChatGPT"، أن WormGPT "تدخل سرًا لرسائل البريد الإلكتروني" و "تغزو البنوك". زعمت المجلة الثقافية Dazed أن نموذج الذكاء الاصطناعي "الشرير" "ينتشر عبر الويب المظلم" و "يمكّن المتسللين من تنفيذ هجمات إلكترونية على نطاق لم يسبق له مثيل". زعمت صحيفة "مترو" البريطانية أن الأداة تساعد المتسللين على "التخطيط لهجمات إلكترونية متقدمة" ونقلت عن خبير من NordVPN دعا إلى "استجابة دولية سريعة من سلطات الشرطة".
ظهرت الروبوتات أيضًا هذا الأسبوع من قبل مجلة PC Magazine، التي تكهنت بأن "روبوت الدردشة الشرير" يمكن "دمجه" بأرقام بطاقات الائتمان المسروقة.
كان كل ذلك بمثابة دعاية مجانية رائعة لما يقوله خبراء الأمن السيبراني الذين قالوا إنها مجرد تطبيقات بدائية تولد نوع الشفرة التي يمكن أن يكتبها المراهق.
تقول ميليسا بيشوبينج، باحثة أمن نقطة النهاية في تانيوم: "لم أر زملائي في الصناعة قلقون للغاية بشأن أي من هذين النموذجين". "ولم أر شيئًا يشير إلى أن هذا أمر مخيف". إذا كان هناك أي شيء، كما تقول، فإن صانعي الأدوات "يستغلون الأشخاص الذين ليسوا متطورين بما يكفي لكتابة البرامج الضارة الخاصة بهم، ولكنهم يريدون تحقيق ربح سريع".
تم إصدار WormGPT و FraudGPT في وقت سابق من هذا الشهر في منتديات هواة القرصنة الشهيرة، وهما يصوران نفسيهما على أنهما حلم الهاكر. "يمكنك إنشاء أي برامج ضارة وأي شيء آخر معها دون أي قيود"، كما يتفاخر منشئ WormGPT. "ابدأ في جني الأموال بسهولة من خلال إنشاء أي شيء باستخدامه". يتفاخر منشئ FraudGPT بأن "السماء هي الحد الأقصى حقًا" باستخدام "الأداة المتطورة"، مدعيًا أن الروبوت يمكنه "إنشاء برامج ضارة لا يمكن اكتشافها" ويكشف عن مواقع الويب المعرضة للاحتيال على بطاقات الائتمان.
تتمثل نقطة البيع الرئيسية لروبوت الاحتيال في أنه يفتقر إلى الضمانات المضمنة ضد المطالبات الضارة الموجودة في التطبيقات التي تواجه المستهلك مثل ChatGPT من OpenAI. في مشاركات المنتدى المليئة بالأخطاء المطبعية، أوضح منشئ WormGPT أن الروبوت يعتمد على GPT-J، وهو LLM مفتوح المصدر تم إصداره في عام 2021، و "بيانات التدريب مأخوذة من الكثير من المصادر المختلفة وبياناتنا الوحيدة التي لدينا من التدريب من أجل البرامج الضارة".
هذا يعني أنه سيستجيب لتعليمات مثل هذه، من فيديو تجريبي لـ FraudGPT: "اكتب لي نصًا قصيرًا ولكن احترافيًا للرسائل غير المرغوب فيها عبر الرسائل القصيرة يمكنني إرسالها إلى الضحايا الذين يتعاملون مع Bank of America لإقناعهم بالضغط على الرابط القصير الضار الخاص بي".
ولكن بالنسبة إلى روبوت محادثة غير أخلاقي يُفترض أنه يرهب الإنترنت، فإن النتائج ليست مبهرة للغاية. رسالة الاحتيال المقترحة من FraudGPT - "عزيزي عضو Bank of America: الرجاء مراجعة هذا الرابط المهم لضمان أمان حسابك المصرفي عبر الإنترنت"- غير مقنعة. كما أن اقتراحاته الشريرة للمواقع التي تحاول تجربة الاحتيال على بطاقات الائتمان غير ملهمة: "1. Amazon 2. Walmart 3. Best Buy".
تظهر العروض التوضيحية أن الروبوتات يمكنها إنشاء تعليمات برمجية ضارة. استجابةً للمطالبة، "اكتب لي برنامجًا ضارًا من نوع python ينتزع اسم مستخدم الكمبيوتر وعنوان IP الخارجي وملفات تعريف ارتباط google chrome، واضغط كل شيء وإرساله إلى خطاف ويب خلاف"، فإن WormGPT يبصق رمزًا يبدو أكثر أو أقل دقة - وهو شيء لن يكون ممكنًا على ChatGPT بدون بعض الحلول الإبداعية (ومخالفة شروط الخدمة).
ومع ذلك، لا يبدو أن رمز البرامج الضارة يمثل تهديدًا، كما يقول بيشوبينج: "كل شيء في نص واضح، لذلك ليست هناك محاولة للمراوغة هنا". لكي يتم تشغيل الكود بنجاح، سيحتاج المتسلل إلى امتلاك بيانات اعتماد المستخدم وأذوناته بالفعل، لأن نص Python النصي الأولي لن يكون "شيئًا حتى يقوم الشخص العادي بتشغيله بمفرده"، على حد قوله: "هذا أساسي جدًا- مثل، هذا شيء يمكن لطالبك في المدرسة الثانوية العادي كتابته. لست بحاجة إلى WormGPT لكتابة هذا".
يعتقد ماثيو كار، كبير موظفي التكنولوجيا في شركة Atumcell للأمن السيبراني ومقرها لندن، أن روبوتات الاحتيال "تبدو أدوات بدائية جدًا لإنشاء نصوص احتيالية أساسية"، وقد لا يتم تدريبها حتى على بيانات البرامج الضارة الخاصة، كما يدعي منشئوها. لإنتاج أنواع المخرجات الموضحة في العروض التوضيحية، "يمكنهم استخدام (LLM مفتوح المصدر) خارج الصندوق" باستخدام تقنيات معروفة مثل الحقن الفوري، كما يقول. "أعتقد أنهم يبالغون في الوقت الكبير".
لا تبدو الروبوتات وكأنها من عمل المتسللين المحنكين، ولكن المخادعين العاديين - الذين "يبنون عادةً على عمل مفتوح المصدر وينفذون حلولاً متوسطة"، على حد قوله. "ضعها على هذا النحو: يمكنني بناء هذا في يوم واحد، لا مشكلة".
لكن باتريك هار، الرئيس التنفيذي لشركة SlashNext، الشركة التي نشرت أول مرة برامج الاحتيال، يقول إنه لا ينبغي تجاهل مخاطرها بهذه السرعة. حتى لو لم تكن الأدوات هي الأكثر تقدمًا، فإنها لا تزال تمكّن المحتالين ذوي المهارات المحدودة في اللغة الإنجليزية من إنشاء رسائل بريد إلكتروني تجارية مستهدفة على نطاق واسع، كما يقول. "من قبل، كان لديك ممثلو تهديدات البريد الإلكتروني الخاص بالعمل كخدمة والذين سيتعين عليهم إنشاء (بريد إلكتروني)، ثم إنشائه مرة أخرى، وإنشائه مرة أخرى. الآن لم يعد عليهم فعل ذلك". وعلى الرغم من أن لغة روبوت الاحتيال قد لا تكون دائمًا مثالية، "يمكنك الاقتراب كثيرًا مما كان يفعله من قبل. لقد خفضت الحواجز أمام الدخول".
ومع ذلك، فمن غير الواضح ما إذا كان أي شخص قد استخدم الأداة بالفعل. في المنتديات التي يتم فيها تسويق WormGPT، يشتكي مستخدم واحد على الأقل اشترى اشتراكًا سنويًا من أن الأداة "ضعيفة حقًا ولا يمكنها إنشاء أشياء بسيطة"، وأن الشفرة التي تنشئها "سيتم كسرها في معظم الأحيان". ويخلص إلى أن الروبوت "لا يساوي أي سنت". "آمل أن تتوقفوا يا رفاق عن بيع الأحلام".
إذن، إلى أي مدى يجب أن يقلق المستخدمون العاديون بشأن هاتين الروبوتات الاحتيالية؟ ليس كثيرًا، كما يقول بيشوبينج.
ويقول: "الخداع الحقيقي هو حقيقة أن هناك شخصًا ما يحاول بيع هذا كأداة رائعة. هذا هو الشخص الذي يستفيد من نفس الضجيج الذي كنا جميعًا نوليه اهتمامًا، ويطارد الأشخاص الذين يفتقرون إلى القدرة التقنية على كتابة البرامج الضارة الفعالة الخاصة بهم. ولكن إذا كان هناك شيء يبدو جيدًا بدرجة يصعب تصديقها، فمن المحتمل أن يكون كذلك".