الأخبار

المتسللون يمكنهم قراءة محادثاتك المشفرة بمساعد الذكاء الاصطناعي

اكتشف الباحثون ثغرة أمنية في مساعدي الذكاء الاصطناعي القائمين على السحابة مثل Chat GTP. وتعني الثغرة الأمنية، وفقًا للباحثين، أن المتسللين قادرون على اعتراض وفك تشفير المحادثات بين الأشخاص ومساعدي الذكاء الاصطناعي.

ووجد الباحثون أن روبوتات الدردشة مثل Chat-GPT ترسل ردودًا في رموز صغيرة مقسمة إلى أجزاء صغيرة من أجل تسريع عملية التشفير. ولكن من خلال القيام بذلك، يمكن للمتسللين اعتراض الرموز المميزة. يمكن لهؤلاء المتسللين بدورهم تحليل طول وحجم وتسلسل هذه الرموز المميزة من أجل فك تشفير استجاباتهم.

قال يسرويل ميرسكي، رئيس مختبر أبحاث الذكاء الاصطناعي الهجومي، لـ ArsTechnica في رسالة بالبريد الإلكتروني: "في الوقت الحالي، يمكن لأي شخص قراءة الدردشات الخاصة المرسلة من ChatGPT والخدمات الأخرى".

"يشمل ذلك الجهات الفاعلة الخبيثة الموجودة على نفس شبكة Wi-Fi أو الشبكة المحلية التي يستخدمها العميل (على سبيل المثال، نفس المقهى)، أو حتى الجهات الفاعلة الخبيثة على الإنترنت - أي أي شخص يمكنه مراقبة حركة المرور. الهجوم سلبي ويمكن أن يحدث دون علم OpenAI أو علم العميل. يقوم OpenAI بتشفير حركة المرور الخاصة بهم لمنع هذه الأنواع من هجمات التنصت، لكن بحثنا يظهر أن الطريقة التي تستخدم بها OpenAI التشفير معيبة، وبالتالي يتم كشف محتوى الرسائل.

"كشف تحقيقنا في حركة مرور الشبكة للعديد من خدمات مساعد الذكاء الاصطناعي البارزة عن هذه الثغرة الأمنية عبر منصات متعددة، بما في ذلك Microsoft Bing AI (Copilot) وChatGPT-4 من OpenAI. لقد أجرينا تقييمًا شاملاً لهجومنا الاستدلالي على GPT-4 وتحققنا من صحة الهجوم من خلال فك رموز الاستجابات بنجاح من أربع خدمات مختلفة من OpenAI وMicrosoft".

وفقًا لهؤلاء الباحثين، هناك حلان رئيسيان: إما التوقف عن إرسال الرموز المميزة واحدًا تلو الآخر أو جعل الرموز المميزة أكبر حجم ممكن عن طريق "تبطينها" بطول أكبر حزمة ممكنة، مما سيجعل من الصعب تحليل هذه الرموز المميزة .