الأخبار

هل لدى ChatGPT أية مشكلات أمنية؟

في يناير 2023، بعد شهرين فقط من إطلاقه، أصبح ChatGPT (المحولات التوليدية المدربة مسبقًا Generative Pre-trained Transformer) أسرع التطبيقات نموًا على الإطلاق، حيث حشد أكثر من 100 مليون مستخدم.

قد يكون روبوت الدردشة المتقدم الخاص بـ OpenAI قد أعاد تنشيط اهتمام الجمهور بالذكاء الاصطناعي، لكن القليل منهم فكر بجدية في المخاطر الأمنية المحتملة المرتبطة بهذا المنتج.

ChatGPT: التهديدات والمشكلات الأمنية
قد تكون التكنولوجيا التي تقوم عليها ChatGPT وروبوتات المحادثة الأخرى متشابهة، لكن ChatGPT تندرج في فئة خاصة بها. هذه أخبار رائعة إذا كنت تنوي استخدامها كنوع من المساعد الشخصي، ولكنك تقلق إذا كنت تعتقد أن الجهات الفاعلة في التهديد تستخدمها أيضًا.

يمكن لمجرمي الإنترنت استخدام ChatGPT لكتابة برامج ضارة وإنشاء مواقع ويب احتيالية وإنشاء رسائل بريد إلكتروني للتصيد الاحتيالي وإنشاء أخبار مزيفة وما إلى ذلك. لهذا السبب، قد تكون ChatGPT مخاطرة أكبر للأمن السيبراني من كونها منفعة.

في الوقت نفسه، هناك مخاوف جدية من أن ChatGPT نفسها بها بعض نقاط الضعف التي لم تتم معالجتها. على سبيل المثال، في مارس 2023، ظهرت تقارير حول تمكن بعض المستخدمين من عرض عناوين محادثات الآخرين. كما ذكرت The Verge في ذلك الوقت، أوضح Sam Altman الرئيس التنفيذي لشركة OpenAI  أن "خطأ في مكتبة مفتوحة المصدر" تسبب في حدوث المشكلة.

هذا يؤكد فقط على مدى أهمية تقييد ما تشاركه مع ChatGPT، والذي يجمع قدرًا مذهلاً من البيانات افتراضيًا. تعلمت شركة سامسونج العملاقة في مجال التكنولوجيا هذا الأمر بالطريقة الصعبة، عندما قامت مجموعة من الموظفين الذين كانوا يستخدمون روبوت المحادثة كمساعد بتسريب معلومات سرية إليه عن طريق الخطأ.

هل يعد ChatGPT تهديدًا لخصوصيتك؟
الأمان والخصوصية ليسا نفس الشيء، لكنهما مرتبطان ارتباطًا وثيقًا وغالبًا ما يتقاطعان. إذا كان ChatGPT يمثل تهديدًا أمنيًا، فهو يمثل أيضًا تهديدًا للخصوصية، والعكس صحيح. لكن ماذا يعني هذا من الناحية العملية؟ ما هي سياسات الخصوصية والأمان في ChatGPT؟

تم جمع مليارات الكلمات من الإنترنت لإنشاء قاعدة بيانات ChatGPT الواسعة. قاعدة البيانات هذه في حالة توسع مستمر، حيث يقوم ChatGPT بتخزين ما يشاركه المستخدمون. منحت مؤسسة Common Sense غير الربحية ومقرها الولايات المتحدة ChatGPT درجة تقييم الخصوصية بنسبة 61%، مشيرة إلى أن chatbot يجمع معلومات التعريف الشخصية (PII)، وغيرها من البيانات الحساسة. يتم تخزين معظم هذه البيانات أو مشاركتها مع جهات خارجية معينة.

على أي حال، يجب أن تكون حذرًا عند استخدام ChatGPT، خاصةً إذا كنت تستخدمه للعمل، أو لمعالجة المعلومات الحساسة. كقاعدة عامة، يجب ألا تشارك الروبوت ما لا تريد أن يعرفه الجمهور.

معالجة المخاطر الأمنية المرتبطة بـ ChatGPT
سيتم تنظيم الذكاء الاصطناعي في مرحلة ما، لكن من الصعب تخيل عالم لا يشكل فيه تهديدًا أمنيًا. مثل كل التقنيات، يمكن- وسوف- يساء استخدامها.

وفقًا لبرنامج Malwarebytes، ستصبح روبوتات الدردشة في المستقبل جزءًا لا يتجزأ من محركات البحث والمساعدين الصوتيين والشبكات الاجتماعية. وسيكون لهم دور يلعبونه في مختلف الصناعات، من الرعاية الصحية والتعليم إلى التمويل والترفيه.

سيؤدي هذا إلى تغيير جذري في الأمن كما نعرفه. ولكن كما لاحظ Malwarebytes أيضًا، يمكن استخدام ChatGPT والأدوات المماثلة بواسطة متخصصي الأمن السيبراني أيضًا؛ على سبيل المثال للبحث عن الأخطاء في البرامج أو "الأنماط المشبوهة" في نشاط الشبكة.

رفع مستوى الوعي هو المفتاح
ما الذي سيكون بإمكان ChatGPT بعد خمس أو 10 سنوات من الآن؟ يمكننا فقط التكهن، ولكن ما نعرفه على وجه اليقين هو أن الذكاء الاصطناعي لن يذهب إلى أي مكان.

مع ظهور روبوتات محادثة أكثر تقدمًا، سيتعين على الصناعات بأكملها تعديلها وتعلم كيفية استخدامها بطريقة مسؤولة. وهذا يشمل صناعة الأمن السيبراني، والتي يتم تشكيلها بالفعل بواسطة الذكاء الاصطناعي. يعد رفع مستوى الوعي حول المخاطر الأمنية المرتبطة بالذكاء الاصطناعي أمرًا أساسيًا، وسيساعد في ضمان تطوير هذه التقنيات واستخدامها بطريقة أخلاقية.