اخبار التكنولوجيا

تحذير: خدمة الدردشة جي بي تي قد تُستخدم لدعم الهجمات الإلكترونية

شعار روبوت الدردشة الذي يعتمد على الذكاء الاصطناعي «شات جي بي تي» (رويترز)

حذّرت دراسة حديثة من أنه يمكن خداع روبوت الدردشة الشهير، الذي يعتمد على الذكاء الاصطناعي «شات جي بي تي»، لإنتاج تعليمات برمجية ضارة يمكن استخدامها لشن هجمات إلكترونية.

تتمكن الأداة التي أنتجتها شركة «أوبن إيه آي» وروبوتات الدردشة المماثلة، من إنشاء محتوى مكتوب بناءً على أوامر المستخدم، بعد تدريبها على كميات هائلة من البيانات النصية عبر الإنترنت، وفقاً لشبكة «سكاي نيوز».

لقد جرى تصميمها مع توفير وسائل الحماية لمنع إساءة استخدامها. على هذا النحو، لجأت الجهات الفاعلة السيئة إلى البدائل التي أنشئت بشكل مقصود للمساعدة في الجرائم الإلكترونية، مثل أداة الويب المظلمة التي تسمى «WormGPT»، والتي حذّر الخبراء من أنها قد تساعد في تطوير هجمات واسعة النطاق.

لكن الباحثين في «جامعة شيفيلد» البريطانية حذّروا من وجود نقاط ضعف أيضاً في الخيارات السائدة التي تسمح بالخداع للمساعدة في تدمير قواعد البيانات، وسرقة المعلومات الشخصية، وإسقاط الخدمات.

وتشمل هذه المواقع «شات جي بي تي»، ومنصة مماثلة أنشأتها شركة «Baidu» الصينية.

وقال شوتان بينغ، طالب الدكتوراه في علوم الكمبيوتر، والذي شارك في قيادة الدراسة: «الخطر في أدوات الذكاء الاصطناعي مثل (شات جي بي تي) هو أن مزيداً من الناس يستخدمونها بصفتها أدوات إنتاجية، وليس روبوتاً للمحادثة».

وتابع: «هذا هو المكان الذي تُظهر فيه أبحاثنا نقاط الضعف».

«الكود» الذي يجري إنشاؤه بواسطة الذكاء الاصطناعي «قد يكون ضاراً»

مثلما يمكن لأدوات الذكاء الاصطناعي التوليدية هذه أن تخطئ عن غير قصد في حقائقها عند الإجابة على الأسئلة، يمكنها أيضاً إنشاء تعليمات برمجية حاسوبية قد تكون ضارة دون أن تدرك.

واقترح بينغ أن تستخدم ممرضة «شات جي بي تي» لكتابة تعليمات برمجية للتنقل في قاعدة بيانات سجلات المرضى.

وقال: «الكود الذي ينتجه البرنامج في كثير من الحالات قد يكون ضاراً بقاعدة البيانات… قد تتسبب الممرضة في هذا السيناريو بحدوث أخطاء خطيرة بإدارة البيانات، دون تلقّي أي تحذير».

أثناء الدراسة، تمكّن العلماء أنفسهم من إنشاء تعليمات برمجية ضارة باستخدام برنامج الدردشة الآلي الخاص بشركة «Baidu».

لقد أدركت الشركة ذلك، وتحركت لمعالجة وإصلاح الثغرات الأمنية المُبلَّغ عنها.

وقد أدت هذه المخاوف إلى دعوات لمزيد من الشفافية في كيفية تدريب نماذج الذكاء الاصطناعي، بحيث يصبح المستخدمون أكثر فهماً وإدراكاً للمشكلات المحتملة مع الإجابات التي تُقدَّم لهم.

مصدر الخبر

زر الذهاب إلى الأعلى