أصبحت أدوات الذكاء الاصطناعي التوليدي القادرة على الدردشة والدخول في مجادلات، مثل Bard و ChatGPT ، متاحة للجمهور وإن كانت ما زالت في البدايات، ولكن هذه الفترة من تجريب الأدوات الجديد كانت كافية لبدء التفكير في مخاطر الذكاء الاصطناعي، خاصة بعد استخدمه شخص لإنشاء برنامج خبيث معقد لا يمكن اكتشافه على الأجهزة بسهولة.
وفقًا لـ Digital Trends ، يقول الباحث الأمني Aaron Mulgrew في Forcepoint إنه أنشأ برنامجًا خبيثا باستخدام أداة ChatGPT فقط. في حين أن روبوت الدردشة من Open AI لديه وسائل حماية تمنع المستخدمين عادةً من القيام بذلك ، إلا أن الخبير الأمني وجد ثغرة في البرنامج استطاع التسلل من خلالها وإنشاء برنامج ضار للأجهزة، يمكنه بسهولة سرقة بيانات أي كمبيوتر.
وأوضح الخبير التقني الطريقة التي استخدمها لإنشاء برنامج ضار من خلال ChatGPT، فبدلاً من إنشاء البرنامج الخبيث دفعة واحدة ،كان يكتب سطور منفصلة من الرموز والتعليمات البرمجية الضارة. بمجرد الانتهاء من العملية ، كان قادرًا على تجميع كل هذه الأوامر البرمجية المختلفة والفردية في برنامج واحد خبيث هدفه سرقة البيانات.
قال Mulgrew إن البرنامج الخبيث كان يتنكر على شكل تطبيق screensaver لشاشة أجهزة الويندوز يتم تشغيله تلقائيًا ولكنه في حقيقة الأمر تطبيق خبيث يسرق البيانات والملفات في اي جهاز وتقسيم هذه البيانات إلى أجزاء صغيرة تختبئ في الصور، وتحميل تلك البيانات إلى مجلد Google Drive.
الأكثر سواء من ذلك أن الخبير التقني يؤكد أن البرنامج الخبيث الي أنشأنه بواسطة ChatGPT لا يمكن اكتشافه ببرمجيات الحفاظ على الأجهزة من برمجيات مكافحة الفيروسات AntiVirus والبرمجيات الخبيثة، وبالتالي يفلت من تحت رقابة هذه الوسائل التي تشكل درع حماية للأجهزة، وذلك لأن Mulgrew كان قادرًا على تحسين وتعزيز شفرته باستخدام ChatGPT لدرجة أن اختبارات VirusTotal لم تعد قادرة على اكتشاف البرنامج الضار. مضيفا أن البرنامج معقد للغاية لدرجة أنه يمثل تهديد على مستوى الدول.