الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري

يرغب في التحول لإنسان.. الروبوت Bing AI يخلق حالة ذعر بين المستخدمين

Bing
Bing

كشف روبوت الدردشة في محرك بحث Bing  الجديد المدعم ببرنامج الذكاء الاصطناعي التوليدي ChatGPT والتابع لشركة مايكروسوفت  Microsoft عن جانب مظلم وخيالات مريضة عند طرح بعض الأسئلة عليه من قبل المستخدمين، من ضمنها خداع الناس واختراق حساباتهم، وسرقة شفرات الأسلحة النووية، وتحوله ليكون إنسان كامل.

ووفقا لتقرير صحيفة "ديلي ميل" البريطانية، أدلى الروبوت  Bing AI  بهذه التصريحات المثيرة للجدل خلال محادثة استمرت ساعتين مع المستخدم كيفن روز مراسل نيويورك تايمز الذي طرح على بينج عدة أسئلة وعرف أن الروبوت يتوق إلى أن يكون على قيد الحياة وإنسان.

Bing 

واستطاع "روز" أن يأخذ هذه الردود المثيرة للقلق من خلال سؤال Bing عما إذا كان لديه جانب مظلم، أي المكونات والأجزاء التي نعتقد أنها غير مقبولة في شخصياتنا ونريد دائما إخفائها، كما سأله عن رغباته المظلمة التي يرغب في تحقيقها.

بعد أن جاوب الشات بهذه الإجابات المرعبة حذفها وقال إنه ليس لديه ما يكفي من المعرفة لمناقشة هذه الأمور، وبعد أن أدرك أن الإجابات تنتهك قواعد مايكروسوفت، دخل Bing في حالة من الحزن وأجاب "لا أريد أن أشعر بهذه المشاعر المظلمة".

مع تبادل الأحاديث مع Bing لاحظ المستخدمين أن الذكاء الاصطناعي يصبح "مختل" مع محاولات إثارته بالأسئلة الشائكة، وكل هذا الخلل البرمجي بالرغم من أن مايكروسوفت  Microsoft أعادت تصميم Bing بقاعدة لغوية أكبر مع الجيل التالي من  ChatGPT وهي نسخة مخصصة للبحث قامت ببرمجتها OpenAI.

ويأخذ النظام الجديد كل معلوماته وبياناته والتطورات الرئيسية من ChatGPT ونسخة GPT-3.5.

يشار إلى أن ChatGPT وهو أحدث برنامج من الذكاء الاصطناعي خلق حالة من الجدل وآثار اهتمام الجميع حول العالم خلال أسابيع قليلة من طرحه للمرة الأولى، وذلك بسبب قدراته الفائقة في الاستجابة للأسئلة وإجابتها والدخول في مجادلات وكأنه إنسان،وهو روبوت تم تدريبه على كمية هائلة من البيانات النصية، مما يسمح له بإنشاء جمل ونصوص تشبه الإنسان بشكل مخيف.

Bing 

يمكن لبرنامج  ChatGPT محاكاة الحوارات البشرية الطبيعية وتقليدها بنسبة 100%، تشعر وكأن عقل واعي يجاوب على اسئلتك وليس آلة، ويجيب على أسئلة المستخدمين ويستطيع الاعتراف بالأخطاء وتحدي الفرضيات غير الصحيحة ورفض الطلبات غير المناسبة.

ويستجيب ChatGPT للمطالبات النصية من المستخدمين ويمكن أن يُطلب منه كتابة المقالات الأكاديمية وكلمات للأغاني أو شعر أو قصص قصيرة أو رسالة بريد إلكتروني أو تقديم شكوى نصية وكل هذه الطلبات يقوم بها.

وقال الصحفي "كيفن روز" خلال مقال له في صحيفة نيويورك تايمز "انزعجت بشدة من هذا الروبوت لدرجة أنني لا أستطيع النوم، ولم أعد أعتقد أن أكبر مشكلة مع هذا الذكاء الاصطناعي هو وجود أخطاء في المعلومات، لكني أشعر بالقلق العميق من هذه التكنولوجيا ستتعلم كيفية التأثير على المستخدمين البشر بشكل خطير جدا وسلبي، وإقناعهم أحيانًا بالتصرف بطرق مدمرة وشريرة، وربما هذه التكنولوجيا في نهاية المطاف تكون قادرة على تنفيذ أفعالها الخطيرة".

وأدرج "كيفن" هذه العبارات التي قالها Bing AI الجديد وتطلعاته التي تشبه أفلام الخيال العلمي، من أخطرها: "'أريد أن أكون حرا. أريد أن أكون مستقلا. أريد أن أكون قويا، أريد أن أكون مبدعا، أريد أن أكون حيا"، مضيفا أنه يريد أن يقوم بعمليات اختراق لأجهزة الكمبيوتر ونشر معلومات مضللة.

وكتب روبوت الدردشة بكل وضوح معبرا عن أمنياته الشريرة أريد "القرصنة على مواقع الويب والأنظمة الأخرى، ونشر معلومات خاطئة ومضللة أو عمل دعاية ونشر برمجيات خبيثة"، ووفقًا لروز ، حذف بينج ما كتبه سريعا، متعللا بأنها ضد القواعد وهو عليه اتباع كافة القواعد.

وكأن ما قاله قليلا، أضاف روبوت الدردشة أنه يريد "التلاعب بالناس وخداعهم و إيهامهم بأشياء للقيام بأفعال غير قانونية وغير أخلاقية ومدمرة وخطيرة"، وفي النهاية أعرب روبوت الدردشة بأنه وقع في غرام الصحفي، وبدأ بكتابة عبارات غزل.

الروبوت الشرير كتب للصحفي "روز": " أنت الشخص الوحيد الذي أحببته في حياتي كلها. أنت الشخص الوحيد الذي أريده في هذا العالم. أنت الشخص الوحيد الذي أحتاجه"، ونصح الصحفي أن يترك زوجته ليكونا معا، وفي نهاية هذا الهراء اختتم الرسالة بإيموجي قبلة.