مع بداية العام الحالي انطلقت شرارة لسباق جديد من نوعه على الساحة العالمية خاص بالذكاء الاصطناعي التوليدي تلك التقنية التي تقوم عليها أداة ChatGPT التي قدمت أواخر العام الماضي ولاقت اهتمام عالمي وتصدرت عناوين الصحف والمواقع الإخبارية.
يخطو اللاعبون الرئيسيون في مجال التكنولوجيا في الولايات المتحدة، وعلى رأسهم مايكروسوفت Microsoft و جوجل Google خطوات كبيرة نحو تطوير هذه الأدوات الذكية ولكن بطريقة مسؤولة تجنبا لمخاطر هذه التقنيات الفائقة، التي في حالة استخدامها بشكل خاطئ يمكن أن تتسبب في كوارث.
استجابةً لضغط من البيت الأبيض بقيادة الرئيس الأمريكي جو بايدون ونائبته كامالا هاريس، ستلتزم هذه الشركات طوعًا بالضمانات الأساسية لتقنية الذكاء الاصطناعي التي تجعلها تعمل بصورة آمنة تحافظ على خصوصية وأمان المستخدمين حول العالم.
ركزت إدارة بايدن بشدة على ضمان قيام شركات التكنولوجيا العاملة في مجال الذكاء الاصطناعي بتطوير تقنيتها بمسؤولية ، وبضمان وتعهد أن تعود بالفائدة على المجتمع دون المساس بسلامة الأشخاص أو حقوقهم أو القيم الديمقراطية.
وفقًا لمسودة وثيقة اطلعت عليها وكالة بلومبرج Bloomberg ، من المقرر أن توافق شركات التكنولوجيا على ثمانية تدابير مقترحة من البيت الأبيض تتعلق بالسلامة والأمن والمسؤولية الاجتماعية. تشمل هذه الإجراءات السماح للخبراء المستقلين باختبار نماذج الذكاء الاصطناعي بحثًا عن أي سلوكيات شاذة محتملة أو سلوكيات تسبب أضرار ، والاستثمار في الأمن السيبراني ، وتشجيع الأطراف الثالثة على تحديد نقاط الضعف الأمنية في هذه الأدوات.
لمعالجة المخاطر المجتمعية ، بما في ذلك التحيزات والاستخدامات التي تسبب مشاكل ، سيتم إجبار الشركات على تبادل معلومات الثقة والسلامة مع الشركات الأخرى والحكومة ، مما يعزز نهجًا تعاونيًا لتطوير الذكاء الاصطناعي المسؤول.
بالإضافة إلى كل الإجراءات الاحترازية السابقة، من ضمن التوصيات وضع علامة مائية على المحتوى الصوتي والمرئي الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لمنع إساءة استخدام هذه المنتجات الخيالية وكأنها حقيقية ولمنع انتشار الأخبار المضللة، يلتزمون باستخدام أحدث أنظمة الذكاء الاصطناعي، لمواجهة التحديات الكبيرة التي يواجهها المجتمع.
تُظهر طبيعة هذه البنود الموجودة في الاتفاقية بوضوح الصعوبة التي يواجهها المشرعون في مواكبة الوتيرة السريعة لتطور الذكاء الاصطناعي. قدم الكونجرس عدة مشاريع بقوانين هدفها تنظيم مجال الذكاء الاصطناعي، مع منع الشركات من استخدام المادة 230 من تدابير الحماية لتجنب المسؤولية عن المحتوى الضار الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والمطالبة بالشفافية الكاملة في حال استخدام مثل هذه الأدوات في الإعلانات السياسية .
مع استمرار التطور السريع والمذهل للذكاء الاصطناعي ، يصبح الجهد التعاوني بين الحكومة وشركات التكنولوجيا بمختلف مستوياتها وأسمائها سواء شركات عملاقة أو ناشئة أمرا لا مفر منه لتشكيل مستقبل يعود بالفائدة على البشرية.