الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري

مايكروسوفت تدفع بتشريعات جديدة في الكونجرس لتنظيم أدوات الذكاء الاصطناعي

ChatGPT
ChatGPT

خرجت جماعة الضغط المسماة BSA، التي تمثل بعض الشركات الكبيرة في "وادي السيليكون"، وعلى رأسها شركة مايكروسوفت، بوثيقة جديدة قدمتها للكونجرس الأمريكي لتحديد بعض القواعد والتشريعات الأساسية للذكاء الاصطناعي، في تشريعات الخصوصية الوطنية.

وفقا لتقرير موقع cnbc الإخباري، تمثل مجموعة BSA شركات Adobe وإنتل intel وIBM وOracle، ولكن من يترأس المجموعة شركة مايكروسوفت لأنها هي التي تتولى زمام القيادة فيما يتعلق بتكنولوجيا الذكاء الاصطناعي AI بسبب مساهمتها في شركة OpenAI التي قامت بابتكار أداة ChatGPT التي قلبت الدنيا رأسًا على عقب، وكانت السبب في دخول شركات التكنولوجيا عصر جديد تتنافس فيه على تقديم روبوتات.

ChatGPT 

 أسست شركة  Microsoft  المجموعة في عام 1988. 

وتجدر الإشارة إلى أن جوجل Google، المنافس الأشرس والأول لمايكروسوفت حاليا، ليست عضوًا في هذه المجموعة. 

ببساطة، تريد مجموعة BSA أن تقوم وكالة فيدرالية تابعة للدولة بمراجعة شهادات اعتماد أدوات الذكاء الاصطناعي، والتأكد من الامتثال لهذه القواعد والتشريعات، وأن تقوم الشركات بتطوير برامج لإدارة مخاطر الذكاء الاصطناعي عالي الخطورة.

وأعلنت مجموعة الـ BSA أن قانون خصوصية وحماية البيانات الأمريكية (ADPPA) هو الأداة المناسبة لإضافة تشريعات فيه تنص على قواعد الذكاء الاصطناعي الجديدة هذه، ويأملون أنه عند إعادة تقديم ADPPA ، سيحتوي على نصوص جديدة لتنظيم الذكاء الاصطناعي.

 تتواصل المجموعة مع لجنة الطاقة والتجارة بمجلس النواب الأمريكي بشأن اقتراحاتهم، ويبدو أن اللجنة منفتحة لسماع أصوات مختلفة. 

أمام مشروع القانون وقت طويل قبل أن يصبح قانونًا، وقد حدد BSA الأطر الأساسية والتشريعات اللازمة التي يجب أن تضعها الحكومة.

تأتي هذه التحركات السريعة من قبل مجموعة الضغط في الوقت الذي أعرب فيه عدد كبير من أعضاء الكونجرس، بمن فيهم زعيم الأغلبية في مجلس الشيوخ تشاك شومر، عن اهتمامهم بمواكبة التطور السريع لتكنولوجيا الذكاء الاصطناعي، وتنظيم آلياته حتى لا يخرج عن السيطرة.

تدافع المجموعة BSA عن دمج 4 وسائل حماية من مخاطر تكنولوجيا الذكاء الاصطناعي في التشريعات الجديدة، وتنص على التالي:

  1. يجب أن يتدخل الكونجرس في عمل الشركات ويضع متطلبات واضحة بشأن وقت تقديم ابتكارات وتصميمات الذكاء الاصطناعي مع ضبط مدى تأثيره.
  2. يجب أن يحدد الكونجرس مخاطر كل وسيلة من وسائل الذكاء الاصطناعي واتخاذ هذه الأدوات "قرارات تبعية" قد تؤثر على المجتمع.
  3. يجب على الكونجرس تعيين وكالة فيدرالية قائمة لمراجعة شهادات امتثال الشركة للقواعد التي يضعها الكونجرس.
  4. يجب أن يُطلب من الشركات تطوير برامج إدارة المخاطر للذكاء الاصطناعي عالية الخطورة.