قامت شركة مايكروسوفت Microsoft الأمريكية بحملة تسريح جديدة لكل فريق الأخلاقيات والمجتمع داخل القسم المسؤول عن الذكاء الاصطناعي كجزء من عمليات التسريح الأشمل والأعم التي أثرت على 10 آلاف موظف من جميع أنحاء العالم.
وفقا لموقع the Verge التقني، قال الموظفون الحاليون والسابقون إن هذه الخطوة تعني ببساطة أن مايكروسوفت Microsoft حاليا بلا فريق مخصص لضمان كبح جماح تكنولوجيا الذكاء الاصطناعي التوليدي، وذلك من خلال ربط هذه الأداة الخطيرة بالأخلاقيات والمبادئ العامة للمجتمع حتى لا تخرقها وترتكب جرائم مجتمعية.
ولكن وفقا لـ مايكروسوفت هي لا تزال تحتفظ بمكتب الذكاء الاصطناعي الذي يعمل بكل جد ونشاط في مهامه وأصبح مكلف بوضع القواعد والمبادئ التي تحكم أدوات الذكاء الاصطناعي التوليدي، وتقول الشركة الأمريكية إن استثماراتها الإجمالية في تطوير الذكاء الاصطناعي وفي الوقت نفسه بطريقة مسؤولة آخذة في النمو على الرغم من عمليات التسريح الأخيرة لبعض الموظفين.
وقالت الشركة في بيان: "لا زالت شركة مايكروسوفت Microsoft ملتزمة بتطوير منتجات وخبرات ذكاء اصطناعي بشكل آمن ومسؤول ، وتقوم بذلك من خلال الاستثمار في الأشخاص والعمليات والشراكات التي تعطي الأولوية لذلك".
وأضاف البيان الرسمي لـ "مايكروسوفت": "على مدى السنوات الـ 6 الماضية ، قمنا بزيادة عدد الموظفين في كل فرق منتجاتنا المختلفة وأيضا داخل مكتب الذكاء الاصطناعي، والذين كانوا جنبا إلى جنب مسؤولون عن ضمان وضع المبادئ الحاكمة للذكاء الاصطناعي الخاصة بنا موضع التنفيذ. نحن نقدر العمل الرائد الذي قام به فريق الأخلاق والمجتمع لمساعدتنا في رحلتنا المستمرة والمسؤولة للذكاء الاصطناعي ".
خلال السنوات الأخيرة من عمل فريق الأخلاقيات والمجتمع، صمم الفريق لعبة تسمى Judgment Call ساعدت المطورين في علم البرمجيات على تصور الأضرار المحتملة التي قد تنجم عن الذكاء الاصطناعي التوليدي وبالتالي طرحها للنقاش أثناء تطوير هذه المنتجات، وكان فريق الأخلاقيات جزءًا لا يتجزأ من "مجموعة أدوات الابتكار المسؤول" قبل نشر أي منتج جديد للجماهير واستخدامه.
في الآونة الأخيرة وقبل حملة الإقالات الجماعية كان فريق المجتمع والأخلاقيات يعمل على تحديد المخاطر التي يشكلها اعتماد Microsoft لتقنية OpenAI وتحديدًا أداة الـ ChatGPT في كل مجموعة منتجاتها المتنوعة ويناقش جدوى خطوة دمج ChatGPT والذكاء الاصطناعي ضمن منتجات مايكروسوفت.