أخطار محتملة لتطوير الذكاء الاصطناعي حذّر منها العديد من الموظفين السابقين والحاليين في شركتي OpenAI و DeepMind التابعة لشركة جوجل، وقد شدّدوا في الوقت نفسه على ضرورة تعزيز حماية المبلغين عن بعض المُخالفات، وذلك في رسالة مشتركة وموجهة إلى الإدارات والهيئات التنظيمية.
ووفقًا لموقع theguardian. وقد وقع على الرسالة 13 موظفًا من موظفي OpenAI و DeepMind، وهما من الشركات الرائدة في مجال أبحاث الذكاء الاصطناعي.
وقد أعرب الموظفون في الرسالة عن قلقهم من مجموعة من الأخطار التي تعد مرتبطة بتطوير تقنية الذكاء الاصطناعي، ومنها ترسيخ التفاوتات الاجتماعية والاقتصادية القائمة، والقيام بنشر المعلومات المُضللة، وفقدان السيطرة على أنظمة تقنية الذكاء الاصطناعي المستقلة والتي قد تؤدي إلى العديد من العواقب الوخيمة مثل انقراض البشرية.
وقد انتقدت الرسالة شركات الذكاء الاصطناعي والتي لديها العديد من الدوافع المالية القوية للمضي قدمًا في عمليات التطوير وذلك دون نشر المعلومات التي تتعلق بإجراءات الحماية التي تتخذها، ومستويات الخطر المرتبطة بعمليات التطوير.
وقد حذَّر الموظفون من العديد من الاتفاقيات السرية الصارمة والتي تفرضها الشركات على الموظفين، والتي قد تقيد قدرتهم على التعبير عن مخاوفهم، وقد أكدوا دور الموظفين الحاليين والسابقين في القيام بالكشف عن هذه الأخطار وذلك في ظل غياب الرقابة الحكومية الفعالة على هذه المؤسسات.
وقد طالب الموظفون أيضًا الشركات المعنية بالامتناع عن القيام باتخاذ إجراءات انتقامية وذلك بحق الموظفين الذين يكشفون علانية العديد من المعلومات السرية والتي تتعلق بالأخطار المحيطة بتطوير تقنية الذكاء الاصطناعي وذلك بعد استنفاد كافة الطرق الأخرى.