أكد خبير في علوم الحاسب، إن الأمر ليس ضحكًا أو مزحة أو من قبيل الخيال، فيما يتعلق الأمر بضرورة حدوث وقفة عالمية أمام خطر الذكاء الاصطناعي المهدد بالفناء، وفق ماذكرت صحف دولية.
ذهب الخبير إلى درجة أن التأكيد على ضرورة أن يكون «واضحاً في الدبلوماسية الدولية بأن منع سيناريوهات انقراض البشرية بسبب الذكاء الاصطناعي، يعد أولوية فوق منع التبادل النووي الكامل.
وحذر إليعازر يودكوسكي، الخبير رفيع المستوى في أنظمة الذكاء الاصطناعي من إمكانية تسبب هذه الأنظمة في موت جميع البشر، مؤكداً أن حظر تطويرها ومعاقبة من ينتهك هذا الحظر بقسوة هما الطريقة الوحيدة لإنقاذ البشرية من الانقراض.
وقال إليعازر يودكوسكي، المؤسس المشارك لمعهد أبحاث ذكاء الآلة (MIRI)، في مجلة «تايم»، أن سبب عدم توقيعه على عريضة تدعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فوراً لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي، مثل نظام (جي بي تي - 4)، من شركة (OpenAI) .
وقال يودكوسكي إن العريضة، التي وقعها 1377 من علماء الكومبيوتر البارزين، و كبار صناع التكنولوجيا،مثل إيلون ماسك، والمؤسس المشارك لشركة آبل ستيف وزنياك، تطالب بحلول ضعيفة جداً.
كل شخص سيموت حرفيًا
وقال يودكوسكي: النتيجة الأكثر ترجيحاً لتطوير أنظمة ذكاء اصطناعي خارقة هي أن كل شخص على وجه الأرض سيموت حرفياً.
ونبه يودكوسكي من أن «الذكاء الاصطناعي لن يظل مقيداً داخل أجهزة الكومبيوتر لفترة طويلة، بل من الممكن بالفعل أن يقوم بإرسال سلاسل الحمض النووي بالبريد الإلكتروني إلى المعامل لإنتاج بروتينات ستسمح له بتطوير حياة صناعية والخروج إلى العالم».