الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري

"أبرزها الحرب".. أخطر 3 أشياء سيفعلها الذكاء الاصطناعي 2024| تعرف عليها

أخطر 3 أشياء سيفعلها
أخطر 3 أشياء سيفعلها الذكاء الاصطناعي خلال 2024

على الرغم من أن عام 2023 كان عام تغيير قواعد اللعبة بالنسبة للذكاء الاصطناعي، إلا أنه كان مجرد البداية، حيث من المقرر أن يبدأ عام 2024 بمجموعة من التطورات المخيفة في مجال الذكاء الاصطناعي والتي من أبرزها التزييف العميق الأكثر واقعية والحرب.

يقول العلماء إن الذكاء الاصطناعي هذا العام قد يؤدي وظائف معينة بشكل أفضل من معظم البشر. ويمكن أيضًا تسليحه واستخدامه، على سبيل المثال، لإنشاء مسببات الأمراض، أو شن هجمات إلكترونية ضخمة.

وفقًا لتقرير على موقع Live Science، إن عام 2024 ربما سيكون عام الاختراق بالنسبة للذكاء الاصطناعي حيث أنه من المتوقع أن يفعل ثلاث أمور مخيفة خلال الأشهر المقبلة.

التزييف الواقعي العميق وتزوير الانتخابات

أحد التهديدات السيبرانية الأكثر إلحاحًا في مجال الذكاء الاصطناعي هي تهديد التزييف العميق للواقع إلى الحد الذي يجعلك تشعر بأنه واقعًا بالفعل- الصور أو مقاطع الفيديو الملفقة بالكامل لأشخاص قد تحرفهم أو تجرمهم أو تتنمر عليهم. لم تكن تقنية التزييف العميق للذكاء الاصطناعي جيدة بما يكفي لتشكل تهديدًا كبيرًا من قبل، لكن هذا قد يكون على وشك التغيير خلال هذا العام.

فيمكن للذكاء الاصطناعي الآن إنشاء صور مزيفة عميقة - أي بث فيديو مباشر. بعبارة أخرى - قد أصبح الذكاء الاصطناعي الآن جيدًا جدًا في إنشاء وجوه بشرية لدرجة أن الأشخاص لم يعد بإمكانهم التمييز بين ما هو حقيقي وما هو مزيف. 

وكشفت دراسة أخرى، نشرت في مجلة العلوم النفسية في 13 نوفمبر الماضي، عن ظاهرة "الواقعية المفرطة"، حيث من المرجح أن يُنظر إلى المحتوى الناتج عن الذكاء الاصطناعي على أنه "حقيقي".

وبالتالي فأحد الاحتمالات المخيفة للذكاء الاصطناعي هو أن يتمكن البشر من نشر التزييف العميق له لمحاولة التأثير على الانتخابات. 

فذكرت صحيفة فايننشال تايمز، على سبيل المثال، أن بنجلاديش تستعد لانتخابات في يناير/كانون الثاني المقبل، بينما تستعد الولايات المتحدة لإجراء الانتخابات الرئاسية في نوفمبر 2024، وهناك احتمال أن يؤدي الذكاء الاصطناعي والتزييف العميق إلى تغيير نتيجة هذا التصويت الحاسم. 

على سبيل المثال، تراقب جامعة كاليفورنيا في بيركلي استخدام الذكاء الاصطناعي في الحملات الانتخابية، وذكرت شبكة إن بي سي نيوز أيضًا أن العديد من الولايات تفتقر إلى القوانين أو الأدوات اللازمة للتعامل مع أي زيادة في المعلومات المضللة الناتجة عن الذكاء الاصطناعي.

أدوات الحروب

تعمل الحكومات في جميع أنحاء العالم على دمج الذكاء الاصطناعي بشكل متزايد في أدوات الحرب. وأعلنت الحكومة الأمريكية في 22 نوفمبر الماضي أن 47 ولاية قد أيدت إعلانًا بشأن الاستخدام المسؤول للذكاء الاصطناعي في الجيش، والذي تم إطلاقه لأول مرة في لاهاي في فبراير 2023.

إذًا، لماذا كانت هناك حاجة لمثل هذا الإعلان؟ لأن الاستخدام "غير المسؤول" هو احتمال حقيقي ومرعب. فقد رأينا، على سبيل المثال، طائرات بدون طيار تعمل بالذكاء الاصطناعي تطارد جنودًا في ليبيا دون تدخل بشري.

في عام 2024، من المحتمل أننا لن نرى استخدام الذكاء الاصطناعي في أنظمة الأسلحة فحسب، بل أيضًا في الأنظمة اللوجستية وأنظمة دعم القرار، فضلاً عن البحث والتطوير.

الروبوتات القاتلة

أحد مجالات التطوير الأكثر إثارة للخوف هو مجال أنظمة الأسلحة الفتاكة المستقلة (LAWS) - أو الروبوتات القاتلة. وقد حذر العديد من العلماء والتقنيين البارزين من الروبوتات القاتلة، بما في ذلك ستيفن هوكينج في عام 2015 وإيلون ماسك في عام 2017، لكن التكنولوجيا لم تتحقق بعد على نطاق واسع.

ومع ذلك، تشير بعض التطورات المثيرة للقلق إلى أن هذا العام قد يكون بمثابة انطلاقة للروبوتات القاتلة. على سبيل المثال، في أوكرانيا، زُعم أن روسيا نشرت طائرة Zala KYB-UAV بدون طيار، والتي يمكنها التعرف على الأهداف ومهاجمتها دون تدخل بشري، وفقًا لتقرير صادر عن نشرة علماء الذرة. وقد طورت أستراليا أيضًا Ghost Shark، وهو نظام غواصة مستقلة من المقرر أن يتم إنتاجه "على نطاق واسع"، وفقًا لما ذكرته مجلة Australia Financial Review.