أفاد تقرير نشرته صحيفة "ذا جارديان" البريطانية، بأن موقع فيسبوك Facebook، يختبر ميزة جديدة تسمح للمستخدمين بالتحكم في مقدار المحتوى الذي يشاهدونه من الأصدقاء والمجموعات والشخصيات العامة في خلاصتهم، وسط اتهامات بأن منصة التواصل الاجتماعي لا تفعل ما يكفي للحد من انتشار المنشورات التحريضية.
ووفقا للتقرير، سيتمكن المستخدمون من تقليل أو زيادة كمية المحتوى الذي يشاهدونه من فئات معينة في موجز الأخبار الخاص بهم على فيسبوك، وهو عبارة عن تمرير مخصص للمحتوى من الأصدقاء والصفحات والمجموعات التي تعد بمثابة لوحة مركزية لتجربة المستخدمين على النظام الأساسي.
فيسبوك يختبر طرق جديدة للأشخاص للتحكم في موجز الأخبار وتخصيصه
وستوفر قائمة فيسبوك الجديدة لإدارة محتويات "آخر الأخبار" للمستخدمين، المزيد من الخيارات للتحكم في مقدار المحتوى المعروض، واستخدامها لتعديل تفضيلات ترتيب مشاركات الأشخاص المعروضة بموجز الآخبار لديهم.
وكجزء من أداة فيسبوك الجديدة، سيتمكن المستخدمين من زيادة أو تقليل مقدار المحتوي الذي يرونه من الأصدقاء والعائلة والمجموعات والصفحات والشخصيات العامة، حيث يمكن للأشخاص الاحتفاظ بعدد من المنشورات في خلاصتهم ضمن تلك الفئات عند 'عادي"، أو تقليلها أو زيادتها.
وذكرت عملاقة التواصل الاجتماعي في بيان لها، أنها تعمل على تسهيل الوصول إلى عناصر التحكم الحالية، بما في ذلك المفضلة، وإلغاء المتابعة، وإعادة الاتصال، حيث ستبدأ فيسبوك (ميتا الآن) اختبار عناصر التحكم الجديدة لنسبة صغيرة من المستخدمين في عدد من دول العالم، على أن تتوسع تدريجيًا في الأسابيع القادمة.
وكما ستقوم فيسبوك بتوسيع عناصر التحكم في "استبعاد الموضوعات" الخاصة باختبار موجز الأخبار لعدد محدود من المعلنين الذين يعرضون الإعلانات باللغة الإنجليزية، حيث سيسمح عنصر التحكم في استبعاد موضوع المعلن للمعلن بتحديد موضوع للمساعدة في تحديد كيفية عرض الإعلان على فيسبوك، إذ يمكن للمعلنين اختيار ثلاثة مواضيع من الأخبار والسياسة، والقضايا الاجتماعية، والجرائم.
ومن المقرر أن تطلق شركة فيسبوك عناصر التحكم الجديدة في الربع الأول من عام 2022.
الجدير بالذكر أن الوثائق الصادرة في الأشهر الأخيرة حول فيسبوك، والتي كشفت عنها موظفة سابقة تعمل في الشركة، تدعى فرانسيس هوجن، أظهرت أن التغيير في خوارزمية موجز الأخبار على فيسبوك خلال عام 2018، استخدم للترويج للمنشورات المعاد مشاركتها، كان له تأثير على دفع المحتوى السام والعنيف بالإضافة إلى المعلومات المضللة.
وكما كما اتهمت هوجن شركة ميتا، بعدم القيام بما يكفي للحد من المحتوى الضار على منصتها بشكل عام، حيث تشير بعض الوثائق التي نشرتها إلى أن فيسبوك لم تفعل ما يكفي لوقف انتشار المعلومات المضللة قبل أحداث الشغب في 6 يناير في واشنطن.