عالم التكنولوجيا

لماذا عوّضت فيسبوك مراقبي المحتويات التطرّفة بـ 52 مليون دولار؟

يتعرض المراقبون في فيسبوك بانتظام لـ مقاطع فيديو ضارة تحتوي على مشاهد اعتداء جنسي على الأطفال، أو مشاهد قتل وقطع رؤوس، بالإضافة إلى المنشورات التي تتضمن عمليات إرهابية أو إساءة معاملة الحيوانات، وما إلى ذلك.

في الآونة الأخيرة، وافقت شركة Facebook على دفع مبلغ 52 مليون دولار في دعوى قضائية تم اتهامها بالفشل في حماية الموظفين المكلفين بـ مراقبة المحتويات الضارة على المنصة، الأمر الذي سبّب لهم أمراضا نفسية وعقلية.

بموجب الاتفاقية المنشورة في 12 مايو، سيتلقى كل مشرف محتوى 1000 دولار على الأقل إلى جانب إمكانية تعويض إضافي قدره 50000 دولار إذا تم تشخيصه باضطرابات عقلية.

أخبر ستيف ويليامز، وهو محام يمثل فريق الرقابة، لصحيفة الغارديان:

“إنهم يتعرضون باستمرار لمقاطع الفيديو الخبيثة بما في ذلك الاعتداء الجنسي على الأطفال والعديد من المحتويات المؤرقة الأخرى “.

وتابع ويليامز:

إن الناس سعداء بنتيجة الدعوى، بفضل الانتصار النادر ضد عملاق وسائل الإعلام الاجتماعية، فوفقا له، فإن الآثار التي يمكن أن تتعرض للمراقبين في هذا العمل هي أكثر ضررا مما يعتقده الناس.

وأضاف:

عندما بدأت الدعوى، كان الأمر يتعلق فقط بتغيير السياسة، ولحسن الحظ، اتسعت الأمور، وجاءت التعويضات لحل المشاكل النفسية التي واجهوها أثناء العمل في فيسبوك.

عدد مراقبين مهول

بلغ عدد مشرفي المحتوى المتضررين على Facebook في كاليفورنيا وأريزونا وتكساس وفلوريدا من 2015 حتى الآن إلى 11000 حالة.

تاريخ القضية

في البداية، تم رفع الدعوى من الموظفة السابقة سيلينا سكولا في محكمة ولاية كاليفورنيا في سبتمبر 2018، ولاحقا، انضم إليها العديد من الموظفين السابقين الآخرين، في ذلك الوقت، كانت هناك عدة تقارير ابتدائية حول التأثير الخطير للرقابة على المحتوى على الصحة العقلية للموظفين.

في حالة سكولا، عانت من اضطراب في الصحة العقلية بعد 9 أشهر من العمل في فيسبوك، يقول البعض الآخر أنهم يشعرون أن وجهات نظرهم السياسية أصبحت مضطربة، بل وصل الأمر إلى أن أدمنو مشاهدة المحتويات المتطرّفة.

يظهر تقرير عام 2019 من The Verge أن الموظفين مثل Scola يتلقون أقل من 30.000 دولار سنويًا، بينما تتمثل مهمتهم في مشاهدة الآلاف من مقاطع الفيديو الضارة كل يوم، لكن يُقابله القليل من الدعم الصحي والعقلي.

من جانب الفيسبوك، قال متحدث باسم الشركة:

إن صفقة الـ 52 مليون دولار تمثل جزءًا من التغييرات المستمرة المتعلقة بفريق الرقابة، بالإضافة إلى ذلك، إن الشركة ستقوم بتغيير عدد من السياسات لتحسين الصحة العقلية للموظفين.

وأضاف المتحدث:

نحن ممتنون للأشخاص الذين يقومون بهذا العمل المهم لمساعدة Facebook على أن يصبح بيئة آمنة للمستخدمين، نحن ملتزمون بإضافة الدعم لهم من خلال الاتفاقية، في هذه المرة أو مستقبلا.

ما هو العلاج؟

على وجه التحديد، سيحسن Facebook بيئة العمل، بما في ذلك توفير جلسات تدريبية بريادة المستشارين الصحيين ذوي السمعة الطيبة، وتعزيز أدوات التقييم لجعل عمل موظفي الرقابة أكثر أمانًا بالإضافة إلى ذلك، تقدم الشركة أيضًا جلسات علاج جماعي شهريًا.

أين الذكاء الاصطناعي من ذلك؟

وقالت الشبكة الاجتماعية أيضًا إن استثمار عشرات الملايين من الدولارات في الذكاء الاصطناعي سيكون بمثابة قفزة أمامية في استخدام التقنيات لتصفية المحتوى آليا.

فوفقًا لـ Facebook، أزالت الشبكة الاجتماعية 9.6 مليون محتوى متطرف في الربع الأول من عام 2020، بزيادة 5.7 مليون مقالة مقارنة بالربع الرابع من عام 2019.

من بين 9.6 مليون مشاركة محذوفة في الربع الأول، قالت Facebook أن برمجياتها اكتشفت 88.8٪ منها قبل أن يبلغ عنها المستخدمون.

في اتصال مع الصحفيين، يفتخر مايك شروبر، رئيس قسم التكنولوجيا في Facebook، بقدرة الذكاء الاصطناعي على العمل.

تاريخ من الفضائح

يُعرف Facebook منذ فترة طويلة كمنصة ضعيفة لإدارة المحتوى، حيث وقعت أكبر فضيحة في عام 2016 عندما سمحت للإعلانات بالتدخل في نتائج الانتخابات الأمريكية، وفي عام 2017، سمحت الشبكة الاجتماعية بنشر المشاركات المثيرة للكراهية على منصتها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *