يشير تقرير إلى أن جهود الإشراف على المحتوى التي قام بها Facebook غير كافية

يشير تقرير إلى أن جهود الإشراف على المحتوى التي قام بها Facebook غير كافية

وفقًا لأحدث تقرير نشره مركز نيويورك ستيرن للأعمال التجارية وحقوق الإنسان ، يحتاج Facebook إلى إنهاء ممارسة الاستعانة بمصادر خارجية بحيث يتلقى الإشراف على المحتوى الاهتمام المطلوب بالإضافة إلى الموارد التي يستحقها. يجب على الشركة أيضًا زيادة عدد الوسطاء ، وتوفير ظروف عمل محسنة للمشرفين.

يواجه Facebook انتقادات منذ سنوات بسبب تعامل النظام الأساسي مع المعلومات الخاطئة والمحتويات الخطيرة الأخرى عبر منصته. ازداد الانتقاد خلال الأيام القليلة الماضية ، ولا تزال سمعة Facebook تتدهور حيث أنكر مارك زوكربيرج إزالة المحتوى الذي نشره الرئيس دونالد ترامب والذي يبدو أنه ينتهك سياسات Facebook.

صرح بول باريت ، نائب مدير مركز ستيرن والمؤلف الرئيسي للتقرير أنه يريد أن يسلط الضوء على أن فيس بوك قد أحال أعمال الاعتدال إلى دور ثانوي من خلال توظيف المقاولين في المواقع البعيدة الذين يحصلون على أجور زهيدة. ذكر باريت أن هناك علاقة مدهشة بين قضية الاستعانة بمصادر خارجية والقضايا التي واجهوها في ما يسمونه "المناطق المعرضة للخطر".

يشير التقرير أيضًا إلى أن جميع المنصات الاجتماعية المهمة تواجه مشكلات مماثلة في الإشراف على المحتوى. يعمل حوالي 15000 مشرف على Facebook ، ويعمل معظم هؤلاء المشرفين مع موردي الجهات الخارجية. بالمقارنة ، لدى Google و YouTube 10000 مشرف ، وتويتر يحتوي على 1500 مشرف.

وفقًا للدراسة ، عقد فيسبوك شراكة مع ستين منظمة صحفية مختلفة لتنفيذ التحقق من الحقائق. ومع ذلك ، فإن هذه الأرقام غير كافية بشكل كبير مع مراعاة حجم البيانات التي يتم نشرها على هذه المنصات يوميًا.

قال باريت في مقابلة أن لدى Facebook استراتيجية للتوسع. لكنه أضاف أنه ليس لديك استراتيجية موازية بشأن كيفية التأكد من عدم إساءة استخدام خدماتك من قبل المستخدمين. يقوم المستخدمون بالإضافة إلى نظام الذكاء الاصطناعي في Facebook بوضع علامة على أكثر من ثلاثة ملايين عنصر كل يوم. أبلغ Facebook عن معدل خطأ بنسبة 10 ٪ من قبل مشرفي المحتوى المنتشرين عبر عشرين موقعًا. وهذا يعني أن الشركة ترتكب حوالي 300000 خطأ اعتدال يوميًا. تم تهميش مشرفي المحتوى إلى حد كبير ، على الرغم من أنهم حاسمون في إبقاء منصة Facebook قابلة للاستخدام.

نظرًا لأنهم بعيدون ماديًا ، يفشل Facebook عادةً في تحديد خطورة المحتوى الذي يراجعه المشرفون في مواقع مثل ميانمار (يستخدم Facebook لنشر الدعاية من قبل القوات الموالية للحكومة في ميانمار). أجرى باريت مقابلات مع العديد من المشرفين السابقين ، ويشير التقرير إلى أن Facebook يدفع لمشرفي المحتوى الخارجيين في البلدان النامية أقل بكثير مقارنة بعامل بدوام كامل في وادي السليكون.

يقترح التقرير أن Facebook يجب أن يجلب الاعتدال داخليًا بالإضافة إلى مضاعفة عدد المشرفين. تحتاج الشركة أيضًا إلى تعيين مسؤول تنفيذي رفيع المستوى للإشراف على الاعتدال والاستثمار الإضافي في الإشراف على "البلدان المعرضة للخطر". كما يشير التقرير إلى أن Facebook يحتاج إلى توسيع نطاق التحقق من الحقائق لمكافحة المعلومات الخاطئة ودعم اللوائح الحكومية.

وذكر باريت أن تنفيذ هذه الإجراءات قد يكون مكلفًا على Facebook ، ومع ذلك ، فهو متفائل بأن الشركة قد تتخذ بعض الخطوات في هذا الاتجاه. بدأ Facebook أيضًا في الاعتراف بأن أنظمة الذكاء الاصطناعي المستخدمة في الإبلاغ عن المحتوى غالبًا ما تفشل في فهم سياق المحتوى بشكل صحيح.


Comments

Popular posts from this blog

لماذا يحتاج الذكاء الاصطناعي دائمًا إلى الرقابة البشرية ، لا يهم مدى ذكائه

70 في المائة من جميع مجالات الويب فشل في التجديد بعد عام واحد من الشراء

Reminder: StackSkills Unlimited Lifetime Access for $59