يمكن للذكاء الاصطناعي اكتشاف الأخبار المزيفة بطريقة أفضل عن طريق تحليل تفاعل المستخدم

يمكن للذكاء الاصطناعي اكتشاف الأخبار المزيفة بطريقة أفضل عن طريق تحليل تفاعل المستخدم

توصل الباحثون الذين لديهم ارتباطات مع Microsoft وجامعة ولاية أريزونا إلى تقنية للكشف عن الأخبار المزيفة بمساعدة "الإشراف الاجتماعي الضعيف". وفقًا لهم ، يمكن لتدريب الأخبار المزيفة التي تكشف عن الذكاء الاصطناعي بالطريقة الجديدة أن تعمل حتى عندما لا يتم توفير الأمثلة المصنفة على أنها إشراف اجتماعي ضعيف يعتمد على تحليل تفاعل المستخدم مع إحدى المنشورات من أجل تحليل أفضل إذا كانت الأخبار مضللة أم لا .

إذا ذهبنا من خلال الإحصائيات التي قدمها مركز بيو للأبحاث ، فإن ما يقرب من 68 في المائة من البالغين الأمريكيين في عام 2018 كان لديهم وسائل التواصل الاجتماعي كمصدر رئيسي للأخبار. هذا أمر مخيف إلى حد ما بسبب كيفية انتشار المعلومات الخاطئة بسهولة على مواقع الشبكات الاجتماعية ومثال حي على ذلك يمكن أن يكون الخبر المتعلق بجائحة COVID-19. على الرغم من أن عمالقة التكنولوجيا بما في ذلك Facebook و Google و Twitter يبذلون قصارى جهدهم للكشف عن البيانات المضللة ، ولكن الشيء المتعلق بالأخبار المزيفة هو أنها تواصل تغيير أسلوبها الذي يصبح من الصعب على أي نموذج للذكاء الاصطناعي اكتشافه بكفاءة.

استمرارًا للدراسة التي تم نشرها بالفعل في أبريل ، قدم المؤلفون أيضًا اقتراحًا بأن ضعف الإشراف - مصدر صاخب أو غير دقيق يساعد إشارات تسمية البيانات - يمكن أن يؤدي إلى اكتشاف أخبار مزيفة أفضل بكثير دون الحاجة إلى الضبط الدقيق. كما قاموا ببناء إطار يسمى "العلاقة الثلاثية للأخبار المزيفة" (TiFN) التي تراقب مستخدمي وسائل التواصل الاجتماعي وعلاقاتهم في شكل "شبكة تفاعل" فقط لانتقاء الأخبار المزيفة.

على وجه الدقة ، تعد شبكة التفاعل هي الرابط بين الناشرين والقصص الإخبارية والمستخدمين. لذلك بالنسبة لشبكة التفاعل المقدمة ، يقوم TiFN بعد ذلك بدمج الكيانات من خلال مراقبة الأشخاص الذين يختارون التفاعل مع الأصدقاء ذوي التفكير المماثل. علاوة على ذلك ، عند إجراء التوقعات ، يأخذ الإطار أيضًا في الاعتبار حقيقة أن المستخدمين المرتبطين ربما يكون لديهم أيضًا اهتمام مشترك مذكور في المقالات الإخبارية ، ويمكن للناشرين المتحيزين سياسيًا نشر أخبار مزيفة ويمكن للمستخدمين الذين لديهم مصداقية منخفضة الانتشار أيضًا أخبار مزيفة.

لاختبار فعالية نموذج الإشراف الاجتماعي الضعيف لـ TiFN ، تمت مشاركة بيانات Politifact من 120 مقالة إخبارية حقيقية و 120 مقالة مزيفة يمكن التحقق منها بين 23،865 مستخدمًا للتحقق من صحتها. كان من المفترض أيضًا أن تتنافس النتيجة مع أجهزة الكشف الأساسية التي تركز فقط على محتوى الأخبار وبعض التفاعلات الاجتماعية. النتيجة النهائية ، كما أفاد بها الباحثون ، أظهرت أن TiFN حقق دقة تتراوح بين 75٪ و 87٪ ، حتى مع وجود القيود التي ينطوي عليها دور دور الإشراف الاجتماعي الضعيف بعد 12 ساعة فقط من نشر الأخبار.

كانت هناك تجربة أخرى تم إجراؤها على بيانات Politifact مختلفة استندت إلى 145 خبرًا حقيقيًا و 270 مقالة إخبارية مزيفة تحتوي على 89999 تعليقًا من 68523 مستخدمًا على Twitter ، ولكن هذا الاختبار يتضمن الآن إطارًا مخصصًا منفصلاً يسمى الدفاع - الإطار الذي يختار الجمل الإخبارية فقط وتعليقات المستخدم لتوضيح ما إذا كانت الأخبار زائفة وفقًا لإشارة الإشراف الضعيفة. كان Defend قادرا على إحراز دقة 90٪.

جاء أداء الكشف بشكل أفضل عندما تم استخدام الإشراف الاجتماعي الضعيف من تحيز الناشر ومصداقية المستخدم. ولكن عندما تم التخلص من محتوى الأخبار أو تعليق المستخدم أو الاهتمام المشترك بمحتويات الأخبار وتعليقات المستخدمين ، فقد كان الأداء قصيرًا أيضًا - مما يشير أيضًا في النهاية إلى أن استخدام الإشراف الاجتماعي الضعيف مفيد.

Comments

Popular posts from this blog

لماذا يحتاج الذكاء الاصطناعي دائمًا إلى الرقابة البشرية ، لا يهم مدى ذكائه

70 في المائة من جميع مجالات الويب فشل في التجديد بعد عام واحد من الشراء

Reminder: StackSkills Unlimited Lifetime Access for $59