لينكدان تستخدم تقنية الذكاء الاصطناعي لازالة المحتوى الغير لائق و الضار

لينكدان تستخدم تقنية الذكاء الاصطناعي لازالة المحتوى الغير لائق و الضار

نظرًا لأن التكنولوجيا ووسائل التواصل الاجتماعي أصبحت متاحة للجميع ، أصبحت المشكلات حتمية. تشير الأبحاث إلى أن هناك محتوى مسيءًا ومضارًا على مواقع التواصل الاجتماعي أكثر من المواقع الأخرى ، وهذا هو السبب في أن عمالقة الوسائط الاجتماعية مثل Facebook و Instagram و Twitter و Pinterest يستخدمون نماذج تستند إلى الذكاء الاصطناعي والتعلم الآلي لاكتشاف هذه المشكلة وإزالة المحتوى. . باتباع الخطوات ، أبرزت LinkedIn للتو كيف تقوم الموديلات المستندة إلى الذكاء الاصطناعي باكتشاف وتصفية المحتوى غير المرغوب فيه الذي لا يتوافق مع معايير نظامها الأساسي. يمتلك LinkedIn أكثر من 660 مليون مستخدم لـ Microsoft ، مما يجعله سوقًا كبيرًا عليه التعامل مع مسألة البريد العشوائي ونشر محتوى غير لائق والبلطجة. لمعالجة هذه المشكلة ، تحصل الشبكة الاجتماعية على مساعدة من نموذج يستند إلى الذكاء الاصطناعي لاكتشاف ملفات التعريف غير المرغوب فيها ومحتوى البريد العشوائي ، وكذلك الخدمات غير القانونية والإعلانات والمحتوى القائم على الاحتيال.

في السابق لتصفية المحتوى غير المناسب ، كان LinkedIn يستخدم قائمة الحظر حيث يتم إضافة كلمات وعبارات معينة وفقًا لشروط الخدمة وإرشادات المنتدى. تم استخدام هذا لإزالة المحتوى الضار المحتمل أو حسابات البريد العشوائي على LinkedIn. كانت المشكلة الرئيسية هي أن الحفاظ على قائمة الحظر هذه كان أمرًا صعبًا للغاية لأنه يتطلب الكثير من الجهد اليدوي وفي حالة عدم الاحتفاظ بالقائمة بشكل صحيح ، فقد يؤدي ذلك إلى ضرر محتمل لاحقًا. هناك كلمات قليلة لها عدة معان مختلفة وقد يؤدي تقييد أحدها إلى صعوبة التواصل مع المستخدم ، باختصار ، المفتاح هو أن تكون هناك عملية تصفية تفهم السياق أولاً ثم تصفية مشكلة محتملة.

لحل هذه المشكلة ، تبنت LinkedIn الآن طريقة التعلم الآلي التي تتضمن بشكل أساسي شبكة عصبية تلافيفية والتي تعد أساسًا فئة خوارزمية لتحليل الصور. من خلال AI هذا ، يتم أخذ نوع المحتوى في الاعتبار ويتم تصنيف ملفات التعريف على أنها مناسبة وغير مناسبة. تم تدريب هذا المرشح من خلال تحديد المحتوى غير المناسب الموجود بالفعل في قاعدة البيانات ووضع العلامات عليه ، ويتم إطعام هذا لاحقًا إلى juts model AI لمساعدته على فهم ما يبدو عليه المحتوى غير المناسب. لتقليل التحيزات ، قاموا أيضًا بتحديد الكلمات الإشكالية من الحسابات غير اللائقة وتغذيتها لاحقًا إلى الفلتر لضمان قدرتها على اكتشاف المشكلة على الفور.

المصدر : JasonDoiy / Getty Images

Comments

Popular posts from this blog

لماذا يحتاج الذكاء الاصطناعي دائمًا إلى الرقابة البشرية ، لا يهم مدى ذكائه

70 في المائة من جميع مجالات الويب فشل في التجديد بعد عام واحد من الشراء

Reminder: StackSkills Unlimited Lifetime Access for $59