أصدر فيسبوك تقريرًا جديدًا يشرح بالتفصيل كيف يستخدم مزيجًا من الذكاء الاصطناعي ومدققي البيانات البشرية والمنسقين لفرض معايير المستخدمين. التقرير أُطلق عليه اسم "تقرير معايير الامتثال المجتمعي" ، والذي يتضمن بشكل عام بيانات ونتائج من الأشهر الثلاثة إلى الستة السابقة، يرتكز التقرير بشكل أساسي على الذكاء الاصطناعي هذه المرة وعلى التطور الذي يعتمد على البرمجيات أكثر من الأشخاص، بالنظر إلى التكلفة الباهظة، يمكن أن يتولى المهمة مشرفين بشريين.
يعتمد فيسبوك أيضًا بشكل أكبر على التكنولوجيا اليوم للمساعدة في تنسيق منصته في ظل جائحة كوفيد 19 التي يعيشها العالم، مما يمنع الشركة من استخدام توقيعات وسيط الطرف الثالث المعتادة لأن موظفي تلك الشركات لا يمكنهم الوصول إلى بيانات فيسبوك الحساسة من أجهزة الكمبيوتر التي يعملون عليها من المنزل.
بالنظر إلى حالة العالم، يحتوي تقرير فيسبوك على معلومات جديدة حول كيفية مكافحة الشركة بشكل خاص للمعلومات الخاطئة المتعلقة بفيروس كورونا المستجد وأشكال أخرى من إساءة استخدام النظام الأساسي، مثل التلاعب بالأسعار في متاجر فيسبوك (Facbook Marketplace)، وذلك باستخدام أدوات الذكاء الاصطناعي.
"منذ الأول من مارس، أزلنا أكثر من 2.5 مليون منشور من المحتوى لبيع الأقنعة ومعقمات اليدين ومناديل تعقيم الأسطح ووحدات اختبار مرض كورونا. لكن هذه تحديات صعبة، وأدواتنا أبعد ما تكون عن الكمال. علاوة على ذلك، فإن الطبيعة العدائية لهذه التحديات تعني أن العمل لن يتم أبدًا".
يقول فيس بوك أن تحذيراته تعمل: 95 في المائة من الوقت، شخص مُحذّر من أن جزءًا من المحتوى يحتوي على معلومات خاطئة يُقرّر عدم مشاهدته على أي حال. لكن بث هذه التحذيرات عبر منصتها الضخمة يثبت أنه يمثل تحديًا. على سبيل المثال، يكتشف فيسبوك أن كمية لا بأس بها من المعلومات الخاطئة بالإضافة إلى كلام يشجع على الكراهية يظهر الآن في صور ومقاطع فيديو، وليس فقط روابط نصية أو مقالات.
تعترف الشركة بأن هذا تحدٍ أصعب يواجهه الذكاء الاصطناعي. ليس فقط أن النماذج المدربة بالذكاء الاصطناعي تجد صعوبة في تحليل صورة ميم أو مقطع فيديو بسبب التعقيدات مثل التلاعب بالألفاظ والاختلافات اللغوية، ولكن يجب أيضًا تدريب هذه البرمجيات للعثور على النسخ المكررة أو الإصدارات المعدلة بشكل هامشي من هذا المحتوى أثناء انتشاره عبر موقع التواصل الاجتماعي فيسبوك. ولكن يقول فيسبوك أن هذا هو بالضبط ما تم تحقيقه مع ما يسميه SimSearchNet، وهو مجهود سنوات عبر العديد من الأقسام داخل الشركة لتدريب نموذج الذكاء الصناعي على كيفية التعرف على كل من نسخ الصورة الأصلية وتلك التي شبه مكررة وربما تحتوي على كلمة واحدة تغير في النص.
"بمجرد أن يقرر مدققو الحقائق المستقلون أن الصورة تحتوي على ادعاءات مضللة أو كاذبة حول الفيروس، فإن SimSearchNet، كجزء من نظام الفهرسة والمطابقة النهائي للصور، قادر على التعرف على التطابقات شبه المكررة حتى نتمكن من تطبيق ملصقات التحذير، تقول الشركة. "يعمل هذا النظام على كل صورة يتم تحميلها على إنستغرام و فيسبوك ويتحقق من قواعد البيانات المنسقة الخاصة بالإنسان، في مقابل ذلك قواعد البيانات التي تم إعدادها لاكتشاف المعلومات الخاطئة حول كوفيد 19. وهذا يمثل مليارات الصور التي يتم فحصها يوميًا. "
كمثال على ذلك، صورة صحراء قاحلة مع النص، "انظر كم عدد الأشخاص الذين يحبونك"، مكتوبًا في الأعلى. فيسبوك يقوم بعملية اكتشاف ذلك باستخدام الأنظمة الآلية لفهم الوسائط المتعددة، وتدريب نماذج الذكاء الاصطناعي الخاصة بها على هذا المستوى من التعقيد وهو جزء من بحثها الأكثر تطوراً.
يقول فيسبوك أنه يوفر مجموعة البيانات للباحثين لتحسين تقنيات اكتشاف هذا النوع من الكلام الذي يحض على الكراهية عبر الإنترنت. كما تطرح تحديًا بقيمة 100000 دولار للباحثين لإنشاء نماذج مدربة على مجموعة البيانات يمكنها بنجاح تحليل هذه الأشكال الأكثر دقة من الكلام التي يشاهدها فيسبوك كثيرًا الآن بعد أن أصبحت أنظمته تتسبب بشكل أكثر استباقية في إزالة المزيد من المحتوى الذي يحض على الكراهية.
يُذكر أن فيسبوك قد قام مؤخرا بتسوية دعوى جماعية بقيمة 52 مليون دولار لصالح مشرفين حاليين وسابقين لتعويضهم عن مشكلات الصحة العقلية، ولا سيما اضطراب الإجهاد ، الذي تسبب لهم أثناء العمل. حيث سيحصل كل مشرف محتوى عمل في فيسبوك مند سنة 2015 حتى الآن على تعويض بقيمة 1000 دولار على الأقل، أو حتى 50.000 دولار. في الواقع إنه اتفاق تاريخي يعترف تمامًا بالخسائر الفظيعة التي يمكن أن يسببها ذلك النوع من العمل على هؤلاء المشرفين.
يقول فيسبوك أن البيانات التي جمّعها أحدث تقرير له لا تحتوي على أي اتجاهات أكبر في إجراءاته أو في السلوك المسيء على منصته لأن الوباء ضرب في وقت متأخر جدًا من فترة إعداد التقارير. قال فيسبوك: "يتضمن هذا التقرير بيانات حتى شهر مارس 2020 فقط، لذا فهو لا يعكس التأثير الكامل للتغييرات التي أجريناها خلال الوباء". كما صرّح غاي روزين، نائب رئيس الشركة، في منشور على مدونة الشركة. "نتوقع أننا سنرى تأثير هذه التغييرات في تقريرنا المقبل، وربما بعد ذلك، وسنكون شفافين بشأنها."
كما هو الحال مع المحتوى الآخر، يمكن أن يكون الكلام الذي يحض على الكراهية متعدد الوسائط أيضًا: قد تستخدم الميم النص والصورة معًا لمهاجمة مجموعة معينة من الأشخاص، على سبيل المثال. "لقد وجدنا أن نسبة كبيرة من الكلام الذي يحض على الكراهية على الفيسبوك يكون بشكل عام في الصور أو الفيديو."
الهدف من ذلك هو المساعدة في الحد من انتشار الصور المكررة مع عدم حجب المنشورات الأصلية عن غير قصد. هذه مشكلة كبيرة على فيسبوك حيث العديد من الصفحات والمنظمات ذات الدوافع السياسية أو تلك التي تتغذى ببساطة على الغضب الحزبي، ستلتقط صورًا ولقطات شاشة وصور أخرى وتغيرها لتغيير معناها. يعد نموذج الذكاء الاصطناعي الذي يتعرف على الفرق ويمكن أن يصف أحد المنشورات بأنه مُزيف والآخر أصلي هو خطوة ذات قفزة إلى الأمام في مجال الذكاء الاصطناعي، خاصة عندما يمكن أن تفعل الشيء نفسه مع أي محتوى مكرر أو شبه مكرر في المستقبل دون حظر المحتوى غير المسيئ خلال العملية.
تقول الشركة: "من المهم للغاية أن تكون أنظمة التشابه هذه دقيقة قدر الإمكان، لأن الخطأ يمكن أن يعني التصرف بناءً على محتوى لا ينتهك سياساتنا". "هذا مهم بشكل خاص لأنه لكل عنصر من عناصر التحقق من المعلومات المضللة التي تم تحديدها، يمكن أن يكون هناك آلاف أو ملايين النسخ. يسمح استخدام الذكاء الاصطناعي لاكتشاف هذه المطابقات لشركائنا في تقصي الحقائق بالتركيز على اكتشاف حالات جديدة من التضليل بدلاً من الاختلافات المتطابقة تقريبًا في المحتوى الذي شاهدوه بالفعل."
قام فيسبوك أيضًا بتحسين جودة الإشراف على المحتوى الذي يحض على الكراهية باستخدام العديد من التقنيات وهي نفسها التي يستخدمها في المحتوى المرتبط بفيروس كورونا. وتقول الشركة: "يكتشف الذكاء الاصطناعي الآن بشكل استباقي 88.8 في المائة من المحتوى الذي يحض على الكراهية الذي نزيله، مقارنة بـ 80.2 في المائة فقط سابقا. في الربع الأول من عام 2020، اتخذنا إجراءات بشأن 9.6 منشور لانتهاك سياسات خطاب الكراهية بزيادة قدرها 3.9 مليون."
"غالبًا ما يحاول الأشخاص الذين يشاركون الكلام الذي يحض على الكراهية التهرب من الكشف عن طريق تعديل المحتوى الخاص بهم. وتقول الشركة إن هذا النوع من السلوك العدائي يتراوح بين الكلمات التي تحتوي على أخطاء إملائية متعمدة أو تجنب عبارات معينة إلى تعديل الصور ومقاطع الفيديو. "بينما نعمل على تحسين أنظمتنا لمواجهة هذه التحديات، من المهم تصحيحها. يمكن أن يعني تصنيف المحتوى بشكل خاطئ على أنه كلام يحض على الكراهية منع الناس من التعبير عن أنفسهم والانخراط مع الآخرين". يقول فيسبوك إن ما يسمى بـ كاونترسبيش، أو رد على خطاب الكراهية الذي يجادل ضده ولكن مع ذلك يحتوي عادةً على مقتطفات من المحتوى المسيء، "يصعب بشكل خاص التصنيف بشكل صحيح لأنه يمكن أن يبدو مشابهًا جدًا لخطاب الكراهية نفسه".
يقول فيس بوك إن تطوراته الجديدة - على وجه الخصوص ، الشبكة العصبية التي يطلق عليها XLM-R التي أعلنت عنها في نوفمبر الماضي - تساعد أنظمة الإشراف الآلية على فهم النص عبر لغات متعددة بشكل أفضل. يقول فيس بوك إن XLM-R يسمح لها "بالتدريب بكفاءة على الطلبات ذات الحجم الكبير من البيانات ولفترة أطول من الوقت" ، ونقل هذا التعلم عبر لغات متعددة.
"لتزويد الباحثين بمجموعة بيانات بشروط ترخيص واضحة ، قمنا بترخيص الأصول من Getty Images. لقد عملنا مع المعلقين المدربين من طرف ثالث لإنشاء ميمات جديدة مشابهة لتلك الموجودة التي بالفعل تمت مشاركتها على مواقع التواصل الاجتماعي. "استخدم المعلقون مجموعة صور من Getty Images لاستبدال العناصر المرئية الأصلية مع الحفاظ على المحتوى الدلالي."
وقالت الشركة في منشور منفصل على المدونة: "خلال شهر أبريل، وضعنا تحذيرات على حوالي 50 مليون منشور يتعلق بـكوفيد 19 على فيسبوك، استنادًا إلى حوالي 7500 مقالة بواسطة شركائنا المستقلين لتقصي الحقائق". وهُم مجموعة من علماء الأبحاث ومهندسي البرمجيات.
قام فيسبوك بتجارب على عدة صورة، من بينها صورة مغلوطة حول كورونا تم تصميمها ونشرها، الصورة لورق الحمّام، وتحمل سطر توضيحي، "تم العثور على كوفيد 19 في ورق التواليت" الصورة تعود لناشر معروف بالمحتوى الكاذب. الصورة تمت معالجتها وتحليلها من طرف الخبراء ومدققي تقصي الحقائق المستقلين. لكن فيسبوك قالت أنه كان عليها تدريب ذكائها الاصطناعي ليتعرف ويُميّز بين الصورة المُحرّفة والأخرى الأصلية التي تقول العكس. " لم يتم العثور على كوفيد 19 في ورق التواليت".
"تكتشف أنظمة الذكاء الاصطناعي الآن بشكل استباقي 88.8 في المائة من محتوى خطاب الكراهية الذي نزيله".
فيسبوك قادر على الاعتماد بشكل أكبر على الذكاء الاصطناعي، بفضل بعض التطورات في كيفية فهم نماذجه للنص وتحليله، سواء كما يظهر في المنشورات والارتباطات المصاحبة لها أوكما هو مركب في الصور أو الفيديو.
يتضمن أحدث تقرير لـفيسبوك المزيد من البيانات من إنستغرام ، بما في ذلك مقدار المحتوى المتسلط الذي يزيله النظام الأساسي وكم المحتوى الذي يتم الطعن فيه وإعادته. لقد طبقت جهودها لمطابقة الصور من أجل العثور على مشاركات الانتحار وإيذاء الذات ، مما رفع النسبة المئوية لمحتوى إنستغرام الذي تمت إزالته قبل أن يبلغ المستخدمون عنه.
لكن فيسبوك يقول أن الميمات أثبتت أنها آلية توصيل مرنة يصعب اكتشافها لخطاب الكراهية، حتى مع أدواتها المتطورة. لذلك قامت ببناء مجموعة بيانات مخصصة "ميم بغيض" تحتوي على 10.000 مثال، حيث لا يمكن فهم معنى الصورة بالكامل إلا من خلال معالجة كل من الصورة والنص وفهم العلاقة بين الاثنين.
تعليقات
إرسال تعليق