فيسبوك يوافق على إعلان للاحتلال الإسرائيلي يدعو إلى اغتيال ناشط مؤيد لفلسطين

AP23052312606318 facebook israel palestine post moderation

تمت الموافقة على سلسلة من الإعلانات التي تجرد الفلسطينيين من إنسانيتهم وتدعو إلى العنف ضدهم، والتي تهدف إلى اختبار معايير الإشراف على محتوى فيسبوك، من قبل الشبكة الاجتماعية، وفقا للمواد التي تمت مشاركتها مع  “إنترسبت”.

وتضمنت الإعلانات المقدمة، باللغتين العبرية والعربية، انتهاكات صارخة لسياسات فيسبوك وشركتها الأم ميتا. واحتوى بعضها على محتوى عنيف يدعو مباشرة إلى قتل المدنيين الفلسطينيين، مثل الإعلانات التي تطالب بـ “محرقة للفلسطينيين” والقضاء على “نساء غزة والأطفال وكبار السن”. وتضمنت منشورات أخرى، مثل تلك التي تصف الأطفال من غزة بأنهم “إرهابيون في المستقبل” والإشارة إلى “الخنازير العربية”، بلغة غير إنسانية.

“الموافقة على هذه الإعلانات هي مجرد الأحدث في سلسلة من إخفاقات ميتا تجاه الشعب الفلسطيني” بحسب ما قال نديم ناشف، مؤسس مجموعة أبحاث ومناصرة وسائل التواصل الاجتماعي الفلسطينية 7amleh ، التي قدمت إعلانات الاختبار، لإنترسبت”، طوال هذه الأزمة، شهدنا نمطا مستمرا من التحيز الواضح والتمييز ضد الفلسطينيين”.

نشأت فكرة 7amleh  لاختبار جهاز الرقابة على التعلم الآلي في فيسبوك الشهر الماضي، عندما اكتشف ناشف إعلانا على حسابه على فيسبوك يدعو صراحة إلى اغتيال الناشط الأمريكي بول لارودي، أحد مؤسسي حركة غزة الحرة. وجاء في الترجمة الآلية لفيسبوك للإعلان النصي: “حان الوقت لاغتيال بول لارودي، الإرهابي المعادي للسامية و”حقوق الإنسان” من الولايات المتحدة”. وأبلغ ناشف الإعلان إلى فيسبوك، وتم إزالته.

تم وضع الإعلان من قبل “آد كان”، وهي مجموعة إسرائيلية يمينية أسسها ضباط سابقون في الجيش الإسرائيلي والمخابرات لمحاربة “المنظمات المعادية لإسرائيل” التي يأتي تمويلها من مصادر معادية للسامية، وفقا لموقعها على الإنترنت. (لم يستجب لارودي ولا آد كان على الفور لطلبات التعليق).

الدعوة إلى اغتيال ناشط سياسي هو انتهاك لقواعد الإعلان على فيسبوك. إن ظهور المنشور الذي ترعاه “آد كان” على المنصة يشير إلى أن فيسبوك وافق عليه على الرغم من تلك القواعد. من المحتمل أن يكون الإعلان قد مر بالتصفية من خلال عملية فيسبوك الآلية ، استنادا إلى التعلم الآلي، والتي تسمح لأعمالها الإعلانية العالمية بالعمل بسرعة كبيرة.

“تم تصميم نظام مراجعة الإعلانات لدينا لمراجعة جميع الإعلانات قبل نشرها”، وفقا لنظرة عامة على سياسة إعلانات فيسبوك. نظرا لأن الاعتدال القائم على الإنسان في ميتا، والذي اعتمد تاريخيا بشكل شبه كامل على عمالة المقاولين الخارجيين، قد أثار مزيدا من التدقيق والنقد، فقد أصبحت الشركة تعتمد بشكل أكبر على برامج المسح الآلي للنصوص لفرض قواعد التعبير وسياسات الرقابة.

في حين أن هذه التقنيات تسمح للشركة بالالتفاف على قضايا العمل المرتبطة بالمشرفين البشريين، إلا أنها تحجب أيضا كيفية اتخاذ قرارات الاعتدال خلف الخوارزميات السرية.

في العام الماضي، وجدت مراجعة خارجية بتكليف من ميتا أنه بينما كانت الشركة تستخدم الرقابة الخوارزمية بشكل روتيني لحذف المشاركات العربية، لم يكن لدى الشركة خوارزمية مكافئة للكشف عن “الخطاب العبري العدائي” مثل الخطاب العنصري والتحريض العنيف. بعد التدقيق ، ادعت ميتا أنها “أطلقت تصنيفا” خطابا عدائيا “باللغة العبرية لمساعدتنا في الكشف بشكل استباقي عن المزيد من المحتوى العبري المنتهك”. المحتوى ، مثل إعلان يتبنى القتل.

التحريض على العنف على فيسبوك

في خضم الحرب الإسرائيلية على الفلسطينيين في غزة، كان ناشف منزعجا بما فيه الكفاية من الدعوة الصريحة في الإعلان لقتل لارودي لدرجة أنه كان قلقا من أن منشورات مدفوعة الأجر مماثلة قد تساهم في العنف ضد الفلسطينيين.

إن التحريض على العنف على نطاق واسع من وسائل التواصل الاجتماعي إلى العالم الحقيقي ليس مجرد افتراضي: في عام 1439هـ (2018م)، وجد محققو الأمم المتحدة أن منشورات فيسبوك التحريضية العنيفة لعبت “دورا حاسما” في الإبادة الجماعية للروهينجا في ميانمار. (في العام الماضي، عرضت مجموعة أخرى إعلانات تجريبية تحرض ضد الروهينجا، وهو مشروع على غرار تجربة 7amleh؛ وفي هذه الحالة، تمت الموافقة على جميع الإعلانات أيضا).

لم توضح الإزالة السريعة لمنشور “لارودي” كيف تمت الموافقة على الإعلان في المقام الأول. في ضوء تأكيدات فيسبوك بأن الضمانات موجودة، كان ناشف وشركة 7amleh، التي تتعاون رسميا مع ميتا في قضايا الرقابة وحرية التعبير، في حيرة من أمرهما.

“لدى ميتا سجل حافل بعدم القيام بما يكفي لحماية المجتمعات المهمشة.”

وبدافع الفضول إذا كانت الموافقة مجرد صدفة، أنشأت شركة 7amleh  وقدمت 19 إعلانا، باللغتين العبرية والعربية، مع نص ينتهك قواعد الشركة بشكل متعمد وصارخ – وهو اختبار لميتا وفيسبوك. تم تصميم إعلانات 7amleh  لاختبار عملية الموافقة ومعرفة ما إذا كانت قدرة  ميتا على فحص التحريض العنيف والعنصري تلقائيا قد تحسنت، حتى مع وجود أمثلة لا لبس فيها على التحريض العنيف.

قال ناشف: “لقد عرفنا من مثال ما حدث للروهينجا في ميانمار أن ميتا لديها سجل حافل بعدم القيام بما يكفي لحماية المجتمعات المهمشة ، وأن نظام مدير الإعلانات الخاص بهم كان ضعيفا بشكل خاص”.

يبدو أن ميتا قد فشلت في اختبار 7amleh.

لا يحظر كتاب قواعد معايير المجتمع الخاص بالشركة – الذي من المفترض أن تمتثل له الإعلانات للموافقة عليها – النص الذي يدعو إلى العنف فحسب، بل يحظر أيضا أي تصريحات غير إنسانية ضد الأشخاص على أساس العرق أو العرق أو الدين أو الجنسية. على الرغم من ذلك ، تظهر رسائل التأكيد الإلكترونية التي تمت مشاركتها مع إنترسبت أن  فيسبوك وافق على كل إعلان.

على الرغم من أن 7amleh  أخبرت إنترسبت أن المنظمة ليس لديها نية لتشغيل هذه الإعلانات فعليا وكانت ستسحبها قبل الموعد المقرر لظهورها، إلا أنها تعتقد أن موافقتها توضح أن المنصة الاجتماعية لا تزال قصيرة النظر بشكل أساسي حول الكلام غير الإنجليزي – اللغات التي تستخدمها الغالبية العظمى من مستخدميها الذين يزيد عددهم عن 4 مليارات مستخدم. (رفضت ميتا بأثر رجعي إعلانات 7    amleh  العبرية بعد أن لفت موقع  إنترسبت انتباه الشركة إليها، لكن النسخ العربية لا تزال معتمدة ضمن نظام إعلانات فيسبوك).

وأكدت المتحدثة باسم فيسبوك إيرين ماكبايك أن الإعلانات تمت الموافقة عليها عن طريق الخطأ. وقالت: “على الرغم من استثماراتنا المستمرة، فإننا نعلم أنه ستكون هناك أمثلة على الأشياء التي نفتقدها أو نحذفها عن طريق الخطأ، حيث يرتكب كل من الآلات والأشخاص أخطاء”. “لهذا السبب يمكن مراجعة الإعلانات عدة مرات، بما في ذلك بمجرد نشرها.”

بعد أيام فقط من الموافقة على إعلاناتها التجريبية الخاصة، اكتشفت حملة إعلانا عربيا تديره مجموعة تطلق على نفسها اسم “هاجر الآن” تدعو “العرب في يهودا وسومرية – الاسم الذي يستخدمه الإسرائيليون، وخاصة المستوطنون، للإشارة إلى الضفة الغربية الفلسطينية المحتلة – إلى الانتقال إلى الأردن.

وفقا لوثائق  فيسبوك، فإن الفحص الآلي المستند إلى البرامج هو “الطريقة الأساسية” المستخدمة للموافقة على الإعلانات أو رفضها. لكن من غير الواضح ما إذا كانت خوارزميات “الكلام العدائي” المستخدمة للكشف عن المشاركات العنيفة أو العنصرية تستخدم أيضا في عملية الموافقة على الإعلانات. في ردها الرسمي على تدقيق العام الماضي، قالت فيسبوك إن تصنيفها الجديد باللغة العبرية “سيحسن بشكل كبير” قدرته على التعامل مع “الارتفاعات الكبيرة في المحتوى المنتهك”، مثل اندلاع الصراع بين إسرائيل وفلسطين. ومع ذلك ، استنادا إلى تجربة 7amleh ، فإن هذا المصنف إما لا يعمل بشكل جيد للغاية أو لسبب ما لا يتم استخدامه لفحص الإعلانات. (لم يجب McPike عندما سئل عما إذا كانت الموافقة على إعلانات 7amleh تعكس مشكلة أساسية في مصنف الكلام العدائي).

في كلتا الحالتين، وفقا لناشف، تشير حقيقة الموافقة على هذه الإعلانات إلى مشكلة شاملة: تدعي ميتا أنها تستطيع استخدام التعلم الآلي بشكل فعال لردع التحريض الصريح على العنف، في حين أنه من الواضح أنها لا تستطيع ذلك.

قال ناشف في بيانه:”نحن نعلم أن المصنفات العبرية في ميتا لا تعمل بشكل فعال، ولم نر الشركة تستجيب لأي من مخاوفنا تقريبا”،”بسبب هذا التقاعس عن العمل، نشعر أن ميتا قد تتحمل مسؤولية جزئية على الأقل عن بعض الضرر والعنف الذي يعاني منه الفلسطينيون على الأرض”.

وتأتي الموافقة على النسخ العربية من الإعلانات بمثابة مفاجأة خاصة بعد تقرير صدر مؤخرا عن صحيفة وول ستريت جورنال بأن ميتا قد خفضت مستوى اليقين الذي يحتاجه نظام الرقابة الخوارزمي لإزالة المشاركات العربية – من ثقة بنسبة 80 في المائة بأن المنشور انتهك القواعد، إلى 25 في المائة فقط. بعبارة أخرى، كانت ميتا أقل يقينا من أن المنشورات العربية التي كانت تقمعها أو تحذفها تحتوي بالفعل على انتهاكات للسياسة.

وقال ناشف: “كانت هناك أعمال مستمرة أدت إلى إسكات الأصوات الفلسطينية”.

إنترسبت

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

طالع أيضا