الثلاثاء 17 مارس 2026 03:52 صباحاً صدر الصورة، BBC/Getty images
قال مبلّغون عن مخالفات لبي بي سي إن شركات التواصل الاجتماعي الكبرى اتخذت قرارات سمحت بظهور مزيد من المحتوى الضار على صفحات المستخدمين، بعدما أظهرت دراسات داخلية لتلك الشركات حول خوارزمياتها أن المحتوى الذي يثير الغضب يزيد من تفاعل المستخدمين.
وكشف أكثر من اثني عشر من أصحاب شكاوى ومطلعين من داخل هذه الشركات كيف جازفت الشركات بمعايير السلامة في قضايا تشمل العنف والابتزاز الجنسي والإرهاب، في ظل المنافسة الشديدة على جذب انتباه المستخدمين.
وقال مهندس يعمل في شركة ميتا، المالكة لفيسبوك وإنستغرام، إنه تلقى تعليمات من الإدارة العليا بالسماح بظهور مزيد من المحتوى الضار الذي يقع على الحافة بين المسموح والمخالف في الصفحات التي يشاهدها المستخدمون — وهو محتوى قد يتضمن كراهية النساء ونظريات المؤامرة — وذلك بهدف منافسة منصة تيك توك.
وأضاف المهندس: "قيل لنا بشكل أو بآخر إن السبب هو تراجع سعر سهم الشركة".
كما منح موظف في تيك توك بي بي سي وصولاً نادراً إلى لوحات البيانات الداخلية التي تعرض شكاوى المستخدمين داخل الشركة، إضافة إلى أدلة أخرى تُظهر أن الموظفين طُلب منهم إعطاء الأولوية لللتعامل مع عدد من القضايا المرتبطة بسياسيين، على حساب سلسلة من البلاغات عن منشورات ضارة تتعلق بالأطفال.
وقال الموظف إن قرارات كانت تُتخذ بهدف "الحفاظ على علاقة قوية" مع شخصيات سياسية لتجنّب تهديدات بفرض قيود تنظيمية أو حظر المنصة، وليس بسبب المخاطر التي قد يتعرض لها المستخدمون.
ويقدّم المبلّغون عن المخالفات الذين تحدثوا في وثائقي بي بي سي "داخل ماكينة الغضب" صورة من داخل الشركات توضح كيفية تعامل القطاع مع النمو المتسارع لمنصة تيك توك، التي غيّرت خوارزميتها المصمَّمة لاقتراح مقاطع فيديو قصيرة بطريقة جذابة، وهو الأمر الذي دفع الشركات الأخرى إلى محاولة اللحاق بها.
وقال الباحث الكبير في شركة ميتا، مات موتيل، إن ميزة "إنستغرام ريلز" التي أطلقتها الشركة عام 2020 لمنافسة تيك توك طُرحت من دون إجراءات حماية كافية. وتُظهر أبحاث داخلية اطّلعت عليها بي بي سي أن التعليقات على مقاطع "ريلز" شهدت مستويات أعلى بكثير من التنمّر والتحرّش وخطاب الكراهية والعنف أو التحريض عليه مقارنة ببقية محتوى إنستغرام.
وقال موظف سابق كبير في شركة ميتا إن الشركة استثمرت في توظيف 700 موظف لتطوير ميزة "ريلز"، في حين رُفض طلب فرق السلامة تعيين موظفين متخصصين اثنين لحماية الأطفال، وعشرة موظفين إضافيين للمساعدة في حماية نزاهة الانتخابات.
وقدّم موتيل لبي بي سي عشرات الوثائق التي وصفها بأنها "دراسات بحثية رفيعة المستوى تُظهر أنواعاً مختلفة من الأضرار التي قد يتعرض لها المستخدمون على هذه المنصات". ومن بين هذه الوثائق أدلة تُظهر أن فيسبوك كان على دراية بالمشكلات التي تسببت بها خوارزمياته.
وبحسب إحدى الدراسات الداخلية، فإن الخوارزمية كانت توفّر لصنّاع المحتوى "مساراً يحقق أقصى قدر من الأرباح على حساب صحة جمهورهم النفسية"، وأن "مجموعة الحوافز المالية الحالية التي تولّدها خوارزمياتنا لا تبدو منسجمة مع مهمتنا المعلنة والمتمثلة في تقريب العالم من بعضه البعض".
وأضافت الدراسة أن فيسبوك يمكنه "اختيار البقاء مكتوف اليدين والاستمرار في تزويد المستخدمين بمحتوى أشبه بالوجبات السريعة، لكن هذا لا يمكن أن يستمر طويلاً".
ورداً على اتهامات المبلّغين عن المخالفات، قالت شركة ميتا إن "أي ادعاء بأننا نعمد إلى تضخيم المحتوى الضار لتحقيق مكاسب مالية هو ادعاء غير صحيح".
أما تيك توك فقالت إن هذه "ادعاءات مختلقة"، مؤكداً أن الشركة تستثمر في تقنيات تمنع عرض المحتوى الضار للمستخدمين.
قال روفان دينغ، الذي عمل مهندساً في فريق تطوير نظام توصية المحتوى في تيك توك بين عامي 2020 و2024، إن الخوارزميات تشبه "صندوقاً أسود" يصعب فهم ما يجري داخله بدقة.
وأوضح أن إنشاء أنظمة من هذا النوع تكون آمنة بالكامل أمر صعب، مضيفاً: "نحن لا نملك سيطرة مباشرة على خوارزمية التعلّم العميق نفسها."
وأشار إلى أن المهندسين لا يركّزون كثيراً على مضمون المنشورات، قائلاً: "بالنسبة لنا، كل محتوى هو مجرد مُعرّف رقمي أو رقم مختلف."
وأضاف أنهم يعتمدون على فرق سلامة المحتوى للتأكد من إزالة المنشورات الضارة حتى لا تتمكن الخوارزمية من الترويج لها. وشبّه العلاقة بين الفرق المختلفة بفرق تعمل على أجزاء مختلفة من سيارة.
وقال: "هناك فريق مسؤول عن التسارع والمحرك مثلاً، لذلك نتوقع أن الفريق الذي يعمل على نظام الفرامل يقوم بعمله بشكل جيد."
لكن دينغ قال إنه مع سعي تيك توك إلى تحسين خوارزميته تقريباً بشكل أسبوعي لزيادة حصة المنصة في السوق، بدأ يلاحظ ظهور المزيد من المحتوى الإشكالي أو المنشورات التي تقع على حافة مخالفة القواعد، والتي غالباً ما كانت تظهر فقط بعد أن يقضي المستخدم بعض الوقت في تصفّح الفيديوهات.
ويُستخدم مصطلح "المحتوى الحدّي" داخل شركات التواصل الاجتماعي عادةً لوصف منشورات قد تكون ضارة لكنها لا تخالف القانون، وتشمل مثلاً منشورات تنطوي على كراهية للنساء أو الترويج للعنصرية أو ذات طابع جنسي، إضافة إلى محتوى نظريات المؤامرة.
وقال مراهقون لبي بي سي إن الأدوات التي تتيح للمستخدمين الإشارة إلى أنهم لا يرغبون في رؤية هذا النوع من المحتوى لا تعمل بفعالية، وإنهم ما زالوا يتلقّون توصيات بمحتوى يتضمن عنفاً وخطاب كراهية على منصات التواصل الاجتماعي الكبرى.
وفي حالة وُصفت بأنها متطرفة، قال مراهق آخر يُدعى كالوم — ويبلغ الآن 19 عاماً — إنه "تعرّض للتطرّف بفعل الخوارزمية" منذ كان في الرابعة عشرة من عمره. وأضاف أن الخوارزمية عرضت عليه محتوى أثار غضبه ودفعه تدريجياً إلى تبنّي أفكار عنصرية ومعادية للنساء.
يقول كالوم إن تلك الفيديوهات "منحتني نوعاً من الحماس، لكن ليس بطريقة جيدة حقاً". وأضاف: "جعلتني أشعر بقدر كبير من الغضب. كانت تعكس إلى حد كبير ما كنت أشعر به في داخلي، إذ كنت غاضباً من الأشخاص من حولي."
ويقول مختصون في شرطة مكافحة الإرهاب في المملكة المتحدة، ممن يحلّلون آلاف المنشورات على وسائل التواصل الاجتماعي كل عام، إنهم لاحظوا في الأشهر الأخيرة "تطبيعاً" لانتشار منشورات معادية لليهود، وعنصرية، وعنيفة، وتنتمي إلى اليمين المتطرف.
وقال أحد الضباط: "أصبح الناس أقل تأثراً بمشاهد العنف في العالم الحقيقي، ولم يعودوا يخشون التعبير عن تلك الأراء."
"احذفوا تيك توك"
على مدى عدة أشهر خلال عام 2025، تحدثت بي بي سي بشكل دوري مع أحد أعضاء فريق الثقة والسلامة في شركة تيك توك، الذي سنشير إليه باسم نيك. وتمكّنت بي بي سي من الاطلاع على لوحة البيانات الداخلية الخاصة بالشركة على حاسوبه المحمول، والتي تعرض القضايا التي يتعامل معها فريقه تحديداً وكيفية التعامل معها.
وقال نيك: "عندما تشعر بالذنب يومياً بسبب ما يُطلب منك القيام به، قد تصل في مرحلة ما إلى التساؤل: هل ينبغي أن أتحدث عمّا يحدث؟"
وأضاف أن حجم القضايا التي كان الفريق يقيّمها كان كبيراً إلى درجة يصعب معها متابعتها كلها بما يضمن سلامة المستخدمين، ما جعل المراهقين والأطفال عرضة للخطر بشكل خاص. وأشار أيضاً إلى أن تقليص عدد الموظفين وإعادة تنظيم بعض فرق الإشراف على المحتوى — حيث حلت تقنيات الذكاء الاصطناعي محل بعض الوظائف — حدّ، في رأيه، من قدرة الشركة على التعامل بفعالية مع هذا النوع من المحتوى.
وقال المبلّغ إن المواد المرتبطة بـ "الإرهاب، والعنف الجنسي، والعنف الجسدي، والإساءة، والاتجار بالبشر" تبدو في ازدياد.
وأضاف أن الواقع الفعلي لما يوصي به التطبيق للمستخدمين، والإجراءات المتخذة ضد المحتوى الضار، يختلف في جوانب كثيرة عمّا تقوله هذه المنصات علناً.
كما اطّلعت بي بي سي، عبر نيك، على أدلة تُظهر أن تيك توك كان يمنح بعض القضايا البسيطة نسبياً المرتبطة بسياسيين أولوية أعلى للمراجعة من قِبل فرق السلامة، مقارنةً بعدة قضايا تتعلق بإلحاق الأذى بمراهقين.
وفي أحد الأمثلة، جرى إعطاء أولوية لقضية شخصية سياسية تعرّضت للسخرية بمقارنتها بدجاجة، على حساب بلاغ تقدّمت به فتاة في السابعة عشرة من عمرها في فرنسا قالت إنها ضحية تنمّر إلكتروني وانتحال شخصية، وكذلك شكوى لفتاة في السادسة عشرة من العراق أفادت بأن صوراً ذات طابع جنسي يُزعم أنها لها يجري تداولها على التطبيق.
وفي إشارة إلى القضية المرتبطة بالعراق، قال نيك: "إذا نظرت إلى البلد الذي جاء منه هذا البلاغ، فهو عالي الخطورة، لأنه يتعلق بقاصر ويتضمن ابتزازاً جنسياً، ومع ذلك يمكن أن ترى مستوى الأولوية هنا. درجة الإلحاح ليست مرتفعة."
كما عرض نيك أمثلة على منشورات كانت تشجّع الناس على الانضمام إلى جماعات إرهابية أو ارتكاب جرائم، لكنها لم تُصنَّف ضمن القضايا ذات الأولوية القصوى.
وقال المبلّغ إن فريق الثقة والسلامة عندما طلب إعطاء أولوية للقضايا التي تتعلق بالشباب على حساب القضايا السياسية، طُلب منهم عدم القيام بذلك، والاستمرار في التعامل مع القضايا وفق ترتيب الأولويات المحدد لهم.
وأضاف نيك أن سبب هذا الترتيب، برأيه، هو أن الشركة تهتم بدرجة أقل بسلامة الأطفال مقارنةً باهتمامها بالحفاظ على "علاقة قوية" مع السياسيين والحكومات، لتجنّب فرض قيود تنظيمية أو حظر قد يضر بأعمالها.
وقال نيك إنّه عندما طرح هو وزملاء آخرون هذه المخاوف أمام الإدارة، لم تلقَ آذاناً صاغية لأن المسؤولين "لا يتعرضون لهذا المحتوى بشكل يومي."
أما نصيحته الصريحة للآباء الذين يستخدم أبناؤهم تطبيق تيك توك فهي: "احذفوه، وأبعدوا أطفالكم عن التطبيق قدر الإمكان ولأطول فترة ممكنة."
من جهتها، قالت تيك توك إنها ترفض فكرة أن المحتوى السياسي يُعطى أولوية على حساب سلامة الشباب، معتبرة أن هذا الادعاء "يقدّم صورة غير دقيقة جوهرياً عن كيفية عمل أنظمة الإشراف لديها."
وأوضحت الشركة أن الفريق الذي يعمل فيه نيك جزء من نظام أوسع للسلامة يضم عدة فرق مسؤولة عن مراجعة الشكاوى المتعلقة بالمحتوى. وأضافت: "وجود مسارات عمل متخصصة لبعض القضايا لا يعني تقليل أولوية قضايا سلامة الأطفال، إذ تتولى فرق مخصصة التعامل معها ضمن هياكل مراجعة متوازية."
وقال متحدث باسم تيك توك إن هذه الانتقادات "تتجاهل حقيقة أن تيك توك يتيح لملايين المستخدمين اكتشاف اهتمامات جديدة، والعثور على مجتمعات مشتركة، كما يدعم اقتصاداً مزدهراً لصنّاع المحتوى."
وأضافت الشركة أن حسابات المراهقين تتضمن أكثر من 50 ميزة وإعداداً للسلامة مفعّلة تلقائياً، مشيرةً إلى أنها تستثمر في تقنيات تساعد على منع عرض المحتوى الضار من الأساس، وتطبّق سياسات صارمة في أنظمة التوصية بالمحتوى، وتوفر أدوات تتيح للمستخدمين تخصيص تجربتهم على المنصة.
"افعلوا كل ما يمكن للحاق بالمنافسة"
في عام 2020، اشتدّ سباق تطوير الخوارزميات عندما أُطلقت ميزة Reels ضمن تطبيق إنستغرام، رداً على الانتشار الهائل الذي حققته منصة تيك توك عالمياً خلال جائحة كوفيد-19.
وقال مات موتيل، الذي عمل باحثاً أول في فيسبوك ثم في شركة ميتا، إن هذه الخطوة كانت محاولة من الشركة "لمحاكاة" المنتج "الفريد" الذي أطلقته تيك توك.
وأوضح أن عمله بين عامي 2019 و2023 كان يتضمن إجراء تجارب واسعة النطاق على كيفية ترتيب المحتوى في صفحات المستخدمين، شملت في بعض الأحيان مئات الملايين من الأشخاص — غالباً من دون أن يكون لديهم أي علم بذلك.
وقال: "تستخدم منتجات ميتا من قبل أكثر من ثلاثة مليارات شخص. وكلما استطاعت إبقاء المستخدمين على منصاتها لفترة أطول، باعت إعلانات أكثر وحققت أرباحاً أكبر. لكن من المهم جداً أن يتم تنفيذ هذه الأمور بشكل صحيح، لأن الأخطاء قد تؤدي إلى نتائج سيئة للغاية."
وعن ميزة Reels تحديداً، قال موتيل إن النهج كان يقوم على التحرك بأسرع ما يمكن، بغضّ النظر عن تأثير ذلك على المستخدمين. وأضاف أن هناك مقايضة متكررة بين حماية المستخدمين من المحتوى الضار وزيادة التفاعل على المنصة.
وبحسب ورقة بحثية شاركها مع بي بي سي، واجهت ميتا صعوبة في الحد من الأضرار المرتبطة بمحتوى Reels بعد إطلاقه. وتشير الدراسة إلى أن منشورات Reels شهدت معدلات أعلى من التعليقات الضارة مقارنة بمنشورات الصفحة الرئيسية في إنستغرام: بزيادة قدرها 75% في التنمّر والتحرش، و19% في خطاب الكراهية، و7% في العنف أو التحريض عليه.
وقال موتيل إن هناك "اختلالاً في موازين القوة" داخل الشركة، لأن فرق السلامة كانت تحتاج إلى موافقة الفرق المسؤولة عن "ريلز" لإطلاق أي منتج أو ميزة جديدة تهدف إلى تحسين سلامة المستخدمين. وأضاف أن موظفي "ريلز" كانت لديهم حوافز لعدم السماح بإطلاق هذه الميزات لأن المحتوى السام يحقق تفاعلاً أكبر من المحتوى غير السام.
من جهته، قال براندون سيلفرمان، الذي اشترت فيسبوك في عام 2016 أداة مراقبة وسائل التواصل الاجتماعي التي أسسها "كراود تانغل"، إنه شارك في بعض النقاشات على مستوى الإدارة العليا خلال تلك الفترة، وذكر أن الرئيس التنفيذي مارك زوكربيرغ كان "شديد القلق" بشأن المنافسة.
وقال سيلفرمان: "عندما يشعر بوجود قوى منافسة محتملة، لا يكون هناك مبلغ من المال يعتبره كبيراً أكثر من اللازم."
وأضاف أنه خلال تلك الفترة رأى فرق السلامة تكافح للحصول على الموافقة لتوظيف عدد صغير من الموظفين، في وقت كان تركيز الشركة منصبّاً على توسيع "ريلز". وقال: "كان هناك فريق آخر قال: لقد حصلنا للتو على 700 موظف لإنستغرام ريلز. فقلت لنفسي: حسناً، فهمت."
قال مهندس سابق في شركة ميتا — سنشير إليه باسم تيم — إن الشركة سمحت بظهور مزيد من المحتوى الإشكالي الضار على منصتها مع سعيها لمنافسة تيك توك. وأوضح أن فريقه كان يعمل على تقليل هذا النوع من المحتوى، إلى أن تغيّر ما وصفه بـ "توجّه الشركة التجاري".
وقال تيم: "عندما تخسر أمام تيك توك، فإن سعر سهمك يتأثر. بدأ الناس يصبحون قلقين ويتصرفون بردّات فعل سريعة، وقالوا: فلنفعل أي شيء يمكننا القيام به للحاق بالمنافسة. من أين يمكننا الحصول على زيادة بنسبة 2% أو 3% في الإيرادات في الربع المقبل؟"
وأضاف أن قرار التوقف عن الحدّ من المحتوى الذي قد يكون ضاراً لكنه غير مخالف للقانون — والذي كان المستخدمون يتفاعلون معه — اتخذه نائب رئيس أول في شركة ميتا يعتقد تيم أنه كان يرفع تقاريره مباشرة إلى مارك زوكربيرغ.
وفي الوقت الذي كانت فيه فيسبوك تقول إنها مجرد "مرآة تعكس المجتمع"، تكشف وثائق داخلية اطّلعت عليها بي بي سي وشاركها الباحث السابق مات موتيل أن الشركة كانت على علم بأنها تضخّم انتشار محتوى يثير غضب المستخدمين وقد يدفع أحياناً إلى الإضرار بالآخرين.
وتوضح هذه الوثائق أن المحتوى الحساس — الذي قد يشمل مواد تمسّ المعتقدات الأخلاقية للناس أو منشورات تحرّض على العنف — يكون أكثر احتمالاً لإثارة ردود فعل وتفاعل على المنصة، خصوصاً إذا كان يثير الغضب.
وجاء في الدراسة: "نظراً لارتفاع مستوى التفاعل بشكل غير متناسب مع هذا النوع من المحتوى، تفترض خوارزمياتنا أن المستخدمين يحبونه ويرغبون في رؤية المزيد منه."
وقال براندون سيلفرمان إن قيادة شركة ميتا بدت في البداية غير متأكدة من كيفية التعامل مع المحتوى السام على المنصة، وإن هناك فترة شهدت نوعاً من المراجعة الذاتية الجادة داخل الشركة.
لكنه أضاف أن موقف الشركة بدأ يتصلّب ويتحوّل إلى نوع من الدفاعية، إذ أصبح ردها يقوم على فكرة أن "الشركة ليست مسؤولة عن كل الاستقطاب في المجتمع."
وقال سيلفرمان: "لا أحد يقول إنكم مسؤولون عن كل الاستقطاب. ما نقوله فقط هو أنكم تساهمون فيه، وربما بطرق لا داعي لها. ولو أجريتم بعض التعديلات البسيطة، قد لا تساهمون فيه بالقدر نفسه."
من جانبها، نفت شركة ميتا ادعاءات المبلّغين عن المخالفات. وقال متحدث باسم الشركة: "الحقيقة أننا نطبق سياسات صارمة لحماية المستخدمين على منصاتنا، وقد استثمرنا بشكل كبير في السلامة والأمن خلال العقد الماضي."
وأضافت الشركة أنها "أجرت تغييرات حقيقية لحماية المراهقين على الإنترنت"، من بينها إطلاق ميزة "حسابات المراهقين" الجديدة، التي تتضمن إجراءات حماية مدمجة وأدوات تتيح للآباء إدارة تجربة أبنائهم على المنصة.
إعداد إضافي: روبرت فاركوهار، ديزي باتا، وإيز روبرتس.
تم ادراج الخبر والعهده على المصدر، الرجاء الكتابة الينا لاي توضبح - برجاء اخبارنا بريديا عن خروقات لحقوق النشر للغير
أخبار متعلقة :