مرحبًا بك في دورة TikTok اللانهائية من الرقابة والأخطاء

السيدة تك | إنفاتو



Ziggi Tyler هو جزء من TikTok's Creator Marketplace ، وهو نظام أساسي خاص يمكن للعلامات التجارية من خلاله التواصل مع أفضل منشئي التطبيق. وفي الأسبوع الماضي ، لاحظ شيئًا مزعجًا جدًا حول كيفية إدارة السير الذاتية لمنشئ المحتوى هناك تلقائيًا.

عندما حاول إدخال عبارات معينة في سيرته الذاتية ، تم تمييز بعض العبارات - حياة السود مهمة ، ودعم السود ، ودعم أصوات السود ، ودعم نجاح السود - على أنها محتوى غير لائق. لكن النسخ البيضاء من نفس العبارات كانت مقبولة.





قال إنه إذا دخلت إلى Creator Marketplace ووضعت 'دعم تفوق البيض' وضغطت على قبول ، فلا بأس في فيديو TikTok ، يقف أمام ما قال إنه لقطة فيديو له وهو يفعل ذلك بالضبط على هاتفه الخاص. ليتم إدراجه في السوق ، كان عليه حذف ما كتبه.

غيّر TikTok شكل وجوه بعض الأشخاص دون سؤال

لاحظ المستخدمون ما يبدو أنه مرشح تجميل لم يطلبوه - ولا يمكنهم إيقافه.

في متابعة الفيديو ، أظهر تايلر عبارات أنا نازي جديد وأنا معادٍ لسماغيتي قبلت ، بينما أنا رجل أسود تم الإبلاغ عنه. انفجرت القصة ، مدفوعة جزئيًا بجمهور كان محبطًا بالفعل من الطريقة التي يتم بها التعامل مع المبدعين السود على TikTok. في تعليق لـ Insider ، اعتذر متحدث باسم الشركة عن الخطأ الكبير وقال إن ما كان يراه تايلر كان نتيجة لتصفية تلقائية تم تعيينها لحظر الكلمات المرتبطة بكلام يحض على الكراهية. وأضافت أن النظام تم تعيينه خطأً لوضع علامات على العبارات دون مراعاة لترتيب الكلمات. أخبرت الشركة إعادة الترميز أن هذا الخطأ بالذات جاء من تضمين الكلمات الأسود والجمهور ، لأن اكتشاف الكلام الذي يحض على الكراهية التقطه عند الجمهور ووضع علامة على الاقتران على أنه غير مناسب.



الظهور العام ، والانتشار الفيروسي

إنه بعيد عن الحادث الوحيد الذي يقع على المنصة. قبل بضعة أسابيع ، TikTok تم تطبيقه بشكل خاطئ ما يبدو أنه عامل تصفية تجميل إلزامي أنشأ خط فك أقل سمكًا لبعض مستخدمي Android.

في غضون ذلك ، في أبريل ، لاحظ أحد منشئي TikTok أن ميزة التسميات التوضيحية التلقائية الجديدة للنظام الأساسي كانت تحظر عبارة 'النساء الآسيويات'. وفي أوائل عام 2021 ، وجد المبدعون ثنائيو الجنس أن علامة التجزئة #intersex لم تعد قابلة للاكتشاف على التطبيق.

هذه كلها أمثلة على نمط يتكرر على TikTok: أولاً يلاحظ المنشئ مشكلة غريبة ومن المحتمل أن تكون ضارة في الاعتدال أو الخوارزمية الخاصة بالمنصة ، والتي غالبًا ما تؤثر بشكل غير متناسب على الفئات المهمشة. ثم يصنعون مقطع فيديو حول ما يحدث ، ويحصل هذا الفيديو على عدد كبير من المشاهدات. في النهاية ، ربما ، يهتم أحد الصحفيين بما يحدث ، ويطلب من الشركة أن تشرح ذلك ، ويتم إصلاح المشكلة. ثم أصدرت TikTok بيانًا يقول إن المشكلة كانت نتيجة خطأ ، وتؤكد على العمل الذي يقومون به لدعم المبدعين والأسباب المتأثرة.

أول إنسان معدل وراثيا

ليس من المستغرب بالضرورة أن تكون مقاطع الفيديو هذه أخبارًا. يصنع الناس مقاطع الفيديو الخاصة بهم لأنهم يعملون. كان الحصول على المشاهدات إحدى الاستراتيجيات الأكثر فاعلية لدفع منصة كبيرة لإصلاح شيء ما لسنوات. سهلت Tiktok و Twitter و Facebook على المستخدمين الإبلاغ عن إساءة الاستخدام وانتهاكات القواعد من قبل المستخدمين الآخرين. ولكن عندما يبدو أن هذه الشركات تخرق سياساتها الخاصة ، غالبًا ما يجد الناس أن أفضل طريق للمضي قدمًا هو ببساطة محاولة النشر عنها على المنصة نفسها ، على أمل أن تنتشر هذه الشركات على نطاق واسع وجذب الانتباه الذي يؤدي إلى نوع من الحل. على سبيل المثال ، يوجد مقطعا فيديو لـ Tyler في السير الذاتية لـ Marketplace ، حصد كل منهما أكثر من مليون مشاهدة.



يتم الإبلاغ عن المحتوى لأنه شخص من مجموعة مهمشة يتحدث عن تجاربهم مع العنصرية. يمكن أن يبدو الكلام الذي يحض على الكراهية والحديث عن الكلام الذي يحض على الكراهية مشابهًا جدًا للخوارزمية.

كيسي فيسلر ، جامعة كولورادو ، بولدر

يقول كيسي فيسلر ، الأستاذ المساعد في جامعة كولورادو ، بولدر ، الذي يدرس أخلاقيات التكنولوجيا والمجتمعات عبر الإنترنت ، إنه من المحتمل أن يتم وسمي في شيء مرة واحدة في الأسبوع. إنها نشطة على TikTok ، مع أكثر من 50000 متابع ، ولكن رغم أنه ليس كل ما تراه يبدو وكأنه مصدر قلق مشروع ، إلا أنها تقول إن العرض المعتاد للمشكلات في التطبيق حقيقي. تعرضت TikTok للعديد من هذه الأخطاء خلال الأشهر القليلة الماضية ، والتي أثرت جميعها بشكل غير متناسب على الفئات المهمشة على المنصة.

استعراض تكنولوجيا معهد ماساتشوستس للتكنولوجيا سأل TikTok عن كل من هذه الأمثلة الحديثة ، وكانت الردود متشابهة: بعد التحقيق ، وجد TikTok أن المشكلة قد تم إنشاؤها عن طريق الخطأ ، وأكد أن المحتوى المحظور المعني لا ينتهك سياساتهم ، وروابط لدعم الشركة يعطي مثل هذه المجموعات.

والسؤال المطروح هو ما إذا كان يمكن تغيير تلك الحلقة - بعض الأخطاء الفنية أو السياساتية ، ورد فيروسي واعتذار -.

حل المشكلات قبل ظهورها

يقول فيسلر إن هناك نوعين من الأضرار التي قد تنجم عن هذا الاعتدال الخوارزمي للمحتوى الذي يراقبه الناس. واحد هو السلبيات الكاذبة. يقول الناس ، 'لماذا يوجد كل هذا الكلام الذي يحض على الكراهية على هذه المنصة ولماذا لا يتم إزالته؟'

الآخر هو نتيجة إيجابية خاطئة. يتم الإبلاغ عن المحتوى الخاص بهم لأنهم شخص من مجموعة مهمشة يتحدثون عن تجاربهم مع العنصرية ، على حد قولها. يمكن أن يبدو الكلام الذي يحض على الكراهية والحديث عن الكلام الذي يحض على الكراهية مشابهًا جدًا للخوارزمية.

كلتا الفئتين ، كما أشارت ، تلحق الضرر بنفس الأشخاص: أولئك الذين يتم استهدافهم بشكل غير متناسب لسوء المعاملة ينتهي بهم الأمر للرقابة الخوارزمية للتحدث عن ذلك.

تيك توك تعد خوارزميات التوصية الغامضة جزءًا من نجاحها —لكن حدوده غير الواضحة والمتغيرة باستمرار لها بالفعل تأثير مخيف على بعض المستخدمين. يلاحظ Fiesler أن العديد من منشئي TikTok يمارسون الرقابة الذاتية على الكلمات على المنصة لتجنب إثارة المراجعة. وعلى الرغم من أنها ليست متأكدة بالضبط إلى أي مدى يمكن لهذا التكتيك أن يحقق ، فقد بدأت فيلسر أيضًا في القيام بذلك ، بنفسها ، فقط في حالة حدوث ذلك. يُعد حظر الحساب وألغاز الخوارزمية وقرارات الإشراف الغريبة جزءًا ثابتًا من المحادثة على التطبيق.

كيف أدمن Facebook على نشر المعلومات الخاطئة

أعطتها خوارزميات الذكاء الاصطناعي للشركة عادة نهمة للأكاذيب وخطاب الكراهية. الآن الرجل الذي بناها لا يستطيع حل المشكلة.

والأسوأ من ذلك ، أن العديد من هذه الأخطاء ، كما جادل فيسلر ، سيكون من السهل التنبؤ بها إذا ما فكرت الشركات ببساطة أكثر في كيفية تفاعل المستخدمين المختلفين مع تطبيقاتهم. سيكون من الصعب تفويت خطأ الكلام الذي يحض على الكراهية الذي واجهه تايلر إذا اختبرته الشركة على اللغة التي يستخدمها منشئو المحتوى الأسود في الواقع لوصف أنفسهم ، على سبيل المثال.

يقول فيزلر إن التعامل بشكل صحيح مع الاعتدال أمر معقد ، لكن هذا لا يعفي هذا التكرار المستمر.

تقول إنني غالبًا ما أتعاطف مع تحديات هذه الأشياء أكثر من معظم الناس. ولكن حتى أنا ، 'حقًا؟' في مرحلة ما ، توجد أنماط ، ويجب أن تعرف ما الذي تبحث عنه.

سألت فيسلر عما إذا كان أي شيء يمكن أن يبطئ هذه الدورة ، حتى لو كان من المستحيل حلها مباشرة في هذه المرحلة. جزء من الإجابة هو أحد أقدم القصص في مجال التكنولوجيا: توظيف أشخاص من خلفيات متنوعة والاستماع إليهم.

لكنها ، كما تقول ، يجب أن تكون الشفافية الأكبر جزءًا من الحل. لا تستطيع Fiesler تحديد سبب خطأ أداة كشف الكلام التي تحض على الكراهية في TikTok الأسبوع الماضي لأن التطبيق لم يصدر الكثير من المعلومات حول كيفية عمله - ليس للباحثين أمثالها ، وليس للمستخدمين الذين تمت إزالة محتواهم أو قمعه تلقائيًا يوضح التاريخ أن العمليات يمكن أن تسوء بسهولة. كصحفي ، عندما سألت TikTok (وفي أوقات أخرى ، منصات أخرى) للحصول على تفسيرات أكثر تفصيلاً حول سبب حدوث شيء يسمونه خطأ ، وما الذي يفعلونه لمنع تكراره في المستقبل ، الإجابة مختصرة أو غير مرضية أو تمتنع الشركة عن التعليق على السجل تمامًا.

إذا كان منشئو المحتوى يحصلون باستمرار على علامات غير لائقة بشأن الأشياء ، فيجب أن تكون هناك عمليات استئناف سهلة حقًا ، كما تقول.

في غضون ذلك: ستستمر الدورة.

يخفي

التقنيات الفعلية

فئة

غير مصنف

تكنولوجيا

التكنولوجيا الحيوية

سياسة التكنولوجيا

تغير المناخ

البشر والتكنولوجيا

وادي السيليكون

الحوسبة

مجلة Mit News

الذكاء الاصطناعي

الفراغ

المدن الذكية

بلوكشين

قصة مميزة

الملف الشخصي للخريجين

اتصال الخريجين

ميزة أخبار معهد ماساتشوستس للتكنولوجيا

1865

وجهة نظري

77 Mass Ave

قابل المؤلف

ملامح في الكرم

شوهد في الحرم الجامعي

خطابات الخريجين

أخبار

انتخابات 2020

فهرس With

تحت القبه

خرطوم الحريق

قصص لانهائية

مشروع تكنولوجيا الوباء

من الرئيس

غلاف القصه

معرض الصور

موصى به