از هر 1000 بازدید 1 نفر در فیس بوک 1 نفرت است


مدیر عامل فیس بوک مارک زاکربرگ در جلسه دادرسی سنا از راه دور شهادت داد.

مدیر عامل فیس بوک مارک زاکربرگ در جلسه دادرسی سنا از راه دور شهادت داد. (عکس از هانا مک کی-استخر / گتی ایماژ)

فیس بوک برای اولین بار در روز پنجشنبه گسترش سخنان نفرت انگیز در سیستم عامل خود را اعلام کرد و اعلام کرد که چنین محتوا 0.11٪ بازدید از مطالب را بین ماه های جولای و سپتامبر تشکیل می دهد.

در حالی که این درصد ممکن است به نظر می رسد ناچیز، به این معنی که در هر 1 1000 دیدگاه بیان نفرت است – و با توجه به مقیاس فیس بوک، که 2.7 میلیارد کاربر فعال در هر ماه، که بدان معنی است که سخنرانی نفرت در سیستم عامل گسترده است.

این شرکت گفت که به جای اینکه فقط به مقدار محتوای سخنان نفرت آمیز فیس بوک برای اندازه گیری مشکل این پلتفرم نگاه کند ، توزیع “با انتخاب نمونه ای از محتوای دیده شده در فیس بوک و سپس علامت گذاری مقدار آن محاسبه می شود سیاست های گفتار نفرت ما را نقض می کند. “

انتشار به عنوان راهی مهم برای اندازه گیری میزان مشاهده گسترده محتوای متخلف توسط کاربران ، به شاخص مهمی در فیس بوک تبدیل شده است. در سال 2016 ، فیس بوک آن را با “اندازه گیری غلظت آلاینده ها در هوای تنفسی” مقایسه کرد. گای روزن ، رئیس صداقت فیس بوک ، روز پنجشنبه به خبرنگاران گفت که توزیع “مهمترین” معیاری است که فیس بوک برای درک آنچه در سیستم عامل خود نیاز دارد ، لازم است.

“[The prevalence metric] روزن گفت: “از آنجا که مقدار کمی از محتوا می تواند ویروسی شود و در مدت زمان بسیار کمی گسترش یابد ، از اهمیت برخوردار است ، در حالی که سایر مطالب می توانند برای مدت زمان طولانی در اینترنت باشند و توسط کسی دیده نشوند.”

از آنجا که فیس بوک برای اولین بار اطلاعات منتشر شده در مورد گسترش سخنان نفرت را به طور علنی در سیستم عامل خود منتشر کرده است ، نمی تواند بگوید که این رقم 0.11٪ نسبت به دوره های قبل از ژوئیه افزایش یا کاهش یافته است.

اگرچه فیس بوک برخی از اقدامات را برای پرداختن به برخی از جنبه های سخنان نفرت انگیز انجام داده است – مانند ممنوعیت انکار هولوکاست و محتوای QAnon – اما برای مقابله با سخنان نفرت بر روی سیستم عامل خود در بازارهای غیر انگلیسی زبان تلاش می کند.

گزارش 2018 سازمان ملل دریافت که فیس بوک همدست در تسهیل پاکسازی قومی مسلمانان روهینگیا در میانمار در سال 2016 بود، در حالی که فعالان اتیوپی بیشتر هشدار داد که فیس بوک نیز برای نسل کشی خواستار شد.

به غیر از توزیع سخنان نفرت ، فیس بوک روز پنجشنبه همچنین فاش کرد که 22.1 میلیون قطعه از محتوای سخنان نفرت را که در طول سه ماه تا پایان ماه سپتامبر به طور تاریخی ردیابی کرده بود ، حذف کرده است. فیس بوک گفت که سرمایه گذاری زیادی در سیستم های هوش مصنوعی برای کشف سخنان نفرت انگیز انجام داده است ، روز پنجشنبه افزود که این سیستم ها موفق به ضبط 95٪ از آن پست های گفتار نفرت قبل از گزارش توسط کاربر شده بودند 80٪ یک سال پیش

اما این هنوز بدان معناست که حداقل 1 میلیون قطعه از سخنان نفرت انگیز در طول مدت سه ماه در سیستم عامل مجاز بوده و فقط در صورت گزارش توسط کاربران بارگیری شده است.

فیس بوک 35000 هنرمندان به عنوان نظر محتوا به بررسی و حذف محتوای مشکل ساز است که سیستم های هوش مصنوعی آن به طور خودکار انتخاب کنید تا استخدام کرده است، اما این شرکت پاسخ قابل توجه از برخی از این مدیران که فیس بوک در ایالات متحده و اروپا شکایت کرد رو به رو است. ادعای شغلی آنها را از PTSD و سایر مشکلات روحی رنج می برد.

گروهی متشکل از 200 نفر از ناظران و سایر کارمندان فیس بوک در این هفته نامه ای به مارک زاکربرگ مدیر عامل فیس بوک امضا کردند و ادعا کردند که سلامتی آنها در معرض خطر است زیرا آنها مجبور به بازگشت به دفتر در طی همه گیر شدن بیماری شده اند. COVID ، در حالی که کارمندان تمام وقت فیس بوک می توانند حداقل تا ژوئیه 2021 برای کار در خانه بمانند.

در این نامه آمده است: “بدون کار ما ، فیس بوک غیرقابل استفاده است.” “الگوریتمهای شما نمی توانند هجو را تشخیص دهند. آنها نمی توانند روزنامه نگاری از اطلاعات غلط علف هرز از. آنها نمی توانند به اندازه کافی سریع نسبت به آسیب به خود یا خشونت علیه کودکان واکنش نشان دهند. ما میتوانیم.”


منبع: ranginews.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>