دانش و فناوریشبکه های اجتماعی

مشکل اطلاعات نادرست بین المللی فیس بوک حتی بزرگتر از آن در ایالات متحده است


اطلاعات جدید از اسناد داخلی فیس بوک نشان می دهد که اطلاعات نادرست این شرکت رسانه های اجتماعی بسیار فراتر از ایالات متحده است.

این اسناد که The Facebook Papers نامیده شده و توسط افشاگر فرانسیس هاگن جمع آوری شده است، کمبود منابع و آگاهی اجتماعی فیس بوک را در کشورهایی مانند هند، میانمار و سریلانکا نشان می دهد که منجر به گسترش سخنان نفرت انگیز و احساسات سیاسی رادیکال می شود که می تواند با اعمال مرتبط باشد. خشونت و تأثیرگذاری در انتخابات ملی.

فیس‌بوک به نبض اجتماعی وب‌سایت خود در خارج از ایالات متحده متصل نیست، اما این شرکت به طور کلی می‌داند که پلتفرم آن بر سیاست در چنین کشورهایی تأثیر می‌گذارد. مجله نیویورک تایمز. محققان داخلی آزمایش‌ها و مطالعات میدانی را روی الگوریتم فیس‌بوک در هند انجام داده‌اند، جایی که News Feed به سرعت سخنان نفرت‌انگیز، اطلاعات نادرست و جشن‌های خشونت را نشان داد. این نوع محتوا هم از سوی کاربران قانونی و هم از ربات های بدون سانسور تهیه شده است.

یکی از محققان در یک گزارش داخلی فیس بوک نوشت: «به دنبال اخبار این کاربر آزمایشی، در سه هفته گذشته تصاویر بیشتری از افراد مرده نسبت به کل زندگی‌ام دیده‌ام.

این اسناد همچنین نشان می‌دهد که فیس‌بوک رویکردی کج‌رو برای مبارزه با اطلاعات نادرست دارد، به طوری که 87 درصد از بودجه جهانی آن صرفاً به شناسایی اطلاعات نادرست در ایالات متحده اختصاص داده شده است، در حالی که 13 درصد باقی‌مانده به بقیه دنیا رسیدگی می‌کند.

این مجموعه نسبتاً کوچک منابع منجر به اقدامات بی‌اثر در مکان‌هایی مانند هند می‌شود، با میزبانی از سیاست‌های رادیکال متمایز ملی. وقتی در نظر بگیرید که هند بزرگترین بازار فیس بوک با 340 میلیون کاربر در سراسر پلتفرم هایش است، به نظر می رسد یک تخصیص اشتباه وحشیانه تمرکز باشد.

کاربران فیس بوک در آنجا به راحتی پست های گرافیکی را دریافت می کنند که لفاظی های ضد اسلامی و ضد پاکستانی را به هر یک از 22 زبان رسمی کشور منتشر می کند. بر اساس بار، هوش مصنوعی فیس بوک فقط به پنج مورد از این زبان ها آموزش داده شده است، با بازبینی های انسانی برای “برخی دیگر”.

اما همانطور که در اسناد خود این شرکت مشاهده می شود، بسیاری از محتوای خطرناک به زبان هندی یا بنگالی – دو زبان رایج هند – هرگز به دلیل داده های ناکافی علامت گذاری نمی شوند. و در حالی که تلاش‌های اطلاعات نادرست در حوالی زمان انتخابات سراسری افزایش می‌یابد، کمبود مداوم منابع فیس‌بوک در کشور نمی‌تواند به طور دائمی با ربات‌های خطرناک و گروه‌های خشن مبارزه کند.

این مسائل در هند بزرگ‌ترین هستند، اما مشکلات منابع مشابه کشورهایی مانند میانمار را گرفتار می‌کند، جایی که تلاش‌های فیس‌بوک برای جلوگیری از لفاظی‌های مضر کافی نبود و ممکن است به شعله‌ور شدن یک کودتا کمک کرده باشد. در حالی که شرکت اقداماتی را اجرا کرد در طول انتخابات میانمار برای محدود کردن دید پست های اطلاعات نادرست به اشتراک گذاشته شده توسط ارتش، پس از آن نتوانست آن را حفظ کند. فیس بوک در پایان اقدامات خود را لغو کرد و سه ماه بعد ارتش کودتای خشونت آمیزی انجام داد.

همچنین ببینید:

دفاع فیس بوک در هنگام استماع افشاگر در زمان واقعی از بین می رود

در حالی که فیس بوک به وضوح نقش خود را در خشونت سیاسی خارجی به رسمیت می شناسد و سعی می کند آن را اصلاح کند، این اسناد نشان می دهد که اغلب خیلی کم و خیلی دیر است. اگر شرکت بخواهد از نظر اخلاقی در صحنه جهانی فعالیت کند، بزرگترین بازار خود – و همه بازارهای دیگر – را مدیون حساسیت فرهنگی و اختصاص منابع برای ارائه خدمات ایمن به کاربران خود است. در حالی که یک شرکت مستقر در ایالات متحده باید به طور مطلق به مسائل مربوط به اطلاعات نادرست کشور خود رسیدگی کند، فیس بوک باید دوباره بررسی کند که چگونه وقت خود را به اطلاعات نادرست در سراسر جهان اختصاص می دهد.

کیتی هاربث، مدیر سابق سیاست عمومی فیسبوک، به این خبر گفت بار که کارفرمای سابق او باید راه حلی بیابد که بتوان آن را در سراسر جهان اعمال کرد. هاربث گفت: «قطعاً سؤالی در مورد منابع وجود دارد. “[but the answer is not] فقط پول بیشتری برای مشکل ریختن.»





منبع

دیدگاهتان را بنویسید

دکمه بازگشت به بالا