توییتر ویژگی های ضد آزار و اذیت را به اشتراک می گذارد که به طرز عجیبی به ترول ها نیز کمک می کند

توییتر دقیقاً در جلوگیری از پاسخهای افراد تند و سریع عالی نیست، همانطور که هر کسی که تا به حال یک توییت “عدد انجام دهید” را مطمئناً می تواند تأیید کند. اما اگر – چه می شود اگر – همه چیز متفاوت بود؟
این همان چیزی است که پائولا برکانته، طراح این شرکت رسانه های اجتماعی، به آن دست انداخت یک تاپیک جمعه درخواست بازخورد کاربران در مورد برخی از ایده های جدید. کنترلهای «Filter» و «Limit» که به تازگی تصور شده اما هنوز اجرا نشدهاند، سوئیچهای تنظیمات جدیدی را ارائه میکنند که برای تنظیم جریان توییتهای ارسال شده به دارندگان حساب طراحی شدهاند.
این دو سوئیچ کاملاً قابل توضیح هستند. فیلتر پاسخهای مضر یا هرزنامه را بررسی میکند و آنها را برای همه افراد غیر از نویسنده هر توییت مشکل مسدود میکند. Limit این کار را یک گام فراتر می برد و از پاسخ دادن به حساب هایی که این تنظیمات را روشن کرده اند، از پاسخ دادن به حساب هایی که تمایل به استفاده از زبان مضر یا ارسال توییت های تکراری و ناخوانده دارند جلوگیری می کند.
بارکانته در این تاپیک نوشت: «فیلتر و محدودیت تماماً به شما قدرت میدهد تا از تعاملات بالقوه مضر جلوگیری کنید و به شما اجازه میدهد لحن مکالمات خود را کنترل کنید. اختلاف نظر، بحث و انتقاد همچنان مجاز است».
بارکانته آن را صریح نمی گوید، اما موضوع او نشان می دهد که این دو تنظیم تا حدی به پایگاه داده ای از بازیگران بد توییتر بستگی دارد. شاید «فیلتر» بتواند توسط یک مغز هوش مصنوعی تامین شود، اما تصور اینکه چگونه «Limit» پاسخهای حسابهایی را که «مایلند» به شیوهای خاص رفتار کند، بدون داشتن فهرستی برای کشیدن، دشوار است.
با این حال، به طرز عجیبی، تصمیم برای استفاده از هر یک از این ویژگی ها (همانطور که در حال حاضر طراحی شده اند) برای همه خوانندگان پخش می شود. به این معنی که یک ترول بالقوه از قبل میداند که آیا میخواهد با کسی درگیر شود که ممکن است نبیند چه میخواهند بگویند، زیرا یک تنظیم روشن است.
موضوع Barcante نشان میدهد که این روش به این شکل عمل میکند، زیرا این هشدار میتواند ترولهای بالقوه را تشویق کند تا در پاسخ خود تجدید نظر کنند و شاید با احترام بیشتری درگیر شوند. اگر چنین است، این استدلالی است که ممکن است در سال های اول پس از راه اندازی توییتر در سال 2006 منطقی باشد. اما حالا؟ در سال 2021؟ نه چندان.
هشدار دادن به کسی مبنی بر اینکه پاسخ او ممکن است خوب نباشد، حرکتی عجیب و غریب است که هدف آن بازیگران بدخواه است. این توییتر است که به کسی که ممکن است نیت بدی داشته باشد میگوید که تلاشهایش برای توهین به احتمال زیاد به هدر میرود، بنابراین بهتر است این انرژی را به جای دیگری هدایت کنید.
«هشدار میتواند ترولهای بالقوه را متقاعد کند که به شیوهای محترمانهتر پاسخ دهد» تنها یک باور سادهلوحانه نیست که در عصر حاضر باید به آن پایبند بود، بلکه اساساً روشی اشتباه برای نزدیک شدن به این نوع ویژگیها است. اصلاً چرا به بازیگران بد بالقوه احترام می گذاریم؟ آیا هدف کنترلهای «Filter» و «Limit» نباید دقیقاً روی محافظت از پوستر یک توییت متمرکز شود؟
“Communities” جدید توییتر به کاربران اجازه می دهد تا اتاق پژواک را در آغوش بگیرند
وقتی در ابتدا با این داستان مواجه شدم (h/t آستانه)، فکر کردم: “وای، توییتر در واقع جرات دارد دنیایی را تصور کند که در آن از افرادی که از پلتفرم خود استفاده می کنند محافظت می کند.” اما پس از یک نگاه دقیق تر، واقعاً این چیزی نیست که اینجا اتفاق می افتد، درست است؟ این ابزارها ممکن است برای کسانی که از آنها استفاده میکنند، مقداری محافظت ارائه دهند، اما روشی که اکنون ساخته شدهاند، ترولها را با اطلاعاتی که برای ترول کردن مؤثرتر نیاز دارند، مسلح میکنند.
انتخاب عجیبی است. اما این یک ویژگی نهایی نیز نیست، بنابراین در اینجا برخی از بازخوردها برای شما در توییتر وجود دارد: فلسفه اساسی برای تنظیماتی مانند این باید منحصراً محافظت از کاربران را در اولویت قرار دهد. اگر به آزاردهندههای آنها نیز ابزاری میدهید که کارآمدتر عمل کنند، این کار را اشتباه انجام میدهید.