دانش و فناوریشبکه های اجتماعی

توئیتر برای لغو برش عکس “نژادپرستانه” جایزه نقدی صادر کرد


توییتر به تازگی یک چالش جدید را منتشر کرده است که به مردم کمک می کند در واقع کارهای خوبی انجام دهند.

به عنوان بخشی از کنفرانس هکرها DEF CON که از 5 اوت آغاز می شود ، توییتر چالشی را برای جامعه هک و کدگذاری اعلام کرده است تا به شرکت کمک کند تا الگوریتمی را ایجاد کند که عکس های پلتفرم را کمتر (ظاهرا) نژادپرستانه نشان دهد.

برای عکس هایی که به توییت هایی متصل شده اند که دارای شکل بزرگتر یا متفاوت از نسبت تصویر کوچک هستند ، یک الگوریتم توییتر انتخاب می کند که چه قسمتی از تصویر در پیش نمایش توییت نمایش داده شود. در سپتامبر 2020 ، کاربران توییتر اشاره کردند که این الگوریتم هنگامی که تصویری به شکل عجیب و غریب که شامل هر دو است ، به طور مداوم چهره های سفید را نشان می دهد تا چهره های سیاه. برخی این را به عنوان نمونه ای از سوگیری الگوریتمی توصیف کردند ، یعنی زمانی که نژادپرستی عمداً یا سهواً در تصمیماتی که رایانه می گیرد دخیل می شود.

در پاسخ ، توییتر راه را به اشتراک گذاشت الگوریتم کار کرد و گفت که موضوع را بررسی خواهد کرد. اما برنامه جایزه تعصب الگوریتمی تلاش هایی را برای حل این مشکل با انگیزه مالی مردم برای کاهش آن انجام می دهد.

جایزه های باگ برنامه هایی هستند که شرکت ها یا گروه های دیگر به آنها (غالباً در خارج از سازمان ها) برای یافتن اشکال در زیرساخت های فنی خود پاداش می دهند. غنایم غالباً بر یافتن نقض احتمالی امنیت تمرکز می کند و سازمان ها به دلیل هشدار به آنها به شکارچیان پاداش اشکال پرداخت می کنند.

توییتر از این مفهوم استفاده می کند و آن را برای چالش سوگیری الگوریتمی در برش عکس به کار می گیرد. مبلغ 3500 دلار به برنده اول که بتواند علت این سوگیری ظاهری را مشخص کند ، به علاوه 1000 دلار برای رتبه دوم ، “نوآورانه ترین” و “قابل تعمیم ترین (یعنی در بیشتر انواع الگوریتم ها اعمال می شود)” و 500 دلار اهدا می شود. برای مقام سوم

چالش استفاده دقیق از مدل جایزه اشکال است: توییتر به جای عذرخواهی و بازی در دفاع از نمونه ای از سوگیری الگوریتمی ، می گوید ما کمک پیشگیرانه می خواهیم. و ما پرداخت خواهیم کرد

همچنین ببینید:

توییتر NFT ها را به صورت رایگان هدیه می دهد (تعیین قیمت برای بی ارزش سخت است)

توییتر می گوید: “ما می خواهیم با دعوت و تشویق جامعه برای کمک به شناسایی آسیب های احتمالی این الگوریتم فراتر از آنچه که خودمان تشخیص داده ایم ، این کار را یک گام جلوتر ببریم.” پست وبلاگ اعلام چالش می خواند. “با این چالش ما قصد داریم در توییتر و در صنعت ، نمونه ای برای شناسایی فعال و جمعی آسیب های الگوریتمی ایجاد کنیم.”

برنامه جایزه در این زمان مخصوص چالش برش عکس است. اما پست وبلاگی که این چالش را اعلام می کند ، آن را به عنوان “اولین چالش تعصب الگوریتمی توئیتر توئیتر” توصیف می کند. اول ، و شاید آخرین نباشد؟ Mashable با توییتر تماس گرفته است تا بداند آیا از تعصب الگوریتمی بیشتری برای تعصب در یادگیری ماشین استفاده می کند یا خیر ، و هنگامی که این خبر را شنیدیم این مورد را به روز می کند.



دیدگاهتان را بنویسید

دکمه بازگشت به بالا