4 سوال در هنگام ارزیابی نمونه های اولیه هوش مصنوعی برای سوگیری • TechCrunch

آنجا درست است به لطف تصویب چندین قانون، مانند قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا، در زمینه حفاظت از داده ها در ایالات متحده پیشرفت کرده است.CCPA، و اسناد غیر الزام آور، مانند طرحی برای منشور حقوق هوش مصنوعی. با این حال، در حال حاضر هیچ مقررات استانداردی وجود ندارد که تعیین کند چگونه شرکت های فناوری باید تعصب و تبعیض هوش مصنوعی را کاهش دهند.
در نتیجه، بسیاری از شرکتها در ساخت ابزارهای اخلاقی و برای حفظ حریم خصوصی عقبماندهاند. تقریبا 80% از دانشمندان داده در ایالات متحده مرد و 66٪ سفیدپوست هستند، که نشان دهنده فقدان ذاتی تنوع و بازنمایی جمعیتی در توسعه ابزارهای تصمیم گیری خودکار است که اغلب منجر به نتایج ناهنجار داده ها می شود.
بهبودهای قابل توجهی در فرآیندهای بازنگری طراحی مورد نیاز است تا اطمینان حاصل شود که شرکت های فناوری هنگام ایجاد و اصلاح محصولات خود همه افراد را در نظر می گیرند. در غیر این صورت، سازمانها میتوانند ریسک از دست دادن مشتریان خود را در رقابت، خدشه دار کردن شهرت آنها و به خطر انداختن پروندههای قضایی جدی داشته باشند. به گفته IBM، حدود 85 درصد متخصصان فناوری اطلاعات معتقدند مصرفکنندگان شرکتهایی را انتخاب میکنند که در مورد نحوه ایجاد، مدیریت و استفاده از الگوریتمهای هوش مصنوعی خود شفاف هستند. میتوانیم انتظار داشته باشیم که با ادامه موضعگیری کاربران بیشتر در برابر فناوری مضر و مغرضانه، این تعداد افزایش یابد.
بنابراین، شرکت ها هنگام تجزیه و تحلیل نمونه های اولیه خود چه چیزی را باید در نظر داشته باشند؟ در اینجا چهار سوال وجود دارد که تیم های توسعه باید از خود بپرسند:
آیا ما همه انواع سوگیری را در نمونه اولیه خود رد کرده ایم؟
فناوری این توانایی را دارد که جامعه را به شکلی که ما می شناسیم متحول کند، اما در نهایت اگر به نفع همه نباشد، در نهایت شکست خواهد خورد.
برای ایجاد فناوری مؤثر و بدون تعصب، تیمهای هوش مصنوعی باید فهرستی از سؤالات را در طول فرآیند بررسی بپرسند که میتواند به آنها در شناسایی مشکلات احتمالی در مدلهایشان کمک کند.
روشهای زیادی وجود دارد که تیمهای هوش مصنوعی میتوانند از آن برای ارزیابی مدلهای خود استفاده کنند، اما قبل از انجام این کار، ارزیابی هدف نهایی و اینکه آیا گروههایی وجود دارند که ممکن است به طور نامتناسبی تحت تأثیر نتایج استفاده از هوش مصنوعی قرار گیرند، بسیار مهم است.
به عنوان مثال، تیمهای هوش مصنوعی باید در نظر داشته باشند که استفاده از فناوریهای تشخیص چهره ممکن است به طور ناخواسته بین افراد رنگین پوست تبعیض ایجاد کند – چیزی که اغلب در الگوریتمهای هوش مصنوعی رخ میدهد. تحقیقات انجام شده توسط اتحادیه آزادی های مدنی آمریکا در سال 2018 نشان داد که تشخیص چهره آمازون به طور نادرست با 28 عضو کنگره ایالات متحده مطابقت دارد. 40 درصد از تطابقات نادرست رنگین پوست بودند، با وجود اینکه آنها تنها 20 درصد از کنگره را تشکیل می دادند.
با پرسیدن سوالات چالش برانگیز، تیمهای هوش مصنوعی میتوانند راههای جدیدی برای بهبود مدلهای خود بیابند و برای جلوگیری از وقوع این سناریوها تلاش کنند. به عنوان مثال، یک بررسی دقیق می تواند به آنها کمک کند تا تعیین کنند که آیا باید به داده های بیشتری نگاه کنند یا اینکه برای بررسی محصول خود به شخص ثالثی مانند یک متخصص حریم خصوصی نیاز دارند.
Plot4AI یک منبع عالی برای کسانی است که به دنبال شروع هستند.