کار آفرینی و استارتاپ

4 سوال در هنگام ارزیابی نمونه های اولیه هوش مصنوعی برای سوگیری • TechCrunch


آنجا درست است به لطف تصویب چندین قانون، مانند قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا، در زمینه حفاظت از داده ها در ایالات متحده پیشرفت کرده است.CCPA، و اسناد غیر الزام آور، مانند طرحی برای منشور حقوق هوش مصنوعی. با این حال، در حال حاضر هیچ مقررات استانداردی وجود ندارد که تعیین کند چگونه شرکت های فناوری باید تعصب و تبعیض هوش مصنوعی را کاهش دهند.

در نتیجه، بسیاری از شرکت‌ها در ساخت ابزارهای اخلاقی و برای حفظ حریم خصوصی عقب‌مانده‌اند. تقریبا 80% از دانشمندان داده در ایالات متحده مرد و 66٪ سفیدپوست هستند، که نشان دهنده فقدان ذاتی تنوع و بازنمایی جمعیتی در توسعه ابزارهای تصمیم گیری خودکار است که اغلب منجر به نتایج ناهنجار داده ها می شود.

بهبودهای قابل توجهی در فرآیندهای بازنگری طراحی مورد نیاز است تا اطمینان حاصل شود که شرکت های فناوری هنگام ایجاد و اصلاح محصولات خود همه افراد را در نظر می گیرند. در غیر این صورت، سازمان‌ها می‌توانند ریسک از دست دادن مشتریان خود را در رقابت، خدشه دار کردن شهرت آن‌ها و به خطر انداختن پرونده‌های قضایی جدی داشته باشند. به گفته IBM، حدود 85 درصد متخصصان فناوری اطلاعات معتقدند مصرف‌کنندگان شرکت‌هایی را انتخاب می‌کنند که در مورد نحوه ایجاد، مدیریت و استفاده از الگوریتم‌های هوش مصنوعی خود شفاف هستند. می‌توانیم انتظار داشته باشیم که با ادامه موضع‌گیری کاربران بیشتر در برابر فناوری مضر و مغرضانه، این تعداد افزایش یابد.

بنابراین، شرکت ها هنگام تجزیه و تحلیل نمونه های اولیه خود چه چیزی را باید در نظر داشته باشند؟ در اینجا چهار سوال وجود دارد که تیم های توسعه باید از خود بپرسند:

آیا ما همه انواع سوگیری را در نمونه اولیه خود رد کرده ایم؟

فناوری این توانایی را دارد که جامعه را به شکلی که ما می شناسیم متحول کند، اما در نهایت اگر به نفع همه نباشد، در نهایت شکست خواهد خورد.

برای ایجاد فناوری مؤثر و بدون تعصب، تیم‌های هوش مصنوعی باید فهرستی از سؤالات را در طول فرآیند بررسی بپرسند که می‌تواند به آن‌ها در شناسایی مشکلات احتمالی در مدل‌هایشان کمک کند.

روش‌های زیادی وجود دارد که تیم‌های هوش مصنوعی می‌توانند از آن برای ارزیابی مدل‌های خود استفاده کنند، اما قبل از انجام این کار، ارزیابی هدف نهایی و اینکه آیا گروه‌هایی وجود دارند که ممکن است به طور نامتناسبی تحت تأثیر نتایج استفاده از هوش مصنوعی قرار گیرند، بسیار مهم است.

به عنوان مثال، تیم‌های هوش مصنوعی باید در نظر داشته باشند که استفاده از فناوری‌های تشخیص چهره ممکن است به طور ناخواسته بین افراد رنگین پوست تبعیض ایجاد کند – چیزی که اغلب در الگوریتم‌های هوش مصنوعی رخ می‌دهد. تحقیقات انجام شده توسط اتحادیه آزادی های مدنی آمریکا در سال 2018 نشان داد که تشخیص چهره آمازون به طور نادرست با 28 عضو کنگره ایالات متحده مطابقت دارد. 40 درصد از تطابقات نادرست رنگین پوست بودند، با وجود اینکه آنها تنها 20 درصد از کنگره را تشکیل می دادند.

با پرسیدن سوالات چالش برانگیز، تیم‌های هوش مصنوعی می‌توانند راه‌های جدیدی برای بهبود مدل‌های خود بیابند و برای جلوگیری از وقوع این سناریوها تلاش کنند. به عنوان مثال، یک بررسی دقیق می تواند به آنها کمک کند تا تعیین کنند که آیا باید به داده های بیشتری نگاه کنند یا اینکه برای بررسی محصول خود به شخص ثالثی مانند یک متخصص حریم خصوصی نیاز دارند.

Plot4AI یک منبع عالی برای کسانی است که به دنبال شروع هستند.



منبع

دیدگاهتان را بنویسید

دکمه بازگشت به بالا