چهار سرمایهگذار توضیح میدهند که چرا اخلاق هوش مصنوعی نمیتواند یک فکر بعدی باشد

میلیاردها دلار به هوش مصنوعی سرازیر می شوند. با این حال، مدلهای هوش مصنوعی در حال حاضر تحت تأثیر تعصب قرار گرفتهاند، همانطور که تبعیض وام مسکن نسبت به صاحبان خانههای بالقوه سیاهپوست نشان میدهد.
منطقی است که بپرسیم اخلاق چه نقشی در ساخت این فناوری ایفا میکند و شاید مهمتر از آن، سرمایهگذاران با عجله برای تامین مالی آن در کجا قرار میگیرند.
یکی از بنیانگذاران اخیراً به TechCrunch+ گفته است که وقتی نوآوری بسیار سریع است، فکر کردن به اخلاق سخت است: مردم سیستمهایی میسازند، سپس آنها را میشکنند و سپس ویرایش میکنند. بنابراین برخی از مسئولیتها بر عهده سرمایهگذاران است تا مطمئن شوند این فناوریهای جدید توسط بنیانگذاران با رعایت اصول اخلاقی ساخته میشوند.
برای مشاهده اینکه آیا این اتفاق میافتد یا خیر، TechCrunch+ با چهار سرمایهگذار فعال در این فضا صحبت کرد که چگونه در مورد اخلاق در هوش مصنوعی فکر میکنند و چگونه میتوان بنیانگذاران را تشویق کرد که بیشتر درباره سوگیریها و انجام کار درست فکر کنند.
ما در حال گسترش لنز خود هستیم و به دنبال سرمایهگذاران بیشتری برای شرکت در نظرسنجیهای TechCrunch هستیم، جایی که از متخصصان برتر در مورد چالشهای صنعتشان نظرسنجی میکنیم.
اگر سرمایهگذار هستید و میخواهید در نظرسنجیهای آینده شرکت کنید، آن را تکمیل کنید این فرم.
برخی از سرمایهگذاران میگویند که با انجام بررسیهای لازم بر روی اصول اخلاقی بنیانگذار برای کمک به تعیین اینکه آیا آنها به تصمیمگیری که شرکت میتواند حمایت کند یا خیر، با این موضوع مقابله میکنند.
الکسیس آلستون، مدیر شرکت Lightship Capital گفت: «همدلی بنیانگذار برای ما یک پرچم سبز بزرگ است. چنین افرادی درک می کنند که در حالی که ما به دنبال بازدهی بازار هستیم، همچنین به دنبال این هستیم که سرمایه گذاری هایمان تأثیر منفی بر جهان نداشته باشد.
سایر سرمایه گذاران فکر می کنند که پرسیدن سؤالات سخت می تواند به جدا کردن گندم از کاه کمک کند. دیپ نیشار، مدیر عامل جنرال کاتالیست، گفت: «هر فناوری پیامدهای ناخواستهای را به همراه دارد، خواه تعصب، کاهش عامل انسانی، نقض حریم خصوصی یا چیزهای دیگر». فرآیند سرمایهگذاری ما بر شناسایی چنین پیامدهای ناخواسته، بحث در مورد آنها با تیمهای موسس و ارزیابی اینکه آیا تدابیری برای کاهش آنها وجود دارد یا خواهد بود، متمرکز است.
سیاست های دولت هوش مصنوعی را نیز هدف قرار می دهد: اتحادیه اروپا تصویب شده است قوانین یادگیری ماشین، و ایالات متحده معرفی کرده است برای یک کارگروه هوش مصنوعی برنامه ریزی می کند برای شروع به بررسی خطرات مرتبط با هوش مصنوعی. این علاوه بر این است منشور حقوق هوش مصنوعی سال گذشته معرفی شد. با بسیاری از شرکت های برتر VC که پول را به آن تزریق می کنند تلاش های هوش مصنوعی در چین، مهم است که بپرسیم چگونه اخلاق جهانی در هوش مصنوعی می تواند در سراسر مرزها نیز اجرا شود.
برای اطلاع از نحوه نزدیک شدن سرمایه گذاران به بررسی دقیق، پرچم های سبزی که به دنبال آنها هستند و انتظارات آنها از مقررات در هوش مصنوعی، به ادامه مطلب مراجعه کنید.
صحبت کردیم با:
الکسیس آلستون، مدیر، Lightship Capital
وقتی در یک شرکت هوش مصنوعی سرمایهگذاری میکنید، چقدر دقت میکنید که مدل هوش مصنوعی آن چگونه تعصب دارد یا با آن برخورد میکند؟
برای ما، مهم است که بدانیم مدل دقیقاً چه دادههایی را دریافت میکند، دادهها از کجا میآیند و چگونه آنها را تمیز میکنند. ما کمی دقت فنی را با پزشک عمومی متمرکز بر هوش مصنوعی انجام می دهیم تا مطمئن شویم که می توان مدل های ما را برای کاهش یا حذف تعصب آموزش داد.
همه ما به یاد داریم که نمیتوانستیم شیرهای آب را بهطور خودکار برای شستن دستهای تیرهترمان روشن کنیم، و زمانهایی که جستجوی تصویر گوگل «بهطور تصادفی» پوست سیاهپوست را با نخستیها یکی میکرد. من هر کاری که در توانم باشد انجام خواهم داد تا مطمئن شوم چنین مدل هایی را در کارنامه خود نخواهیم داشت.
تصویب قوانین یادگیری ماشینی مشابه با اتحادیه اروپا چه تاثیری بر سرعت نوآوری این کشور در این بخش خواهد داشت؟
با توجه به فقدان دانش فنی و پیچیدگی در دولت ما، من به توانایی ایالات متحده برای تصویب قوانین عملی و دقیق در مورد یادگیری ماشین اعتقاد کمی دارم. وقتی صحبت از قانونگذاری بهموقع و حضور کارشناسان فنی در گروههای عملیاتی برای اطلاعرسانی به قانونگذاران میشود، دم درازی داریم.
من در واقع نمی بینم که قوانین تغییرات عمده ای در سرعت توسعه ML ایجاد کند، با توجه به اینکه قوانین ما معمولاً چگونه ساختار یافته اند. به طور مشابهی که یک دهه پیش برای قانون گذاری در مورد داروهای طراحی شده در ایالات متحده به پایان رسید، این قانون هرگز نتوانست ادامه یابد.