آیا زمان آن رسیده که اخلاق را در مدل استارتاپ چابک وارد کنیم؟ – TechCrunch

خط سیر کشتی موشکی یک استارت آپ به خوبی شناخته شده است: ایده بگیرید، یک تیم بسازید و حداقل محصول قابل دوام (MVP) را که می توانید در مقابل کاربران تهیه کنید، جمع کنید.
با این حال، استارت آپ های امروزی باید در مدل MVP تجدید نظر کنند با فراگیر شدن هوش مصنوعی (AI) و یادگیری ماشینی (ML) در محصولات فناوری و بازار به طور فزاینده ای از پیامدهای اخلاقی تقویت یا جایگزینی انسان ها در فرآیند تصمیم گیری هوش مصنوعی آگاه می شود.
MVP به شما این امکان را میدهد که بازخورد مهمی را از بازار هدف خود جمعآوری کنید که سپس حداقل توسعه مورد نیاز برای راهاندازی یک محصول را به شما اطلاع میدهد – ایجاد یک حلقه بازخورد قدرتمند که کسبوکار تحت رهبری مشتری امروزی را هدایت میکند. این مدل ناب و چابک در دو دهه گذشته بسیار موفق بوده است – راه اندازی هزاران استارت آپ موفق که برخی از آنها به شرکت های میلیارد دلاری تبدیل شده اند.
با این حال، ساختن محصولات و راه حل هایی با عملکرد بالا که برای اکثریت کارآمد باشد، دیگر کافی نیست. از فناوری تشخیص چهره که تعصبی علیه رنگین پوستان دارد تا الگوریتمهای وامدهی اعتباری که علیه زنان تبعیضآمیز است، در چندین سال گذشته چندین محصول مبتنی بر هوش مصنوعی یا ML به دلیل معضلات اخلاقی که پس از میلیونها دلار در پایین دست به وجود میآیند از بین رفتهاند. به توسعه و بازاریابی آنها وارد شده اند. در دنیایی که یک فرصت برای ارائه یک ایده به بازار دارید، این ریسک حتی برای شرکتهای با سابقه نیز میتواند کشنده باشد.
استارت آپ ها مجبور نیستند مدل کسب و کار ناب را به نفع جایگزینی ریسک گریزتر کنار بگذارند. حد وسطی وجود دارد که میتواند اخلاق را بدون قربانی کردن چابکی مدل ناب، وارد ذهنیت استارتآپ کند، و با هدف اولیه یک استارتآپ شروع میشود – دریافت یک اثبات مفهومی در مراحل اولیه در مقابل مشتریان بالقوه.
با این حال، به جای توسعه MVP، شرکت ها باید یک محصول اخلاقی قابل دوام (EVP) مبتنی بر هوش مصنوعی مسئول (RAI) را توسعه و عرضه کنند، رویکردی که ملاحظات اخلاقی، اخلاقی، قانونی، فرهنگی، پایدار و اجتماعی-اقتصادی را در طول این مدت در نظر می گیرد. توسعه، استقرار و استفاده از سیستم های AI/ML.
و در حالی که این یک روش خوب برای استارتاپها است، اما برای شرکتهای فناوری بزرگ که محصولات AI/ML میسازند نیز یک روش استاندارد خوب است.
در اینجا سه مرحله وجود دارد که استارتآپها – به ویژه آنهایی که تکنیکهای AI/ML قابل توجهی را در محصولات خود وارد میکنند – میتوانند برای توسعه یک EVP استفاده کنند.
یک افسر اخلاق پیدا کنید تا مسئولیت را هدایت کند
استارتآپها افسران ارشد استراتژی، افسران ارشد سرمایهگذاری – حتی افسران ارشد سرگرمی دارند. یک افسر ارشد اخلاق به همان اندازه مهم است، اگر نه بیشتر. این شخص میتواند با سهامداران مختلف کار کند تا مطمئن شود که استارتآپ در حال توسعه محصولی است که مطابق با استانداردهای اخلاقی تعیینشده توسط شرکت، بازار و مردم باشد.
آنها باید به عنوان رابطی بین بنیانگذاران، C-suite، سرمایه گذاران و هیئت مدیره با تیم توسعه عمل کنند – اطمینان حاصل کنند که همه سؤالات اخلاقی درست را به شیوه ای متفکرانه و ریسک گریز می پرسند.
ماشین ها بر اساس داده های تاریخی آموزش داده می شوند. اگر سوگیری سیستمی در یک فرآیند تجاری فعلی وجود داشته باشد (مانند شیوههای وامدهی نابرابر نژادی یا جنسیتی)، هوش مصنوعی این موضوع را دنبال میکند و فکر میکند که باید به همین ترتیب به رفتار خود ادامه دهد. اگر بعداً مشخص شد که محصول شما با استانداردهای اخلاقی بازار مطابقت ندارد، نمیتوانید به سادگی دادهها را حذف کنید و دادههای جدیدی پیدا کنید.
این الگوریتم ها قبلا آموزش دیده اند. شما نمی توانید این تأثیر را از بین ببرید تا اینکه یک مرد 40 ساله بتواند تأثیری را که والدین یا خواهر و برادر بزرگترش بر تربیت او داشته اند خنثی کند. چه خوب و چه بد، شما با نتایج گیر کرده اید. افسران ارشد اخلاق باید این تعصب ذاتی در سراسر سازمان را قبل از اینکه در محصولات مبتنی بر هوش مصنوعی ریشه دوانده شود، تشخیص دهند.
اخلاق را در کل فرآیند توسعه ادغام کنید
هوش مصنوعی مسئول فقط یک نقطه از زمان نیست. این یک چارچوب حاکمیتی تمام عیار است که بر خطرات و کنترلهای سفر هوش مصنوعی سازمان متمرکز شده است. این بدان معنی است که اخلاق باید در سراسر فرآیند توسعه یکپارچه شود – از استراتژی و برنامه ریزی از طریق توسعه، استقرار و عملیات شروع می شود.
در طول محدودهبندی، تیم توسعه باید با مدیر ارشد اخلاق کار کند تا از اصول اخلاقی کلی هوش مصنوعی آگاه باشد که بیانگر اصول رفتاری است که در بسیاری از کاربردهای فرهنگی و جغرافیایی معتبر است. این اصول نحوه رفتار راه حل های هوش مصنوعی را در مواجهه با تصمیمات اخلاقی یا معضلات در زمینه خاصی از استفاده، تجویز، پیشنهاد یا الهام می بخشد.
مهمتر از همه، ارزیابی خطر و آسیب باید انجام شود و هر گونه خطری که برای سلامت جسمی، عاطفی یا مالی هر کسی وجود دارد شناسایی شود. این ارزیابی باید به پایداری نیز توجه کند و ارزیابی کند که راه حل هوش مصنوعی چه آسیبی ممکن است به محیط زیست وارد کند.
در طول مرحله توسعه، تیم باید دائماً بپرسد که استفاده آنها از هوش مصنوعی چگونه با ارزشهای شرکت مطابقت دارد، آیا مدلها با افراد مختلف منصفانه رفتار میکنند و آیا به حق حریم خصوصی افراد احترام میگذارند. آنها همچنین باید در نظر بگیرند که آیا فناوری هوش مصنوعی آنها ایمن، ایمن و قوی است و مدل عملیاتی چقدر در تضمین مسئولیت پذیری و کیفیت موثر است.
یکی از اجزای حیاتی هر مدل یادگیری ماشینی، داده هایی است که برای آموزش مدل استفاده می شود. استارتآپها نه تنها باید نگران MVP و چگونگی اثبات اولیه مدل باشند، بلکه باید نگران زمینه نهایی و دامنه جغرافیایی مدل باشند. این به تیم اجازه میدهد تا مجموعه داده نماینده مناسب را انتخاب کند تا از هرگونه مشکل سوگیری داده در آینده جلوگیری کند.
حاکمیت مداوم هوش مصنوعی و رعایت مقررات را فراموش نکنید
با توجه به پیامدهای آن بر جامعه، این فقط یک مسئله زمان است که اتحادیه اروپا، ایالات متحده یا برخی نهادهای قانونگذار دیگر قوانین حمایت از مصرف کننده را در مورد استفاده از AI/ML تصویب کنند. پس از تصویب قانونی، این حمایت ها احتمالاً به مناطق و بازارهای دیگر در سراسر جهان گسترش می یابد.
قبلاً اتفاق افتاده است: تصویب مقررات عمومی حفاظت از داده ها (GDPR) در اتحادیه اروپا منجر به موجی از حمایت های دیگر از مصرف کنندگان در سراسر جهان شد که شرکت ها را ملزم به اثبات رضایت برای جمع آوری اطلاعات شخصی می کند. اکنون، مردم در سراسر طیف سیاسی و تجاری خواستار دستورالعمل های اخلاقی در مورد هوش مصنوعی هستند. مجدداً اتحادیه اروپا پس از انتشار پیشنهادی در سال 2021 برای چارچوب قانونی هوش مصنوعی پیشرو است.
استارتآپهایی که محصولات یا خدماتی را که توسط AI/ML راهاندازی میکنند، باید برای نشان دادن حاکمیت مداوم و انطباق با مقررات آماده باشند – مراقب باشند که این فرآیندها را اکنون قبل از اینکه مقررات بعداً بر آنها تحمیل شود، ایجاد کنند. انجام یک اسکن سریع از قوانین پیشنهادی، اسناد راهنمایی و سایر دستورالعملهای مربوطه قبل از ساخت محصول، یک مرحله ضروری EVP است.
علاوه بر این، بازدید مجدد از چشم انداز مقررات/سیاست قبل از راه اندازی توصیه می شود. داشتن شخصی که در بحثهای فعالی که در حال حاضر در سطح جهانی در هیئت مدیره یا هیئت مشاوران شما اتفاق میافتد، به درک آنچه احتمال وقوع دارد کمک میکند. مقررات در راه است و خوب است که آماده باشید.
شکی نیست که AI/ML فواید عظیمی برای بشریت خواهد داشت. توانایی خودکارسازی وظایف دستی، سادهسازی فرآیندهای تجاری و بهبود تجربیات مشتری بسیار عالی است که نمیتوان آن را نادیده گرفت. اما استارتآپها باید از تأثیراتی که AI/ML بر مشتریان، بازار و جامعه میگذارد آگاه باشند.
استارتآپها معمولاً یک شانس برای موفقیت دارند و اگر محصولی با عملکرد بالا از بین برود مایه شرمساری خواهد بود، زیرا برخی از نگرانیهای اخلاقی تا زمانی که به بازار عرضه نشده بود، آشکار نشدند. استارتآپها باید از همان ابتدا اصول اخلاقی را در فرآیند توسعه ادغام کنند، یک EVP مبتنی بر RAI توسعه دهند و به تضمین حاکمیت هوش مصنوعی پس از راهاندازی ادامه دهند.
هوش مصنوعی آینده کسب و کار است، اما ما نمی توانیم نیاز به شفقت و عنصر انسانی در نوآوری را نادیده بگیریم.