کار آفرینی و استارتاپ

آیا زمان آن رسیده که اخلاق را در مدل استارتاپ چابک وارد کنیم؟ – TechCrunch


خط سیر کشتی موشکی یک استارت آپ به خوبی شناخته شده است: ایده بگیرید، یک تیم بسازید و حداقل محصول قابل دوام (MVP) را که می توانید در مقابل کاربران تهیه کنید، جمع کنید.

با این حال، استارت آپ های امروزی باید در مدل MVP تجدید نظر کنند با فراگیر شدن هوش مصنوعی (AI) و یادگیری ماشینی (ML) در محصولات فناوری و بازار به طور فزاینده ای از پیامدهای اخلاقی تقویت یا جایگزینی انسان ها در فرآیند تصمیم گیری هوش مصنوعی آگاه می شود.

MVP به شما این امکان را می‌دهد که بازخورد مهمی را از بازار هدف خود جمع‌آوری کنید که سپس حداقل توسعه مورد نیاز برای راه‌اندازی یک محصول را به شما اطلاع می‌دهد – ایجاد یک حلقه بازخورد قدرتمند که کسب‌وکار تحت رهبری مشتری امروزی را هدایت می‌کند. این مدل ناب و چابک در دو دهه گذشته بسیار موفق بوده است – راه اندازی هزاران استارت آپ موفق که برخی از آنها به شرکت های میلیارد دلاری تبدیل شده اند.

با این حال، ساختن محصولات و راه حل هایی با عملکرد بالا که برای اکثریت کارآمد باشد، دیگر کافی نیست. از فناوری تشخیص چهره که تعصبی علیه رنگین پوستان دارد تا الگوریتم‌های وام‌دهی اعتباری که علیه زنان تبعیض‌آمیز است، در چندین سال گذشته چندین محصول مبتنی بر هوش مصنوعی یا ML به دلیل معضلات اخلاقی که پس از میلیون‌ها دلار در پایین دست به وجود می‌آیند از بین رفته‌اند. به توسعه و بازاریابی آنها وارد شده اند. در دنیایی که یک فرصت برای ارائه یک ایده به بازار دارید، این ریسک حتی برای شرکت‌های با سابقه نیز می‌تواند کشنده باشد.

استارت آپ ها مجبور نیستند مدل کسب و کار ناب را به نفع جایگزینی ریسک گریزتر کنار بگذارند. حد وسطی وجود دارد که می‌تواند اخلاق را بدون قربانی کردن چابکی مدل ناب، وارد ذهنیت استارت‌آپ کند، و با هدف اولیه یک استارت‌آپ شروع می‌شود – دریافت یک اثبات مفهومی در مراحل اولیه در مقابل مشتریان بالقوه.

با این حال، به جای توسعه MVP، شرکت ها باید یک محصول اخلاقی قابل دوام (EVP) مبتنی بر هوش مصنوعی مسئول (RAI) را توسعه و عرضه کنند، رویکردی که ملاحظات اخلاقی، اخلاقی، قانونی، فرهنگی، پایدار و اجتماعی-اقتصادی را در طول این مدت در نظر می گیرد. توسعه، استقرار و استفاده از سیستم های AI/ML.

و در حالی که این یک روش خوب برای استارتاپ‌ها است، اما برای شرکت‌های فناوری بزرگ که محصولات AI/ML می‌سازند نیز یک روش استاندارد خوب است.

در اینجا سه ​​مرحله وجود دارد که استارت‌آپ‌ها – به ویژه آنهایی که تکنیک‌های AI/ML قابل توجهی را در محصولات خود وارد می‌کنند – می‌توانند برای توسعه یک EVP استفاده کنند.

یک افسر اخلاق پیدا کنید تا مسئولیت را هدایت کند

استارت‌آپ‌ها افسران ارشد استراتژی، افسران ارشد سرمایه‌گذاری – حتی افسران ارشد سرگرمی دارند. یک افسر ارشد اخلاق به همان اندازه مهم است، اگر نه بیشتر. این شخص می‌تواند با سهامداران مختلف کار کند تا مطمئن شود که استارت‌آپ در حال توسعه محصولی است که مطابق با استانداردهای اخلاقی تعیین‌شده توسط شرکت، بازار و مردم باشد.

آنها باید به عنوان رابطی بین بنیانگذاران، C-suite، سرمایه گذاران و هیئت مدیره با تیم توسعه عمل کنند – اطمینان حاصل کنند که همه سؤالات اخلاقی درست را به شیوه ای متفکرانه و ریسک گریز می پرسند.

ماشین ها بر اساس داده های تاریخی آموزش داده می شوند. اگر سوگیری سیستمی در یک فرآیند تجاری فعلی وجود داشته باشد (مانند شیوه‌های وام‌دهی نابرابر نژادی یا جنسیتی)، هوش مصنوعی این موضوع را دنبال می‌کند و فکر می‌کند که باید به همین ترتیب به رفتار خود ادامه دهد. اگر بعداً مشخص شد که محصول شما با استانداردهای اخلاقی بازار مطابقت ندارد، نمی‌توانید به سادگی داده‌ها را حذف کنید و داده‌های جدیدی پیدا کنید.

این الگوریتم ها قبلا آموزش دیده اند. شما نمی توانید این تأثیر را از بین ببرید تا اینکه یک مرد 40 ساله بتواند تأثیری را که والدین یا خواهر و برادر بزرگترش بر تربیت او داشته اند خنثی کند. چه خوب و چه بد، شما با نتایج گیر کرده اید. افسران ارشد اخلاق باید این تعصب ذاتی در سراسر سازمان را قبل از اینکه در محصولات مبتنی بر هوش مصنوعی ریشه دوانده شود، تشخیص دهند.

اخلاق را در کل فرآیند توسعه ادغام کنید

هوش مصنوعی مسئول فقط یک نقطه از زمان نیست. این یک چارچوب حاکمیتی تمام عیار است که بر خطرات و کنترل‌های سفر هوش مصنوعی سازمان متمرکز شده است. این بدان معنی است که اخلاق باید در سراسر فرآیند توسعه یکپارچه شود – از استراتژی و برنامه ریزی از طریق توسعه، استقرار و عملیات شروع می شود.

در طول محدوده‌بندی، تیم توسعه باید با مدیر ارشد اخلاق کار کند تا از اصول اخلاقی کلی هوش مصنوعی آگاه باشد که بیانگر اصول رفتاری است که در بسیاری از کاربردهای فرهنگی و جغرافیایی معتبر است. این اصول نحوه رفتار راه حل های هوش مصنوعی را در مواجهه با تصمیمات اخلاقی یا معضلات در زمینه خاصی از استفاده، تجویز، پیشنهاد یا الهام می بخشد.

مهمتر از همه، ارزیابی خطر و آسیب باید انجام شود و هر گونه خطری که برای سلامت جسمی، عاطفی یا مالی هر کسی وجود دارد شناسایی شود. این ارزیابی باید به پایداری نیز توجه کند و ارزیابی کند که راه حل هوش مصنوعی چه آسیبی ممکن است به محیط زیست وارد کند.

در طول مرحله توسعه، تیم باید دائماً بپرسد که استفاده آنها از هوش مصنوعی چگونه با ارزش‌های شرکت مطابقت دارد، آیا مدل‌ها با افراد مختلف منصفانه رفتار می‌کنند و آیا به حق حریم خصوصی افراد احترام می‌گذارند. آنها همچنین باید در نظر بگیرند که آیا فناوری هوش مصنوعی آنها ایمن، ایمن و قوی است و مدل عملیاتی چقدر در تضمین مسئولیت پذیری و کیفیت موثر است.

یکی از اجزای حیاتی هر مدل یادگیری ماشینی، داده هایی است که برای آموزش مدل استفاده می شود. استارت‌آپ‌ها نه تنها باید نگران MVP و چگونگی اثبات اولیه مدل باشند، بلکه باید نگران زمینه نهایی و دامنه جغرافیایی مدل باشند. این به تیم اجازه می‌دهد تا مجموعه داده نماینده مناسب را انتخاب کند تا از هرگونه مشکل سوگیری داده در آینده جلوگیری کند.

حاکمیت مداوم هوش مصنوعی و رعایت مقررات را فراموش نکنید

با توجه به پیامدهای آن بر جامعه، این فقط یک مسئله زمان است که اتحادیه اروپا، ایالات متحده یا برخی نهادهای قانونگذار دیگر قوانین حمایت از مصرف کننده را در مورد استفاده از AI/ML تصویب کنند. پس از تصویب قانونی، این حمایت ها احتمالاً به مناطق و بازارهای دیگر در سراسر جهان گسترش می یابد.

قبلاً اتفاق افتاده است: تصویب مقررات عمومی حفاظت از داده ها (GDPR) در اتحادیه اروپا منجر به موجی از حمایت های دیگر از مصرف کنندگان در سراسر جهان شد که شرکت ها را ملزم به اثبات رضایت برای جمع آوری اطلاعات شخصی می کند. اکنون، مردم در سراسر طیف سیاسی و تجاری خواستار دستورالعمل های اخلاقی در مورد هوش مصنوعی هستند. مجدداً اتحادیه اروپا پس از انتشار پیشنهادی در سال 2021 برای چارچوب قانونی هوش مصنوعی پیشرو است.

استارت‌آپ‌هایی که محصولات یا خدماتی را که توسط AI/ML راه‌اندازی می‌کنند، باید برای نشان دادن حاکمیت مداوم و انطباق با مقررات آماده باشند – مراقب باشند که این فرآیندها را اکنون قبل از اینکه مقررات بعداً بر آنها تحمیل شود، ایجاد کنند. انجام یک اسکن سریع از قوانین پیشنهادی، اسناد راهنمایی و سایر دستورالعمل‌های مربوطه قبل از ساخت محصول، یک مرحله ضروری EVP است.

علاوه بر این، بازدید مجدد از چشم انداز مقررات/سیاست قبل از راه اندازی توصیه می شود. داشتن شخصی که در بحث‌های فعالی که در حال حاضر در سطح جهانی در هیئت مدیره یا هیئت مشاوران شما اتفاق می‌افتد، به درک آنچه احتمال وقوع دارد کمک می‌کند. مقررات در راه است و خوب است که آماده باشید.

شکی نیست که AI/ML فواید عظیمی برای بشریت خواهد داشت. توانایی خودکارسازی وظایف دستی، ساده‌سازی فرآیندهای تجاری و بهبود تجربیات مشتری بسیار عالی است که نمی‌توان آن را نادیده گرفت. اما استارت‌آپ‌ها باید از تأثیراتی که AI/ML بر مشتریان، بازار و جامعه می‌گذارد آگاه باشند.

استارت‌آپ‌ها معمولاً یک شانس برای موفقیت دارند و اگر محصولی با عملکرد بالا از بین برود مایه شرمساری خواهد بود، زیرا برخی از نگرانی‌های اخلاقی تا زمانی که به بازار عرضه نشده بود، آشکار نشدند. استارت‌آپ‌ها باید از همان ابتدا اصول اخلاقی را در فرآیند توسعه ادغام کنند، یک EVP مبتنی بر RAI توسعه دهند و به تضمین حاکمیت هوش مصنوعی پس از راه‌اندازی ادامه دهند.

هوش مصنوعی آینده کسب و کار است، اما ما نمی توانیم نیاز به شفقت و عنصر انسانی در نوآوری را نادیده بگیریم.



منبع

دیدگاهتان را بنویسید

دکمه بازگشت به بالا