کار آفرینی و استارتاپ

Exafunction با انتزاع کردن سخت افزار – TechCrunch – قصد دارد هزینه های توسعه دهنده هوش مصنوعی را کاهش دهد

پیچیده‌ترین سیستم‌های هوش مصنوعی امروزی، از هدایت ماشین‌ها در خیابان‌های شهر گرفته تا نوشتن نثر انسان‌مانند، قادر به انجام کارهای چشمگیر هستند. اما آنها یک تنگنا مشترک دارند: سخت افزار. توسعه سیستم‌ها در لبه خونریزی اغلب به مقدار زیادی قدرت محاسباتی نیاز دارد. برای مثال، ایجاد ساختار پروتئینی DeepMind که AlphaFold را پیش‌بینی می‌کند، مجموعه‌ای متشکل از صدها پردازنده گرافیکی را به خود اختصاص داد. با تاکید بیشتر بر چالش، یک منبع برآوردها توسعه سیستم GPT-3 زبان مولد OpenAI با استفاده از یک GPU تنها 355 سال طول کشیده است.

تکنیک‌ها و تراشه‌های جدیدی که برای تسریع برخی از جنبه‌های توسعه سیستم هوش مصنوعی طراحی شده‌اند، نویدبخش کاهش نیازهای سخت‌افزاری (و در واقع قبلاً هم بوده‌اند). اما توسعه با این تکنیک ها نیاز به تخصص دارد که ممکن است برای شرکت های کوچکتر دشوار باشد. حداقل، این ادعای وارون موهان و داگلاس چن، بنیانگذاران استارت آپ زیرساختی است. Exafunction. Exafunction که امروزه از مخفی کاری بیرون آمده، در حال توسعه پلتفرمی است تا پیچیدگی استفاده از سخت افزار برای آموزش سیستم های هوش مصنوعی را از بین ببرد.

«بهبودها [in AI] اغلب با افزایش های زیاد در پیچیدگی محاسباتی حمایت می شوند. در نتیجه، شرکت ها مجبور می شوند برای درک مزایای یادگیری عمیق، سرمایه گذاری های بزرگی در سخت افزار انجام دهند. چن در مصاحبه ای با TechCrunch به TechCrunch گفت: این بسیار دشوار است زیرا فناوری به سرعت در حال پیشرفت است و حجم کار به سرعت افزایش می یابد زیرا یادگیری عمیق ارزش را در یک شرکت ثابت می کند. «تراشه‌های شتاب‌دهنده تخصصی لازم برای اجرای محاسبات یادگیری عمیق در مقیاس کمیاب هستند. استفاده کارآمد از این تراشه‌ها همچنین نیازمند دانش باطنی است که در بین تمرین‌کنندگان یادگیری عمیق غیرمعمول نیست.

Exafunction با 28 میلیون دلار سرمایه خطرپذیر که 25 میلیون دلار آن از دور سری A به رهبری Greenoaks با مشارکت Founders Fund به دست آمده است، قصد دارد آنچه را که نشانه کمبود تخصص در هوش مصنوعی می‌داند: سخت‌افزار بی‌کار. پردازنده‌های گرافیکی و تراشه‌های تخصصی فوق‌الذکر که برای «آموزش» سیستم‌های هوش مصنوعی استفاده می‌شوند – یعنی تغذیه داده‌هایی که سیستم‌ها می‌توانند برای پیش‌بینی استفاده کنند – اغلب مورد استفاده قرار نمی‌گیرند. از آنجایی که آنها برخی از بارهای کاری هوش مصنوعی را خیلی سریع تکمیل می کنند، در حالی که منتظر سایر اجزای پشته سخت افزاری مانند پردازنده ها و حافظه هستند، بیکار می نشینند.

لوکاس بیوالد، بنیانگذار پلتفرم توسعه هوش مصنوعی Weights and Biases، گزارش ها که تقریباً یک سوم مشتریان شرکت او به طور متوسط ​​کمتر از 15 درصد از GPU استفاده می کنند. در همین حال، در سال 2021 نظر سنجی به سفارش Run: AI، که با Exafunction رقابت می کند، فقط 17٪ از شرکت ها گفتند که توانسته اند به “استفاده زیاد” از منابع هوش مصنوعی خود دست یابند در حالی که 22٪ گفتند که زیرساخت آنها عمدتاً بیکار است.

هزینه ها اضافه می شود. با توجه برای اجرا: AI، 38 درصد از شرکت‌ها بودجه سالانه زیرساخت‌های هوش مصنوعی – شامل سخت‌افزار، نرم‌افزار و هزینه‌های ابری – از اکتبر 2021 بیش از 1 میلیون دلار داشتند. OpenAI تخمین زده برای آموزش GPT-3 4.6 میلیون دلار هزینه کرده است.

موهان از طریق ایمیل گفت: «بیشتر شرکت‌هایی که در یادگیری عمیق فعالیت می‌کنند وارد تجارت می‌شوند تا بتوانند روی فناوری اصلی خود تمرکز کنند، نه اینکه وقت و پهنای باند خود را صرف نگرانی در مورد بهینه‌سازی منابع کنند». ما معتقدیم که هیچ رقیب معنی‌داری وجود ندارد که به مشکلی که ما روی آن تمرکز کرده‌ایم، یعنی از بین بردن چالش‌های مدیریت سخت‌افزارهای تسریع‌شده مانند پردازنده‌های گرافیکی و ارائه عملکرد برتر به مشتریان، رسیدگی کند.»

بذر یک ایده

قبل از تأسیس Exafunction، چن یک مهندس نرم‌افزار در فیس‌بوک بود، جایی که به ساخت ابزار برای دستگاه‌هایی مانند Oculus Quest کمک کرد. موهان یک رهبر فناوری در استارت‌آپ تحویل خودکار Nuro بود که مسئولیت مدیریت تیم‌های زیرساخت خودمختاری شرکت را بر عهده داشت.

همانطور که حجم کار یادگیری عمیق ما زیاد است [at Nuro] موهان گفت که با افزایش پیچیدگی و تقاضا، مشخص شد که راه حل روشنی برای مقیاس سخت افزار ما وجود ندارد. «شبیه سازی مشکل عجیبی است. شاید به طرز متناقضی، همانطور که نرم افزار شما بهبود می یابد، برای پیدا کردن موارد گوشه نیاز به شبیه سازی تکرارهای بیشتری دارید. هرچه محصول شما بهتر باشد، برای یافتن خطاها سخت‌تر باید جستجو کنید. ما یاد گرفتیم که این راه سخت چقدر سخت است و هزاران ساعت مهندسی را صرف تلاش کردیم تا عملکرد بیشتری را از منابعی که در اختیار داشتیم، به کار ببریم.

اعتبار تصویر: Exafunction

Exafunction مشتریان به سرویس مدیریت شده شرکت متصل می شوند یا نرم افزار Exafunction را در یک خوشه Kubernetes مستقر می کنند. این فناوری به صورت پویا منابع را تخصیص می‌دهد و محاسبات را روی «سخت‌افزار مقرون‌به‌صرفه» مانند نمونه‌های نقطه‌ای در صورت موجود بودن منتقل می‌کند.

موهان و چن وقتی در مورد عملکرد داخلی پلتفرم Exafunction سؤال شد، ابهام کردند و ترجیح دادند فعلاً این جزئیات را مخفی نگه دارند. اما آنها توضیح دادند که Exafunction در سطح بالایی از اهرم‌ها استفاده می‌کند مجازی سازی اجرای بارهای کاری هوش مصنوعی حتی با در دسترس بودن سخت افزار محدود، که ظاهراً منجر به نرخ استفاده بهتر و در عین حال کاهش هزینه ها می شود.

کوتاهی Exafunction در افشای اطلاعات مربوط به فناوری خود – از جمله اینکه آیا از تراشه های شتاب دهنده میزبان ابری مانند واحدهای پردازش تانسور (TPU) گوگل پشتیبانی می کند یا خیر – باعث نگرانی است. اما برای رفع تردیدها، موهان، بدون نام بردن از نام، گفت که Exafunction در حال مدیریت پردازنده‌های گرافیکی برای «برخی از پیچیده‌ترین شرکت‌ها و سازمان‌های خودروهای خودمختار در لبه‌های بینایی رایانه‌ای است».

Exafunction پلتفرمی را فراهم می کند که بارهای کاری را از سخت افزارهای شتاب دهنده مانند GPU جدا می کند و استفاده حداکثری کارآمد را تضمین می کند – کاهش هزینه ها، تسریع عملکرد، و به شرکت ها امکان بهره مندی کامل از سخت افزار … [The] پلتفرم به تیم‌ها اجازه می‌دهد تا کار خود را بر روی یک پلتفرم واحد تجمیع کنند، بدون این‌که چالش‌های ایجاد مجموعه‌ای از کتابخانه‌های نرم‌افزاری متفاوت را به هم متصل کنند.» “ما این انتظار را داریم [Exafunction’s product] عمیقاً بازار را فعال خواهد کرد و برای یادگیری عمیق کاری را انجام می دهد که AWS برای رایانش ابری انجام داد.

بازار درحال رشد

Mohan ممکن است برنامه‌های بزرگی برای Exafunction داشته باشد، اما این استارت‌آپ تنها کسی نیست که مفهوم تخصیص زیرساخت «هوشمند» را برای بارهای کاری هوش مصنوعی به کار می‌گیرد. Beyond Run: AI – که محصول آن همچنین یک لایه انتزاعی برای بهینه سازی حجم کاری هوش مصنوعی ایجاد می کند – Grid.ai ارائه می دهد نرم افزاری که به دانشمندان داده اجازه می دهد تا مدل های هوش مصنوعی را در سراسر سخت افزار به طور موازی آموزش دهند. به نوبه خود، انویدیا می فروشد AI Enterpriseمجموعه‌ای از ابزارها و چارچوب‌هایی که به شرکت‌ها اجازه می‌دهد بارهای کاری هوش مصنوعی را روی سرورهای دارای گواهی Nvidia مجازی کنند.

اما موهان و چن با وجود شلوغی، بازار قابل آدرس دهی گسترده ای را می بینند. در گفتگو، آنها پلتفرم مبتنی بر اشتراک Exafunction را نه تنها به عنوان راهی برای از بین بردن موانع توسعه هوش مصنوعی، بلکه برای فعال کردن شرکت‌هایی که با محدودیت‌های زنجیره تأمین مواجه هستند، قرار دادند تا «ارزش بیشتری» را از سخت‌افزار موجود باز کنند. (در سال‌های اخیر، به دلایل مختلف، پردازنده‌های گرافیکی به کالاهای داغ تبدیل شده‌اند.) همیشه فضای ابری وجود دارد، اما به نظر موهان و چن، می‌تواند هزینه‌ها را افزایش دهد. یکی تخمین زدن دریافتند که آموزش یک مدل هوش مصنوعی با استفاده از سخت‌افزار داخلی تا ۶.۵ برابر ارزان‌تر از کم‌هزینه‌ترین جایگزین مبتنی بر ابر است.

موهان گفت: “در حالی که یادگیری عمیق تقریباً کاربردهای بی پایانی دارد، دو مورد از مواردی که ما بیشتر از همه در مورد آنها هیجان زده ایم، شبیه سازی وسیله نقلیه خودران و استنتاج ویدئویی در مقیاس هستند.” «شبیه‌سازی در قلب توسعه و اعتبارسنجی نرم‌افزار در صنعت خودروهای خودمختار نهفته است… یادگیری عمیق همچنین منجر به پیشرفت استثنایی در پردازش خودکار ویدیو، با برنامه‌های کاربردی در طیف متنوعی از صنایع شده است. [But] اگرچه پردازنده‌های گرافیکی برای شرکت‌های خودروهای خودمختار ضروری هستند، سخت‌افزار آن‌ها با وجود قیمت و کمیاب بودن، اغلب مورد استفاده قرار نمی‌گیرند. [Computer vision applications are] همچنین از نظر محاسباتی خواستار [because] هر جریان ویدیوی جدید به طور موثر نشان دهنده یک فایرهولز از داده ها است – با خروجی هر دوربین میلیون ها فریم در روز.

موهان و چن می گویند که سرمایه سری A صرف توسعه تیم Exafunction و “عمیق کردن” محصول خواهد شد. این شرکت همچنین در بهینه‌سازی زمان اجرا سیستم هوش مصنوعی «برای حساس‌ترین برنامه‌های کاربردی به تأخیر» (مانند رانندگی خودکار و بینایی رایانه) سرمایه‌گذاری خواهد کرد.

موهان گفت: «در حالی که در حال حاضر ما یک تیم قوی و زیرک هستیم که عمدتاً روی مهندسی متمرکز شده‌ایم، انتظار داریم به سرعت اندازه و قابلیت‌های سازمان خود را در سال 2022 ایجاد کنیم.» تقریباً در هر صنعت، واضح است که با پیچیده‌تر شدن حجم کار (و تعداد فزاینده‌ای از شرکت‌ها می‌خواهند از بینش‌های یادگیری عمیق بهره ببرند)، تقاضا برای محاسبات بسیار فراتر می‌رود. [supply]. در حالی که همه‌گیری این نگرانی‌ها را برجسته کرده است، این پدیده و گلوگاه‌های مرتبط با آن در سال‌های آینده حادتر می‌شوند، به‌ویژه زمانی که مدل‌های پیشرفته به‌طور تصاعدی خواستار می‌شوند.»


منبع

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

دکمه بازگشت به بالا