Exafunction با انتزاع کردن سخت افزار – TechCrunch – قصد دارد هزینه های توسعه دهنده هوش مصنوعی را کاهش دهد

پیچیدهترین سیستمهای هوش مصنوعی امروزی، از هدایت ماشینها در خیابانهای شهر گرفته تا نوشتن نثر انسانمانند، قادر به انجام کارهای چشمگیر هستند. اما آنها یک تنگنا مشترک دارند: سخت افزار. توسعه سیستمها در لبه خونریزی اغلب به مقدار زیادی قدرت محاسباتی نیاز دارد. برای مثال، ایجاد ساختار پروتئینی DeepMind که AlphaFold را پیشبینی میکند، مجموعهای متشکل از صدها پردازنده گرافیکی را به خود اختصاص داد. با تاکید بیشتر بر چالش، یک منبع برآوردها توسعه سیستم GPT-3 زبان مولد OpenAI با استفاده از یک GPU تنها 355 سال طول کشیده است.
تکنیکها و تراشههای جدیدی که برای تسریع برخی از جنبههای توسعه سیستم هوش مصنوعی طراحی شدهاند، نویدبخش کاهش نیازهای سختافزاری (و در واقع قبلاً هم بودهاند). اما توسعه با این تکنیک ها نیاز به تخصص دارد که ممکن است برای شرکت های کوچکتر دشوار باشد. حداقل، این ادعای وارون موهان و داگلاس چن، بنیانگذاران استارت آپ زیرساختی است. Exafunction. Exafunction که امروزه از مخفی کاری بیرون آمده، در حال توسعه پلتفرمی است تا پیچیدگی استفاده از سخت افزار برای آموزش سیستم های هوش مصنوعی را از بین ببرد.
«بهبودها [in AI] اغلب با افزایش های زیاد در پیچیدگی محاسباتی حمایت می شوند. در نتیجه، شرکت ها مجبور می شوند برای درک مزایای یادگیری عمیق، سرمایه گذاری های بزرگی در سخت افزار انجام دهند. چن در مصاحبه ای با TechCrunch به TechCrunch گفت: این بسیار دشوار است زیرا فناوری به سرعت در حال پیشرفت است و حجم کار به سرعت افزایش می یابد زیرا یادگیری عمیق ارزش را در یک شرکت ثابت می کند. «تراشههای شتابدهنده تخصصی لازم برای اجرای محاسبات یادگیری عمیق در مقیاس کمیاب هستند. استفاده کارآمد از این تراشهها همچنین نیازمند دانش باطنی است که در بین تمرینکنندگان یادگیری عمیق غیرمعمول نیست.
Exafunction با 28 میلیون دلار سرمایه خطرپذیر که 25 میلیون دلار آن از دور سری A به رهبری Greenoaks با مشارکت Founders Fund به دست آمده است، قصد دارد آنچه را که نشانه کمبود تخصص در هوش مصنوعی میداند: سختافزار بیکار. پردازندههای گرافیکی و تراشههای تخصصی فوقالذکر که برای «آموزش» سیستمهای هوش مصنوعی استفاده میشوند – یعنی تغذیه دادههایی که سیستمها میتوانند برای پیشبینی استفاده کنند – اغلب مورد استفاده قرار نمیگیرند. از آنجایی که آنها برخی از بارهای کاری هوش مصنوعی را خیلی سریع تکمیل می کنند، در حالی که منتظر سایر اجزای پشته سخت افزاری مانند پردازنده ها و حافظه هستند، بیکار می نشینند.
لوکاس بیوالد، بنیانگذار پلتفرم توسعه هوش مصنوعی Weights and Biases، گزارش ها که تقریباً یک سوم مشتریان شرکت او به طور متوسط کمتر از 15 درصد از GPU استفاده می کنند. در همین حال، در سال 2021 نظر سنجی به سفارش Run: AI، که با Exafunction رقابت می کند، فقط 17٪ از شرکت ها گفتند که توانسته اند به “استفاده زیاد” از منابع هوش مصنوعی خود دست یابند در حالی که 22٪ گفتند که زیرساخت آنها عمدتاً بیکار است.
هزینه ها اضافه می شود. با توجه برای اجرا: AI، 38 درصد از شرکتها بودجه سالانه زیرساختهای هوش مصنوعی – شامل سختافزار، نرمافزار و هزینههای ابری – از اکتبر 2021 بیش از 1 میلیون دلار داشتند. OpenAI تخمین زده برای آموزش GPT-3 4.6 میلیون دلار هزینه کرده است.
موهان از طریق ایمیل گفت: «بیشتر شرکتهایی که در یادگیری عمیق فعالیت میکنند وارد تجارت میشوند تا بتوانند روی فناوری اصلی خود تمرکز کنند، نه اینکه وقت و پهنای باند خود را صرف نگرانی در مورد بهینهسازی منابع کنند». ما معتقدیم که هیچ رقیب معنیداری وجود ندارد که به مشکلی که ما روی آن تمرکز کردهایم، یعنی از بین بردن چالشهای مدیریت سختافزارهای تسریعشده مانند پردازندههای گرافیکی و ارائه عملکرد برتر به مشتریان، رسیدگی کند.»
بذر یک ایده
قبل از تأسیس Exafunction، چن یک مهندس نرمافزار در فیسبوک بود، جایی که به ساخت ابزار برای دستگاههایی مانند Oculus Quest کمک کرد. موهان یک رهبر فناوری در استارتآپ تحویل خودکار Nuro بود که مسئولیت مدیریت تیمهای زیرساخت خودمختاری شرکت را بر عهده داشت.
همانطور که حجم کار یادگیری عمیق ما زیاد است [at Nuro] موهان گفت که با افزایش پیچیدگی و تقاضا، مشخص شد که راه حل روشنی برای مقیاس سخت افزار ما وجود ندارد. «شبیه سازی مشکل عجیبی است. شاید به طرز متناقضی، همانطور که نرم افزار شما بهبود می یابد، برای پیدا کردن موارد گوشه نیاز به شبیه سازی تکرارهای بیشتری دارید. هرچه محصول شما بهتر باشد، برای یافتن خطاها سختتر باید جستجو کنید. ما یاد گرفتیم که این راه سخت چقدر سخت است و هزاران ساعت مهندسی را صرف تلاش کردیم تا عملکرد بیشتری را از منابعی که در اختیار داشتیم، به کار ببریم.
اعتبار تصویر: Exafunction
Exafunction مشتریان به سرویس مدیریت شده شرکت متصل می شوند یا نرم افزار Exafunction را در یک خوشه Kubernetes مستقر می کنند. این فناوری به صورت پویا منابع را تخصیص میدهد و محاسبات را روی «سختافزار مقرونبهصرفه» مانند نمونههای نقطهای در صورت موجود بودن منتقل میکند.
موهان و چن وقتی در مورد عملکرد داخلی پلتفرم Exafunction سؤال شد، ابهام کردند و ترجیح دادند فعلاً این جزئیات را مخفی نگه دارند. اما آنها توضیح دادند که Exafunction در سطح بالایی از اهرمها استفاده میکند مجازی سازی اجرای بارهای کاری هوش مصنوعی حتی با در دسترس بودن سخت افزار محدود، که ظاهراً منجر به نرخ استفاده بهتر و در عین حال کاهش هزینه ها می شود.
کوتاهی Exafunction در افشای اطلاعات مربوط به فناوری خود – از جمله اینکه آیا از تراشه های شتاب دهنده میزبان ابری مانند واحدهای پردازش تانسور (TPU) گوگل پشتیبانی می کند یا خیر – باعث نگرانی است. اما برای رفع تردیدها، موهان، بدون نام بردن از نام، گفت که Exafunction در حال مدیریت پردازندههای گرافیکی برای «برخی از پیچیدهترین شرکتها و سازمانهای خودروهای خودمختار در لبههای بینایی رایانهای است».
Exafunction پلتفرمی را فراهم می کند که بارهای کاری را از سخت افزارهای شتاب دهنده مانند GPU جدا می کند و استفاده حداکثری کارآمد را تضمین می کند – کاهش هزینه ها، تسریع عملکرد، و به شرکت ها امکان بهره مندی کامل از سخت افزار … [The] پلتفرم به تیمها اجازه میدهد تا کار خود را بر روی یک پلتفرم واحد تجمیع کنند، بدون اینکه چالشهای ایجاد مجموعهای از کتابخانههای نرمافزاری متفاوت را به هم متصل کنند.» “ما این انتظار را داریم [Exafunction’s product] عمیقاً بازار را فعال خواهد کرد و برای یادگیری عمیق کاری را انجام می دهد که AWS برای رایانش ابری انجام داد.
بازار درحال رشد
Mohan ممکن است برنامههای بزرگی برای Exafunction داشته باشد، اما این استارتآپ تنها کسی نیست که مفهوم تخصیص زیرساخت «هوشمند» را برای بارهای کاری هوش مصنوعی به کار میگیرد. Beyond Run: AI – که محصول آن همچنین یک لایه انتزاعی برای بهینه سازی حجم کاری هوش مصنوعی ایجاد می کند – Grid.ai ارائه می دهد نرم افزاری که به دانشمندان داده اجازه می دهد تا مدل های هوش مصنوعی را در سراسر سخت افزار به طور موازی آموزش دهند. به نوبه خود، انویدیا می فروشد AI Enterpriseمجموعهای از ابزارها و چارچوبهایی که به شرکتها اجازه میدهد بارهای کاری هوش مصنوعی را روی سرورهای دارای گواهی Nvidia مجازی کنند.
اما موهان و چن با وجود شلوغی، بازار قابل آدرس دهی گسترده ای را می بینند. در گفتگو، آنها پلتفرم مبتنی بر اشتراک Exafunction را نه تنها به عنوان راهی برای از بین بردن موانع توسعه هوش مصنوعی، بلکه برای فعال کردن شرکتهایی که با محدودیتهای زنجیره تأمین مواجه هستند، قرار دادند تا «ارزش بیشتری» را از سختافزار موجود باز کنند. (در سالهای اخیر، به دلایل مختلف، پردازندههای گرافیکی به کالاهای داغ تبدیل شدهاند.) همیشه فضای ابری وجود دارد، اما به نظر موهان و چن، میتواند هزینهها را افزایش دهد. یکی تخمین زدن دریافتند که آموزش یک مدل هوش مصنوعی با استفاده از سختافزار داخلی تا ۶.۵ برابر ارزانتر از کمهزینهترین جایگزین مبتنی بر ابر است.
موهان گفت: “در حالی که یادگیری عمیق تقریباً کاربردهای بی پایانی دارد، دو مورد از مواردی که ما بیشتر از همه در مورد آنها هیجان زده ایم، شبیه سازی وسیله نقلیه خودران و استنتاج ویدئویی در مقیاس هستند.” «شبیهسازی در قلب توسعه و اعتبارسنجی نرمافزار در صنعت خودروهای خودمختار نهفته است… یادگیری عمیق همچنین منجر به پیشرفت استثنایی در پردازش خودکار ویدیو، با برنامههای کاربردی در طیف متنوعی از صنایع شده است. [But] اگرچه پردازندههای گرافیکی برای شرکتهای خودروهای خودمختار ضروری هستند، سختافزار آنها با وجود قیمت و کمیاب بودن، اغلب مورد استفاده قرار نمیگیرند. [Computer vision applications are] همچنین از نظر محاسباتی خواستار [because] هر جریان ویدیوی جدید به طور موثر نشان دهنده یک فایرهولز از داده ها است – با خروجی هر دوربین میلیون ها فریم در روز.
موهان و چن می گویند که سرمایه سری A صرف توسعه تیم Exafunction و “عمیق کردن” محصول خواهد شد. این شرکت همچنین در بهینهسازی زمان اجرا سیستم هوش مصنوعی «برای حساسترین برنامههای کاربردی به تأخیر» (مانند رانندگی خودکار و بینایی رایانه) سرمایهگذاری خواهد کرد.
موهان گفت: «در حالی که در حال حاضر ما یک تیم قوی و زیرک هستیم که عمدتاً روی مهندسی متمرکز شدهایم، انتظار داریم به سرعت اندازه و قابلیتهای سازمان خود را در سال 2022 ایجاد کنیم.» تقریباً در هر صنعت، واضح است که با پیچیدهتر شدن حجم کار (و تعداد فزایندهای از شرکتها میخواهند از بینشهای یادگیری عمیق بهره ببرند)، تقاضا برای محاسبات بسیار فراتر میرود. [supply]. در حالی که همهگیری این نگرانیها را برجسته کرده است، این پدیده و گلوگاههای مرتبط با آن در سالهای آینده حادتر میشوند، بهویژه زمانی که مدلهای پیشرفته بهطور تصاعدی خواستار میشوند.»