VESSL AI 12 میلیون دلار برای پلتفرم MLOps خود تضمین می کند که هدف آن کاهش هزینه های GPU تا 80٪ است.
همانطور که کسب و کارها به طور فزاینده ای هوش مصنوعی را در جریان کار و محصولات خود ادغام می کنند، تقاضای فزاینده ای برای ابزارها و پلتفرم ها وجود دارد که ایجاد، آزمایش و استقرار مدل های یادگیری ماشین را آسان تر می کند. این دسته از پلتفرمها – که عموماً به عنوان عملیات یادگیری ماشین یا MLOps شناخته میشوند – در حال حاضر کمی شلوغ است، با استارتآپهایی مانند InfuseAI، Comet، Arrikto، Arize، Galileo، Tecton، و Diveplane، بدون در نظر گرفتن پیشنهادات شرکتهایی مانند Google Cloud. Azure و AWS.
اکنون، یکی از پلتفرم های MLOps کره جنوبی تماس گرفته است VESSL AI سعی دارد با تمرکز بر بهینهسازی هزینههای GPU با استفاده از زیرساختهای ترکیبی که محیطهای داخلی و ابری را ترکیب میکند، جایگاهی برای خود ایجاد کند. و این استارتآپ اکنون ۱۲ میلیون دلار در دور سرمایهگذاری سری A جمعآوری کرده است تا توسعه زیرساختهای خود را سرعت بخشد، با هدف شرکتهایی که میخواهند مدلهای زبان بزرگ سفارشی (LLM) و عوامل هوش مصنوعی عمودی را توسعه دهند.
این شرکت در حال حاضر 50 مشتری سازمانی دارد که شامل نامهای بزرگی مانند هیوندای میشود. LIG Nex1، یک سازنده هوافضا و سلاح در کره جنوبی؛ تحرک TMAP، یک سرمایه گذاری مشترک بین اوبر و شرکت مخابراتی کره ای SK Telecom. و همچنین استارت آپ های فناوری Yanolja، Upstage، ScatterLab و Wrtn.ai. این شرکت همچنین به صورت استراتژیک با اوراکل و Google Cloud Jaeman Kuss An، یکی از بنیانگذاران و مدیرعامل، به TechCrunch گفت: در ایالات متحده بیش از 2000 کاربر دارد.
یک استارت آپ را در سال 2020 با جیهوان جی چون (CTO)، اینتا ریو (CPO) و یونگسون شان لی (سرپرست فناوری) تأسیس کرد – بنیانگذاران قبلاً در گوگل، شرکت بازی های موبایل PUBG و برخی استارتاپ های هوش مصنوعی فعالیت داشتند – برای حل مشکل نقطه درد خاصی که او هنگام توسعه مدلهای یادگیری ماشین در یک استارتآپ قبلی فناوری پزشکی با آن دست و پنجه نرم میکرد: حجم عظیم کار در توسعه و استفاده از ابزارهای یادگیری ماشین.
این تیم کشف کردند که میتوانند با استفاده از یک مدل زیرساخت ترکیبی، این فرآیند را کارآمدتر و به ویژه ارزانتر کنند. پلتفرم MLOps این شرکت اساساً از یک استراتژی چند ابری و نمونههای نقطهای برای کاهش هزینههای GPU تا 80% استفاده میکند و افزود که این رویکرد همچنین کمبودهای GPU را برطرف میکند و آموزش، استقرار و عملکرد مدلهای هوش مصنوعی را ساده میکند. LLM در مقیاس بزرگ
An گفت: «استراتژی چند ابری VESSL AI استفاده از پردازندههای گرافیکی مختلف از ارائهدهندگان خدمات ابری مانند AWS، Google Cloud و Lambda را امکانپذیر میسازد. “این سیستم به طور خودکار مقرون به صرفه ترین و کارآمدترین منابع را انتخاب می کند و هزینه های مشتری را به میزان قابل توجهی کاهش می دهد.”
پلت فرم VESSL چهار ویژگی اصلی را ارائه می دهد: VESSL Run که آموزش مدل هوش مصنوعی را خودکار می کند. VESSL Serve که از استقرار بلادرنگ پشتیبانی می کند. خطوط لوله VESSL، که آموزش مدل و پیش پردازش داده ها را برای ساده کردن گردش کار یکپارچه می کند. و VESSL Cluster که استفاده از منابع GPU را در محیط خوشه ای بهینه می کند.
سرمایه گذاران برای دور سری A، که مجموع جذب این شرکت را به 16.8 میلیون دلار می رساند، عبارتند از A Ventures، Ubiquoss Investment، Mirae Asset Securities، Sirius Investment، SJ Investment Partners، Wooshin Venture Investment و Shinhan Venture Investment. این استارت آپ دارای 35 کارمند در کره جنوبی و در دفتر San Mateo در ایالات متحده است