کار آفرینی و استارتاپ

VESSL AI 12 میلیون دلار برای پلتفرم MLOps خود تضمین می کند که هدف آن کاهش هزینه های GPU تا 80٪ است.


همانطور که کسب و کارها به طور فزاینده ای هوش مصنوعی را در جریان کار و محصولات خود ادغام می کنند، تقاضای فزاینده ای برای ابزارها و پلتفرم ها وجود دارد که ایجاد، آزمایش و استقرار مدل های یادگیری ماشین را آسان تر می کند. این دسته از پلتفرم‌ها – که عموماً به عنوان عملیات یادگیری ماشین یا MLOps شناخته می‌شوند – در حال حاضر کمی شلوغ است، با استارت‌آپ‌هایی مانند InfuseAI، Comet، Arrikto، Arize، Galileo، Tecton، و Diveplane، بدون در نظر گرفتن پیشنهادات شرکت‌هایی مانند Google Cloud. Azure و AWS.

اکنون، یکی از پلتفرم های MLOps کره جنوبی تماس گرفته است VESSL AI سعی دارد با تمرکز بر بهینه‌سازی هزینه‌های GPU با استفاده از زیرساخت‌های ترکیبی که محیط‌های داخلی و ابری را ترکیب می‌کند، جایگاهی برای خود ایجاد کند. و این استارت‌آپ اکنون ۱۲ میلیون دلار در دور سرمایه‌گذاری سری A جمع‌آوری کرده است تا توسعه زیرساخت‌های خود را سرعت بخشد، با هدف شرکت‌هایی که می‌خواهند مدل‌های زبان بزرگ سفارشی (LLM) و عوامل هوش مصنوعی عمودی را توسعه دهند.

این شرکت در حال حاضر 50 مشتری سازمانی دارد که شامل نام‌های بزرگی مانند هیوندای می‌شود. LIG Nex1، یک سازنده هوافضا و سلاح در کره جنوبی؛ تحرک TMAP، یک سرمایه گذاری مشترک بین اوبر و شرکت مخابراتی کره ای SK Telecom. و همچنین استارت آپ های فناوری Yanolja، Upstage، ScatterLab و Wrtn.ai. این شرکت همچنین به صورت استراتژیک با اوراکل و Google Cloud Jaeman Kuss An، یکی از بنیانگذاران و مدیرعامل، به TechCrunch گفت: در ایالات متحده بیش از 2000 کاربر دارد.

یک استارت آپ را در سال 2020 با جیهوان جی چون (CTO)، اینتا ریو (CPO) و یونگسون شان لی (سرپرست فناوری) تأسیس کرد – بنیانگذاران قبلاً در گوگل، شرکت بازی های موبایل PUBG و برخی استارتاپ های هوش مصنوعی فعالیت داشتند – برای حل مشکل نقطه درد خاصی که او هنگام توسعه مدل‌های یادگیری ماشین در یک استارت‌آپ قبلی فناوری پزشکی با آن دست و پنجه نرم می‌کرد: حجم عظیم کار در توسعه و استفاده از ابزارهای یادگیری ماشین.

این تیم کشف کردند که می‌توانند با استفاده از یک مدل زیرساخت ترکیبی، این فرآیند را کارآمدتر و به ویژه ارزان‌تر کنند. پلتفرم MLOps این شرکت اساساً از یک استراتژی چند ابری و نمونه‌های نقطه‌ای برای کاهش هزینه‌های GPU تا 80% استفاده می‌کند و افزود که این رویکرد همچنین کمبودهای GPU را برطرف می‌کند و آموزش، استقرار و عملکرد مدل‌های هوش مصنوعی را ساده می‌کند. LLM در مقیاس بزرگ

An گفت: «استراتژی چند ابری VESSL AI استفاده از پردازنده‌های گرافیکی مختلف از ارائه‌دهندگان خدمات ابری مانند AWS، Google Cloud و Lambda را امکان‌پذیر می‌سازد. “این سیستم به طور خودکار مقرون به صرفه ترین و کارآمدترین منابع را انتخاب می کند و هزینه های مشتری را به میزان قابل توجهی کاهش می دهد.”

پلت فرم VESSL چهار ویژگی اصلی را ارائه می دهد: VESSL Run که آموزش مدل هوش مصنوعی را خودکار می کند. VESSL Serve که از استقرار بلادرنگ پشتیبانی می کند. خطوط لوله VESSL، که آموزش مدل و پیش پردازش داده ها را برای ساده کردن گردش کار یکپارچه می کند. و VESSL Cluster که استفاده از منابع GPU را در محیط خوشه ای بهینه می کند.

سرمایه گذاران برای دور سری A، که مجموع جذب این شرکت را به 16.8 میلیون دلار می رساند، عبارتند از A Ventures، Ubiquoss Investment، Mirae Asset Securities، Sirius Investment، SJ Investment Partners، Wooshin Venture Investment و Shinhan Venture Investment. این استارت آپ دارای 35 کارمند در کره جنوبی و در دفتر San Mateo در ایالات متحده است



منبع

دیدگاهتان را بنویسید

دکمه بازگشت به بالا