کار آفرینی و استارتاپ

هدف CTGT ایمن‌تر کردن مدل‌های هوش مصنوعی است


سیریل گورلا که به عنوان یک مهاجر بزرگ شد، به خود یاد داد که چگونه کدنویسی کند – و طوری تمرین کرد که گویی یک مرد صاحب اختیار است.

او به TechCrunch گفت: «من دوره برنامه نویسی کالج اجتماعی مادرم را در 11 سالگی، در میان وسایل برقی خانگی که به طور دوره ای قطع می شد، گذراندم.

در دبیرستان، گورلا در مورد هوش مصنوعی یاد گرفت و آنقدر در فکر آموزش مدل های هوش مصنوعی خود شد که لپ تاپ خود را جدا کرد تا خنک کننده داخلی را ارتقا دهد. این دستکاری منجر به کارآموزی در اینتل در دومین سال تحصیل در کالج Gorlla شد، جایی که او در مورد بهینه‌سازی و تفسیرپذیری مدل هوش مصنوعی تحقیق کرد.

سال‌های دانشگاه Gorlla مصادف شد با رونق هوش مصنوعی – دورانی که شرکت‌هایی مانند OpenAI میلیاردها دلار برای فناوری هوش مصنوعی خود جمع‌آوری کردند. گورلا معتقد بود که هوش مصنوعی این پتانسیل را دارد که کل صنایع را متحول کند. اما او همچنین فکر می‌کرد که کار ایمنی به سمت محصولات جدید براق عقب‌نشینی می‌کند.

او گفت: «احساس می‌کردم که باید یک تغییر اساسی در نحوه درک و آموزش هوش مصنوعی ایجاد شود. فقدان اطمینان و اعتماد در خروجی مدل‌ها، مانع مهمی برای پذیرش در صنایعی مانند مراقبت‌های بهداشتی و مالی است، جایی که هوش مصنوعی می‌تواند بزرگترین تفاوت را ایجاد کند.»

بنابراین، گورلا، همراه با ترور تاتل، که در مقطع کارشناسی با او آشنا شد، برنامه تحصیلات تکمیلی خود را رها کرد تا شرکتی به نام CTGT را راه اندازی کند تا به سازمان ها کمک کند هوش مصنوعی را با دقت بیشتری گسترش دهند. CTGT امروز در TechCrunch Disrupt 2024 به عنوان بخشی از مسابقه Startup Battlefield ارائه شد.

او گفت: «والدینم معتقدند که من در مدرسه هستم. خواندن این ممکن است برای آنها شوکه کننده باشد.

CTGT با شرکت‌ها همکاری می‌کند تا خروجی‌های مغرضانه و توهمات را از مدل‌ها شناسایی کند و سعی کند علت اصلی این موارد را برطرف کند.

حذف کامل خطاها از یک مدل غیرممکن است. اما Gorlla ادعا می‌کند که رویکرد حسابرسی CTGT می‌تواند شرکت‌ها را برای کاهش آنها توانمند کند.

او توضیح داد: «ما درک درونی یک مدل از مفاهیم را آشکار می کنیم. «در حالی که مدلی که به کاربر می‌گوید چسب را در دستور غذا قرار دهد ممکن است خنده‌دار باشد، پاسخی که وقتی مشتری درخواست مقایسه محصول را می‌کند، به رقبا توصیه می‌کند، چندان بی‌اهمیت نیست. به بیمار اطلاعاتی از یک مطالعه بالینی داده می شود که قدیمی است، یا یک تصمیم اعتباری که در مورد اطلاعات توهم گرفته شده است، غیرقابل قبول است.

اخیر نظرسنجی از Cnvrg دریافت که قابلیت اطمینان یکی از نگرانی‌های اصلی شرکت‌هایی است که از برنامه‌های هوش مصنوعی استفاده می‌کنند. در یک جداگانه مطالعه کنید از Riskonnect، ارائه‌دهنده نرم‌افزار مدیریت ریسک، بیش از نیمی از مدیران گفتند که نگران تصمیم‌گیری کارکنان بر اساس اطلاعات نادرست ابزارهای هوش مصنوعی هستند.

ایده یک پلت فرم اختصاصی برای ارزیابی تصمیم گیری یک مدل هوش مصنوعی جدید نیست. TruEra و Patronus AI از جمله استارتاپ هایی هستند که ابزارهایی را برای تفسیر رفتار مدل توسعه می دهند، مانند گوگل و مایکروسافت.

اما Gorlla ادعا می‌کند که تکنیک‌های CTGT کارآمدتر هستند – تا حدی به این دلیل که برای نظارت بر مدل‌های در حال تولید به آموزش هوش مصنوعی «قاضی» تکیه نمی‌کنند.

او گفت: «تفسیرپذیری تضمین شده ریاضی ما با روش‌های پیشرفته فعلی که ناکارآمد هستند و صدها مدل دیگر را برای کسب بینش در یک مدل آموزش می‌دهند، متفاوت است.» از آنجایی که شرکت‌ها به طور فزاینده‌ای از هزینه‌های محاسباتی آگاه می‌شوند و هوش مصنوعی سازمانی از نسخه‌های نمایشی به ارائه ارزش واقعی تبدیل می‌شود، ارزش ما در ارائه توانایی شرکت‌ها برای آزمایش دقیق ایمنی هوش مصنوعی بدون آموزش مدل‌های اضافی یا استفاده از مدل‌های دیگر به‌عنوان داور، قابل توجه است. ”

برای کاهش ترس مشتریان بالقوه از نشت داده ها، CTGT علاوه بر یک برنامه مدیریت شده، یک گزینه در محل ارائه می دهد. هزینه سالانه یکسانی را برای هر دو دریافت می کند.

گورلا گفت: «ما به داده‌های مشتریان دسترسی نداریم و به آنها کنترل کامل بر نحوه و مکان استفاده از آن‌ها می‌دهیم.

CTGT، فارغ التحصیل از آزمایشگاه شخصیت شتاب دهنده، از حمایت شرکای سابق جی وی، جیک کنپ و جان زراتسکی (که یکی از بنیانگذاران Character VC بودند)، مارک کوبان، و موسس زاپیر، مایک نوپ، برخوردار است.

کوبان در بیانیه ای گفت: «هوش مصنوعی که نمی تواند استدلال خود را توضیح دهد، برای بسیاری از مناطقی که قوانین و الزامات پیچیده در آنها اعمال می شود، به اندازه کافی هوشمند نیست. من در CTGT سرمایه گذاری کردم زیرا این مشکل را حل می کند. مهمتر از آن، ما شاهد نتایجی در استفاده خود از هوش مصنوعی هستیم.»

و – علیرغم اینکه در مراحل اولیه است – CTGT چندین مشتری دارد، از جمله سه برند بی نام Fortune 10. Gorlla می‌گوید که CTGT با یکی از این شرکت‌ها برای به حداقل رساندن سوگیری در الگوریتم تشخیص چهره آن‌ها کار کرده است.

او گفت: «ما سوگیری را در مدل شناسایی کردیم که بیش از حد روی مو و لباس تمرکز می‌کرد تا پیش‌بینی کند. پلت فرم ما بینش های فوری را بدون حدس و گمان و اتلاف وقت روش های تفسیرپذیر سنتی به پزشکان ارائه داد.

تمرکز CTGT در ماه‌های آینده روی ایجاد تیم مهندسی (در حال حاضر تنها Gorlla و Tuttle هستند) و اصلاح پلت فرم آن خواهد بود.

اگر CTGT بتواند جایگاهی در بازار رو به رشد تفسیرپذیری هوش مصنوعی به دست آورد، در واقع می تواند سودآور باشد. شرکت تجزیه و تحلیل بازارها و بازارها پروژه ها که “هوش مصنوعی قابل توضیح” به عنوان یک بخش می تواند تا سال 2028 به ارزش 16.2 میلیارد دلار برسد.

“اندازه مدل بسیار بهتر است قانون مور و پیشرفت در تراشه های آموزشی هوش مصنوعی،” Gorlla گفت. این بدان معناست که ما باید بر درک بنیادی هوش مصنوعی تمرکز کنیم – برای مقابله با ناکارآمدی و ماهیت پیچیده‌تر تصمیم‌گیری‌های مدل.



منبع

دیدگاهتان را بنویسید

دکمه بازگشت به بالا