هدف CTGT ایمنتر کردن مدلهای هوش مصنوعی است

سیریل گورلا که به عنوان یک مهاجر بزرگ شد، به خود یاد داد که چگونه کدنویسی کند – و طوری تمرین کرد که گویی یک مرد صاحب اختیار است.
او به TechCrunch گفت: «من دوره برنامه نویسی کالج اجتماعی مادرم را در 11 سالگی، در میان وسایل برقی خانگی که به طور دوره ای قطع می شد، گذراندم.
در دبیرستان، گورلا در مورد هوش مصنوعی یاد گرفت و آنقدر در فکر آموزش مدل های هوش مصنوعی خود شد که لپ تاپ خود را جدا کرد تا خنک کننده داخلی را ارتقا دهد. این دستکاری منجر به کارآموزی در اینتل در دومین سال تحصیل در کالج Gorlla شد، جایی که او در مورد بهینهسازی و تفسیرپذیری مدل هوش مصنوعی تحقیق کرد.
سالهای دانشگاه Gorlla مصادف شد با رونق هوش مصنوعی – دورانی که شرکتهایی مانند OpenAI میلیاردها دلار برای فناوری هوش مصنوعی خود جمعآوری کردند. گورلا معتقد بود که هوش مصنوعی این پتانسیل را دارد که کل صنایع را متحول کند. اما او همچنین فکر میکرد که کار ایمنی به سمت محصولات جدید براق عقبنشینی میکند.
او گفت: «احساس میکردم که باید یک تغییر اساسی در نحوه درک و آموزش هوش مصنوعی ایجاد شود. فقدان اطمینان و اعتماد در خروجی مدلها، مانع مهمی برای پذیرش در صنایعی مانند مراقبتهای بهداشتی و مالی است، جایی که هوش مصنوعی میتواند بزرگترین تفاوت را ایجاد کند.»
بنابراین، گورلا، همراه با ترور تاتل، که در مقطع کارشناسی با او آشنا شد، برنامه تحصیلات تکمیلی خود را رها کرد تا شرکتی به نام CTGT را راه اندازی کند تا به سازمان ها کمک کند هوش مصنوعی را با دقت بیشتری گسترش دهند. CTGT امروز در TechCrunch Disrupt 2024 به عنوان بخشی از مسابقه Startup Battlefield ارائه شد.
او گفت: «والدینم معتقدند که من در مدرسه هستم. خواندن این ممکن است برای آنها شوکه کننده باشد.
CTGT با شرکتها همکاری میکند تا خروجیهای مغرضانه و توهمات را از مدلها شناسایی کند و سعی کند علت اصلی این موارد را برطرف کند.
حذف کامل خطاها از یک مدل غیرممکن است. اما Gorlla ادعا میکند که رویکرد حسابرسی CTGT میتواند شرکتها را برای کاهش آنها توانمند کند.
او توضیح داد: «ما درک درونی یک مدل از مفاهیم را آشکار می کنیم. «در حالی که مدلی که به کاربر میگوید چسب را در دستور غذا قرار دهد ممکن است خندهدار باشد، پاسخی که وقتی مشتری درخواست مقایسه محصول را میکند، به رقبا توصیه میکند، چندان بیاهمیت نیست. به بیمار اطلاعاتی از یک مطالعه بالینی داده می شود که قدیمی است، یا یک تصمیم اعتباری که در مورد اطلاعات توهم گرفته شده است، غیرقابل قبول است.
اخیر نظرسنجی از Cnvrg دریافت که قابلیت اطمینان یکی از نگرانیهای اصلی شرکتهایی است که از برنامههای هوش مصنوعی استفاده میکنند. در یک جداگانه مطالعه کنید از Riskonnect، ارائهدهنده نرمافزار مدیریت ریسک، بیش از نیمی از مدیران گفتند که نگران تصمیمگیری کارکنان بر اساس اطلاعات نادرست ابزارهای هوش مصنوعی هستند.
ایده یک پلت فرم اختصاصی برای ارزیابی تصمیم گیری یک مدل هوش مصنوعی جدید نیست. TruEra و Patronus AI از جمله استارتاپ هایی هستند که ابزارهایی را برای تفسیر رفتار مدل توسعه می دهند، مانند گوگل و مایکروسافت.
اما Gorlla ادعا میکند که تکنیکهای CTGT کارآمدتر هستند – تا حدی به این دلیل که برای نظارت بر مدلهای در حال تولید به آموزش هوش مصنوعی «قاضی» تکیه نمیکنند.
او گفت: «تفسیرپذیری تضمین شده ریاضی ما با روشهای پیشرفته فعلی که ناکارآمد هستند و صدها مدل دیگر را برای کسب بینش در یک مدل آموزش میدهند، متفاوت است.» از آنجایی که شرکتها به طور فزایندهای از هزینههای محاسباتی آگاه میشوند و هوش مصنوعی سازمانی از نسخههای نمایشی به ارائه ارزش واقعی تبدیل میشود، ارزش ما در ارائه توانایی شرکتها برای آزمایش دقیق ایمنی هوش مصنوعی بدون آموزش مدلهای اضافی یا استفاده از مدلهای دیگر بهعنوان داور، قابل توجه است. ”
برای کاهش ترس مشتریان بالقوه از نشت داده ها، CTGT علاوه بر یک برنامه مدیریت شده، یک گزینه در محل ارائه می دهد. هزینه سالانه یکسانی را برای هر دو دریافت می کند.
گورلا گفت: «ما به دادههای مشتریان دسترسی نداریم و به آنها کنترل کامل بر نحوه و مکان استفاده از آنها میدهیم.
CTGT، فارغ التحصیل از آزمایشگاه شخصیت شتاب دهنده، از حمایت شرکای سابق جی وی، جیک کنپ و جان زراتسکی (که یکی از بنیانگذاران Character VC بودند)، مارک کوبان، و موسس زاپیر، مایک نوپ، برخوردار است.
کوبان در بیانیه ای گفت: «هوش مصنوعی که نمی تواند استدلال خود را توضیح دهد، برای بسیاری از مناطقی که قوانین و الزامات پیچیده در آنها اعمال می شود، به اندازه کافی هوشمند نیست. من در CTGT سرمایه گذاری کردم زیرا این مشکل را حل می کند. مهمتر از آن، ما شاهد نتایجی در استفاده خود از هوش مصنوعی هستیم.»
و – علیرغم اینکه در مراحل اولیه است – CTGT چندین مشتری دارد، از جمله سه برند بی نام Fortune 10. Gorlla میگوید که CTGT با یکی از این شرکتها برای به حداقل رساندن سوگیری در الگوریتم تشخیص چهره آنها کار کرده است.
او گفت: «ما سوگیری را در مدل شناسایی کردیم که بیش از حد روی مو و لباس تمرکز میکرد تا پیشبینی کند. پلت فرم ما بینش های فوری را بدون حدس و گمان و اتلاف وقت روش های تفسیرپذیر سنتی به پزشکان ارائه داد.
تمرکز CTGT در ماههای آینده روی ایجاد تیم مهندسی (در حال حاضر تنها Gorlla و Tuttle هستند) و اصلاح پلت فرم آن خواهد بود.
اگر CTGT بتواند جایگاهی در بازار رو به رشد تفسیرپذیری هوش مصنوعی به دست آورد، در واقع می تواند سودآور باشد. شرکت تجزیه و تحلیل بازارها و بازارها پروژه ها که “هوش مصنوعی قابل توضیح” به عنوان یک بخش می تواند تا سال 2028 به ارزش 16.2 میلیارد دلار برسد.
“اندازه مدل بسیار بهتر است قانون مور و پیشرفت در تراشه های آموزشی هوش مصنوعی،” Gorlla گفت. این بدان معناست که ما باید بر درک بنیادی هوش مصنوعی تمرکز کنیم – برای مقابله با ناکارآمدی و ماهیت پیچیدهتر تصمیمگیریهای مدل.