کار آفرینی و استارتاپ

آموزش مدل های هوش مصنوعی آنچه آنها نمی دانند | اخبار MIT



سیستم های اطلاعاتی مصنوعی مانند ChatGPT پاسخ های قابل قبول برای هر سؤالی را که ممکن است بپرسید ارائه می دهد. اما آنها همیشه شکاف های دانش یا مناطقی را که نامشخص هستند ، نشان نمی دهند. این مشکل می تواند عواقب عظیمی داشته باشد زیرا سیستم های هوش مصنوعی به طور فزاینده ای برای انجام کارهایی مانند تهیه مواد مخدر ، سنتز اطلاعات و رانندگی اتومبیل های خودمختار استفاده می شوند.

اکنون ، MIT Spinout themis AI به تعیین کمیت عدم اطمینان مدل و صحیح خروجی ها قبل از ایجاد مشکلات بزرگتر کمک می کند. پلت فرم CAPSA این شرکت می تواند با هر مدل یادگیری ماشین کار کند تا در ثانیه خروجی های غیرقابل اعتماد را تشخیص و تصحیح کند. این کار با اصلاح مدل های AI کار می کند تا آنها را قادر به تشخیص الگوهای در پردازش داده های خود کنند که نشان دهنده ابهام ، ناقص بودن یا تعصب است.

“بنیانگذار و استاد MIT Daniela Rus ، که همچنین مدیر علوم کامپیوتر MIT و آزمایشگاه اطلاعات مصنوعی MIT (CSAIL) است ، می گوید:” ایده این است که یک مدل را در دست بگیرید ، آن را در CAPSA بپیچانید ، عدم قطعیت ها و حالت های شکست مدل را مشخص کنید و سپس مدل را تقویت کنید. ” “ما از ارائه راه حلی که می تواند مدل ها را بهبود بخشد و تضمین هایی را ارائه می دهیم که مدل به درستی کار می کند ، هیجان زده هستیم.”

روس در سال 2021 با الكساندر امینی ’17 ، SM ’18 ، دکترا ’22 و الاهه احمدی 20 ، منگ ’21 ، دو وابسته سابق تحقیقاتی در آزمایشگاه خود تأسیس كرد. از آن زمان ، آنها به شرکت های مخابراتی با برنامه ریزی و اتوماسیون شبکه کمک کرده اند ، به شرکت های نفت و گاز کمک کرده اند تا از هوش مصنوعی برای درک تصاویر لرزه ای استفاده کنند و مقالاتی را در مورد توسعه چت های قابل اعتماد تر و قابل اعتماد تر منتشر کرده اند.

امینی می گوید: “ما می خواهیم AI را در بالاترین برنامه های کاربردی در هر صنعت فعال کنیم.” “همه ما نمونه هایی از توهم AI یا اشتباهات را مشاهده کرده ایم. هرچه هوش مصنوعی به طور گسترده تر مستقر می شود ، این اشتباهات می تواند منجر به عواقب ویرانگر شود. مضامین این امکان را می دهد که هر یک از هوش مصنوعی قبل از وقوع ، می تواند پیش بینی کرده و شکست های خود را پیش بینی کند.”

کمک به مدل ها می دانند چه چیزی نمی دانند

آزمایشگاه روس سالهاست که در حال تحقیق در مورد عدم اطمینان است. در سال 2018 ، وی بودجه ای را از تویوتا برای مطالعه قابلیت اطمینان یک راه حل رانندگی خودمختار مبتنی بر یادگیری ماشین دریافت کرد.

روس می گوید: “این یک زمینه مهم ایمنی است که درک قابلیت اطمینان مدل بسیار مهم است.”

جداگانه کار، RUS ، Amini و همكاران آنها الگوریتمی ساختند كه می تواند تعصب نژادی و جنسیتی را در سیستم های تشخیص چهره تشخیص دهد و به طور خودکار داده های آموزش مدل را دوباره وزنه برداری كند ، و این نشان می دهد كه تعصب را از بین می برد. این الگوریتم با شناسایی بخش های غیر نماینده داده های آموزش اساسی و تولید نمونه های جدید و مشابه داده های مشابه برای تعادل آن کار می کند.

در سال 2021 ، بنیانگذاران نهایی نشان دادند رویکرد مشابه می تواند برای کمک به شرکت های داروسازی از مدل های هوش مصنوعی برای پیش بینی خواص نامزدهای دارو استفاده شود. آنها بعداً در همان سال Themis AI را تأسیس کردند.

روس می گوید: “هدایت کشف مواد مخدر به طور بالقوه می تواند پول زیادی را پس انداز کند.” “این مورد استفاده بود که ما را فهمید که این ابزار چقدر قدرتمند است.”

امروزه Themis AI با شرکت ها در صنایع مختلف همکاری می کند و بسیاری از این شرکت ها در حال ساختن مدل های بزرگ زبان هستند. با استفاده از CAPSA ، این مدل ها قادر به عدم اطمینان خود برای هر خروجی هستند.

Stewart Jamieson SM ’20 ، دکترا ’24 ، رئیس فناوری THEMIS ، گفت: “بسیاری از شرکت ها علاقه مند به استفاده از LLM هایی هستند که مبتنی بر داده های آنها هستند ، اما آنها نگران قابلیت اطمینان هستند.” “ما به LLMS کمک می کنیم تا اعتماد به نفس و عدم اطمینان خود را گزارش دهند ، که این امکان را برای پاسخ به سؤال قابل اطمینان تر و پرچم گذاری خروجی های غیرقابل اعتماد فراهم می کند.”

Themis AI همچنین در حال بحث و گفتگو با شرکت های نیمه هادی است که راه حل های AI را روی تراشه های خود ایجاد می کنند که می توانند در خارج از محیط های ابری کار کنند.

جیمسون توضیح می دهد: “به طور معمول این مدل های کوچکتر که روی تلفن ها یا سیستم های تعبیه شده کار می کنند در مقایسه با آنچه می توانید روی یک سرور اجرا کنید ، بسیار دقیق نیستند ، اما ما می توانیم بهترین ها را از هر دو جهان بدست آوریم: تأخیر کم ، محاسبات لبه کارآمد بدون قربانی کردن کیفیت.” “ما آینده ای را می بینیم که دستگاه های Edge بیشتر کارها را انجام می دهند ، اما هر وقت از خروجی خود مطمئن نیستند ، می توانند این کارها را به یک سرور مرکزی منتقل کنند.”

شرکت های داروسازی همچنین می توانند از CAPSA برای بهبود مدل های هوش مصنوعی برای شناسایی نامزدهای دارو و پیش بینی عملکرد آنها در آزمایشات بالینی استفاده کنند.

امینی اظهار داشت: “پیش بینی ها و خروجی های این مدل ها بسیار پیچیده و تفسیر سخت است – کارشناسان وقت و تلاش زیادی را صرف تلاش برای درک آنها می کنند.” “Capsa می تواند بینش هایی را از دروازه درست به دست آورد تا درک کند که آیا پیش بینی ها توسط شواهد موجود در مجموعه آموزش پشتیبانی می شوند یا فقط گمانه زنی ها بدون پایه و اساس زیادی هستند. این می تواند شناسایی قوی ترین پیش بینی ها را تسریع کند ، و ما فکر می کنیم که پتانسیل عظیمی برای منافع اجتماعی دارد.”

تحقیقات برای تأثیر

تیم THEMIS AI معتقد است که این شرکت برای بهبود لبه برش فناوری AI در حال تحول ، از موقعیت خوبی برخوردار است. به عنوان مثال ، این شرکت در حال بررسی توانایی CAPSA در بهبود دقت در یک تکنیک هوش مصنوعی است که به عنوان استدلال زنجیره ای از آن معروف است ، که در آن LLMS اقدامات آنها را برای رسیدن به پاسخ توضیح می دهد.

جیمیسون می گوید: “ما شاهد بوده ایم که علائم Capsa می تواند به هدایت آن فرآیندهای استدلال برای شناسایی زنجیره های استدلال بالاترین اعتماد کمک کند.” “ما فکر می کنیم که از نظر بهبود تجربه LLM ، کاهش تأخیر و کاهش الزامات محاسبات ، پیامدهای عظیمی دارد. این یک فرصت بسیار تأثیرگذار برای ما است.”

برای RUS ، که از زمان آمدن به MIT چندین شرکت را تأسیس کرده است ، Themis AI فرصتی برای اطمینان از تأثیر تحقیقات MIT وی است.

روس می گوید: “من و دانش آموزان من به طور فزاینده ای علاقه مند شده ایم تا قدم دیگری را برای انجام کار خود برای جهان انجام دهیم.” “هوش مصنوعی پتانسیل فوق العاده ای برای تبدیل صنایع دارد ، اما هوش مصنوعی همچنین نگرانی هایی را ایجاد می کند. آنچه من را هیجان زده می کند ، فرصتی برای کمک به توسعه راه حل های فنی است که به این چالش ها می پردازد و همچنین باعث ایجاد اعتماد و درک بین مردم و فناوری هایی می شود که بخشی از زندگی روزمره آنها هستند.”



منبع

دیدگاهتان را بنویسید

دکمه بازگشت به بالا