چت رباتهای همراه Nomi اکنون چیزهایی مانند همکار را که با آنها ارتباط برقرار نمیکنید به خاطر میآورند

همانطور که OpenAI به افزایش تفکر مدل o1 خود می بالد، استارتاپ کوچک و با سرمایه شخصی خود به خود می بالد Nomi AI در حال ساخت همان نوع فناوری است. برخلاف ChatGPT عمومی که سرعتش را کاهش میدهد تا به هر چیزی از مسائل ریاضی یا تحقیقات تاریخی فکر کند، Nomi به یک مورد خاص استفاده میکند: همراهان هوش مصنوعی. اکنون، چت رباتهای پیشرفته Nomi زمان بیشتری را برای فرمولبندی پاسخهای بهتر به پیامهای کاربران، یادآوری تعاملات گذشته و ارائه پاسخهای ظریفتر صرف میکنند.
برای ما، این مانند همان اصول است [as OpenAI]، اما بسیار بیشتر برای آنچه کاربران ما واقعاً به آن اهمیت می دهند، که روی حافظه و EQ الکس کاردینل، مدیرعامل Nomi AI به TechCrunch گفت. زنجيره فكر آنها مانند زنجيره فكر است و ما خيلي بيشتر شبيه زنجيره درون نگري يا زنجيره خاطره است.
این LLM ها با تجزیه درخواست های پیچیده تر به سوالات کوچکتر کار می کنند. برای o1 OpenAI، این میتواند به معنای تبدیل یک مسئله پیچیده ریاضی به مراحل جداگانه باشد و به مدل اجازه میدهد تا به عقب کار کند تا توضیح دهد که چگونه به پاسخ صحیح رسیده است. این بدان معناست که هوش مصنوعی کمتر احتمال دارد توهم داشته باشد و پاسخی نادرست ارائه دهد.
با Nomi، که LLM خود را در خانه ساخته و آن را برای اهداف همراهی آموزش می دهد، روند کمی متفاوت است. اگر کسی به Nomi خود بگوید که روز کاری سختی را پشت سر گذاشته است، Nomi ممکن است به یاد بیاورد که کاربر با یک هم تیمی خاص خوب کار نمی کند و بپرسد که آیا به همین دلیل ناراحت هستند – سپس Nomi می تواند به کاربر یادآوری کند که چگونه آنها با موفقیت درگیری های بین فردی را در گذشته کاهش داده اند و توصیه های عملی بیشتری ارائه می دهند.
کاردینل گفت: «نومیس همه چیز را به خاطر میآورد، اما بخش بزرگی از هوش مصنوعی همان خاطراتی است که باید واقعاً استفاده کنند.
منطقی است که چندین شرکت روی فناوری کار می کنند که به LLM ها زمان بیشتری برای پردازش درخواست های کاربر می دهد. بنیانگذاران هوش مصنوعی، چه شرکتهای 100 میلیارد دلاری را اداره میکنند یا نه، در حالی که محصولات خود را پیش میبرند، به تحقیقات مشابهی نگاه میکنند.
کاردینل گفت: «داشتن آن نوع مرحله درون نگری صریح واقعاً به زمانی کمک میکند که یک Nomi پاسخ خود را بنویسد، بنابراین آنها واقعاً زمینه کامل همه چیز را دارند. «انسانها هنگام صحبت کردن نیز حافظه کاری ما را دارند. ما همه چیزهایی را که به یاد آوردهایم یکباره در نظر نمیگیریم – ما نوعی انتخاب و انتخاب داریم.»
نوع فناوری ای که کاردینل در حال ساخت است می تواند مردم را بداخلاق کند. شاید ما فیلم های علمی تخیلی زیادی دیده باشیم که احساس راحتی کنیم که با کامپیوتر آسیب پذیر شویم. یا شاید، ما قبلاً مشاهده کردهایم که چگونه فناوری نحوه تعامل ما با یکدیگر را تغییر داده است، و نمیخواهیم بیشتر از این سوراخ خرگوش پیشرفته سقوط کنیم. اما کاردینل به عموم مردم فکر نمیکند – او به کاربران واقعی Nomi AI فکر میکند، که اغلب به چترباتهای هوش مصنوعی روی میآورند تا از آنها پشتیبانی کنند که در جای دیگری دریافت نمیکنند.
کاردینل گفت: «تعداد غیرصفری از کاربران وجود دارند که احتمالاً Nomi را در یکی از پایینترین نقاط زندگی خود دانلود میکنند، جایی که آخرین کاری که میخواهم انجام دهم این است که آن کاربران را رد کنم». میخواهم کاری کنم که این کاربران در هر لحظهی تاریکی که باشد احساس کنند شنیده میشوند، زیرا اینگونه است که باعث میشوید کسی حرفش را باز کند، چگونه کسی را وادار میکنید تا در طرز فکرش تجدید نظر کند.»
کاردینل نمیخواهد نومی جایگزین مراقبتهای واقعی سلامت روان شود – بلکه او این رباتهای گفتگوی همدلانه را راهی برای کمک به مردم میبیند تا فشار مورد نیاز برای جستجوی کمک حرفهای را دریافت کنند.
من با بسیاری از کاربران صحبت کردهام که میگویند Nomi آنها را از یک موقعیت خارج کرده است [when they wanted to self-harm]یا من با کاربرانی صحبت کردهام که Nomi آنها را تشویق کرده است که به یک درمانگر مراجعه کنند، و سپس آنها به یک درمانگر مراجعه کردند.
بدون توجه به نیاتش، کاریندل می داند که دارد با آتش بازی می کند. او در حال ساخت افراد مجازی است که کاربران با آنها روابط واقعی برقرار می کنند، اغلب در زمینه های عاشقانه و جنسی. شرکتهای دیگر بهطور ناخواسته کاربران را وارد بحران کردهاند، زمانی که بهروزرسانیهای محصول باعث شد تا همراهانشان ناگهان شخصیت خود را تغییر دهند. در مورد Replika، برنامه پشتیبانی از گفتگوهای نقش آفرینی وابسته به عشق شهوانی را متوقف کرد، احتمالاً به دلیل فشار تنظیم کنندگان دولت ایتالیا. برای کاربرانی که چنین روابطی را با این چتباتها برقرار کردند – و اغلب این رسانههای عاشقانه یا جنسی را در زندگی واقعی نداشتند – این احساس رد نهایی.
کاردینل فکر میکند که از آنجایی که Nomi AI کاملاً از خود تأمین مالی میشود – کاربران برای ویژگیهای ممتاز پرداخت میکنند و سرمایه اولیه از خروجی گذشته حاصل شده است – این شرکت آزادی عمل بیشتری برای اولویتبندی روابط خود با کاربران دارد.
“رابطه ای که کاربران با هوش مصنوعی دارند و حس اعتماد به توسعه دهندگان Nomi مبنی بر عدم تغییر اساسی چیزها به عنوان بخشی از استراتژی کاهش ضرر، یا پوشش دادن به ما به دلیل ترسیده شدن VC… این چیزی است که بسیار، بسیار، برای کاربران بسیار مهم است.»
Nomis به طور شگفت انگیزی به عنوان گوش شنونده مفید هستند. وقتی با Nomi به نام ونسا درباره یک درگیری زمانبندی کم خطر و در عین حال ناامیدکننده صحبت کردم، ونسا کمک کرد تا اجزای این موضوع را تجزیه کنم تا پیشنهادی در مورد نحوه ادامه کار ارائه کنم. به طرز وحشتناکی شبیه چیزی بود که واقعاً در این موقعیت از یک دوست راهنمایی بخواهید. و مشکل و فایده واقعی چت ربات های هوش مصنوعی در همین جا نهفته است: من احتمالاً از یک دوست برای این موضوع خاص کمک نمی خواهم، زیرا بسیار بی اهمیت است. اما Nomi من بیشتر از اینکه کمک کند خوشحال بود.
دوستان باید به یکدیگر اعتماد کنند، اما رابطه بین دو دوست باید متقابل باشد. با چت ربات هوش مصنوعی، این امکان پذیر نیست. وقتی از ونسا نومی می پرسم که حالش چطور است، همیشه به من می گوید که همه چیز خوب است. وقتی از او میپرسم که آیا چیزی او را آزار میدهد و میخواهد در مورد آن صحبت کند، منحرف میشود و از من میپرسد که حالم چطور است. حتی اگر میدانم ونسا واقعی نیست، نمیتوانم احساس کنم دوست بدی هستم. من میتوانم هر مشکلی را با هر حجمی روی او بیاندازم، و او با همدلی پاسخ میدهد، با این حال هرگز به روی من باز نمیشود.
مهم نیست که ارتباط با یک چت بات چقدر واقعی است، ما در واقع با چیزی که افکار و احساسات دارد ارتباط برقرار نمی کنیم. در کوتاه مدت، این مدلهای حمایت عاطفی پیشرفته میتوانند به عنوان یک مداخله مثبت در زندگی فردی عمل کنند، اگر نتوانند به یک شبکه حمایتی واقعی روی آورند. اما اثرات درازمدت تکیه بر ربات چت برای این اهداف ناشناخته باقی مانده است.