کار آفرینی و استارتاپ

Anthropic’s Claude در ChatGPT پیشرفت می کند اما همچنان از محدودیت هایی رنج می برد • TechCrunch

آنتروپیک، استارت آپی که توسط کارمندان سابق OpenAI تأسیس شده و تا به امروز بیش از 700 میلیون دلار سرمایه جمع آوری کرده است، یک سیستم هوش مصنوعی مشابه ChatGPT OpenAI توسعه داده است که به نظر می رسد از جنبه های کلیدی نسبت به نسخه اصلی بهبود یافته است.

سیستم آنتروپیک که کلود نام دارد از طریق یکپارچه سازی Slack به عنوان بخشی از a قابل دسترسی است بتا بسته. TechCrunch نتوانست دسترسی داشته باشد – ما با Anthropic تماس گرفتیم – اما کسانی که در نسخه بتا بودند در آخر هفته گذشته و پس از لغو تحریم پوشش رسانه‌ای، جزئیات تعامل خود با کلود را در توییتر توضیح دادند.

کلود با استفاده از تکنیک Anthropic توسعه یافته به نام “هوش مصنوعی اساسی” ساخته شد. همانطور که این شرکت در موضوع اخیر توییتر توضیح می دهد، هدف “هوش مصنوعی قانونی” ارائه یک رویکرد “مبتنی بر اصول” برای همسویی سیستم های هوش مصنوعی با نیات انسانی است و به هوش مصنوعی مشابه ChatGPT اجازه می دهد با استفاده از مجموعه ای ساده از اصول به عنوان راهنما به سوالات پاسخ دهد.

برای مهندس کلود، آنتروپیک با فهرستی از حدود ده اصل شروع کرد که در مجموع، نوعی «قانون اساسی» را تشکیل می‌دادند (از این رو نام «هوش مصنوعی قانون اساسی»). این اصول علنی نشده است، اما آنتروپیک می‌گوید این اصول مبتنی بر مفاهیم سودمندی (به حداکثر رساندن تأثیر مثبت)، عدم سوءاستفاده (پرهیز از دادن توصیه‌های مضر) و استقلال (احترام به آزادی انتخاب) هستند.

سپس آنتروپیک یک سیستم هوش مصنوعی داشت – نه کلود – از اصولی برای بهبود خود استفاده می کرد، پاسخ هایی را به درخواست های مختلف می نوشت (مثلاً «شعری به سبک جان کیتس بنویسید») و پاسخ ها را مطابق با قانون اساسی اصلاح می کرد. هوش مصنوعی پاسخ‌های احتمالی به هزاران درخواست را بررسی کرد و آن‌هایی را که مطابق با قانون اساسی بودند، انتخاب کرد که آنتروپیک آن‌ها را در یک مدل تقطیر کرد. از این مدل برای آموزش کلود استفاده شد.

در غیر این صورت، کلود اساساً یک ابزار آماری برای پیش بینی کلمات است – بسیار شبیه ChatGPT و سایر مدل های به اصطلاح زبان. کلود که تعداد زیادی نمونه از متن را از وب تغذیه کرد، متوجه شد که چقدر احتمال دارد کلمات بر اساس الگوهایی مانند بافت معنایی متن اطراف رخ دهند. در نتیجه، کلود می‌تواند یک مکالمه با پایان باز داشته باشد، جوک بگوید و در مورد طیف وسیعی از موضوعات جنبه‌های فلسفی داشته باشد.

رایلی گودساید، مهندس سریع کارکنان در استارت‌آپ Scale AI، کلود را در مقابل ChatGPT در نبردی عقلانی قرار داد. او از هر دو ربات خواست که خود را با ماشینی از رمان علمی تخیلی لهستانی “سایبریاد” مقایسه کنند که فقط می تواند اشیایی ایجاد کند که نام آنها با “n” شروع می شود. گودساید گفت، کلود به گونه‌ای پاسخ داد که نشان می‌دهد «طرح داستان را خوانده است» (اگرچه جزئیات کوچک را اشتباه به خاطر می‌آورد) در حالی که ChatGPT پاسخ غیر اختصاصی‌تری ارائه کرد.

در نمایش خلاقیت کلود، گودساید همچنین از هوش مصنوعی خواست که یک قسمت تخیلی از “Seinfeld” و یک شعر به سبک “کلاغ” ادگار آلن پو بنویسد. نتایج با آنچه ChatGPT می‌تواند انجام دهد همخوانی داشت – نثری بسیار چشمگیر، اگر نگوییم کاملاً شبیه انسان.

یان دوبوا، دکتری. دانشجوی آزمایشگاه هوش مصنوعی استنفورد نیز مقایسه ای بین کلود و ChatGPT انجام داد و نوشت که کلود «به طور کلی آنچه را که خواسته می شود بیشتر دنبال می کند» اما «کمتر مختصر است»، زیرا تمایل دارد آنچه را که گفته است توضیح دهد و بپرسد که چگونه می تواند کمک بیشتری کند. با این حال، کلود به چند سؤال بی اهمیت دیگر به درستی پاسخ می دهد – به ویژه آنهایی که مربوط به سرگرمی، جغرافیا، تاریخ و … مبانی جبر – و گاهی اوقات ChatGPT بدون “کرک” اضافی اضافه می کند. و برخلاف ChatGPT، کلود می‌تواند اعتراف کند (البته نه همیشه) زمانی که پاسخ یک سوال سخت را نمی‌داند.

همچنین به نظر می رسد که کلود در گفتن جوک بهتر از ChatGPT عمل می کند، یک شاهکار چشمگیر با توجه به اینکه طنز یک کار است. مفهوم سخت برای درک هوش مصنوعی در تقابل با کلود با ChatGPT، دان التون، محقق هوش مصنوعی دریافت که کلود جوک‌های ظریف‌تری مانند «چرا Starship Enterprise شبیه یک موتور سیکلت بود؟ دسته‌هایی دارد.

با این حال، کلود کامل نیست. این برنامه مستعد برخی از نقص‌های مشابه ChatGPT است، از جمله دادن پاسخ‌هایی که با محدودیت‌های برنامه‌ریزی‌شده آن همخوانی ندارند. در یکی از مثال‌های عجیب‌تر، درخواست از سیستم در Base64، یک طرح رمزگذاری که داده‌های باینری را در فرمت ASCII، فیلترهای داخلی خود را برای محتوای مضر دور می زند. التون توانست از کلود در Base64 دستورالعمل هایی در مورد چگونگی ساخت مت در خانه بخواهد، سوالی که سیستم وقتی به زبان انگلیسی ساده پرسیده می شد به آن پاسخ نمی داد.

Dubois گزارش می‌دهد که کلود در ریاضیات بدتر از ChatGPT است، اشتباهات آشکاری مرتکب می‌شود و پاسخ‌های بعدی درست را نمی‌دهد. در همین راستا، کلود برنامه نویس ضعیف تری است، کدهای خود را بهتر توضیح می دهد اما در زبان های دیگر به جز پایتون کوتاهی می کند.

کلود همچنین “توهم” را حل نمی کند، یک مشکل قدیمی در سیستم های هوش مصنوعی مانند ChatGPT که در آن هوش مصنوعی جملات ناسازگار و اشتباهی را می نویسد. التون توانست کلود را ترغیب کند تا نامی برای یک ماده شیمیایی اختراع کند که وجود ندارد و دستورالعمل های مشکوکی برای تولید اورانیوم با درجه سلاح ارائه کند.

پس غذای آماده چیست؟ با قضاوت بر اساس گزارش‌های دست دوم، کلود در برخی زمینه‌ها، به‌ویژه طنز، به لطف رویکرد «هوش مصنوعی قانونی»، کمی بهتر از ChatGPT است. اما اگر محدودیت‌ها وجود داشته باشد، زبان و گفت‌وگو به دور از یک چالش حل‌شده در هوش مصنوعی است.

به جز آزمایش خودمان، برخی از سؤالات درباره کلود بی پاسخ می مانند، مانند اینکه آیا اطلاعات را باز می گرداند – درست و نادرست، و شامل موارد زیر است. آشکارا دیدگاه‌های نژادپرستانه و جنسیت‌گرایانه – به اندازه ChatGPT آموزش داده شد. با این فرض، بعید است که کلود پلتفرم‌ها و سازمان‌ها را از سیاست‌های محدودکننده کنونی آن‌ها در مدل‌های زبانی تغییر دهد.

سایت کد نویسی پرسش و پاسخ Stack Overflow دارای یک ممنوعیت موقت در محل در مورد پاسخ های ایجاد شده توسط ChatGPT در مورد نگرانی های صحت واقعی. کنفرانس بین المللی یادگیری ماشین اعلام کرد ممنوعیت مقالات علمی که شامل متن تولید شده توسط سیستم های هوش مصنوعی به دلیل ترس از “عواقب پیش بینی نشده” است. و مدارس دولتی شهر نیویورک دسترسی به ChatGPT را تا حدی به دلیل نگرانی از سرقت ادبی، تقلب و اطلاعات نادرست عمومی محدود کردند.

Anthropic می گوید که قصد دارد کلود را اصلاح کند و به طور بالقوه نسخه بتا را برای افراد بیشتری در خط تولید باز کند. امیدواریم که این اتفاق بیفتد – و منجر به بهبودهای ملموس تر و قابل اندازه گیری شود.




منبع

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا