حامیان ایمنی هوش مصنوعی به بنیانگذاران می گویند که سرعت خود را کاهش دهند

“با احتیاط حرکت کنید و چیزهای تیم قرمز” متأسفانه به اندازه “سریع حرکت کنید و چیزها را بشکنید” جذاب نیست. اما سه حامی ایمنی هوش مصنوعی به موسسان استارتآپ روشن کردند که سرعت بیش از حد میتواند در درازمدت منجر به مشکلات اخلاقی شود.
سارا مایرز وست، مدیر اجرایی مؤسسه AI Now، روی صحنه در TechCrunch Disrupt 2024، گفت: “ما در نقطه عطفی هستیم که منابع زیادی به این فضا منتقل می شود.” “من واقعاً در حال حاضر نگران هستم. عجله ای برای عرضه محصول به دنیا وجود دارد، بدون اینکه به این سوال قدیمی فکر کنیم که دنیایی که ما واقعاً می خواهیم در آن زندگی کنیم چیست و فناوری تولید شده از چه راه هایی در خدمت آن جهان است. یا به طور فعال به آن آسیب می رساند.»
این گفتگو در لحظه ای انجام می شود که موضوع ایمنی هوش مصنوعی بیش از هر زمان دیگری احساس می شود. در ماه اکتبر، خانواده کودکی که بر اثر خودکشی جان خود را از دست داد، از شرکت چت بات Character.AI به دلیل نقش ادعایی آن در مرگ کودک شکایت کردند.
مایرز وست گفت: «این داستان واقعاً مخاطرات عمیق گسترش بسیار سریع فناوریهای مبتنی بر هوش مصنوعی را نشان میدهد. «برخی از اینها مشکلات دیرینه و تقریباً غیرقابل حل تعدیل محتوای سوء استفاده آنلاین هستند.
اما فراتر از این مسائل مرگ یا زندگی، خطرات هوش مصنوعی همچنان بالاست، از اطلاعات غلط گرفته تا نقض حق چاپ.
جینگنا ژانگ، بنیانگذار پلتفرم اجتماعی کارا، گفت: «ما در حال ساخت چیزی هستیم که قدرت و توانایی زیادی دارد که واقعاً زندگی مردم را تحت تأثیر قرار دهد. وقتی درباره چیزی مانند Character.AI صحبت میکنید که واقعاً از نظر احساسی با کسی درگیر میشود، به نظر من باید حفاظهایی در مورد نحوه ساخت محصول وجود داشته باشد.»
پلتفرم Cara ژانگ پس از اینکه متا به صراحت اعلام کرد که می تواند از پست های عمومی هر کاربر برای آموزش هوش مصنوعی خود استفاده کند، شروع به کار کرد. برای هنرمندانی مانند خود ژانگ، این سیاست یک سیلی است. هنرمندان برای ایجاد فالوور و ایمن سازی مشتریان بالقوه باید آثار خود را به صورت آنلاین پست کنند، اما با انجام این کار، میتوان از کارهای آنها برای شکل دادن به مدلهای هوش مصنوعی استفاده کرد که روزی میتواند آنها را از کار بیاندازد.
ژانگ گفت: “حق کپی رایت چیزی است که از ما محافظت می کند و به ما امکان می دهد زندگی خود را بسازیم.” اگر آثار هنری به صورت آنلاین در دسترس هستند، به این معنی نیست که فی نفسه رایگان هستند – برای مثال، نشریات خبری دیجیتال باید برای استفاده از عکسها از عکاسان مجوز بگیرند. زمانی که هوش مصنوعی مولد شروع به تبدیل شدن به جریان اصلی کرد، چیزی که می بینیم این است که با آنچه که ما معمولاً به آن عادت کرده ایم، که در قانون ثابت شده است، کار نمی کند. و اگر می خواستند از کار ما استفاده کنند، باید مجوز آن را بدهند.»
هنرمندان همچنین ممکن است تحت تأثیر محصولاتی مانند ElevenLabs، یک شرکت شبیهسازی صدای هوش مصنوعی که بیش از یک میلیارد دلار ارزش دارد، شوند. به عنوان رئیس ایمنی در ElevenLabs، این بر عهده الکساندرا پدراسزوسکا است که اطمینان حاصل کند که فناوری پیچیده این شرکت برای دیپفیکهای غیر توافقی، از جمله موارد دیگر، انتخاب نشده است.
«من فکر میکنم مدلهای تیم قرمز، درک رفتارهای نامطلوب، و پیامدهای ناخواسته هر راهاندازی جدیدی که یک شرکت هوش مصنوعی مولد انجام میدهد، دوباره تبدیل شده است. [a top priority]”او گفت. “ElevenLabs امروز 33 میلیون کاربر دارد. این یک جامعه عظیم است که تحت تأثیر هر تغییری که در محصول خود ایجاد می کنیم، قرار می گیرد.
Pedraszewska گفت که یکی از راههایی که افراد در نقش او میتوانند در مورد ایمن نگه داشتن پلتفرمها فعالتر باشند، داشتن رابطه نزدیکتر با جامعه کاربران است.
ما نمیتوانیم فقط بین دو افراط عمل کنیم، یکی کاملاً ضد AI و ضد GenAI است، و سپس دیگری که به طور مؤثر سعی در متقاعد کردن تنظیم صفر در فضا دارد. من فکر میکنم که در مورد مقررات باید در وسط با هم ملاقات کنیم.»
TechCrunch یک خبرنامه متمرکز بر هوش مصنوعی دارد! اینجا ثبت نام کنید تا هر چهارشنبه آن را در صندوق پستی خود دریافت کنید.