کار آفرینی و استارتاپ

حامیان ایمنی هوش مصنوعی به بنیانگذاران می گویند که سرعت خود را کاهش دهند


“با احتیاط حرکت کنید و چیزهای تیم قرمز” متأسفانه به اندازه “سریع حرکت کنید و چیزها را بشکنید” جذاب نیست. اما سه حامی ایمنی هوش مصنوعی به موسسان استارت‌آپ روشن کردند که سرعت بیش از حد می‌تواند در درازمدت منجر به مشکلات اخلاقی شود.

سارا مایرز وست، مدیر اجرایی مؤسسه AI Now، روی صحنه در TechCrunch Disrupt 2024، گفت: “ما در نقطه عطفی هستیم که منابع زیادی به این فضا منتقل می شود.” “من واقعاً در حال حاضر نگران هستم. عجله ای برای عرضه محصول به دنیا وجود دارد، بدون اینکه به این سوال قدیمی فکر کنیم که دنیایی که ما واقعاً می خواهیم در آن زندگی کنیم چیست و فناوری تولید شده از چه راه هایی در خدمت آن جهان است. یا به طور فعال به آن آسیب می رساند.»

این گفتگو در لحظه ای انجام می شود که موضوع ایمنی هوش مصنوعی بیش از هر زمان دیگری احساس می شود. در ماه اکتبر، خانواده کودکی که بر اثر خودکشی جان خود را از دست داد، از شرکت چت بات Character.AI به دلیل نقش ادعایی آن در مرگ کودک شکایت کردند.

مایرز وست گفت: «این داستان واقعاً مخاطرات عمیق گسترش بسیار سریع فناوری‌های مبتنی بر هوش مصنوعی را نشان می‌دهد. «برخی از اینها مشکلات دیرینه و تقریباً غیرقابل حل تعدیل محتوای سوء استفاده آنلاین هستند.

اما فراتر از این مسائل مرگ یا زندگی، خطرات هوش مصنوعی همچنان بالاست، از اطلاعات غلط گرفته تا نقض حق چاپ.

جینگنا ژانگ، بنیانگذار پلتفرم اجتماعی کارا، گفت: «ما در حال ساخت چیزی هستیم که قدرت و توانایی زیادی دارد که واقعاً زندگی مردم را تحت تأثیر قرار دهد. وقتی درباره چیزی مانند Character.AI صحبت می‌کنید که واقعاً از نظر احساسی با کسی درگیر می‌شود، به نظر من باید حفاظ‌هایی در مورد نحوه ساخت محصول وجود داشته باشد.»

پلتفرم Cara ژانگ پس از اینکه متا به صراحت اعلام کرد که می تواند از پست های عمومی هر کاربر برای آموزش هوش مصنوعی خود استفاده کند، شروع به کار کرد. برای هنرمندانی مانند خود ژانگ، این سیاست یک سیلی است. هنرمندان برای ایجاد فالوور و ایمن سازی مشتریان بالقوه باید آثار خود را به صورت آنلاین پست کنند، اما با انجام این کار، می‌توان از کارهای آنها برای شکل دادن به مدل‌های هوش مصنوعی استفاده کرد که روزی می‌تواند آنها را از کار بیاندازد.

ژانگ گفت: “حق کپی رایت چیزی است که از ما محافظت می کند و به ما امکان می دهد زندگی خود را بسازیم.” اگر آثار هنری به صورت آنلاین در دسترس هستند، به این معنی نیست که فی نفسه رایگان هستند – برای مثال، نشریات خبری دیجیتال باید برای استفاده از عکس‌ها از عکاسان مجوز بگیرند. زمانی که هوش مصنوعی مولد شروع به تبدیل شدن به جریان اصلی کرد، چیزی که می بینیم این است که با آنچه که ما معمولاً به آن عادت کرده ایم، که در قانون ثابت شده است، کار نمی کند. و اگر می خواستند از کار ما استفاده کنند، باید مجوز آن را بدهند.»

Aleksandra Pedraszewska، AI Safety، ElevenLabs. سارا مایرز وست، مدیر اجرایی موسسه هوش مصنوعی و Jingna Zhang، بنیانگذار و مدیر عامل، Cara در TechCrunch Disrupt 2024 در چهارشنبه، 30 اکتبر 2024.اعتبار تصویر:کاتلین تاکر/ عکاسی اسلاوا بلیزر

هنرمندان همچنین ممکن است تحت تأثیر محصولاتی مانند ElevenLabs، یک شرکت شبیه‌سازی صدای هوش مصنوعی که بیش از یک میلیارد دلار ارزش دارد، شوند. به عنوان رئیس ایمنی در ElevenLabs، این بر عهده الکساندرا پدراسزوسکا است که اطمینان حاصل کند که فناوری پیچیده این شرکت برای دیپ‌فیک‌های غیر توافقی، از جمله موارد دیگر، انتخاب نشده است.

«من فکر می‌کنم مدل‌های تیم قرمز، درک رفتارهای نامطلوب، و پیامدهای ناخواسته هر راه‌اندازی جدیدی که یک شرکت هوش مصنوعی مولد انجام می‌دهد، دوباره تبدیل شده است. [a top priority]”او گفت. “ElevenLabs امروز 33 میلیون کاربر دارد. این یک جامعه عظیم است که تحت تأثیر هر تغییری که در محصول خود ایجاد می کنیم، قرار می گیرد.

Pedraszewska گفت که یکی از راه‌هایی که افراد در نقش او می‌توانند در مورد ایمن نگه داشتن پلتفرم‌ها فعال‌تر باشند، داشتن رابطه نزدیک‌تر با جامعه کاربران است.

ما نمی‌توانیم فقط بین دو افراط عمل کنیم، یکی کاملاً ضد AI و ضد GenAI است، و سپس دیگری که به طور مؤثر سعی در متقاعد کردن تنظیم صفر در فضا دارد. من فکر می‌کنم که در مورد مقررات باید در وسط با هم ملاقات کنیم.»

TechCrunch یک خبرنامه متمرکز بر هوش مصنوعی دارد! اینجا ثبت نام کنید تا هر چهارشنبه آن را در صندوق پستی خود دریافت کنید.



منبع

دیدگاهتان را بنویسید

دکمه بازگشت به بالا