از SB 243 تا ChatGPT: چرا احتیاط در مورد هوش مصنوعی «خوب نیست»

قانون دره سیلیکون؟ محتاط بودن کار جالبی نیست. همانطور که OpenAI نرده های محافظ را حذف می کند و VC ها از شرکت هایی مانند Anthropic به دلیل حمایت از مقررات ایمنی هوش مصنوعی انتقاد می کنند، واضح تر می شود که صنعت فکر می کند چه کسی باید توسعه هوش مصنوعی را شکل دهد.
در این قسمت از Equity، کرستن کوروسک، آنتونی ها و مکس زف درباره اینکه چگونه مرز بین نوآوری و مسئولیتپذیری مبهمتر میشود، به علاوه اینکه وقتی شوخیها از دیجیتال به فیزیکی تبدیل میشوند چه اتفاقی میافتد، بحث میکنند.
برای شنیدن این موضوع به قسمت کامل گوش کنید:
- چرا حمایت از ایمنی هوش مصنوعی در سیلیکون ولی از آنتروپیک که با واکنش منفی به قانون SB 243 کالیفرنیا در مورد چت رباتهای همراه هوش مصنوعی و موفقیت شرکتهایی مانند Character.AI روبهرو شده است، «غیرعامل» شده است.
- کدام استارتآپها از یک راهحل SEC برای تشکیل پرونده برای IPOها در حین خاموش شدن استفاده میکنند
Equity پادکست شاخص TechCrunch است که توسط ترزا لوکونسولو تولید می شود و هر چهارشنبه و جمعه پست می کند.
در ما مشترک شوید پادکست های اپل، ابری، Spotify و همه بازیگران شما همچنین می توانید Equity را دنبال کنید X و موضوعات، در @EquityPod.