Scale AI با سومین شکایت کارگری در حدود یک ماه دیگر مواجه است

Scale AI با سومین شکایت خود به دلیل اعمال ادعایی کار در کمتر از یک ماه گذشته مواجه است، این بار از سوی کارگرانی که ادعا می کنند در اثر بازبینی محتوای آزاردهنده بدون تدابیر کافی، دچار آسیب روانی شده اند.
Scale که در سال گذشته 13.8 میلیارد دلار ارزش داشت، برای انجام وظایفی مانند رتبهبندی پاسخهای مدل هوش مصنوعی به کارگرانی که به عنوان پیمانکاران طبقهبندی میکند، متکی است.
در اوایل این ماه، یک کارگر سابق شکایت کرد و مدعی شد که او عملاً کمتر از حداقل دستمزد دریافت کرده و به اشتباه به عنوان پیمانکار طبقه بندی شده است. شکایتی نیز مبنی بر موارد مشابه ثبت شد دسامبر 2024.
این آخرین شکایت، که در 17 ژانویه در ناحیه شمالی کالیفرنیا ثبت شد، یک شکایت دسته جمعی است که بر آسیب های روانی که گفته می شود توسط شش نفر که در پلتفرم Outlier Scale کار می کردند متمرکز است.
شاکیان ادعا میکنند که مجبور شدهاند بدون حمایت روانی مناسب، پیامهای آزاردهندهای درباره خشونت و آزار – از جمله کودک آزاری – بنویسند و زمانی که به دنبال مشاور بهداشت روانی بودند، از تلافی رنج میبرند. آنها می گویند که در حین استخدام در مورد ماهیت این شغل گمراه شدند و به دلیل کارشان با مشکلات روانی مانند PTSD مواجه شدند. آنها به دنبال ایجاد یک برنامه نظارت پزشکی همراه با استانداردهای ایمنی جدید، به علاوه خسارات نامشخص و هزینه های وکیل هستند.
یکی از شاکیان، استیو مک کینی، شاکی اصلی در آن جداگانه است شکایت دسامبر 2024 در برابر مقیاس همان شرکت حقوقی، شرکت حقوقی کلارکسون از مالیبو، کالیفرنیا، وکالت شاکیان در هر دو شکایت را بر عهده دارد.
شرکت حقوقی کلارکسون قبلاً یک شکایت دسته جمعی علیه OpenAI و مایکروسافت به اتهام استفاده از داده های دزدیده شده تنظیم کرده بود. اخراج شد پس از انتقاد یک قاضی منطقه به دلیل طولانی بودن و محتوای آن. با اشاره به این پرونده، جو آزبورن، سخنگوی Scale AI، از شرکت حقوقی کلارکسون انتقاد کرد و گفت که Scale قصد دارد “به شدت از خود دفاع کند.”
«شرکت حقوقی کلارکسون قبلاً – و ناموفق – به دنبال شرکتهای فناوری نوآورانه با ادعاهای حقوقی بود که به طور خلاصه در دادگاه رد شدند. آزبورن به TechCrunch گفت: یک قاضی دادگاه فدرال متوجه شد که یکی از شکایات قبلی آنها “بی جهت طولانی” بوده و حاوی “اطلاعات تا حد زیادی نامربوط، حواس پرتی یا اضافی” است.
آزبورن گفت که Scale از همه قوانین و مقررات پیروی می کند و برای محافظت از مشارکت کنندگان خود “تدابیر حفاظتی متعددی” مانند توانایی انصراف در هر زمان، اطلاعیه پیشرفته در مورد محتوای حساس و دسترسی به برنامه های سلامت و تندرستی دارد. آزبورن اضافه کرد که Scale پروژههایی را که ممکن است شامل مواد سوء استفاده جنسی از کودکان باشد، انجام نمیدهد.
در پاسخ، گلن داناس، شریک موسسه حقوقی کلارکسون، به TechCrunch گفت که Scale AI “کارگران را مجبور به مشاهده محتوای وحشتناک و خشونت آمیز برای آموزش این مدل های هوش مصنوعی کرده است” و نتوانسته است محل کار ایمن را تضمین کند.
داناس گفت: «ما باید این شرکتهای بزرگ فناوری مانند Scale AI را پاسخگو نگه داریم، در غیر این صورت از کارگران برای آموزش این فناوری غیرقانونی برای کسب سود مورد سوء استفاده قرار خواهند گرفت.