کار آفرینی و استارتاپ

Scale AI با سومین شکایت کارگری در حدود یک ماه دیگر مواجه است


Scale AI با سومین شکایت خود به دلیل اعمال ادعایی کار در کمتر از یک ماه گذشته مواجه است، این بار از سوی کارگرانی که ادعا می کنند در اثر بازبینی محتوای آزاردهنده بدون تدابیر کافی، دچار آسیب روانی شده اند.

Scale که در سال گذشته 13.8 میلیارد دلار ارزش داشت، برای انجام وظایفی مانند رتبه‌بندی پاسخ‌های مدل هوش مصنوعی به کارگرانی که به عنوان پیمانکاران طبقه‌بندی می‌کند، متکی است.

در اوایل این ماه، یک کارگر سابق شکایت کرد و مدعی شد که او عملاً کمتر از حداقل دستمزد دریافت کرده و به اشتباه به عنوان پیمانکار طبقه بندی شده است. شکایتی نیز مبنی بر موارد مشابه ثبت شد دسامبر 2024.

این آخرین شکایت، که در 17 ژانویه در ناحیه شمالی کالیفرنیا ثبت شد، یک شکایت دسته جمعی است که بر آسیب های روانی که گفته می شود توسط شش نفر که در پلتفرم Outlier Scale کار می کردند متمرکز است.

شاکیان ادعا می‌کنند که مجبور شده‌اند بدون حمایت روانی مناسب، پیام‌های آزاردهنده‌ای درباره خشونت و آزار – از جمله کودک آزاری – بنویسند و زمانی که به دنبال مشاور بهداشت روانی بودند، از تلافی رنج می‌برند. آنها می گویند که در حین استخدام در مورد ماهیت این شغل گمراه شدند و به دلیل کارشان با مشکلات روانی مانند PTSD مواجه شدند. آنها به دنبال ایجاد یک برنامه نظارت پزشکی همراه با استانداردهای ایمنی جدید، به علاوه خسارات نامشخص و هزینه های وکیل هستند.

یکی از شاکیان، استیو مک کینی، شاکی اصلی در آن جداگانه است شکایت دسامبر 2024 در برابر مقیاس همان شرکت حقوقی، شرکت حقوقی کلارکسون از مالیبو، کالیفرنیا، وکالت شاکیان در هر دو شکایت را بر عهده دارد.

شرکت حقوقی کلارکسون قبلاً یک شکایت دسته جمعی علیه OpenAI و مایکروسافت به اتهام استفاده از داده های دزدیده شده تنظیم کرده بود. اخراج شد پس از انتقاد یک قاضی منطقه به دلیل طولانی بودن و محتوای آن. با اشاره به این پرونده، جو آزبورن، سخنگوی Scale AI، از شرکت حقوقی کلارکسون انتقاد کرد و گفت که Scale قصد دارد “به شدت از خود دفاع کند.”

«شرکت حقوقی کلارکسون قبلاً – و ناموفق – به دنبال شرکت‌های فناوری نوآورانه با ادعاهای حقوقی بود که به طور خلاصه در دادگاه رد شدند. آزبورن به TechCrunch گفت: یک قاضی دادگاه فدرال متوجه شد که یکی از شکایات قبلی آنها “بی جهت طولانی” بوده و حاوی “اطلاعات تا حد زیادی نامربوط، حواس پرتی یا اضافی” است.

آزبورن گفت که Scale از همه قوانین و مقررات پیروی می کند و برای محافظت از مشارکت کنندگان خود “تدابیر حفاظتی متعددی” مانند توانایی انصراف در هر زمان، اطلاعیه پیشرفته در مورد محتوای حساس و دسترسی به برنامه های سلامت و تندرستی دارد. آزبورن اضافه کرد که Scale پروژه‌هایی را که ممکن است شامل مواد سوء استفاده جنسی از کودکان باشد، انجام نمی‌دهد.

در پاسخ، گلن داناس، شریک موسسه حقوقی کلارکسون، به TechCrunch گفت که Scale AI “کارگران را مجبور به مشاهده محتوای وحشتناک و خشونت آمیز برای آموزش این مدل های هوش مصنوعی کرده است” و نتوانسته است محل کار ایمن را تضمین کند.

داناس گفت: «ما باید این شرکت‌های بزرگ فناوری مانند Scale AI را پاسخگو نگه داریم، در غیر این صورت از کارگران برای آموزش این فناوری غیرقانونی برای کسب سود مورد سوء استفاده قرار خواهند گرفت.



منبع

دیدگاهتان را بنویسید

دکمه بازگشت به بالا