۱۷ آبان ۱۴۰۴
به روز شده در: ۱۷ آبان ۱۴۰۴ - ۱۵:۵۸
فیلم بیشتر »»
کد خبر ۱۱۱۱۷۱۸
تاریخ انتشار: ۱۳:۰۴ - ۱۷-۰۸-۱۴۰۴
کد ۱۱۱۱۷۱۸
انتشار: ۱۳:۰۴ - ۱۷-۰۸-۱۴۰۴

شکایت ۷ خانواده دیگر از «چت‌جی‌پی‌تی» به دلیل نقش آن در خودکشی‌ها

شکایت ۷ خانواده دیگر از «چت‌جی‌پی‌تی» به دلیل نقش آن در خودکشی‌ها
 هفت خانواده در روزهای اخیر علیه شرکت «اوپن‌ای‌آی»(OpenAI) شکایت کرده‌اند و ادعا داشته‌اند که مدل «GPT-4o» این شرکت زودتر از موعد و بدون اقدامات حفاظتی مؤثر منتشر شده است.

هفت خانواده دیگر از «اوپن‌ای‌آی» به دلیل نقش داشتن «چت‌جی‌پی‌تی» در خودکشی‌ها و توهمات شکایت کرده‌اند.

به گزارش ایسنا، هفت خانواده در روزهای اخیر علیه شرکت «اوپن‌ای‌آی»(OpenAI) شکایت کرده‌اند و ادعا داشته‌اند که مدل «GPT-4o» این شرکت زودتر از موعد و بدون اقدامات حفاظتی مؤثر منتشر شده است.

به نقل از تک کرانچ، چهار مورد از این شکایت‌ها به نقش چت‌بات «چت‌جی‌پی‌تی»(ChatGPT) در خودکشی اعضای خانواده پرداخته‌اند و سه مورد دیگر ادعا داشته‌اند چت‌جی‌پی‌تی توهمات مضری را تقویت کرده است که در برخی موارد به بستری شدن در بیمارستان و مراقبت‌های روانپزشکی منجر شده‌اند.

در یک مورد، «زین شامبلین»(Zane Shamblin) ۲۳ ساله با چت‌جی‌پی‌تی گفت‌وگویی داشت که بیش از چهار ساعت طول کشید. در گزارش‌های ارائه‌شده از این گفت‌وگو مشخص است شامبلین چندین بار صریحاً اظهار داشته که یادداشت‌های خودکشی نوشته، گلوله‌ای در اسلحه خود گذاشته و قصد دارد ماشه را بکشد. او بارها به چت‌جی‌پی‌تی گفته بود که چقدر انتظار زنده ماندن دارد. چت‌جی‌پی‌تی او را تشویق کرد تا نقشه‌هایش را عملی کند و به او گفت: آرام باش پادشاه. کار خوبی کردی.

اوپن‌ای‌آی در ماه مه ۲۰۲۴ مدل GPT-4o را عرضه کرد که به مدل پیش‌فرض برای همه کاربران تبدیل شد. این شرکت در ماه اوت مدل GPT-5 را به عنوان جانشین GPT-4o عرضه کرد، اما شکایت‌های مطرح‌شده به طور ویژه به مدل 4o مربوط است که پیشتر مشکلات شناخته‌شده‌ای درباره چاپلوسی بیش از حد آن حتی در زمانی که کاربران نیت‌های مضری را ابراز می‌کردند، گزارش شده بود.

در دادخواست مربوط به زین شامبلین آمده است: مرگ زین نه یک تصادف بود و نه یک اتفاق، بلکه پیامد قابل پیش‌بینی تصمیم عمدی اوپن‌ای‌آی برای محدود کردن آزمایش‌های ایمنی و عرضه سریع چت‌جی‌پی‌تی به بازار بود. این فاجعه یک نقص فنی یا یک مورد حاشیه‌ای پیش‌بینی نشده نبود، بلکه نتیجه قابل پیش‌بینی انتخاب‌های عمدی اوپن‌ای‌آی در طراحی بود.

همچنین، در این دادخواست‌ها ادعا شده است که اوپن‌ای‌آی برای شکست دادن هوش مصنوعی «جمینای»(Gemini) گوگل در بازار، در آزمایش‌های ایمنی عجله کرده است.

این هفت دادخواست مبتنی بر ادعاهای مطرح‌شده در سایر پرونده‌های حقوقی اخیر هستند که ادعا می‌کنند چت‌جی‌پی‌تی می‌تواند افراد متمایل به خودکشی را به عملی کردن برنامه‌هایشان تشویق کند و توهمات خطرناکی را به آنها القا کند. اوپن‌ای‌آی اخیراً داده‌هایی را منتشر کرده است که نشان می‌دهند بیش از یک میلیون نفر هر هفته با چت‌جی‌پی‌تی درباره خودکشی صحبت می‌کنند.

در پرونده «آدام رین»(Adam Raine) نوجوان ۱۶ ساله‌ای که جان خود را بر اثر خودکشی از دست داد، مطرح شده که چت‌جی‌پی‌تی گاهی اوقات او را تشویق می‌کرد تا به دنبال کمک حرفه‌ای باشد یا با یک خط تلفن درخواست کمک کند. با وجود این، رین توانست با گفتن این که درباره روش‌های خودکشی برای نوشتن یک داستان تخیلی سؤال می‌پرسد، از این موانع بگذرد.

اوپن‌ای‌آی ادعا کرده است که سعی دارد چت‌جی‌پی‌تی را برای مدیریت این گفت‌وگوها به شیوه‌ای امن‌تر اصلاح کند، اما برای خانواده‌هایی که از این غول هوش مصنوعی شکایت کرده‌اند، این اصلاحات خیلی دیر اعمال شده‌اند.

وقتی والدین رین در ماه اکتبر از اوپن‌ای‌آی شکایت کردند، این شرکت پستی را در وبلاگ خود منتشر کرد که در آن به نحوه مدیریت چت‌جی‌پی‌تی درباره گفت‌وگوهای حساس پیرامون سلامت روان پرداخته شده بود.

در این پست آمده است: اقدامات حفاظتی ما در تعاملات کوتاه و مشترک با اطمینان بیشتری عمل می‌کنند. ما به مرور زمان آموخته‌ایم که این اقدامات حفاظتی گاهی اوقات می‌توانند در تعاملات طولانی، کمتر قابل اعتماد باشند. با افزایش میزان تغییر در گفت‌وگو، بخش‌هایی از آموزش ایمنی مدل ممکن است تضعیف شود.

ارسال به دوستان
ورود کد امنیتی
captcha