بر اساس این گزارش، مدل جِما ادعا کرده بود که در جریان یک کمپین انتخاباتی در سال ۱۹۸۷، یک سرباز مدعی شده بود سناتور بلکبرن او را وادار به تهیه داروهای تجویزی کرده و روابطی غیرتوافقی داشته است. سناتور بلکبرن در نامه خود تأکید کرد که نه تنها چنین اتهاماتی هرگز وجود خارجی نداشته، بلکه حتی سال ذکر شده برای کمپین نیز نادرست است. وی افزود که لینکهای خبری ارائه شده توسط هوش مصنوعی نیز همگی به صفحات خطا یا گزارشهای بیربط منتهی میشوند.
افزایش شکایات و واکنش گوگل
این حادثه در حالی رخ داد که پیشتر نیز «رابی استارباک»، فعال محافظهکار، با شکایت از گوگل، مدعی شده بود مدلهای هوش مصنوعی این شرکت، از جمله جما، او را به اتهامات دروغین و شدیدی مانند «متجاوز به کودکان» متهم کردهاند.
در پاسخ اولیه گوگل به این شکایات، «مارکهام اریکسون»، معاون امور دولتی این شرکت، با پذیرش مشکل، آن را بخشی از «چالش شناختهشده توهمات (Hallucinations) در مدلهای هوش مصنوعی» خوانده و اعلام کرده بود که گوگل برای کاهش آن تلاش میکند. با این حال، سناتور بلکبرن در نامه خود قویاً استدلال کرد که آنچه رخ داده، یک «توهم بیضرر» نیست، بلکه یک «عمل افتراآمیز» است که توسط یک سیستم هوش مصنوعی تولید و توزیع شده است.
حذف مدل از دسترسی عمومی
گوگل در واکنش نهایی خود، ضمن حذف مدل جما از استودیوی هوش مصنوعی خود، در بیانیهای اعلام کرد: «ما هیچگاه قصد نداشتیم جِما به عنوان یک ابزار یا مدل مصرفی عمومی مورد استفاده قرار گیرد. این مدل بهعنوان خانوادهای از مدلهای «باز و سبک» برای ادغام در محصولات توسعهدهندگان معرفی شده بود.»
بر این اساس، دسترسی عمومی به این مدل از طریق AI Studio متوقف شده، اما دسترسی توسعهدهندگان از طریق API همچنان برقرار خواهد بود. این رویداد، بار دیگر چالشهای جدی مدلهای هوش مصنوعی در تولید محتوای معتبر و مسئله «توهمات» را در کانون توجه قرار داده است.
منبع: ایتنا
پربیننده ترین پست همین یک ساعت اخیر