۱۰ مهر ۱۴۰۴
به روز شده در: ۱۰ مهر ۱۴۰۴ - ۰۳:۰۰
فیلم بیشتر »»
کد خبر ۱۰۹۹۴۵۹
تاریخ انتشار: ۰۰:۲۴ - ۱۰-۰۷-۱۴۰۴
کد ۱۰۹۹۴۵۹
انتشار: ۰۰:۲۴ - ۱۰-۰۷-۱۴۰۴

ChatGPT دکتر نیست/ مردی با عمل به توصیه هوش مصنوعی 3 ماه بستری شد/ آیا شما هم تجربه ای در این رابطه داشته اید؟

ChatGPT دکتر نیست/ مردی با عمل به توصیه هوش مصنوعی 3 ماه بستری شد/ آیا شما هم تجربه ای در این رابطه داشته اید؟
شاید این مرد را ناآگاه خطاب کنید اما واقعیت چیز دیگری است زیرا تقریبا همه افراد با دسترسی به اینترنت حداقل یک بار از چت جی پی تی سوال مرتبط با حوزه سلامت را داشته اند و برای بسیاری از کاربران نیز به یک روال روزانه تبدیل شده است./ اگر تجربه ای مشابه داشته اید در قسمت نظرات برایمان بنویسید...

عصر ایران - مردی 60 ساله پس از مشورت با چت جی پی تی (ChatGPT)، نمک خوراکی خود را با برومید سدیم جایگزین کرد؛ اقدامی که منجر به مسمومیت با برومید و بستری شدن سه هفته ای در بخش روانپزشکی شد.

خط بالا شاید به نظرتان خنده دار باشد یا این مرد را ناآگاه خطاب کنید اما واقعیت چیز دیگری است زیرا تقریبا همه افراد با دسترسی به اینترنت حداقل یک بار از چت جی پی تی سوال مرتبط با حوزه سلامت را داشته اند و برای بسیاری از کاربران نیز به یک روال روزانه تبدیل شده است!

این مورد، خطرات بالقوه تکیه بر ربات های چت هوش مصنوعی برای دریافت توصیه های سلامتی را برجسته می کند. با این حال، طبق یک نظرسنجی اخیر، بیشتر آمریکایی ها اطلاعات سلامت تولید شده توسط هوش مصنوعی را «تا حدی قابل اعتماد» می دانند. کارشناسان هشدار می دهند که ابزارهای هوش مصنوعی هرگز نباید جایگزین مراقبت های پزشکی حرفه ای شوند.

متاسفانه این روزها همه از چت جی پی تی درباره مسائل سلامت سوال می کنند!

ربات های چت هوش مصنوعی سوابق پزشکی شما را ندارند

ربات های چت هوش مصنوعی سوابق سلامت شخصی شما را در اختیار ندارند، از این رو نمی توانند در مورد علائم جدید، شرایط موجود شما، یا نیازتان به مراقبت های اورژانسی، راهنمایی قابل اعتمادی ارائه دهند.

به گفته دکتر مارگارت لوزواتسکی، مدیر ارشد اطلاعات پزشکی و معاون نوآوری های سلامت دیجیتال در انجمن پزشکی آمریکا، توصیه های سلامتی ربات های چت هوش مصنوعی نیز بسیار کلی هستند.

او اظهار داشت که بهترین کاربرد هوش مصنوعی در حال حاضر، استفاده از آن برای به دست آوردن اطلاعات زمینه ای برای کمک به شما در طرح پرسش ها از پزشک یا توضیح اصطلاحات پزشکی است که نمی دانید.

اطلاعات هوش مصنوعی ممکن است قدیمی یا نادرست باشند

هوش مصنوعی مولد (Generative AI) بر داده هایی تکیه دارد که با آنها آموزش دیده است و این داده ها ممکن است منعکس کننده جدیدترین راهنمایی های پزشکی نباشند. به عنوان نمونه، مراکز کنترل و پیشگیری از بیماری آمریکا اخیراً واکسن آنفولانزا به روز شده را برای همه افراد 6 ماه و بالاتر توصیه کرده است و برخی از ربات های چت ممکن است از این موضوع مطلع نباشند.

حتی زمانی که یک ربات چت هوش مصنوعی اشتباه می کند، می تواند مطمئن و قانع کننده به نظر برسد. سیستم های هوش مصنوعی ممکن است برای پر کردن شکاف ها، اطلاعات را سر هم کرده و پاسخ های اشتباه یا گمراه کننده ارائه دهند.

مطالعه ای که در مجله Nutrients منتشر شد، نشان داد که ربات های چت محبوبی مانند جمنای، مایکروسافت کوپایلت و چت جی پی تی می توانند برنامه های غذایی مناسبی برای کاهش وزن تولید کنند، اما در متعادل سازی درشت مغذی ها، از جمله کربوهیدرات ها، پروتئین ها، چربی ها و اسیدهای چرب، موفق نیستند.

به گفته دکتر آینسلی مک لین، مشاور هوش مصنوعی سلامت و افسر ارشد سابق هوش مصنوعی در گروه پزشکی میدآتلانتیک کایزر پرمننته، من تمایلی ندارم که به بیمار بگویم هرگز کاری را بر اساس توصیه های چت جی پی تی انجام دهد.

آیا راهی امن برای استفاده از ابزارهای هوش مصنوعی برای سلامتی وجود دارد؟

دکتر مک لین خاطرنشان کرد که ربات های هوش مصنوعی مولد در حال حاضر تحت پوشش قوانین حفظ حریم خصوصی سلامت مانند HIPAA نیستند. او گفت: "اطلاعات سلامت شخصی خود را وارد نکنید. این اطلاعات ممکن است به هر جایی ختم شود."

هنگامی که خلاصه های هوش مصنوعی را در گوگل مرور می کنید، بهتر است بررسی کنید که آیا اطلاعات از یک مجله علمی یا سازمان پزشکی مطرح تهیه شده است یا خیر. همچنین، تاریخ اطلاعات را دوباره بررسی کنید تا ببینید آخرین بار چه زمانی به روز شده است.

دکتر لوزواتسکی اظهار امیدواری کرد که مردم در صورت تجربه علائم جدید، همچنان به پزشک خود مراجعه کنند و در مورد اطلاعاتی که از طریق یک ربات چت هوش مصنوعی پیدا کرده اند و هر اقدامی که انجام داده اند، صریح و صادق باشند.

او افزود که کاملاً منطقی است که اطلاعات به دست آمده از هوش مصنوعی را با پزشک خود در میان بگذارید و از او بپرسید: "آیا این اطلاعات دقیق است؟ آیا در مورد من صدق می کند؟ و اگر نه، چرا؟" همچنین می توانید از پزشک خود بپرسید که آیا ابزار سلامت هوش مصنوعی خاصی وجود دارد که او به آن اعتماد دارد یا خیر.

نکات کلیدی

  • توصیه های سلامتی تولید شده توسط هوش مصنوعی می توانند خطرناک باشند و هرگز نباید جایگزین راهنمایی های یک متخصص پزشکی دارای مجوز شوند.
  • ربات های چت هوش مصنوعی ممکن است اطلاعات سلامتی قدیمی، گمراه کننده یا بیش از حد کلی ارائه دهند.
  • کارشناسان توصیه می کنند که از ابزارهای هوش مصنوعی تنها برای کسب دانش کلی و زمینه ای استفاده کنید و حتماً هر گونه توصیه سلامتی که از طریق هوش مصنوعی به دست آمده است را با پزشک خود در میان بگذارید.
ارسال به دوستان
این عکس‌ها ناخواسته اطلاعاتتان را لو می‌دهند ؛‌ به این موارد دقت کنید جایگاه استادیوم آزادی در اولین روزهای بهره برداری (عکس) سریع‌ترین هواپیماهای جهان: رکوردی فراتر از ۳۷۰۰ کیلومتر بر ساعت (+عکس) «این دزدی دریایی است»/ جهانی اسرائیل را به آدم‌ربایی متهم کردند کدام کشورها بیشترین تعداد فرودگاه را دارند؟ / تعداد فرودگاه‌های ایران (اینفوگرافی) رئیس‌جمهور کلمبیا: توافق تجارت آزاد با اسرائیل را فسخ کردم حکم شوکه‌کننده فیفا برای استقلال؛ محرومیت از دو پنجره نقل‌وانتقالات ChatGPT دکتر نیست/ مردی با عمل به توصیه هوش مصنوعی 3 ماه بستری شد/ آیا شما هم تجربه ای در این رابطه داشته اید؟ شکست آسیایی استقلال، ساپینتو را به میز مدیران کشاند آیا دست ندادن پزشکیان با همسر رهبر چین حرام بود؟ جعفری: ما می‌توانیم پرسپولیس را شکست دهیم؛ هدف تارتار برد در تمام بازی‌هاست دیدار وزرای دفاع ایران و ترکیه با هدف گسترش روابط نظامی نماینده پارلمان اروپا: اقدام اسرائیل علیه ناوگان الصمود غیرقانونی و جنایتکارانه است قصه‌های نان و نمک(36)/ جنگ جدید توئیترها در مورد مهاجرت ایرانی‌ها! استایل خاص و شیک صدف اسپهبدی با لباس مشکی در اکران سینمایی (عکس)