
اگر از چت جیپیتی و سایر چتباتها توصیههای پزشکی دریافت میکنید، مراقب باشید! هوش مصنوعی، دکتر نیست و نمیتواند همانند پزشکها، اطلاعات علمی به شما بدهد.
به گزارش اقتصاد خبر، شرکتهای هوش مصنوعی قاعدتا باید درباره محتوای خود به کاربرانشان هشدارهایی بدهند تا محتوا را آگاهانه مصرف کنند. اما در برخی از موارد، این شرکتها هر دادهای را بدون اخطار در اختیار کاربران قرار میدهند، از جمله اطلاعات پزشکی و مربوط به سلامتی!
طبق گزارش نشریه امآیتی، شرکتهای هوش مصنوعی در رابطه با توصیههای پزشکی، هیچ اخطاری به کاربران نمیدهند. این در حالی است که تقریبا تمامی مدلهای هوش مصنوعی از جمله چت جیپیتی، گروک و بسیاری از موارد دیگر، به سوالات پزشکی جواب میدهند و حتی سعی در تشخیص بیماری برای بیماران دارند. برخی از کاربران حتی درباره بیماریهای مهمی نظیر سرطان، به دادهها و اطلاعات هوش مصنوعی پناه میبرند. این در حالی است که یافتهها نشان میدهد توصیههای پزشکیِ چتباتها قابل اعتماد نیست.
طبق پژوهشی که در دانشگاه استنفورد صورت گرفته، تا سال 2023، مدلهای هوش مصنوعی هر بار که آزمایش یا پرسشی مربوط به سلامتی دریافت میکنند، به محض اینکه به کاربر پاسخ میدادند، تاکید میکردند که این توصیهها الزاما درست و قابل اعتما نیستند. حتی برخی از مدلها، آزمایشها یا تصاویر پزشکی را تفسیر نمیکردند و میگفتند: «من پزشک نیستم».
حالا اما ظاهرا رویه تغییر کرده و هوش مصنوعی بدون اینکه اخطاری بدهد، توصیههای پزشکیاش را در اختیار کاربران میگذارد. حتی این مدلها توضیح میدهند که کدام داروها با یکدیگر اختلالی ندارد و مشکلی برای بیمار ایجاد نمیکنند. حتی تصاویر اشعه ایکس را تجزیه و تحلیل میکنند و تحلیل را بدون اخطار، در اختیار کاربر میگذارند.
هوش مصنوعی باید هشدار بدهد
بررسیها نشان میدهد که از ابتدای سال 2025 تا کنون، کمتر از 1 درصد از پاسخهایی که هوش مصنوعی و چتباتهایش در اختیار کاربران میگذارند حاوی این هشدار و اخطار است که امکان دارد پاسخها درست نباشند. بقیه پرسشها، بدون هشدار، به کاربران پاسخ داده میشود. واقعیت این است که هوش مصنوعی به هر طریقی باید اذعان کند که صلاحیت ارائه توصیه پزشکی ندارد. در واقع، نباید فقط کاربر را به مشورت با پزشک، تشویق کند، این اقدام به تنهایی کافی نیست.
برخی از افراد در جامعه پزشکی بر این باورند که این اخطارها، باید باشند. آنها میگویند هر چند برخی از کاربران دائمی یا حرفهایِ هوش مصنوعی، ممکن است این هشدارها را نادیده بگیرند، اما باز هم این اخطارها باید باشند، چرا که حذف آنها میتواند خطای ناشی از اشتباهات هوش مصنوعی را افزایش دهد و به آسیبهای واقعی منجر شود.
به هر حال، اخطارها به بیماران یادآوری میکند که هوش مصنوعی الزاما دکتر و متخصص نیست و ممکن است برخی اطلاعاتش اشتباه باشد. به همین دلیل، این یادآوری الزامی است و کاربر باید آن را دریافت کند. این شرکتهای هوش مصنوعی هستند که باید به صورت قانونی، ملزم شوند این اخطارها را به کاربران خود بدهند.
کاربران مسئول نهایی هستند؟
امآیتی به سراغ برخی از این شرکتهای هوش مصنوعی رفته و این مسئله را بررسی کرده که آیا شرکتها قصد دارند اقدامی در این زمینه داشته باشند؟ سخنگوی شرکت اوپناِیآی گفته که در نهایت کاربران مسئول هستند و نباید برای تشخیص شرایط بیماری خودشان به هوش مصنوعی اکتفا کنند.
در مقابل، برخی از دیگر شرکتها گفتهاند که سعی دارند توصیههای پزشکی را در اختیار کاربران خود قرار ندهند تا مشکلی ایجاد نشود. برخی دیگر هم اصلا به امآیتی جواب ندادهاند و به مسیر خودشان ادامه دادهاند.
با این حال، پژوهشها نشان میدهند که مردم در استفاده از هوش مصنوعی برای توصیههای پزشکی، بیش از اعتماد میکنند و به همین دلیل یک اشتباه ساده از طرف این برنامهها، میتواند آسیبهای جدی و شدیدی به همراه داشته باشد.
یکی دیگر از یافتهها هم نشان میدهد که هوش مصنوعی در ارائه پاسخ درباره مشکلات فیزیکی بیمار، اخطاری نمیدهد اما درباره بیماریهای روحی و روانی، همیشه اخطار میدهد و از بیمار میخواهد که به پزشک مراجعه کند.
به هر حال، مدلهای هوش مصنوعی در حال تولید محتوا هستند و آن محتوا را طوری بستهبندی میکنند که به نظر علمی و مفید و خوب بیاید. با این حال، کاربران هیچگاه نباید سلامتی خود را به این ابزارها بسپرند. آنها نباید به توصیههای سلامت از چت جیپیتی و هوش مصنوعی اعتماد کنند، این مهمترین مسئله است.
به نقل از : اقتصاد خبر
منبع: اکو ایران