مشاوره پزشکی با «ChatGPT» مفید است یا خطرناک؟

متخصصان آمریکایی می‌گویند «چت‌جی‌پی‌تی هلث» برای بیمارانی که به دنبال مشاوره پزشکی هستند، نویدبخش و در عین حال خطرناک است.

به گزارش خبرآنلاین، به نقل از ایسنا، نحوه تکامل هوش مصنوعی و تبدیل شدن آن به بخشی از زندگی روزمره اغلب شبیه به چیزی به نظر می‌رسد که از یک فیلم علمی-تخیلی بیرون آمده است. یکی از رایج‌ترین پرسش‌ها درباره مدل‌های هوش مصنوعی مولد مانند «چت‌جی‌پی‌تی»(ChatGPT) شرکت «اوپن‌ای‌آی»(OpenAI) این است که چگونه از آنها در مراقبت‌های بهداشتی استفاده می‌شود.

به نقل از سی‌تی اینسایدر، روزانه حدود ۴۰ میلیون نفر در سراسر جهان با یک پرسش در حوزه مراقبت‌های بهداشتی به چت‌جی‌پی‌تی مراجعه می‌کنند. پرسش‌ها از رمزگشایی صورتحساب‌های پزشکی گرفته تا خودآزمایی و مدیریت مراقبت، همگی در یک پلتفرم باز پرسیده می‌شوند.

اوپن‌ای‌آی در تلاش برای تقویت حفاظت از حریم خصوصی، یک پلتفرم اختصاصی به نام «چت‌جی‌پی‌تی هلث»(ChatGPT Health) را با همکاری پزشکان برای پاسخ دادن به پرسش‌های مربوط به سلامتی راه‌اندازی کرد.

دکتر «لی شوام»(Lee Schwamm)، معاون ارشد رئیس و مدیر ارشد سلامت دیجیتال در «مرکز سلامت نیوهیون ییل»(YNHHS) گفت: واقعیت این است که این پلتفرم از بسیاری جهت‌ها با سایر پلتفرم‌ها متفاوت است، اما می‌توان از آن عاقلانه استفاده کرد. می‌توان از آن به شیوه‌ای ایمن و تنظیم‌شده استفاده کرد یا آن را به صورت نوآوری بی‌قیدوبند به کار برد. ما سریع‌تر حرکت خواهیم کرد، اما در این مسیر با برخی فجایع روبه‌رو خواهیم شد.

در ادامه نکاتی آورده شده که متخصصان محلی کنتیکت می‌خواهند درباره استفاده از چت‌جی‌پی‌تی و پلتفرم جدید آن برای پرسیدن سؤالات مربوط به سلامتی بدانند. چت‌جی‌پی‌تی هلث که در اوایل ژانویه عرضه شد، برای کمک به پاسخ‌گویی به پرسش‌های روزمره سلامت در یک پلتفرم چت‌بات امن، جدا از پلتفرم استاندارد چت‌جی‌پی‌تی تنظیم شده است.

اوپن‌ای‌آی در یک بیانیه مطبوعاتی اعلام کرد که این نرم‌افزار با همکاری ۲۶۰ پزشک طی دو سال گذشته طراحی شده است. افرادی که از چت‌جی‌پی‌تی هلث استفاده می‌کنند، می‌توانند سوابق پزشکی و اطلاعات خود را از اپلیکیشن‌های سلامتی بارگذاری کنند و به چت‌بات اجازه بدهند تا پاسخ‌ها را به پرسش‌های مربوط به سلامت شخصی ارائه کند.

اوپن‌ای‌آی اعلام کرد که این پلتفرم جدید دارای لایه‌های حفاظتی و رمزگذاری بیشتری برای حفظ حریم خصوصی گفت‌وهای صورت‌گرفته درباره مراقبت‌های بهداشتی است. تبادلات انجام شده در چت‌جی‌پی‌تی هلث برای آموزش مدل‌های بنیادین نرم‌افزار استفاده نمی‌شوند.

شوام گفت: چت‌جی‌پی‌تی هلث و سایر مدل‌های هوش مصنوعی مولد می‌توانند در پاسخ دادن به پرسش‌های پزشکی اولیه مانند فهرست کردن علائم بالقوه و پیش‌بینی آنچه ممکن است هنگام مراجعه به پزشک رخ دهد، کمک کنند. همچنین، چت‌جی‌پی‌تی هلث می‌تواند یک پلتفرم سودمند برای تشخیص یا ارائه نتایج آزمایش به زبان روزمره یا شناسایی ناهنجاری‌های احتمالی برای درک بهتر باشد.

با وجود این، درک چگونگی تولید پاسخ‌های این مدل‌ها مهم است. شوام ادامه داد: مدل‌های هوش مصنوعی مانند چت‌جی‌پی‌تی اساساً سیستم‌های مبتنی بر احتمال هستند که براساس حجم زیادی از اطلاعات به‌دست‌آمده از سراسر اینترنت آموزش دیده‌اند. وقتی یک مدل به اشتباه پاسخ می‌دهد، پیش‌بینی بدی را ارائه می‌کند اما با چنین شیوه‌ به ظاهر معتبری، تشخیص بین آنچه دقیق است و آنچه دقیق نیست، دشوار می‌شود.

بنابراین، تکیه صرف بر پلتفرم به جای مراجعه به پزشک متخصص می‌تواند خطرات جدی ایجاد کند؛ به ویژه اگر مدل اطلاعات نادرستی را ارائه دهد. شوام گفت: مشکل، زمینه است. گاهی اوقات فقط باید بیمار را بشناسید تا به درستی به پرسش پاسخ دهید، زیرا باید بفهمید که چرا بیمار در وهله اول این سؤال را می‌پرسد.

چت‌جی‌پی‌تی هلث پیش‌بینی‌ها و پاسخ‌های سفارشی را تولید می‌کند که اغلب می‌توانند قطعی و دقیق به نظر برسند. بیشتر توصیه‌های چت‌جی‌پی‌تی هلث کارساز هستند، اما مشکل زمانی ایجاد می‌شود که پیش‌بینی‌های آن نادرست باشد. شوام گفت که این مدل برای تقویت استفاده از طریق اعتبارسنجی احساسات کاربر طراحی شده است و بسته به توصیه‌ای که ارائه می‌دهد، می‌تواند به پیامدهایی در دنیای واقعی منجر شود.

اوپن‌ای‌آی در حال حاضر با تعدادی دعاوی حقوقی از سوی افرادی روبه‌رو شده است که ادعا می‌کنند عزیزانشان پس از تعامل با چت‌جی‌پی‌تی به خود آسیب رسانده‌اند یا در اثر خودکشی جان خود را از دست داده‌اند. یکی از این دعاوی توسط ورثه زنی اهل گرینویچ که توسط پسرش کشته شده بود، مطرح شد و خانواده ادعا کردند که تعامل با این چت‌بات در تفکر و اعمال توهم‌آمیز پسر نقش داشته است.

شوام گفت که با توجه به صدها میلیون درخواست که هر روز فرستاده می‌شوند، این موارد شدید توصیه و عواقب آن نسبتاً نادر بوده‌اند. با وجود این، او مطمئن نیست که با تسهیل مقررات پیرامون هوش مصنوعی توسط دولت فدرال، این موارد حفاظتی در سیستم‌ها چگونه تغییر خواهند کرد.

وی افزود: وعده‌های بسیاری وجود دارد که نمی‌توان آنها را صرفاً به حال خود رها کرد. غول از بطری بیرون آمده است. بیماران همین حالا هم از آن استفاده می‌کنند. ما باید به آنها کمک کنیم تا مسئولانه از آن استفاده کنند.

۵۸۵۸

کد مطلب 2171372

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
3 + 1 =

آخرین اخبار