طبق مطالعهای جدید به رهبری دانشگاه آکسفورد، افراد در دریافت مشاوره سلامت مفید از چتباتهای هوش مصنوعی مانند ChatGPT با مشکلات جدی مواجهاند. این مطالعه نشان داد که کاربران اغلب اطلاعات حیاتی را به چتباتها ارائه نمیدهند و پاسخهای دریافتی ترکیبی از توصیههای خوب و ضعیف است، که میتواند تصمیمگیری سلامت را به خطر بیندازد. با افزایش استفاده از چتباتها برای خودتشخیصی پزشکی، این یافتهها ضرورت ارزیابی دقیقتر این فناوریها را برجسته میکند.
چالشهای ارتباطی با چتباتهای سلامت
مطالعه آکسفورد، که با مشارکت حدود 1300 نفر در بریتانیا انجام شد، سناریوهای پزشکی طراحیشده توسط پزشکان را به شرکتکنندگان ارائه کرد. آنها موظف بودند با استفاده از چتباتهایی مانند GPT-4o، Command R+ و Llama 3، شرایط سلامت را شناسایی و اقدامات مناسب (مانند مراجعه به پزشک) را پیشنهاد کنند. نتایج نشان داد که چتباتها نهتنها احتمال شناسایی شرایط مرتبط را کاهش دادند، بلکه شدت بیماریها را نیز دستکم گرفتند.
آدام مهدی، مدیر تحصیلات تکمیلی مؤسسه اینترنت آکسفورد و یکی از نویسندگان مطالعه، به تککرانچ گفت: «این مطالعه یک شکست ارتباطی دوطرفه را نشان داد. کاربران نمیدانستند چه اطلاعاتی را وارد کنند و پاسخهای چتباتها اغلب مبهم یا سختفهم بود.» این مشکل بهویژه زمانی برجسته میشود که کاربران جزئیات کلیدی را حذف میکنند، که منجر به توصیههای ناقص یا نادرست میشود.
خطرات اعتماد بیشازحد به چتباتها
با توجه به فشار بر سیستمهای مراقبت سلامت و افزایش هزینهها، حدود یک نفر از هر شش بزرگسال آمریکایی ماهانه از چتباتها برای مشاوره سلامت استفاده میکند، طبق گزارش بیزتاک. اما اعتماد بیشازحد به این ابزارها میتواند خطرناک باشد. انجمن پزشکی آمریکا استفاده از چتباتهایی مانند ChatGPT را برای تصمیمگیریهای بالینی توصیه نمیکند، و شرکتهای بزرگی مانند OpenAI نیز هشدار دادهاند که از تشخیصهای پزشکی بر اساس خروجی چتباتها خودداری شود.
مهدی تأکید کرد: «روشهای کنونی ارزیابی چتباتها پیچیدگی تعامل با کاربران انسانی را منعکس نمیکنند. مانند آزمایشهای بالینی برای داروهای جدید، سیستمهای چتبات باید پیش از استقرار در دنیای واقعی آزمایش شوند.» این نیاز به آزمایشهای گستردهتر با توجه به گسترش چتباتها در حوزه سلامت، از خودتشخیصی گرفته تا پشتیبانی سلامت روان، حیاتی است.
محدودیتهای چتباتها در سلامت روان
مطالعات دیگر نیز محدودیتهای چتباتها را در حوزه سلامت روان نشان دادهاند. به عنوان مثال، مقالهای در نیویورک تایمز گزارش داد که چتباتها در مواجهه با موقعیتهای عاطفی پیچیده، مانند موارد مرتبط با خودکشی، عملکرد ضعیفی دارند و گاهی پاسخهای نامناسبی ارائه میدهند. این موضوع نگرانیهای اخلاقی را در مورد استفاده از چتباتها برای افراد آسیبپذیر افزایش داده است.
با این حال، برخی مطالعات، مانند پژوهشی در ساینس دایرکت، نشان دادهاند که چتباتهای طراحیشده برای مداخلات سلامت روان، مانند درمان افسردگی مبتنی بر CBT، میتوانند در کاهش علائم افسردگی و اضطراب در دانشجویان مؤثر باشند. اما این موفقیتها به چتباتهای تخصصی با آموزش خاص محدود است و نه مدلهای عمومی مانند ChatGPT.
آینده چتباتها در مراقبت سلامت
یافتههای مطالعه آکسفورد نشان میدهد که چتباتهای هوش مصنوعی هنوز راه درازی برای تبدیل شدن به منابع قابل اعتماد مشاوره سلامت دارند. بهبود تعاملات کاربر، افزایش دقت پاسخها و آزمایشهای واقعی قبل از استقرار، از جمله گامهای ضروری برای آینده این فناوری هستند. تا آن زمان، مهدی توصیه میکند که کاربران به منابع معتبر سلامت، مانند پزشکان و وبسایتهای پزشکی تأییدشده، اعتماد کنند.
این مطالعه همچنین به شرکتهای فناوری هشدار میدهد که ادعاهای بیشازحد در مورد تواناییهای چتباتها میتواند اعتماد عمومی را تضعیف کند. با ادامه پیشرفت هوش مصنوعی، ایجاد تعادل بین نوآوری و ایمنی در کاربردهای سلامت حیاتی خواهد بود.
منبع: تککرانچ
دیدگاه شما