
پیش از این، نگرانیها در مورد «کاهش مهارت» به دلیل هوش مصنوعی عمدتاً گمانهزنی بود. اکنون، اولین دادههای تجربی در حال پدیدار شدن هستند. اگرچه هنوز مقدماتی هستند، اما سیگنالها به اندازه کافی قوی هستند که توجه جامعه پزشکی را جلب کنند.
نشانههایی از کاهش مهارت در طول کولونوسکوپی با کمک هوش مصنوعی
یک مطالعه مشاهدهای در سال ۲۰۲۵ که در مجله The Lancet Gastroenterology & Hepatology منتشر شد، سیستمهای هوش مصنوعی مورد استفاده برای تشخیص آدنومها - ضایعات خوشخیم در دستگاه گوارش که میتوانند به سرطان تبدیل شوند - را بررسی کرد.
نتایج نشان داد که آندوسکوپیستهایی که مرتباً از هوش مصنوعی استفاده میکردند، هنگام انجام مواردی بدون کمک هوش مصنوعی، میزان تشخیص آدنوم به طور قابل توجهی پایینتری - از ۲۹٪ به ۲۲٪ - داشتند. این نشان میدهد که قرار گرفتن طولانی مدت در معرض هوش مصنوعی ممکن است بر عملکرد بالینی قابل اندازهگیری تأثیر منفی بگذارد.
«تله شناختی»: وقتی انسانها از فکر کردن دست میکشند
روانشناسی شناختی توضیحی برای این پدیده ارائه میدهد. مطالعات متعددی همبستگی معکوسی بین استفاده مکرر از هوش مصنوعی و توانایی تفکر انتقادی نشان دادهاند. مکانیسم اصلی، تخلیه شناختی نامیده میشود.
وقتی افراد بیش از حد به ابزارها متکی هستند، مغز تلاشهای خود را برای تجزیه و تحلیل مستقل کاهش میدهد.
مشکل از خود هوش مصنوعی نیست. مشکل در پذیرش منفعلانه آن است - زمانی که انسانها دیگر سوال نمیپرسند.
خطر وابسته شدن حتی قبل از تسلط بر مهارت.
اگر وابستگی منفعل برای همه پزشکان یک خطر باشد، خطرناکترین تأثیر ممکن است بر کسانی باشد که در مرحله آموزش هستند.
یک مطالعه در مورد تشخیص ماموگرافی نشان داد که توانایی تشخیص خطاهای ایجاد شده توسط هوش مصنوعی به شدت به تجربه وابسته است. در یک سناریوی شبیهسازی شده که در آن هوش مصنوعی پیشنهادات نادرستی ارائه میداد، میزان تفسیر صحیح فیلم در گروه کمتجربه تنها ۲۰٪، در گروه متوسط ۲۵٪ و در گروه باتجربه ۴۶٪ بود.
این موضوع نگرانیهایی را در مورد پدیدهای به نام «مهارتآموزی بیهدف» ایجاد میکند - هرگز مهارتها را به طور واقعی توسعه نمیدهند. اگر رزیدنتها قبل از دست و پنجه نرم کردن با ابهام بالینی، به تشخیصهای افتراقی تولید شده توسط هوش مصنوعی تکیه کنند، ممکن است هرگز پایه محکمی از تفکر تشخیصی ساخته نشود.
اینطور نیست که مهارتهای فعلیتان را از دست داده باشید، بلکه از همان ابتدا هرگز به تسلط کامل نرسیدهاید.
آیا هوش مصنوعی مهارتها را کاهش میدهد یا تکامل را تسریع میکند؟
این بحث اغلب به یک دیدگاه دوگانه تبدیل میشود: هوش مصنوعی یا پزشکان را "منحط" میکند یا آنها را به "ابرانسان" تبدیل میکند. واقعیت بسیار پیچیدهتر است.
پزشکی به طور مداوم در کنار ابزارهایش در حال تکامل است: گوشی پزشکی، سی تی اسکن، پروندههای پزشکی الکترونیکی. هر فناوری فرآیندها را تغییر میدهد و سطح جدیدی از درک را میطلبد. هیچ کس نمیتواند استدلال کند که پیشرفت تصویربرداری تشخیصی، پزشکان را "بیکار" کرده است، حتی اگر تمرکز را از معاینه فیزیکی دقیق به تفسیر تصویر و ترکیب بالینی تغییر دهد.
بنابراین، درک هوش مصنوعی - به جای اجتناب از آن - میتواند مهمترین عامل محافظتی باشد.
برای کاهش خطر تخریب مهارت چه میتوان کرد؟
چندین استراتژی آموزشی در حال تدوین است. به عنوان مثال، الزام پزشکان - به ویژه پزشکان در حال آموزش - به ارائه ارزیابیهای مستقل قبل از بررسی پیشنهادات هوش مصنوعی. با این حال، با توجه به شیوع و دسترسی روزافزون هوش مصنوعی، پیادهسازی آن ممکن است چالش برانگیز باشد.
رویکرد دیگر، توسعه هوش مصنوعی تفسیری است. به جای اینکه صرفاً یک ناحیه ریه را به عنوان "بدخیمی مشکوک" علامتگذاری کنیم، سیستم میتواند یک نقشه حرارتی نمایش دهد که نشان میدهد کدام پیکسلها بیشترین تأثیر را در تصمیمگیری دارند. این امر پزشکان را مجبور میکند تا "چرا" را درک کنند و هوش مصنوعی را از یک خلبان خودکار به ابزاری برای یادگیری مداوم تبدیل کند.
راهحلهای دیگر شامل تکنیکهای «اجبار شناختی» - که کاربران را ملزم به توجیه پذیرش پیشنهادات هوش مصنوعی میکند - یا طراحی فرآیندهایی است که به پیشنهادات اجازه میدهند بعداً به جای نمایش پیشفرض، نمایش داده شوند.
با این حال، هنوز هیچ استراتژی از طریق آزمایشهای بالینی برای جلوگیری از زوال مهارتها اثبات نشده است.
آینده به نحوه اجرای آن بستگی دارد.
چالش پزشکی مبارزه با هوش مصنوعی نیست، بلکه ادغام هدفمند آن با هوش مصنوعی است.
هوش مصنوعی بدون شک نحوه کار پزشکان را تغییر خواهد داد. اما اینکه آیا هوش مصنوعی تواناییهای پزشکان را کاهش میدهد یا افزایش میدهد، کاملاً به نحوه استفاده ما از آن بستگی دارد.
در آینده، پزشکان به الگوریتمها متکی خواهند بود. اما مهارت تعیینکنندهی شغل ممکن است حفظ کردن بیشتر یا تشخیص سریعتر نباشد، بلکه توانایی زیر سوال بردن هوش مصنوعی، یادگیری از آن و داشتن شجاعت مداخله در صورت اشتباه بودن آن باشد.
(منبع: فوربس)
منبع: https://vietnamnet.vn/ai-co-lam-thoai-hoa-ky-nang-bac-si-2494140.html






نظر (0)