گروهی از محققان در آلمان اخیراً در مورد خطر سوگیری هنگام استفاده از چتباتهای هوش مصنوعی برای کوتاه کردن محتوای تحقیق هشدار دادند. این تیم پس از تجزیه و تحلیل ۴۹۰۰ چکیده علمی نوشته شده توسط انسانها، از چندین مدل هوش مصنوعی برای مقایسه نحوه پردازش اطلاعات توسط این سیستمها استفاده کرد. نتایج نشان داد که اکثر چتباتها، حتی زمانی که از آنها خواسته شد تا به طور دقیق خلاصه کنند، مرتکب اشتباه تعمیم بیش از حد میشوند.
هوش مصنوعی هنگام خلاصه کردن تحقیقات علمی مستعد سوگیری است.
در آزمایشها، مدلهای هوش مصنوعی وقتی راهنمایی نشده بودند، پنج برابر بیشتر از متخصصان انسانی اشتباه کردند. حتی وقتی صراحتاً از آنها در مورد دقت سوال شد، میزان خطا دو برابر بیشتر از یک خلاصه استاندارد بود. یکی از اعضای تیم گفت: «کلیگوییها گاهی بیضرر به نظر میرسند، اما در واقع ماهیت تحقیق اصلی را تغییر میدهند. این یک سوگیری سیستماتیک است.»
نکته قابل توجه این است که نسخههای جدیدتر چتبات نه تنها نتوانستهاند مشکل را حل کنند، بلکه در واقع آن را تشدید کردهاند. خلاصههای تولید شده توسط هوش مصنوعی با زبان روان و جذاب خود، میتوانند به راحتی معتبر به نظر برسند، در حالی که محتوای واقعی تحریف شده است. در یک مورد، DeepSeek عبارت «ایمن و قابل انجام با موفقیت» را به «درمان ایمن و مؤثر» تغییر داد - تفسیری نادرست از نتیجهگیریهای مطالعه اصلی.
در مثالی دیگر، مدل لاما داروهای دیابت را برای جوانان بدون مشخص کردن دوز، دفعات یا عوارض جانبی توصیه کرد. اگر خواننده پزشک یا متخصص مراقبتهای بهداشتی باشد که تحقیقات اولیه را تأیید نمیکند، خلاصههایی از این دست میتواند خطر مستقیمی برای بیماران ایجاد کند.
کارشناسان میگویند این پدیده ریشه در نحوه آموزش مدلهای هوش مصنوعی دارد. بسیاری از چتباتهای امروزی بر اساس دادههای ثانویه - مانند اخبار علمی رایج - که از قبل سادهسازی شدهاند، آموزش میبینند. از آنجایی که هوش مصنوعی همچنان به خلاصه کردن محتوای کوتاهشده ادامه میدهد، خطر تحریف افزایش مییابد.
متخصصان هوش مصنوعی در حوزه سلامت روان میگویند که موانع فنی باید در مراحل اولیه توسعه و استفاده از هوش مصنوعی ایجاد شوند.
کاربران باید محتاط باشند زیرا چتباتها میتوانند به راحتی محتوا را تحریف کنند.
از آنجایی که کاربران به طور فزایندهای برای یادگیری علم به چتباتهای هوش مصنوعی متکی هستند، خطاهای کوچک در تفسیر میتوانند به سرعت انباشته و گسترش یابند و باعث سوءتفاهمهای گسترده شوند. در زمانی که اعتماد به علم رو به کاهش است، این خطر حتی نگرانکنندهتر میشود و شایسته توجه ویژه است.
ادغام هوش مصنوعی در تحقیق و انتشار دانش یک روند برگشتناپذیر است. با این حال، کارشناسان تأیید میکنند که فناوری نمیتواند جایگزین نقش انسان در درک و تأیید محتوای علمی شود. هنگام استفاده از چتباتها در حوزههای پرخطر مانند پزشکی، به جای تمرکز صرف بر تجربه روان زبان یا سرعت پاسخ، دقت باید در اولویت اصلی باشد.
منبع: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










نظر (0)