Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT و DeepSeek داده‌های علمی را تحریف می‌کنند

مشخص شده است که مدل‌های هوش مصنوعی مانند ChatGPT و DeepSeek هنگام خلاصه‌سازی، به ویژه در حوزه پزشکی، مستعد تحریف محتوای علمی هستند.

Báo Khoa học và Đời sốngBáo Khoa học và Đời sống08/07/2025

گروهی از محققان در آلمان اخیراً در مورد خطر سوگیری هنگام استفاده از چت‌بات‌های هوش مصنوعی برای کوتاه کردن محتوای تحقیق هشدار دادند. این تیم پس از تجزیه و تحلیل ۴۹۰۰ چکیده علمی نوشته شده توسط انسان‌ها، از چندین مدل هوش مصنوعی برای مقایسه نحوه پردازش اطلاعات توسط این سیستم‌ها استفاده کرد. نتایج نشان داد که اکثر چت‌بات‌ها، حتی زمانی که از آنها خواسته شد تا به طور دقیق خلاصه کنند، مرتکب اشتباه تعمیم بیش از حد می‌شوند.

ربات-چت-هوش-مصنوعی-چیست.jpg

هوش مصنوعی هنگام خلاصه کردن تحقیقات علمی مستعد سوگیری است.

در آزمایش‌ها، مدل‌های هوش مصنوعی وقتی راهنمایی نشده بودند، پنج برابر بیشتر از متخصصان انسانی اشتباه کردند. حتی وقتی صراحتاً از آنها در مورد دقت سوال شد، میزان خطا دو برابر بیشتر از یک خلاصه استاندارد بود. یکی از اعضای تیم گفت: «کلی‌گویی‌ها گاهی بی‌ضرر به نظر می‌رسند، اما در واقع ماهیت تحقیق اصلی را تغییر می‌دهند. این یک سوگیری سیستماتیک است.»

نکته قابل توجه این است که نسخه‌های جدیدتر چت‌بات نه تنها نتوانسته‌اند مشکل را حل کنند، بلکه در واقع آن را تشدید کرده‌اند. خلاصه‌های تولید شده توسط هوش مصنوعی با زبان روان و جذاب خود، می‌توانند به راحتی معتبر به نظر برسند، در حالی که محتوای واقعی تحریف شده است. در یک مورد، DeepSeek عبارت «ایمن و قابل انجام با موفقیت» را به «درمان ایمن و مؤثر» تغییر داد - تفسیری نادرست از نتیجه‌گیری‌های مطالعه اصلی.

در مثالی دیگر، مدل لاما داروهای دیابت را برای جوانان بدون مشخص کردن دوز، دفعات یا عوارض جانبی توصیه کرد. اگر خواننده پزشک یا متخصص مراقبت‌های بهداشتی باشد که تحقیقات اولیه را تأیید نمی‌کند، خلاصه‌هایی از این دست می‌تواند خطر مستقیمی برای بیماران ایجاد کند.

کارشناسان می‌گویند این پدیده ریشه در نحوه آموزش مدل‌های هوش مصنوعی دارد. بسیاری از چت‌بات‌های امروزی بر اساس داده‌های ثانویه - مانند اخبار علمی رایج - که از قبل ساده‌سازی شده‌اند، آموزش می‌بینند. از آنجایی که هوش مصنوعی همچنان به خلاصه کردن محتوای کوتاه‌شده ادامه می‌دهد، خطر تحریف افزایش می‌یابد.

متخصصان هوش مصنوعی در حوزه سلامت روان می‌گویند که موانع فنی باید در مراحل اولیه توسعه و استفاده از هوش مصنوعی ایجاد شوند.

‎099393800-1681896363-glenn-carstens-peters-npxxwgq33zq-unsplash.jpg‎

کاربران باید محتاط باشند زیرا چت‌بات‌ها می‌توانند به راحتی محتوا را تحریف کنند.

از آنجایی که کاربران به طور فزاینده‌ای برای یادگیری علم به چت‌بات‌های هوش مصنوعی متکی هستند، خطاهای کوچک در تفسیر می‌توانند به سرعت انباشته و گسترش یابند و باعث سوءتفاهم‌های گسترده شوند. در زمانی که اعتماد به علم رو به کاهش است، این خطر حتی نگران‌کننده‌تر می‌شود و شایسته توجه ویژه است.

ادغام هوش مصنوعی در تحقیق و انتشار دانش یک روند برگشت‌ناپذیر است. با این حال، کارشناسان تأیید می‌کنند که فناوری نمی‌تواند جایگزین نقش انسان در درک و تأیید محتوای علمی شود. هنگام استفاده از چت‌بات‌ها در حوزه‌های پرخطر مانند پزشکی، به جای تمرکز صرف بر تجربه روان زبان یا سرعت پاسخ، دقت باید در اولویت اصلی باشد.


منبع: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html


نظر (0)

لطفاً نظر دهید تا احساسات خود را با ما به اشتراک بگذارید!

در همان دسته‌بندی

هنرمند مردمی، شوان باک، «مجری مراسم» ازدواج ۸۰ زوج در خیابان پیاده‌روی دریاچه هوان کیم بود.
کلیسای جامع نوتردام در شهر هوشی مین با نورپردازی‌های زیبا به استقبال کریسمس ۲۰۲۵ می‌رود.
دختران هانوی برای کریسمس لباس‌های زیبایی می‌پوشند
روستای گل داوودی تت در گیا لای که پس از طوفان و سیل، حال و هوای بهتری پیدا کرده، امیدوار است که دیگر قطعی برق برای نجات گیاهان وجود نداشته باشد.

از همان نویسنده

میراث

شکل

کسب و کار

کافی‌شاپ هانوی با صحنه کریسمس اروپایی‌مانندش، تب و تاب ایجاد می‌کند

رویدادهای جاری

نظام سیاسی

محلی

محصول

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC