Skupina německých výzkumníků nedávno varovala před rizikem zkreslení při používání chatbotů s umělou inteligencí ke zkracování výzkumného obsahu. Po analýze 4 900 vědeckých abstraktů napsaných lidmi tým použil několik modelů umělé inteligence k porovnání toho, jak tyto systémy zpracovávají informace. Výsledky ukázaly, že většina chatbotů se dopustila chyby, že příliš zobecňovala, a to i když byla vyzvána k přesnému shrnutí.
Umělá inteligence je náchylná ke zkreslení při shrnutí vědeckého výzkumu.
V testech modely umělé inteligence udělaly pětkrát více chyb než lidští experti, pokud nebyly řízeny. I když byly explicitně požádány o přesnost, míra chyb byla dvakrát vyšší než u standardního shrnutí. „Generalizace se někdy zdají neškodné, ale ve skutečnosti mění povahu původního výzkumu,“ řekl jeden z členů týmu. „Je to systematické zkreslení.“
Je pozoruhodné, že novější verze chatbota problém nejenže nevyřešily, ale dokonce ho zhoršily. Díky svému plynulému a poutavému jazyku se shrnutí generovaná umělou inteligencí mohou snadno jevit jako důvěryhodná, zatímco skutečný obsah je zkreslený. V jednom případě DeepSeek změnil frázi „bezpečná a lze ji úspěšně provést“ na „bezpečná a účinná léčba“ – což je chybná interpretace závěrů původní studie.
V jiném příkladu model Llama doporučoval mladým lidem léky na cukrovku bez specifikace dávkování, frekvence nebo vedlejších účinků. Pokud je čtenář lékař nebo zdravotnický pracovník, který si neověřuje původní výzkum, mohou podobná shrnutí pro pacienty představovat přímé riziko.
Odborníci tvrdí, že tento jev má kořeny ve způsobu, jakým jsou modely umělé inteligence trénovány. Mnoho chatbotů se dnes trénuje na sekundárních datech – jako jsou například zprávy z oblasti populárně-vědeckých studií – která již byla zjednodušena. S tím, jak umělá inteligence nadále shrnuje zkrácený obsah, se zvyšuje riziko zkreslení.
Odborníci na umělou inteligenci v oblasti duševního zdraví tvrdí, že technické bariéry je třeba vybudovat v rané fázi vývoje a používání umělé inteligence.
Uživatelé si musí být opatrní, protože chatboti mohou snadno zkreslovat obsah.
Vzhledem k tomu, že se uživatelé stále více spoléhají na chatboty s umělou inteligencí, aby se dozvěděli o vědě, mohou se malé chyby v interpretaci rychle hromadit a šířit, což vede k rozsáhlým mylným představám. V době, kdy důvěra ve vědu klesá, se toto riziko stává ještě znepokojivějším a zaslouží si náležitou pozornost.
Integrace umělé inteligence do výzkumu a šíření znalostí je nezvratný trend. Odborníci však potvrzují, že technologie nemůže nahradit roli lidí v porozumění a ověřování vědeckého obsahu. Při používání chatbotů ve vysoce rizikových oblastech, jako je medicína, by měla být nejvyšší prioritou přesnost, nikoli se zaměřovat pouze na plynulý jazykový zážitek nebo rychlost odezvy.
Zdroj: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










Komentář (0)