Potentiella risker med att sprida felinformation
Vetenskap och teknologi påverkar inte bara hur press och media förmedlar sina budskap, påverkar och påverkar hur allmänhetens tillgång till informationen är effektiv och hur den fungerar, utan har också en djupgående inverkan på informationens kvalitet.
Faktum är att journalistiken har kunnat anpassa sig snabbt till teknisk innovation, särskilt under senare år. Artificiell intelligens (AI) har gradvis blivit populär i massmedier och på nyhetsbyråers redaktioner. Tillämpningen av AI har medfört fördelar för både journalister och medieorganisationer. Den befriar journalister från tråkiga dagliga uppgifter, vilket hjälper dem att spara tid och fokusera på mer kreativt och högkvalificerat arbete.
Även om AI har många fördelar, väcker det också vissa farhågor. En av de största riskerna är risken för att AI-genererat innehåll sprider felinformation.
Världens 10 främsta nyhetsbyråer efterlyser kollektiva och transparenta förhandlingar mellan mediebolag och AI-utvecklare för att kontrollera vilket upphovsrättsskyddat material som får användas i utbildning av AI-verktyg, samt för att eliminera partiskhet i AI-algoritmer.
Förra veckan skrev tio av världens ledande nyhetsbyråer under ett brev där de efterfrågade transparens och tydliga upphovsrättslagar mot AI. Nyhetsbyråerna hävdade att AI har potential att "hota medieekosystemets hållbarhet" genom att avsevärt urholka läsarnas förtroende för nyheternas kvalitet och integritet.
Enligt många studier kan AI användas för att filtrera och välja ut berättelser som mest sannolikt lockar läsare och engagerar dem, vilket skapar en obalans i nyheterna som inte skulle existera om berättelser presenterades på ett objektivt sätt producerade av människor. Allmänheten exponeras bara för en sida av historien, och därför kan de orienteras av ensidig information genererad av AI. Dessutom kan AI användas för att sprida desinformation och falska nyheter till allmänheten genom att presentera påhittade berättelser bredvid verkliga.
AI kan också vara sårbar för falska nyheter. AI-algoritmer är utformade för att bearbeta data snabbt och korrekt, vilket innebär att det är svårt att skilja mellan riktiga och falska nyheter. Dessutom kan AI inte förstå de emotionella och moraliska konsekvenserna av de nyheter den bearbetar. I takt med att AI fortsätter att bli mer avancerad kommer dess sårbarhet för falska nyheter att öka, vilket gör det ännu svårare att skilja mellan vad som är verkligt och vad som är falskt.
Enligt docent Dr. Nguyen Ngoc Oanh - chef för fakulteten för internationella relationer, Academy of Journalism and Communication, är det också en tid då vi, när AI blir kraftfull, måste vara särskilt uppmärksamma och proaktiva inför risken för att skurkar och fientliga krafter använder AI för att sprida skadliga och falska nyheter. Ur ett mediesäkerhetsperspektiv visar detta den potentiella risken för felinformation, förvrängning och falska nyheter. När artificiell intelligens väl tillämpas inom informationsfältet kan tekniken bidra till att falska röster, bilder, skapa falska berättelser och uttalanden som verkar verkliga för att lura allmänheten, särskilt på sociala nätverk.
”De med onda avsikter utnyttjar pressens roll och prestige för att förfalska information och lurar allmänheten med att det är information som tillhandahålls och återspeglas av pressen. Utvecklingen av falska nyheter kommer att bli mer sofistikerad och komplex, och därför måste metoder för att identifiera, reagera på och hantera falska nyheter, tillsammans med ökad vaksamhet, fokusera på att investera i smart teknik och hantera den systematiskt. Kapaciteten hos social förvaltning och pressbyråledningar måste förbättras för att anpassa sig till förändringar”, kommenterade docent Dr. Nguyen Ngoc Oanh.
Nyhetsbranschen måste hitta sätt att skydda sitt kreativa innehåll.
Sedan lanseringen av ChatGPT i november 2022 har nya applikationer baserade på generativ AI driftsatts nästan dagligen. Som ett resultat har internet fyllts med AI-genererat innehåll. Även om det finns en del som är häpnadsväckande, finns det också mycket intetsägande, repetitivt innehåll. Detta gör det lättare att sprida felinformation och lägger en större börda på mediebranschen att bygga och återställa förtroende bland läsarna.
Journalisten Nguyen Hoang Nhat – biträdande chefredaktör för tidningen Vietnamplus, erinrade sig lärdomar från det förflutna, då många experter sa att ett av pressens första stora misstag var att reagera för långsamt på vikten och invasionen av sociala nätverk. ”Vi har gått igenom en lång period av att lägga allt innehåll vi producerar på sociala nätverk och ändra våra kärnsaker för att tjäna dem, vilket ibland inte är vår styrka eller vad läsarna behöver. Kort sagt, vi har gett för mycket makt till sociala nätverk och lett till att sociala nätverk har vändat upp och ner och sväljt oss”, sa journalisten Nguyen Hoang Nhat.
Under den tid då det vietnamesiska damlaget tävlade i VM fylldes sociala medier av källor som spred förvrängd och fabricerad information. (Foto: VTC)
Journalisten Nguyen Hoang Nhat sade att AI generellt sett hjälper nyhetsredaktioner att göra sitt arbete snabbare och spara kostnader, men det kommer att göra redaktörer och reportrar mer överseende, samt bidra till att sprida falsk information snabbare. "Till exempel, under det senaste dam-VM, blev falskt innehåll om det vietnamesiska damlaget fruktansvärt "viralt" genom memes skapade med AI-baserade verktyg, vilket ledde till att den allmänna psykologin hos en del av publiken pressades till extrema ytterligheter", gav journalisten Nguyen Hoang Nhat ett exempel.
Utomlands rapporterade News Guard en häpnadsväckande statistik: 347 nyhetssajter som ser ut som legitima nyhetssajter, men är fulla av AI-genererat innehåll och främjar felinformation. En nyligen genomförd studie av Massachusetts Institute of Technology (MIT) fann att människor är mer benägna att tro på AI-genererad felinformation än på falska nyheter som genererats av människor.
Enligt journalisten Nguyen Hoang Nhat försätter denna verklighet nyhetsbranschen i en position där den måste hitta sätt att skydda sitt kreativa innehåll och sin immateriella egendom, men inte kan vända ryggen åt de bekvämligheter som AI medför.
Docent Dr. Nguyen Ngoc Oanh utvärderade utmaningarna med nyhetsärlighet och sa att även om Chat GPT har många enastående funktioner, är det i slutändan bara ett verktyg som journalister måste lära sig att bemästra, använda det i sina arbetsuppgifter för att skapa verk och pressprodukter i enlighet med yrkets principer. Frågan om att verifiera reportrars och journalisters informationskällor är oerhört viktig om de inte vill "hjälpa" till spridningen av felaktig information.
Genom många seminarier och diskussioner om artificiell intelligens har man kommit fram till att risken med att använda falska data och nyheter i journalistiska verk är mycket hög om innehållshanteringen på redaktionen inte kan hålla jämna steg med utvecklingen av digital teknik . I det sammanhanget att den juridiska korridoren för digital journalistik i Vietnam ännu inte har hållit jämna steg med verkligheten är juridiska problem, hot mot mediesäkerheten, fall av upphovsrättsintrång och kontroverser om journalistisk etik, pressens sociala ansvar vid tillämpning av automatiserad journalistik... stora utmaningar idag.
Phan Hoa Giang
[annons_2]
Källa
Kommentar (0)