Žijeme v éře průmyslové revoluce 4.0, kde se umělá inteligence (AI) postupně stává nepostradatelnou součástí mnoha oblastí společenského života. Média jakožto most informací mezi veřejností a událostmi nemohou být tomuto trendu stranou.
| Paní Nguyen Thi Hai Van - ředitelka Centra pro žurnalistické vzdělávání Vietnamské asociace novinářů na workshopu o technologiích umělé inteligence. (Zdroj: Vietnamská asociace novinářů) | 
Aby komunikátoři mohli co nejlépe využít výhod, které umělá inteligence přináší, musí se vybavit znalostmi pro efektivní používání umělé inteligence a zároveň zajistit spolehlivost a etiku při přenosu informací.
Z „žhavosti“ umělé inteligence
Je naprosto jasné, že AI (umělá inteligence) je dnes jedním z nejžhavějších klíčových slov. V září 2024 zaznamenalo vyhledávání klíčového slova „AI“ ve Vyhledávání Google za 0,3 sekundy 15 miliard 900 milionů výsledků; s klíčovým slovem „nástroje AI“ za 0,4 sekundy bylo zaznamenáno více než 3 miliardy 400 milionů výsledků. Tato obrovská čísla ukazují pokrytí a zájem o AI a nástroje založené na AI po celém světě.
V současné době se objevuje stále více nástrojů umělé inteligence pro různé oblasti, včetně mediálního průmyslu. Kromě široce známého ChatGPT existuje mnoho aplikací umělé inteligence vyvinutých specializovaným směrem, které slouží specializovaným úkolům. Není těžké zde vyjmenovat mnoho nástrojů, například: Bing AI, Clause, Zapier Central pro skupinu Chatbotů; Jasper, Copy.ai, Anyword pro úkoly tvorby obsahu; Descript, Wondershare, Runway pro úkoly produkce a editace videa ; DALL-E3, Midjourney, Stable Diffusion pro úkoly tvorby obrázků; Murf, AIVA pro úkoly zvukového obsahu atd. a nedávno také gigant Amazon představil nástroje umělé inteligence, které vyvinuli, Video Generator a Image Generator, s cílem „inspirovat kreativitu a přinést větší hodnotu“.
Přestože se nástroje umělé inteligence velmi liší co do rozsahu nebo úrovně specializace, v podstatě mají tyto technologie dvě společné věci: nástroje umělé inteligence jsou vyvíjeny na základě algoritmů a dat, které je „trénují“.
Etická kontrola používání umělé inteligence v médiích
Nelze popřít výhody, které nástroje umělé inteligence přinášejí, a s rychlým tempem technologických aktualizací bude v každém rohu stále více specializovaných nástrojů umělé inteligence, které budou řešit úkoly od jednoduchých po složité v mediálním průmyslu. Spolu s tímto ohromujícím rozvojem vyvstává mnoho otázek ohledně etické kontroly vývoje a používání nástrojů umělé inteligence v mediálním průmyslu? Co se stane, když budou algoritmy a data daného nástroje umělé inteligence manipulována způsobem, který poškodí komunitu? Kdo zaručuje práva duševního vlastnictví ke vstupním datům, která nástroj umělé inteligence používá pro školení? Kdo posuzuje míru škody, kterou způsobují?
Existuje nerovnost mezi skupinou lidí, kteří mají přístup k nástrojům umělé inteligence, a skupinou, která k nim přístup nemá, ve stejném úkolu? Objevily se dokonce otázky ohledně potenciální úrovně nekontrolovaného poškození způsobeného nástroji umělé inteligence, zejména v citlivých oblastech, které mohou ve velkém měřítku ovlivnit mnoho lidí, jako jsou média a sociální sítě.
Vzhledem k výše uvedeným obavám vydalo mnoho organizací, sdružení, vlád a dokonce i společností a korporací vyvíjejících nástroje umělé inteligence doporučení, vysvětlení a dokonce i kodexy chování týkající se otázky etické kontroly v technologiích umělé inteligence. Deklarace o etice umělé inteligence – doporučení UNESCO – Organizace spojených národů pro výchovu , vědu a kulturu, kterou v roce 2021 přijalo 193 zemí, jasně uvádí, že „rychlý vzestup umělé inteligence (AI) vytvořil mnoho příležitostí na celém světě, od pomoci s diagnózami ve zdravotnictví až po umožnění lidského propojení prostřednictvím sociálních médií a zvyšování efektivity práce prostřednictvím automatizovaných úkolů.“
Tyto rychlé změny však zároveň vyvolávají hluboké etické obavy. Taková rizika spojená s umělou inteligencí začala zhoršovat stávající nerovnosti a vést k dalšímu poškození již tak znevýhodněných skupin…“. A dále „žádají UNESCO, aby vyvinulo nástroje na podporu členských států, včetně Metodiky hodnocení připravenosti, nástroje, který vládám umožní vytvořit si komplexní obraz o jejich připravenosti eticky a zodpovědně zavádět umělou inteligenci pro všechny své občany“.
V rámci svého globálního přístupu UNESCO spustilo Globální observatoř pro etiku a správu umělé inteligence, která podle jejích slov „poskytuje informace o připravenosti zemí eticky a zodpovědně přijmout umělou inteligenci. Hostí také Laboratoř pro etiku a správu umělé inteligence, která sdružuje příspěvky, dopadný výzkum, sady nástrojů a pozitivní postupy v široké škále etických otázek umělé inteligence…“
Kromě globálních organizací, jako je UNESCO, pracuje na vývoji vlastních standardů i mnoho profesních sdružení. Například IABC – Mezinárodní asociace obchodní komunikace (International Association of Business Communications), sdružení s tisíci členy z celého světa, vypracovalo soubor zásad pro etické používání umělé inteligence profesionály v oblasti komunikace. Jeho cílem je vést členy IABC k relevanci etického kodexu IABC pro umělou inteligenci. Tyto pokyny mohou být v průběhu času aktualizovány a doplňovány souběžně s vývojem technologie umělé inteligence. V tomto souboru zásad existuje mnoho specifických bodů, kterých by se měl profesionál v oblasti komunikace držet, například:
„Použité zdroje umělé inteligence musí být řízeny lidmi, aby vytvářely pozitivní a transparentní zkušenosti, které podporují respekt a budují důvěru v mediální profesi. Je důležité být informován o profesních příležitostech a rizicích, která nástroje umělé inteligence představují. Informace musí být sdělovány přesně, objektivně a spravedlivě. Nástroje umělé inteligence mohou být vystaveny mnoha chybám, nesrovnalostem a dalším technickým problémům. To vyžaduje lidský úsudek, aby nezávisle ověřil, zda je můj obsah generovaný umělou inteligencí přesný, transparentní a plagiát.“
Chrání osobní a/nebo důvěrné informace ostatních a nebudou je používat bez jejich svolení. Vyhodnocuje výstupy umělé inteligence na základě lidské angažovanosti a pochopení komunity, které se snaží sloužit. Eliminuje co nejlépe předpojatost a je citlivý ke kulturním hodnotám a přesvědčení ostatních.
Musí nezávisle ověřovat fakta a ověřit své vlastní výstupy s nezbytnou profesionální důsledností, aby zajistili, že dokumentace, informace nebo odkazy třetích stran jsou přesné, mají potřebné uvedení zdroje a ověření a jsou řádně licencovány nebo autorizovány k použití. Nepokoušejte se zatajovat nebo maskovat použití umělé inteligence ve svých profesionálních výstupech. Uznávejte open-source povahu umělé inteligence a otázky související s důvěrností, včetně zadávání nepravdivých, zavádějících nebo klamavých informací.
Společnosti a korporace, které vlastní, vyvíjejí a obchodují s nástroji umělé inteligence, rozumí jejich detailům lépe než kdokoli jiný, znají základní algoritmy, na kterých nástroje umělé inteligence fungují, a data, ze kterých jsou nástroje umělé inteligence trénovány. Proto musí tyto společnosti poskytovat informace týkající se principů etiky ve vývoji umělé inteligence. Ve skutečnosti existují společnosti, které se o tuto problematiku zajímají.
Společnost Google se zavazuje, že nebude vyvíjet nástroje umělé inteligence pro oblasti, kde existuje značné riziko újmy. Budeme postupovat pouze tam, kde se domníváme, že přínosy výrazně převažují nad riziky, a zahrneme do nich vhodná ochranná opatření. Zbraně nebo jiné technologie, jejichž primárním účelem nebo nasazením je způsobit nebo přímo usnadnit lidské zranění. Technologie, které shromažďují nebo používají informace ke sledování, jež porušuje mezinárodně uznávané normy. Technologie, jejichž účel porušuje obecně uznávané zásady mezinárodního práva a lidských práv.
V oblasti bezpečnosti se Google zavazuje: „Budeme i nadále vyvíjet a zavádět robustní bezpečnostní opatření, abychom předešli nezamýšleným výsledkům, které vytvářejí rizika újmy. Naše systémy umělé inteligence navrhneme tak, aby byly dostatečně opatrné, a budeme se snažit je vyvíjet v souladu s osvědčenými postupy ve výzkumu bezpečnosti umělé inteligence. Do vývoje a používání našich technologií umělé inteligence začleníme naše zásady ochrany soukromí. Poskytneme možnosti pro oznámení a souhlas, budeme podporovat architektury chránící soukromí a zajistíme odpovídající transparentnost a kontrolu nad používáním dat.“
Podobně jako Google, i Microsoft vydal prohlášení k principům a přístupu k umělé inteligenci, v němž zdůraznil: „Zavázali jsme se k zajištění toho, aby systémy umělé inteligence byly vyvíjeny zodpovědně a způsobem, který zajistí důvěru lidí...“. Kromě toho se tak či onak zavázaly i velké technologické společnosti, které do vývoje nástrojů umělé inteligence investují značné prostředky, jako jsou Amazon a OpenAI.
Mnoho příkladů v historii prokázalo dualitu technologie, s pozitivními i negativními faktory. Koneckonců, ačkoli se jedná o velmi „high-tech“ platformu, umělá inteligence je stále založena na algoritmech a datech vyvinutých a shromážděných lidmi; zároveň je většina produktů umělé inteligence součástí obchodních plánů společností, které je vlastní.
Proto vždy existují potenciální rizika z technického hlediska i ze strany samotného týmu pro vývoj a řízení produktů. Problémem je zde rozsah dopadu, který mohou mít nástroje umělé inteligence na většinu, a to i na socioekonomickou úroveň komunity. Včasná pozornost věnovaná etické kontrole při používání technologií umělé inteligence je vítaným znamením, a to za účasti velkých mezinárodních organizací, jako je Organizace spojených národů, vlády, průmyslová sdružení a především přímo na úrovni jednotek technologického vývoje.
Vzhledem k tomu, že seznam nástrojů umělé inteligence neustále vydává nové verze, z nichž každá je sofistikovanější a komplexnější než ta předchozí, je nutné včas aktualizovat a doplňovat i kodexy, zásady nebo směrnice a navíc musí být proaktivní v prevenci, omezování a kontrole vývojářů produktů a uživatelů v rámci, kde schopnost dodržovat etickou kontrolu v technologiích umělé inteligence obecně a zejména u mediálních pracovníků může dosáhnout nejvyšší efektivity.
Zdroj






Komentář (0)