Żyjemy w erze rewolucji przemysłowej 4.0, w której sztuczna inteligencja (AI) stopniowo staje się nieodzownym elementem wielu dziedzin życia społecznego. Media, jako pomost informacyjny między odbiorcami a wydarzeniami, nie mogą pozostać poza tym trendem.
| Pani Nguyen Thi Hai Van – Dyrektor Centrum Szkolenia Dziennikarskiego Wietnamskiego Stowarzyszenia Dziennikarzy na warsztatach poświęconych technologii sztucznej inteligencji. (Źródło: Wietnamskie Stowarzyszenie Dziennikarzy) |
Aby w pełni wykorzystać zalety sztucznej inteligencji, osoby zajmujące się komunikacją muszą posiąść wiedzę, która pozwoli im skutecznie korzystać ze sztucznej inteligencji, a jednocześnie zadbać o niezawodność i etykę w przekazywaniu informacji.
Od „gorącego” charakteru sztucznej inteligencji
Nie ulega wątpliwości, że AI (sztuczna inteligencja) to obecnie jedno z najgorętszych słów kluczowych. We wrześniu 2024 roku wyszukiwanie w Google hasła „AI” w ciągu 0,3 sekundy przyniosło 15 miliardów 900 milionów wyników; w przypadku hasła „narzędzia AI” w ciągu 0,4 sekundy odnotowano ponad 3 miliardy 400 milionów wyników. Te ogromne liczby pokazują globalny zasięg i zainteresowanie sztuczną inteligencją i narzędziami opartymi na AI.
Obecnie pojawia się coraz więcej narzędzi AI dla różnych branż, w tym dla branży medialnej. Oprócz powszechnie znanego ChatGPT, istnieje wiele aplikacji AI opracowanych w wyspecjalizowanym kierunku, służących do realizacji specjalistycznych zadań. Nietrudno wymienić tu wiele narzędzi, na przykład: Bing AI, Clause, Zapier Central dla grupy zadań Chatbot; Jasper, Copy.ai, Anyword dla zadań tworzenia treści; Descript, Wondershare, Runway dla zadań produkcji i edycji wideo ; DALL-E3, Midjourney, Stable Diffusion dla zadań tworzenia obrazów; Murf, AIVA dla zadań związanych z treściami audio itp. Niedawno gigant Amazon również zaprezentował opracowane przez siebie narzędzia AI, Video Generator i Image Generator, mające na celu „inspirowanie kreatywności i generowanie większej wartości”.
Mimo że narzędzia AI są bardzo zróżnicowane pod względem skali i poziomu specjalizacji, technologia ta ma zasadniczo dwie wspólne cechy: narzędzia AI są opracowywane w oparciu o algorytmy i dane, które mają na celu „wyszkolenie” narzędzi AI.
Kontrola etyczna wykorzystania sztucznej inteligencji w mediach
Nie da się zaprzeczyć wygodzie, jaką oferują narzędzia AI, a wraz z szybkim tempem rozwoju technologii, coraz więcej wyspecjalizowanych narzędzi AI będzie pojawiać się w każdym zakątku świata, realizując zadania od prostych do złożonych w branży medialnej. Wraz z tym przytłaczającym rozwojem pojawia się wiele pytań dotyczących kwestii kontroli etycznej w rozwoju i wykorzystaniu narzędzi AI w branży medialnej? Co się stanie, jeśli algorytmy i dane tego narzędzia AI zostaną zmanipulowane w sposób szkodliwy dla społeczności? Kto gwarantuje prawa własności intelektualnej do danych wejściowych, które narzędzie AI wykorzystuje do szkoleń? Kto ocenia poziom szkód, jakie wyrządzają?
Czy istnieje nierówność między grupą osób mających dostęp do narzędzi AI a grupą osób, które nie mają do nich dostępu w tym samym zadaniu? Pojawiły się nawet pytania o potencjalny poziom niekontrolowanych szkód wyrządzanych przez narzędzia AI, zwłaszcza w obszarach wrażliwych, które mogą mieć wpływ na wiele osób na dużą skalę, takich jak media i sieci społecznościowe.
Dostrzegając powyższe obawy, wiele organizacji, stowarzyszeń, rządów, a nawet firm i korporacji opracowujących narzędzia AI wydało zalecenia, wyjaśnienia, a nawet kodeksy postępowania dotyczące kwestii kontroli etycznej w technologii AI. Przyjęta przez 193 kraje w 2021 roku Deklaracja w sprawie etyki sztucznej inteligencji – Rekomendacja UNESCO – Organizacji Narodów Zjednoczonych do spraw Oświaty , Nauki i Kultury, jasno stwierdza, że „szybki rozwój sztucznej inteligencji (AI) stworzył wiele możliwości na całym świecie, od wspomagania diagnozy w opiece zdrowotnej, przez umożliwienie kontaktu międzyludzkiego za pośrednictwem mediów społecznościowych, po zwiększenie wydajności pracy poprzez automatyzację zadań”.
Jednak te gwałtowne zmiany rodzą również poważne obawy natury etycznej. Takie zagrożenia związane ze sztuczną inteligencją zaczęły pogłębiać istniejące nierówności, prowadząc do dalszych szkód dla grup już znajdujących się w niekorzystnej sytuacji…”. A następnie „zwrócić się do UNESCO o opracowanie narzędzi wspierających państwa członkowskie, w tym Metodologii Oceny Gotowości, narzędzia umożliwiającego rządom zbudowanie kompleksowego obrazu ich gotowości do etycznego i odpowiedzialnego wdrażania sztucznej inteligencji dla wszystkich obywateli”.
W ramach swojego globalnego podejścia UNESCO uruchomiło Globalne Obserwatorium Etyki i Zarządzania Sztuczną Inteligencją (Global AI Ethics and Governance Observatory), które – jak twierdzi – „dostarcza informacji na temat gotowości krajów do etycznego i odpowiedzialnego wdrażania sztucznej inteligencji. Działa tam również Laboratorium Etyki i Zarządzania Sztuczną Inteligencją (AI Ethics and Governance Lab), które gromadzi wkład, wpływowe badania, zestawy narzędzi i pozytywne praktyki dotyczące szerokiego zakresu zagadnień etycznych związanych ze sztuczną inteligencją…”.
Oprócz organizacji globalnych, takich jak UNESCO, wiele stowarzyszeń zawodowych pracuje również nad opracowaniem własnych standardów. Na przykład IABC – Międzynarodowe Stowarzyszenie Komunikacji Biznesowej, zrzeszające tysiące członków z całego świata, opracowało zbiór zasad etycznego wykorzystania sztucznej inteligencji przez specjalistów ds. komunikacji, który ma na celu wskazanie członkom IABC znaczenia Kodeksu Etyki IABC dla sztucznej inteligencji. Wytyczne te mogą być aktualizowane i uzupełniane wraz z rozwojem technologii sztucznej inteligencji. W tym zbiorze zasad znajduje się wiele konkretnych punktów, których powinien przestrzegać specjalista ds. komunikacji, takich jak:
„Wykorzystywane zasoby sztucznej inteligencji muszą być oparte na ludzkim doświadczeniu, aby tworzyć pozytywne i transparentne doświadczenia, które budują szacunek i zaufanie w branży medialnej. Ważne jest, aby być na bieżąco z możliwościami zawodowymi i ryzykiem, jakie stwarzają narzędzia sztucznej inteligencji. Informacje muszą być przekazywane precyzyjnie, obiektywnie i uczciwie. Narzędzia sztucznej inteligencji mogą być podatne na wiele błędów, niespójności i innych problemów technicznych. Wymaga to ludzkiej oceny, aby niezależnie zweryfikować, czy moje treści generowane przez sztuczną inteligencję są dokładne, transparentne i nie zawierają plagiatu.
Chroń dane osobowe i/lub poufne innych osób i nie wykorzystuj ich bez ich zgody. Oceniaj wyniki swojej sztucznej inteligencji w oparciu o zaangażowanie ludzi i zrozumienie społeczności, której ma służyć. Eliminuj uprzedzenia w miarę swoich możliwości i bądź wrażliwy na wartości kulturowe i przekonania innych.
Musi samodzielnie weryfikować fakty i weryfikować własne wyniki z zachowaniem niezbędnej profesjonalnej staranności, aby zapewnić dokładność dokumentacji, informacji lub źródeł zewnętrznych, niezbędne oznaczenie i weryfikację oraz odpowiednie licencje lub autoryzacje do użytku. Nie wolno próbować ukrywać ani maskować wykorzystania sztucznej inteligencji w swoich wynikach. Należy mieć świadomość otwartego charakteru sztucznej inteligencji (AI) oraz kwestii związanych z poufnością, w tym wprowadzania fałszywych, wprowadzających w błąd lub oszukańczych informacji.
Firmy i korporacje, które posiadają, rozwijają i sprzedają narzędzia AI, to właśnie one lepiej niż ktokolwiek inny rozumieją ich tajniki, znają algorytmy, na których działają narzędzia AI, oraz dane, na podstawie których są one trenowane. Dlatego firmy te muszą również dostarczać informacje dotyczące zasad etyki w rozwoju AI. Co więcej, istnieją firmy, które interesują się tą kwestią.
Google zobowiązuje się do nieopracowywania narzędzi AI w obszarach, w których istnieje znaczne ryzyko szkody. Będziemy działać tylko tam, gdzie korzyści znacząco przewyższają ryzyko i zastosujemy odpowiednie zabezpieczenia. Broń lub inne technologie, których głównym celem lub zastosowaniem jest spowodowanie lub bezpośrednie ułatwienie obrażeń u ludzi. Technologie gromadzące lub wykorzystujące informacje do inwigilacji, które naruszają normy międzynarodowe. Technologie, których cel narusza ogólnie przyjęte zasady prawa międzynarodowego i praw człowieka.
W zakresie bezpieczeństwa Google deklaruje: „Będziemy nadal rozwijać i wdrażać solidne środki bezpieczeństwa, aby uniknąć niezamierzonych skutków, które stwarzają ryzyko szkód. Będziemy projektować nasze systemy sztucznej inteligencji z zachowaniem odpowiedniej ostrożności i dążyć do ich rozwoju zgodnie z najlepszymi praktykami w zakresie badań nad bezpieczeństwem sztucznej inteligencji. Będziemy uwzględniać nasze zasady prywatności w rozwoju i użytkowaniu naszych technologii sztucznej inteligencji. Będziemy zapewniać możliwości powiadamiania i uzyskiwania zgody, promować architekturę chroniącą prywatność oraz zapewniać odpowiednią przejrzystość i kontrolę nad wykorzystaniem danych”.
Podobnie jak Google, Microsoft również wydał oświadczenie w sprawie zasad i podejścia do sztucznej inteligencji (AI), podkreślając: „Zobowiązujemy się do zapewnienia, że systemy AI są rozwijane w sposób odpowiedzialny i zapewniający zaufanie ludzi…”. Ponadto, w taki czy inny sposób, duże firmy technologiczne, które inwestują znaczne środki w rozwój narzędzi AI, takie jak Amazon i OpenAI, również złożyły własne zobowiązania.
Wiele przykładów w historii dowiodło dualizmu technologii, z czynnikami pozytywnymi i negatywnymi. W końcu, mimo że jest to platforma technologiczna o bardzo „wysokiej technologii”, sztuczna inteligencja nadal opiera się na algorytmach i danych opracowanych i zebranych przez ludzi; jednocześnie większość produktów z zakresu sztucznej inteligencji stanowi element planów biznesowych firm, które są ich właścicielami.
W związku z tym zawsze istnieją potencjalne zagrożenia zarówno ze strony technicznej, jak i ze strony samego zespołu ds. rozwoju produktu i zarządzania. Problemem jest skala wpływu, jaki narzędzia AI mogą mieć na większość, nawet na poziomie społeczno-ekonomicznym danej społeczności. Wczesne zwrócenie uwagi na kontrolę etyczną podczas korzystania z technologii AI jest mile widzianym sygnałem, zwłaszcza dzięki zaangażowaniu dużych organizacji międzynarodowych, takich jak Organizacja Narodów Zjednoczonych, rządów, stowarzyszeń branżowych, a przede wszystkim jednostek rozwoju technologii.
Jednak wraz z ciągłym pojawianiem się nowych wersji narzędzi AI, z których każda jest bardziej zaawansowana i złożona od poprzedniej, Kodeksy, Zasady i Wytyczne również muszą być aktualizowane i uzupełniane w odpowiednim czasie, a ponadto muszą proaktywnie zapobiegać, ograniczać i kontrolować twórców produktów oraz użytkowników w ramach struktury, w której zdolność do przestrzegania Kontroli etycznej w technologii AI w ogóle, a pracowników mediów w szczególności, może osiągnąć najwyższą wydajność.
Źródło






Komentarz (0)