Gwałtowny rozwój sztucznej inteligencji (AI) budzi obawy, że rozwija się ona szybciej, niż ludzie są w stanie zrozumieć jej wpływ.
Zdjęcie: ST
Wykorzystanie sztucznej inteligencji (AI) znacznie wzrosło po pojawieniu się narzędzi takich jak ChatGPT. Chociaż narzędzia te mają wiele zalet, mogą być również wykorzystywane w szkodliwy sposób.
Aby zarządzać tym ryzykiem, Stany Zjednoczone i kilka innych krajów zawarły umowy z siedmioma firmami, w tym Amazon, Anthropic, Google, Inflection, Meta, Microsoft i OpenAI, zobowiązujące je do stosowania bezpiecznych praktyk przy rozwijaniu technologii sztucznej inteligencji.
Ogłoszenie Białego Domu wiąże się z własną terminologią, która może być nieznana przeciętnemu człowiekowi, taką jak „red teaming” i „watermarking”. Oto siedem terminów związanych ze sztuczną inteligencją, na które warto zwrócić uwagę.
Uczenie maszynowe
Ta gałąź sztucznej inteligencji ma na celu nauczenie maszyn precyzyjnego wykonywania określonego zadania poprzez identyfikację wzorców. Maszyna może następnie formułować prognozy na podstawie tych danych.
Głębokie uczenie się
Zadania kreatywne związane ze sztuczną inteligencją często opierają się na uczeniu głębokim, czyli metodzie polegającej na trenowaniu komputerów przy użyciu sieci neuronowych, czyli zestawu algorytmów zaprojektowanych tak, aby naśladować neurony w mózgu człowieka, w celu tworzenia złożonych połączeń między wzorcami w celu generowania tekstu, obrazów lub innej treści.
Ponieważ modele głębokiego uczenia składają się z wielu warstw neuronów, mogą uczyć się bardziej złożonych wzorców niż tradycyjne uczenie maszynowe.
Duży model językowy
Model dużego języka, czyli LLM, jest trenowany na ogromnych zbiorach danych i ma na celu modelowanie języka lub przewidywanie kolejnego słowa w sekwencji. Duże modele języka, takie jak ChatGPT i Google Bard, mogą być wykorzystywane do zadań takich jak podsumowywanie, tłumaczenie i konwersacja.
Algorytm
Zestaw instrukcji lub reguł, które pozwalają maszynom formułować przewidywania, rozwiązywać problemy lub wykonywać zadania. Algorytmy mogą dostarczać rekomendacje zakupowe, pomagać w wykrywaniu oszustw i obsłudze klienta za pomocą czatu.
Stronniczość
Ponieważ sztuczna inteligencja jest trenowana z wykorzystaniem dużych zbiorów danych, może ona włączać do nich szkodliwe informacje, takie jak mowa nienawiści. W zbiorach danych wykorzystywanych do trenowania sztucznej inteligencji mogą również pojawiać się treści rasistowskie i seksistowskie, co prowadzi do wprowadzania w błąd.
Firmy zajmujące się sztuczną inteligencją zgodziły się zbadać szczegółowo, jak unikać szkodliwych uprzedzeń i dyskryminacji w systemach sztucznej inteligencji.
Czerwony zespół
Jednym z zobowiązań, jakie firmy złożyły Białemu Domowi, jest przeprowadzenie wewnętrznych i zewnętrznych audytów w zakresie modeli i systemów sztucznej inteligencji.
„Red teaming” polega na testowaniu modelu w celu wykrycia potencjalnych luk w zabezpieczeniach. Termin ten pochodzi z praktyki wojskowej , w której zespół symuluje działania atakującego, aby opracować strategie.
Metoda ta jest powszechnie stosowana do testowania luk w zabezpieczeniach systemów, takich jak platformy przetwarzania w chmurze firm takich jak Microsoft i Google.
Znak wodny
Znak wodny to sposób na stwierdzenie, czy dźwięk lub obraz został stworzony przez sztuczną inteligencję. Weryfikacja danych może obejmować informacje o tym, kto go stworzył, a także o tym, jak i kiedy został stworzony lub edytowany.
Na przykład Microsoft zobowiązał się do znakowania wodnego obrazów tworzonych przez swoje narzędzia sztucznej inteligencji. Firmy zobowiązały się również wobec Białego Domu do znakowania wodnego obrazów lub rejestrowania ich pochodzenia, aby identyfikować je jako wygenerowane przez sztuczną inteligencję.
Znaki wodne są również powszechnie wykorzystywane do śledzenia naruszeń praw własności intelektualnej. Znaki wodne w obrazach generowanych przez sztuczną inteligencję mogą wyglądać jak niezauważalny szum, na przykład niewielka zmiana co siódmy piksel.
Jednak dodawanie znaku wodnego do tekstu wygenerowanego przez sztuczną inteligencję może być bardziej skomplikowane i może wymagać zmiany szablonu tekstu, tak aby można go było zidentyfikować jako treść wygenerowaną przez sztuczną inteligencję.
Hoang Ton (według Poyntera)
Źródło






Komentarz (0)