Jak podaje Reuters, w 20-stronicowym dokumencie opublikowanym 26 listopada 18 krajów zgodziło się, że firmy zajmujące się badaniami i zastosowaniami sztucznej inteligencji muszą rozwijać i wdrażać tę technologię w sposób, który zapobiega nadużyciom wobec klientów i ogółu społeczeństwa.
Umowa nie ma charakteru wiążącego i zawiera głównie ogólne zalecenia, takie jak monitorowanie systemów AI w celu wykrywania i zapobiegania nadużyciom, ochrona danych i weryfikacja dostawców oprogramowania.
Rozwój sztucznej inteligencji prowadzi do wyścigu na polu technologii, jak również budzi wiele obaw.
Jen Easterly, dyrektor amerykańskiej Agencji ds. Cyberbezpieczeństwa i Bezpieczeństwa Infrastruktury, stwierdziła jednak, że istotne jest, iż tak wiele krajów podziela pogląd, że systemy sztucznej inteligencji muszą stawiać bezpieczeństwo na pierwszym miejscu.
„Po raz pierwszy widzimy, że kraje zgadzają się, że te możliwości nie ograniczają się tylko do atrakcyjności funkcji, szybkości wprowadzenia ich na rynek ani możliwości konkurowania w celu obniżenia kosztów” – powiedział Easterly agencji Reuters. Urzędnik dodał, że wytyczne stanowią „porozumienie, że najważniejszą rzeczą, którą należy zapewnić na etapie projektowania, jest bezpieczeństwo”.
Porozumienie to jest najnowszą z serii inicjatyw podejmowanych przez rządy na całym świecie, mających na celu kształtowanie rozwoju sztucznej inteligencji, której wpływ jest coraz bardziej odczuwalny w różnych gałęziach przemysłu i całym społeczeństwie.
Dokument porusza kwestie ochrony systemów AI przed atakami hakerskimi i zawiera zalecenia, takie jak udostępnianie nowych modeli dopiero po przeprowadzeniu gruntownego testu bezpieczeństwa. Nowe wytyczne nie poruszają drażliwych kwestii dotyczących właściwego wykorzystania AI ani sposobu gromadzenia danych zasilających te modele.
Rozwój sztucznej inteligencji budzi wiele obaw, m.in. że sztuczna inteligencja może zostać wykorzystana w celu zakłócania procesów demokratycznych, promowania oszustw lub doprowadzenia do masowego bezrobocia, a to tylko niektóre z zagrożeń.
Europa wyprzedza Stany Zjednoczone w zakresie wprowadzania przepisów związanych ze sztuczną inteligencją. Francja, Niemcy i Włochy również niedawno osiągnęły porozumienie w sprawie sposobu regulacji tego obszaru, uwzględniając podstawowe modele sztucznej inteligencji.
Administracja Bidena wywierała presję na ustawodawców w sprawie regulacji dotyczących sztucznej inteligencji, ale głęboko podzielony Kongres poczynił niewielkie postępy w uchwalaniu skutecznych przepisów.
Biały Dom postanowił ograniczyć ryzyko, jakie sztuczna inteligencja stwarza dla konsumentów, pracowników i mniejszości, a jednocześnie wzmocnić bezpieczeństwo narodowe, wydając w październiku nowe rozporządzenie wykonawcze.
Link źródłowy
Komentarz (0)