Premier Japonii Fumio Kishida powiedział, że zaproponuje grupie G7 plan mający na celu uregulowanie działalności twórców sztucznej inteligencji (AI).
Celem tych zasad jest zapobieganie rozpowszechnianiu dezinformacji poprzez podnoszenie świadomości społeczeństwa w zakresie rozróżniania obrazów i informacji wytwarzanych przez sztuczną inteligencję od informacji, które nie są generowane przez algorytmy.
Oczekuje się, że proponowane wytyczne zostaną przedstawione już jesienią tego roku, podczas wirtualnego spotkania siedmiu największych gospodarek świata (G7).
W raporcie stwierdzono, że Japonia jest zaniepokojona skomplikowanymi obrazami i informacjami generowanymi przez sztuczną inteligencję, które mogą wprowadzać opinię publiczną w błąd i zagrażać stabilności gospodarczej.
Tymczasem brytyjski organ nadzorujący ochronę danych stwierdził, że chatboty oparte na sztucznej inteligencji (AI) mogą stanowić zagrożenie dla prywatności dzieci. W tym przypadku przykładem jest chatbot „My AI” opracowany przez amerykańską firmę technologiczną Snapchat.
Władze twierdzą, że Snapchat mógł niedoszacować ryzyka dla prywatności dzieci, jakie stwarzał chatbot oparty na sztucznej inteligencji, uruchomiony w kwietniu ubiegłego roku. Biuro Komisarza ds. Informacji (ICO) oświadczyło, że jeśli amerykańska firma nie będzie w stanie odpowiednio zareagować na obawy regulatorów, rozważy wprowadzenie zakazu stosowania aplikacji opartej na sztucznej inteligencji w całym kraju.
„Wstępne ustalenia śledztwa wskazują, że Snap nie dokonał odpowiedniej i dokładnej oceny ryzyka związanego z prywatnością dzieci i innych użytkowników przed uruchomieniem aplikacji AI” – powiedział przedstawiciel ICO.
Oświadczenie organu regulacyjnego nie oznacza jednak, że Snapchat, aplikacja do przesyłania wiadomości popularna wśród młodych ludzi w Wielkiej Brytanii, naruszyła przepisy o ochronie danych.
Firma Snap poinformowała, że analizuje ogłoszenie ICO i zobowiązuje się do ochrony prywatności użytkowników. „Nasza sztuczna inteligencja przeszła rygorystyczny proces weryfikacji pod kątem prywatności i przepisów prawnych przed jej upublicznieniem” – poinformowała amerykańska firma technologiczna. „Będziemy nadal konstruktywnie współpracować z ICO, aby rozwiać obawy dotyczące naszych procesów oceny ryzyka”.
ICO bada, w jaki sposób „My AI” przetwarzało dane osobowe około 21 milionów użytkowników Snapchata w Wielkiej Brytanii, w tym dzieci w wieku 13–17 lat.
Aplikacja opracowana przez Snapchata działa w oparciu o platformę ChatGPT firmy OpenAI – najbardziej znany przykład generatywnej sztucznej inteligencji, którą decydenci na całym świecie próbują zarządzać w kontekście obaw o prywatność i bezpieczeństwo.
Portale społecznościowe, w tym Snapchat, wymagają od użytkowników ukończenia 13 lat, jednak nie zawsze udaje im się skutecznie uniemożliwić nieletnim korzystanie z ich platform.
Wcześniej, w sierpniu 2023 r., agencja Reuters poinformowała, że organy regulacyjne gromadzą informacje w celu ustalenia, czy aplikacja do przesyłania wiadomości skutecznie usuwa nieletnich użytkowników ze swojej platformy.
(Według Bloomberga i Reutersa)
Meta wykorzystuje dane użytkowników Facebooka i Instagrama do trenowania swojego chatbota opartego na sztucznej inteligencji.
Firma Meta twierdzi, że wykorzystuje publicznie udostępniane przez użytkowników posty na Facebooku i Instagramie do szkolenia swojego nowego wirtualnego asystenta, będącego sztuczną inteligencją (AI), nie uwzględnia jednak treści udostępnianych wyłącznie rodzinie i znajomym.
Microsoft wprowadza na rynek wirtualnego asystenta-czatbota ze sztuczną inteligencją Copilot.
Rozwiązanie Microsoft Copilot będzie dostępne w systemie Windows 11, pakiecie Microsoft 365, przeglądarce Edge i wyszukiwarce Bing.
W chatbocie Bard opartym na sztucznej inteligencji firmy Google pojawią się trzy nowe funkcje.
Wśród nowych funkcji, które pojawią się w Google Bard, można wymienić weryfikację poprawności odpowiedzi, importowanie danych użytkowników pomiędzy aplikacjami i zapraszanie innych osób do czatowania z chatbotami.
Źródło






Komentarz (0)