Dyrektor generalny OpenAI zaapelował również do Kongresu USA o szybkie wprowadzenie przepisów i wytycznych regulujących tę dziedzinę technologii.
W ciągu ostatnich kilku miesięcy duże i małe firmy technologiczne prześcigały się w wydawaniu miliardów dolarów na wprowadzenie na rynek produktów opartych na sztucznej inteligencji. Niektórzy krytycy obawiają się, że technologia ta zaostrzy problemy społeczne, takie jak uprzedzenia i dezinformacja, a także obawy, że sztuczna inteligencja może doprowadzić do końca ludzkiego istnienia.
„Nie ma sposobu, żeby włożyć dżina z powrotem do butelki. Ta dziedzina naprawdę eksplodowała na całym świecie” – powiedział senator Cory Booker, jeden z wielu prawodawców poszukujących odpowiedzi na pytanie, jak regulować kwestie związane ze sztuczną inteligencją.
Tymczasem senator Mazie Hirono zauważyła rosnące ryzyko dezinformacji w miarę zbliżania się wyborów w USA w 2024 roku. „Wyobraźcie sobie, co by się stało, gdyby tuż przed dniem wyborów ludzie zobaczyli zdjęcie aresztowania byłego prezydenta Trumpa przez nowojorską policję, szybko rozprzestrzeniające się w internecie”.
Podczas swojego pierwszego wystąpienia przed Kongresem Altman zasugerował, że Stany Zjednoczone powinny rozważyć wprowadzenie wymogów licencyjnych i przeprowadzenie testów w celu opracowania modeli sztucznej inteligencji, zwłaszcza algorytmów, które potrafią przekonywać lub manipulować ludźmi.
Jednocześnie firmy powinny mieć prawo do oświadczenia, że nie chcą, aby ich dane były wykorzystywane do szkolenia AI, z wyjątkiem dokumentów publicznie dostępnych w internecie.
Biały Dom próbuje stawić czoła wyzwaniom regulacyjnym, jakie stawia sztuczna inteligencja, zwołując czołowych dyrektorów generalnych firm technologicznych, w tym Altmana, aby omówić tę kwestię.
Agencja Reuters poinformowała wcześniej, że pracownik OpenAI zaproponował niedawno utworzenie amerykańskiej agencji licencyjnej ds. sztucznej inteligencji, prawdopodobnie o nazwie Office of AI Infrastructure Safety and Security (OASIS).
(Według Reutersa)
Źródło






Komentarz (0)