Tworzenie napisów dla osób niedosłyszących za pomocą aplikacji Whisper jest również problematyczne, ponieważ nie ma możliwości wykrycia dezinformacji ukrytej wśród milionów generowanych słów.
W erze sztucznej inteligencji (AI) stającej się nieodzownym elementem codziennego życia, narzędzie o nazwie Whisper opracowane przez OpenAI zyskało ogromną popularność dzięki swojej zdolności do automatycznego robienia notatek z niemal „ludzką dokładnością”.
Jednak za sukcesem Whisper kryje się ostra krytyka za poważną wadę: zdolność do autofikcji, czyli generowania tekstu, a nawet stwierdzeń, których nikt nigdy nie napisał.
Według inżynierów oprogramowania i badaczy fikcyjne szczegóły nie tylko powodują zamieszanie, ale mogą również zawierać rasistowskie komentarze, wulgarny język i nierealistyczne opisy metod leczenia .
Chociaż firma OpenAI ostrzega, że narzędzia nie należy używać w „obszarach wysokiego ryzyka”, wiele placówek medycznych nadal aktywnie korzysta z Whisper do nagrywania konsultacji lekarskich z pacjentami.
W rzeczywistości, niedawne badanie wykazało, że aż 80% nagrań audio z ankiety dotyczącej spotkań publicznych zawierało te fikcyjne szczegóły. Inżynier uczenia maszynowego zwrócił również uwagę, że analiza ponad 100 godzin transkrypcji Whisper wykazała, że około 50% z nich zawierało poważne błędy, co budzi obawy o niezawodność tej coraz częściej wykorzystywanej technologii.
Eksperci ostrzegają, że błędy mogą mieć „naprawdę poważne konsekwencje”, zwłaszcza w medycynie.
Alondra Nelson, była dyrektor Biura Polityki Naukowej i Technologicznej Białego Domu, podkreśliła, że nikt nie chce otrzymać błędnej diagnozy, i zaapelowała o wyższe standardy w stosowaniu tej technologii.
Tworzenie napisów dla osób niedosłyszących za pomocą aplikacji Whisper jest również problematyczne, ponieważ nie ma możliwości wykrycia dezinformacji ukrytej wśród milionów generowanych słów.
Rozwój tekstów fikcyjnych skłonił wielu ekspertów, aktywistów i byłych pracowników OpenAI do zaapelowania do rządu federalnego o rozważenie wprowadzenia regulacji dotyczących sztucznej inteligencji.
William Saunders, inżynier badawczy z San Francisco, uważa, że problem ten da się całkowicie rozwiązać, jeśli OpenAI zajmie się nim w pierwszej kolejności.
Organizacja OpenAI przyznała, że nieustannie pracuje nad minimalizowaniem liczby szczegółów fikcyjnych i docenia wszelkie uwagi ze strony społeczności badawczej.
Wielu inżynierów nadal twierdzi jednak, że nigdy nie widzieli innego narzędzia do robienia notatek opartego na sztucznej inteligencji, które charakteryzowałoby się tak wysokim poziomem fikcji jak Whisper./.
Źródło: https://www.vietnamplus.vn/tri-tue-nhan-tao-mat-trai-cua-cong-cu-whisper-post987914.vnp
Komentarz (0)