(CLO) Инструмент преобразования речи в текст Whisper от OpenAI рекламируется как «надежный и точный, близкий к человеческому уровню», но у него есть один существенный недостаток: он склонен к фальсификации фрагментов текста или даже целых предложений!
По словам экспертов, некоторые из текстов, которые она производит и которые в индустрии называют галлюциногенами, могут включать расистские комментарии, сцены насилия и даже вымышленные методы лечения .
Эксперты говорят, что подобные фальсификации серьезны, поскольку Whisper используется в самых разных отраслях по всему миру для перевода и расшифровки интервью, создания текстов и субтитров к видео.
Еще большую тревогу вызывает тот факт, что медицинские центры используют инструменты на базе Whisper для записи консультаций пациентов с врачами, несмотря на предупреждение OpenAI о том, что этот инструмент не следует использовать в «зонах повышенного риска».
Предложения, начинающиеся с «#Ground truth», — это то, что было сказано на самом деле, предложения, начинающиеся с «#text», — это то, что Whisper расшифровал. Фото: AP
Исследователи и инженеры утверждают, что Whisper часто вызывает галлюцинации во время использования. Например, исследователь из Мичиганского университета заявил, что обнаружил галлюцинации в восьми из десяти изученных им записей.
Один из первых инженеров по машинному обучению обнаружил эту манипуляцию примерно в половине из более чем 100 часов проанализированных им транскриптов Whisper. Третий разработчик сообщил, что обнаружил эту иллюзию почти в каждой из 26 000 транскриптов, созданных с помощью Whisper.
Эта иллюзия сохраняется даже в коротких, качественно записанных аудиофрагментах. Недавнее исследование, проведённое учёными в области компьютерных технологий, выявило 187 искажений в более чем 13 000 изученных ими чистых аудиозаписях.
По словам исследователей, эта тенденция может привести к десяткам тысяч ошибок в миллионах записей.
По словам Алондры Нельсон, профессора Школы социальных наук Института перспективных исследований, такие ошибки могут иметь «действительно серьезные последствия», особенно в условиях больницы.
«Никто не хочет получить неправильный диагноз. Необходимо установить более высокий барьер», — сказал Нельсон.
Профессора Корнеллского университета Эллисон Кёнеке и Мона Слоун из Университета Вирджинии изучили тысячи коротких отрывков, извлеченных из TalkBank, исследовательского архива Университета Карнеги — Меллона. Они установили, что почти 40% галлюцинаций были вредными или тревожными, поскольку говорящий мог быть неправильно понят или искажен.
В одной из записей говорящий описал «двух других девушек и женщину», но Уиспер выдумал дополнительные расистские комментарии, добавив «двух других девушек и женщину, гм, черную».
В другой транскрипции Уиспер изобрел несуществующий препарат под названием «антибиотики с повышенной активностью».
Хотя большинство разработчиков предполагают, что инструменты транскрипции могут допускать орфографические ошибки или другие ошибки, инженеры и исследователи утверждают, что никогда не видели инструмента транскрипции на базе ИИ, который был бы столь галлюциногенным, как Whisper.
Этот инструмент интегрирован в несколько версий флагманского чат-бота OpenAI, ChatGPT, и представляет собой интегрированный сервис на платформах облачных вычислений Oracle и Microsoft, обслуживающий тысячи компаний по всему миру. Он также используется для транскрибирования и перевода текстов на многие языки.
Нгок Ань (по данным AP)
Источник: https://www.congluan.vn/cong-cu-chuyen-giong-noi-thanh-van-ban-ai-cung-co-the-xuyen-tac-post319008.html
Комментарий (0)