Исследователи обнаружили, что медицинский ИИ Whisper для транскрипции встреч с пациентами на основе модели OpenAI склонен к галлюцинациям и иногда полностью выдумывает информацию.Whisper используется компанией Nabla для транскрипции разговоров.
Система уже расшифровала 7 млн записей. Инструмент используют более 30 тысяч врачей и 40 систем здравоохранения. В Nabla знают, что Whisper может галлюцинировать, и «решают эту проблему».Проблему обнаружила группа исследователей из Корнелльского, Вашингтонского университета и других.
Они выяснили, что Whisper галлюцинирует примерно в 1% случаев, вставляя целые бессмысленные предложения во время пауз на записях.
Читать на habr.com