Rambler's Top100
  интернет финансы главная | карта | поиск | | реклама  
главнаяИсследователи Сбербанка разработали метод повышения точности автоматического распознавания русского языка ИИ-моделями
 Новости  Новости  Интернет Финансы

XII Международный Форум ВБА-2025 «Вся банковская автоматизация»
XII Международный Форум ВБА-2025 «Вся банковская автоматизация»
Новости
Публикации
События
Ресурсы
Глоссарий
Партнеры
О проекте
Форум

Решения:

Интернет-банкинг


Интернет-трейдинг


Интернет-страхование


Интернет-расчеты


Безопасность

Aplex.ru Разработка веб-сайтов

Intersoft Lab (17.06.11)

XV Международная конференция «ЦИФРОВЫЕ/МОБИЛЬНЫЕ ФИНАНСЫ 2025»

XXV Международный Форум iFin-2025 "Электронные финансовые услуги и технологии"

XI Международный Форум ВБА-2024 «Вся банковская автоматизация»

Рекомендуем:

Итоги XV Конференции «МОБИЛЬНЫЕ ФИНАНСЫ 2025», 20 мая 2025
Итоги XXV Международного Форума iFin-2025, 4-5 февраля 2025
Итоги XI Международного форума "ВБА 2024" 22-23 октября 2024


Спецпредложение:

Автострахование, страхование автомобиля, страхование жизни, медицинское страхование - cкидка 5% для посетителей iFin.ru подробнеe >>

Астраброкер 


-=startpage=-
Н О В О С Т И


Исследователи Сбербанка разработали метод повышения точности автоматического распознавания русского языка ИИ-моделями
Исследователи Сбербанка нашли способ повысить качество распознавания русского языка искусственным интеллектом (AI). Новый метод предобучения ИИ-моделей, получивший название HuBERT-CTC, использует целевые переменные из CTC-модели распознавания (Connectionist Temporal Classification). Это позволяет формировать более семантические представления данных, в то время как существующие модели (wav2vec2.0, HuBERT и BEST-RQ) опираются на низкоуровневые акустические переменные. Об этом CNews сообщили представители Сбербанка.

Исследование подробно описано в научной статье «GigaAM: Efficient Self-Supervised Learner for Speech Recognition» («GigaAM: эффективный метод предобучения для распознавания речи»). Метод уже показал отличные результаты для русского языка. Он снижает количество ошибок распознавания (Word Error Rate) на 50% по сравнению с моделью Whisper-large-v3 от OpenAI.

Метод также решает ключевую проблему индустрии — зависимость от дефицитных размеченных аудиоданных. Self-supervised обучение позволяет моделям учиться на огромных массивах неразмеченных данных. Это открывает путь к созданию качественных систем для любых языков и специализированных доменов. Технология масштабируется по размеру модели и объему данных. Динамическое маскирование self-attention наделяет модель уникальной гибкостью: одна архитектура работает в онлайн- и офлайн-режиме без необходимости инвестирования в переобучение.

Решение, предложенное исследователями Сбербанка, имеет большое практическое значение для сервисов автоматического распознавания речи и голосовых помощников, контакт-центров и систем аналитики телефонных звонков. Новый метод может быть очень востребован в мультимодальных системах, например, в чат-ботах с аудиопотоком. Исследователи получают новый мощный инструмент предобучения моделей. Открытый код позволяет ИИ-сообществу дообучать модели искусственного интеллекта и применять его под свои языки и задачи.

Федор Минькин, технический директор GigaChat Сбербанка: «Мы переосмыслили сам подход к предобучению моделей, сместив фокус на семантические представления. Это не просто инкрементальное улучшение метрики, а качественный скачок. Новая архитектура демонстрирует высокую эффективность и гибкость. Она ломает барьеры, которые долгое время сдерживали развитие ASR-систем для языков с малым количеством данных. Думаю, что метод HuBERT-CTC может стать новым стандартом для индустрии, ускорит прогресс и заложит основу для следующего поколения голосовых интерфейсов».
22.08.2025Источник: CNews.Ru
все новости | подписка на рассылку

 

-=endpage=-



Размещение информации на сайте | Условия размещения рекламы


Copyright 2000-2010 iFin.ru, e-mail:
создание сайта: Aplex, Дизайн: Максим Черемхин
TopList Rambler's Top100