Инженеры научно-исследовательской лаборатории NHK работают над созданием системы, которая осуществляет автоматическую генерацию сурдоперевода в режиме реального времени. На экране появляется анимированный виртуальный персонаж, который переводит видеосюжеты на язык жестов. Разработка была представлена на выставке Technology Open House 2011.
Авторы проекта справедливо рассудили, что письменный японский язык, то есть субтитры в нижней части экрана хороши только для тех глухонемых, которые утратили слух в результате болезни или травмы. А люди, которые первым делом изучили язык жестов и только потом занялись письменной речью, лучше воспринимают именно сурдоперевод. Для них и предназначена эта разработка.
настоящий момент в качестве входного сигнала система использует поток «привязанных» к видео субтитров, что относительно просто реализовать. Однако даже в рамках таких возможностей словарный запас системы пока еще сильно ограничен. В идеале разработчики хотят заставить ее самостоятельно в реальном времени генерировать субтитры и сурдоперевод, основываясь исключительно на голосовом вводе. Система может оказаться полезной для телестудий в случае природной или техногенной катастрофы, когда необходимо произвести оповещение населения, а сурдопереводчик отсутствует, в таких условиях виртуальный анимационный человек окажется просто незаменимым. Ученые уже провели испытания системы на непосредственной фокус-группе и получили ответ, что на текущий момент виртуальному сурдопереводчику не хватает скорости и плавности речи, хотя его «слова» они прекрасно понимают.
Источник: www.3dnews.ru
|