Новости что такое шоу алисы

Настроить Утреннее шоу Алиса. В последнее время я отказался от соцсетей и почти не читаю новостей о том, что происходит в мире, не считая спорта. В конце 2020 года утреннее шоу Алисы стало персонализированным. До публикации этой новости я мельком слышал про существование Алисы (видео, когда 2 телефона общаются между собой). В Алису от Яндекса добавили функцию Утреннее шоу. «Утреннее шоу» и новости радиостанций доступны во всех умных колонках с поддержкой «Алисы». «Утреннее шоу» и новости радиостанций доступны во всех умных колонках с поддержкой «Алисы».

Утреннее шоу Алисы – получайте новости и полезную информацию каждое утро

Сумму этих параметров, как и принято в unit selection, оптимизировали динамическим программированием. Кстати, подобный подход использовался и при создании Siri 2. Схема конкатенативного синтеза У такого подхода тоже есть плюсы и минусы. Среди достоинств — более естественное звучание голоса, ведь исходный материал не синтезирован, а записан вживую. Правда, есть и обратная сторона: чем меньше данных, тем более грубо будут звучать места склейки фрагментов. Для шаблонных фраз всё более-менее хорошо, но шаг влево или вправо — и вы замечаете склейку. Поэтому нужно очень много исходного материала, а это требует многих часов записи голоса диктора. К примеру, в первые несколько лет работы над Алисой нам пришлось записать несколько десятков часов. Это несколько месяцев непрерывной работы с актрисой Татьяной Шитовой в студии. При этом нужно не просто «прочитать текст по листочку».

Чем более нейтрально будет звучать голос, тем лучше. Обычно от актёров ждут эмоциональности, проявления темперамента в своей речи. У нас ровно обратная задача, потому что нужны универсальные «кубики» для создания произвольных фраз. Вот характерный пример работы синтеза: В этом главный недостаток метода unit selection: несмотря на все усилия, фрагменты речи не будут идеально соответствовать друг другу по эмоциям и стилю. Из-за этого сгенерированная речь Алисы постоянно «переключалась» между ними. На коротких фразах это не всегда заметно, но если хотите услышать произвольный ответ длиной хотя бы в пару предложений например, быстрый ответ из поиска , то недостатки подхода становятся очевидны. В общем, unit selection перестал нас устраивать и нужно было развиваться дальше. Иногда они возвращаются: опять параметрический синтез В результате мы вернулись к архитектуре из двух последовательных блоков: акустическая модель и вокодер. Правда, на более низком уровне обновилось примерно всё.

Акустическая модель В отличие от старой параметрики, новую модель мы построили на основе seq2seq-подхода с механизмом внимания. Помните проблему с потерей контекста в нашей ранней параметрике? Если нет нормального контекста, то нет и нормальной интонации в речи. Решение пришло из машинного перевода. Дело в том, что в машинном переводе как раз возникает проблема глобального контекста — смысл слов в разных языках может задаваться разным порядком или вообще разными структурами, поэтому порой для корректного перевода предложения нужно увидеть его целиком. Для решения этой задачи исследователи предложили механизм внимания — идея в том, чтобы рассмотреть всё предложение разом, но сфокусироваться через softmax-слой на небольшом числе «важных» токенов. При генерации каждого нового выходного токена нейросеть смотрит на обработанные токены фонемы для речевого синтеза или символы языка для перевода входа и «решает», насколько каждый из них важен на этом шаге. Оценив важность, сеть учитывает её при агрегировании результатов и получает информацию для генерации очередного токена выхода. Таким образом нейросеть может заглянуть в любой элемент входа на любом шаге и при этом не перегружается информацией, поскольку фокусируется на небольшом количестве входных токенов.

Для синтеза важна подобная глобальность, так как интонация сама по себе глобальна и нужно «видеть» всё предложение, чтобы правильно его проинтонировать. На тот момент для синтеза была хорошая seq2seq-архитектура Tacotron 2 — она и легла в основу нашей акустической модели. Мел-спектрограмма Параметрическое пространство можно сжать разными способами. Более сжатые представления лучше работают с примитивными акустическими моделями и вокодерами — там меньше возможностей для ошибок. Более полные представления позволяют лучше восстановить wav, но их генерация — сложная задача для акустической модели. Кроме того, восстановление из таких представлений у детерминированных вокодеров не очень качественное из-за их нестабильности. С появлением нейросетевых вокодеров сложность промежуточного пространства стала расти и сейчас в индустрии одним из стандартов стала мел-спектрограмма. Она отличается от обычного распределения частоты звука по времени тем, что частоты переводятся в особую мел-частоту звука. Другими словами, мел-спектрограмма — это спектрограмма, в которой частота звука выражена в мелах , а не герцах.

Мелы пришли из музыкальной акустики, а их название — это просто сокращение слова «мелодия». Строение улитки уха из Википедии Эта шкала не линейная и основана на том, что человеческое ухо по-разному воспринимает звук различной частоты. Вспомните строение улитки в ухе: это просто канал, закрученный по спирали. Высокочастотный звук не может «повернуть» по спирали, поэтому воспринимается достаточно короткой частью слуховых рецепторов. Низкочастотный же звук проходит вглубь. Поэтому люди хорошо различают низкочастотные звуки, но высокочастотные сливаются. Мел-спектрограмма как раз позволяет представить звук, акцентируясь на той части спектра, которая значимо различается слухом. Это полезно, потому что мы генерируем звук именно для человека, а не для машины. Вот как выглядит мел-спектрограмма синтеза текста «Я — Алиса»: У мел-спектрограммы по одному измерению [X на рисунке выше] — время, по другому [Y] — частота, а значение [яркость на рисунке] — мощность сигнала на заданной частоте в определенный момент времени.

Проще говоря, эта штуковина показывает, какое распределение по мощностям было у различных частот звука в конкретный момент. Мел-спектрограмма непрерывна, то есть с ней можно работать как с изображением. А так звучит результат синтеза: 3. Новый вокодер Вероятно, вы уже догадались, что мы перешли к использованию нового нейросетевого вокодера. Именно он в реальном времени превращает мел-спектрограмму в голос. Наиболее близкий аналог нашего первого решения на основе нейросетей, которое вышло в 2018 году — модель WaveGlow. Архитектура WaveGlow основана на генеративных потоках — довольно изящном методе создания генеративных сетей, впервые предложенном в статье про генерацию лиц. Сеть обучается конвертировать случайный шум и мел-спектрограмму на входе в осмысленный wav-сэмпл. За счёт случайного шума на входе обеспечивается выбор случайной wav-ки — одной из множества соответствующих мел-спектрограмме.

Как я объяснил выше, в домене речи такой случайный выбор будет лучше детерминированного среднего по всем возможным wav-кам. В отличие от WaveNet, WaveGlow не авторегрессионен, то есть не требует для генерации нового wav-сэмпла знания предыдущих.

Думаю, новую возможность особенно оценят авторы подкастов, у которых появилась ещё одна площадка», — отметил Андрей Законов, руководитель продукта голосового помощника «Алиса».

Помимо чтения актуальных новостей по утрам, «Алиса» также научилась отслеживать эфиры радиостанций. Утренние шоу впервые появились в апреле этого года.

Управляем голосом любым видео на «ТВ Станции» Управлять перематывать, переключать, включать субтитры и т. Просто дайте Алисе нужную команду и она все сделает.

Персонализация утреннего шоу Порядок контента и его жанр можете выбрать и настроить под себя. Здесь можно выбрать мероприятия, которые хотели бы видеть у себя в рекомендациях. Радионяня mode on Теперь где бы вы ни были — в соседней комнате или отошли по делам, оставив ребенка с бабушкой, няней и т. Активируйте функцию «Радионяни» на «Яндекс Станции», чтобы слушать звуки из детской прямо на своем смартфоне, где бы вы ни находились.

Чтобы узнать популярные новости за сутки — скажите «Популярная новость». Если вы хотите послушать текст статьи — скажите «Подробнее». Хотите начать заново — скажите "Меню". Возникли проблемы? Следите за событиями Севастополя в режиме онлайн.

Что нового в апреле у Алисы и умных устройств

Чтобы настроить «Новости колонка Алиса», вам нужно открыть мобильное приложение или сайт Яндекс. «Утреннее шоу» — это развлекательная программа с «Алисой» в роли ведущей. Виртуальный помощник читает новости, включает музыку и зачитывает истории на разные темы. «Алиса» научилась персонализировать «Утреннее шоу» и включать новости радиостанций Вслед за появлением интерактивных рецептов голосовой помощник «Алиса». Особенностью Алисы стала личность, разработанная коллективом Яндекса вместе с журналистом и бывшим руководителем группы маркетинга компании Владимиром Гуриевым. Чтобы настроить «Новости колонка Алиса», вам нужно открыть мобильное приложение или сайт Яндекс.

«Алиса» научилась вести утренние шоу

Telegram-канал создателя Трешбокса про технологии «С умной колонкой можно слушать что угодно. Утреннее шоу — это такой формат, который позволяет собрать воедино то, что любишь. Несложные манипуляции с настройками — и человек получает именно то, что хочет.

Браузер на телефоне или компьютере. После просьбы «Настроить новости» Алиса скажет: Выберите новости, которые хотите слушать в ответ на команду «Алиса, расскажи новости». Отмечаем соответствующие кружочки и нажимаем «Сохранить». На телефоне это выглядит так: А на ноутбуке или компьютере вот так: Другими словами, настроить новости Алисы можно как с телефона, так и ноутбука. Главное, чтобы был установлен Яндекс. Браузер и в нём была включена синхронизация. Возможно, вам пригодится, особенно если вы интересуетесь, как отключить Дзен: Как вернуть Яндекс и убрать Дзен с главной страницы.

Вышло апрельское обновление Алисы и умных устройств Яндекса Валентин Снежин 25 апреля 2024 в 12:00 Умные устройства с Алисой сегодня получили очередное обновление, которое значительно расширяет функционал и возможности Станций. Она откроет тексты песен не только российских, но и зарубежных исполнителей. Кнопка «Т» в музыкальном плеере даст понять, для каких треков доступен текст. Персонализация утреннего шоу Теперь пользователь может решать, каким будет ваше утреннее шоу.

Например, можно выбрать, какой контент и в каком порядке будет воспроизводиться: подкасты на разные темы, прогноз погоды, конкретные навыки, музыкальные треки или новости из определённых источников.

Telegram-канал создателя Трешбокса про технологии «С умной колонкой можно слушать что угодно. Утреннее шоу — это такой формат, который позволяет собрать воедино то, что любишь. Несложные манипуляции с настройками — и человек получает именно то, что хочет.

Утреннее шоу «Алисы» стало персональным

Для этого достаточно открыть приложение Яндекс и сказать: «Алиса, открой настройки шоу» или «Алиса, открой настройки новостей» - С умной колонкой можно слушать что угодно. А утреннее шоу — это такой формат, который позволяет собрать воедино то, что любишь. Несложные манипуляции с настройками — и человек получает именно то, что хочет. Ему даже не нужно ничего говорить, кроме одной единственной фразы: "Алиса, включи утреннее шоу", - рассказывает руководитель голосового помощника Андрей Законов.

Несложные манипуляции с настройками — и человек получает именно то, что хочет. Думаю, новую возможность особенно оценят авторы подкастов, у которых появилась ещё одна площадка», — рассказал Андрей Законов, руководитель голосового помощника. Шоу и новости доступны в «Яндекс. Станции», «Станции Мини» и других умных колонках, где есть голосовой помощник «Алиса». Чтобы выбрать тематику новостей и подкастов, нужно просто открыть приложение Яндекс и сказать: «Алиса, открой настройки шоу» или «Алиса, открой настройки новостей».

Поэтому мы учим ее следить за новостями, развлекать пользователей и создавать приятную атмосферу в доме, и утреннее шоу - первый шаг в этом направлении", - говорит руководитель продукта Андрей Законов.

Где слушать Утреннее шоу доступно в Яндекс. Станции, Яндекс. Станции Мини и других умных колонках с Алисой.

Радионяня для каждого в семье Теперь на «Яндекс Станции» можно включить режим радионяни и получать звуки из детской прямо на телефон. Для этого надо пригласить близких в свой «Дом» и указать, кто может включать режим радионяни. Но сейчас, прежде чем начать читать текст, «Алиса» ещё и оповестит их, из какой именно комнаты или «Дома» пришло сообщение. Звонки без постороннего шума Пользователи «Станций» могут и звонить друг другу, поэтому теперь посторонние звуки на фоне не будут мешать разговору — всё благодаря автоматическому подавлению внешних шумов.

Функция доступна на «Станции Миди», «Станции Макс» и «Станции 2», поддержка других моделей появится позже.

Новые функции «Алисы» и «Яндекс Станций» за апрель 2024 года

Чтобы настроить «Новости колонка Алиса», вам нужно открыть мобильное приложение или сайт Яндекс. «Яндекс» представил апрельское обновление «Алисы» и своих умных устройств. Для настройки новостей на колонке Алиса Яндекс, найдите раздел «Новости» или «Информация» и выберите его. Теперь навыки смогут отправлять короткий регулярный контент в утреннее шоу Алисы. Утреннее шоу Алисы — как настроить и использовать Утреннее шоу Алисы позволяет ознакомиться с новейшими новостями, прослушать интересные подкаcты и. Для того чтобы настроить новости на колонке с Алисой Яндекс.

Утреннее шоу Алисы – получайте новости и полезную информацию каждое утро

В ноябре 2018 Яндекс обучил Алису заказывать товары на своём новом маркетплейсе «Беру» [20]. В октябре 2018, когда Алисе исполнился год, Яндекс запустил программу «Премия Алисы». В её рамках компания планировала ежемесячно награждать авторов лучших навыков и до конца года выплатить более миллиона рублей [21]. По данным компании, с марта по ноябрь 2018 года разработчики создали 33 тысячи навыков [12]. В начале ноября Яндекс дал возможность авторам навыков выбирать голос Алисы для озвучивания сообщений, добавив четыре новых варианта: Джейн, Эрмила, Захара и Эркана Явас [22]. В августе 2019 года Tele2 совместно с Яндекс запустила навык для Алисы, позволяющий абонентам любых операторов бесплатно найти потерянный дома или в офисе телефон. Пользователь может воспользоваться голосовой командой «Алиса, попроси Tele2 найти мой телефон» на любом гаджете, где есть Алиса, и Tele2 позвонит на номер, привязанный к устройству [23] [24].

Устройства с «Алисой» В середине апреля 2018 года газета « Коммерсантъ » опубликовала статью о находящейся в разработке аппаратной платформе Yandex. Список производителей, с которыми велись переговоры, компания не раскрывала [17]. Первой аппаратной разработкой на базе Yandex. Станция , которую компания представила в конце мая на конференции Yet another Conference 2018 в Москве [25]. В колонку встроено пять динамиков совокупной мощностью 50 Вт и семь микрофонов. Яндекс установил цену на «Станцию» в 9990 рублей [26].

В августе 2018 производитель носимой электроники Elari выпустил детские «умные» часы Elari KidPhone 3G со встроенной «Алисой». Часы стали первым устройством со встроенным голосовым помощником Яндекса, выпущенным сторонней компанией [27]. От Яндекс. Станции за 9990 рублей колонки отличаются втрое меньшей ценой 3290 рублей , менее мощным звуком у Irbis A только один динамик мощностью 2 Вт и два микрофона и меньшими размерами [26]. В его интерфейсе Алиса заняла центральное место. Её информер на главном экране может показывать информацию о погоде, пробках и т.

Голосовой помощник может ответить на запрос и при заблокированном экране телефона [28]. Станцию Мини. Станции за 9990 рублей колонка отличалась меньшей ценой 3990 рублей , а также с ней можно взаимодействовать с помощью жестов [29]. Портативная модель защищена от воды и работает до восьми часов без подзарядки. С помощью док-станции её можно сделать стационарной [30]. Станция Макс».

Можно даже смотреть прямые трансляции Российской Премьер-Лиги, Лиги чемпионов и не только. Управляем голосом любым видео на «ТВ Станции» Управлять перематывать, переключать, включать субтитры и т. Просто дайте Алисе нужную команду и она все сделает. Персонализация утреннего шоу Порядок контента и его жанр можете выбрать и настроить под себя. Здесь можно выбрать мероприятия, которые хотели бы видеть у себя в рекомендациях. Радионяня mode on Теперь где бы вы ни были — в соседней комнате или отошли по делам, оставив ребенка с бабушкой, няней и т.

Она составит списки задач, напомнит о них и удалит выполненные. Просто в любой момент вызовите Алису и сформулируйте для нее список дел из одного или нескольких пунктов. А потом управляйте им: переносите задачи на завтра, удаляйте конкретные пункты, отмечайте те, что уже сделали.

Здесь же пригодится и функция напоминаний: при составлении списка дел вы можете указывать только день — попросить составить список на сегодня, завтра или конкретную дату. А команды вроде «Напомни позвонить Александру по поводу квартиры» работают с часами и даже минутами.

На следующем этапе наделить запрос смыслом и подобрать правильный ответ позволяет технология Turing, своим названием отсылающая к Алану Тьюрингу и его тесту.

Благодаря ей «Алиса» может не только давать ответы на конкретные вопросы, но и общаться с пользователем на отвлечённые темы. Для этого текст запроса дробится на токены, как правило, это отдельные слова, которые в дальнейшем отдельно анализируются. Для максимально точного ответа Алиса учитывает историю взаимодействия с ней, интонацию запроса, предыдущие фразы и геопозицию.

Это объясняет тот факт, что на один вопрос разные пользователи могут получить разные ответы [11] [12]. Первоначально нейросеть Алисы обучали на массиве текстов из классики русской литературы , включая произведения Льва Толстого , Фёдора Достоевского , Николая Гоголя , а затем — на массивах живых текстов из Интернета [13]. Как рассказывал глава управления машинного обучения Яндекса Михаил Биленко в интервью изданию Meduza , в ходе ранних тестов в манере общения Алисы появилась дерзость, которая удивляла и забавляла пользователей.

Чтобы дерзость не перешла в хамство и чтобы ограничить рассуждения Алисы на темы, связанные с насилием, ненавистью или политикой, в голосового помощника была внедрена система фильтров и стоп-слов [14]. Последний этап — озвучивание ответа — реализуется с помощью технологии Text-to-speech. Основой служат записанные в студии 260 тысяч слов и фраз, которые затем были «порезаны» на фонемы.

Из этой аудиобазы нейросеть собирает ответ, после чего интонационные перепады в готовой фразе сглаживаются нейросетью, что приближает речь «Алисы» к человеческой [11] [12] [15]. Навыки Помимо сервисов Яндекса, в Алису могут быть интегрированы сторонние сервисы. В 2018 году компания расширила возможности Алисы через систему навыков, использующих платформу голосового помощника для взаимодействия с пользователем.

Навыки — это чат-боты и другие интернет-сервисы, активирующиеся по ключевой фразе и работающие в интерфейсе «Алисы». В марте 2018 Яндекс открыл для сторонних разработчиков платформу Яндекс. Диалоги , предназначенную для публикации новых навыков и их подключения к Алисе.

Уже к апрелю 2018 года на платформе Яндекс. Диалогов были опубликованы более 3 тысяч навыков, более 100 прошли модерацию [17]. Благодаря навыкам Алису обучили работе диктором: голосовая помощница Яндекса приняла участие в апрельской акции по проверке грамотности « Тотальный диктант » и прочитала диктант в Новосибирском государственном университете [18].

В конце мая на Yet Another Conference 2018 Яндекс сообщил, что благодаря навыкам Алиса научилась понимать, что изображено на фотографии, и распознает марку машины, породу кошки или собаки, незнакомое здание или памятник, способна назвать знаменитость или произведение искусства. Для товаров Алиса найдёт похожие варианты на Яндекс. Маркете или в поиске Яндекса [19].

В ноябре 2018 Яндекс обучил Алису заказывать товары на своём новом маркетплейсе «Беру» [20]. В октябре 2018, когда Алисе исполнился год, Яндекс запустил программу «Премия Алисы». В её рамках компания планировала ежемесячно награждать авторов лучших навыков и до конца года выплатить более миллиона рублей [21].

Шёпот и эмоции в Алисе: история развития голосового синтеза Яндекса

Голосовой помощник «Алиса» научили проводить утренние шоу, которые подстраиваются под определённого пользователя. Утреннее шоу Алисы — как настроить и использовать Утреннее шоу Алисы позволяет ознакомиться с новейшими новостями, прослушать интересные подкаcты и. Для того чтобы настроить новости на колонке с Алисой Яндекс. Для этого достаточно открыть приложение Яндекс и сказать: «Алиса, открой настройки шоу» или «Алиса, открой настройки новостей».

Утреннее шоу Алисы стало персональным 😎

«Яндекс» представил апрельское обновление «Алисы» и своих умных устройств. «Алиса» научилась персонализировать «Утреннее шоу» и включать новости радиостанций Вслед за появлением интерактивных рецептов голосовой помощник «Алиса». Новости — подборка навыков Алисы, голосового помощника от Яндекса. Утреннее шоу — это развлекательная программа, где «Алиса» выступает в роли ведущей. Что сказать: «Алиса, запусти утреннее шоу», «Алиса, включи утреннее шоу». Эти программы помогают узнать нужную информацию в начале дня или рассказать о том, что вы могли пропустить. Яндекс Станция включает Шоу Алисы (погода, новости, музыка и т.п.). Об этом я рассказываю ниже. Для утреннего сценария использую автоматизацию охлаждения кухни кондиционером.

8 новых фишек «Яндекс Станций» и «Яндекс ТВ Станций», которые появились в апреле

Сеть обучается конвертировать случайный шум и мел-спектрограмму на входе в осмысленный wav-сэмпл. За счёт случайного шума на входе обеспечивается выбор случайной wav-ки — одной из множества соответствующих мел-спектрограмме. Как я объяснил выше, в домене речи такой случайный выбор будет лучше детерминированного среднего по всем возможным wav-кам. В отличие от WaveNet, WaveGlow не авторегрессионен, то есть не требует для генерации нового wav-сэмпла знания предыдущих.

Его параллельная свёрточная архитектура хорошо ложится на вычислительную модель видеокарты, позволяя за одну секунду работы генерировать несколько сотен секунд звука. Главное отличие, за счёт которого HiFi-GAN обеспечивает гораздо лучшее качество, заключается в наборе подсетей-дискриминаторов. Они валидируют натуральность звука, смотря на сэмплы с различными периодами и на различном масштабе.

Как и WaveGlow, HiFi-GAN не имеет авторегрессионной зависимости и хорошо параллелится, при этом новая сеть намного легковеснее, что позволило при реализации ещё больше повысить скорость синтеза. Кроме того, оказалось, что HiFi-GAN лучше работает на экспрессивной речи, что в дальнейшем позволило запустить эмоциональный синтез — об этом подробно расскажу чуть позже. Схема HiFi-GAN из статьи авторов модели Комбинация этих трёх компонентов позволила вернуться к параметрическому синтезу голоса, который звучал плавно и качественно, требовал меньше данных и давал больше возможностей в кастомизации и изменении стиля голоса.

Параллельно мы работали над улучшением отдельных элементов синтеза: Летом 2019 года выкатили разрешатор омографов homograph resolver — он научил Алису правильно ставить ударения в парах «зАмок» и «замОк», «белкИ» и «бЕлки» и так далее. Здесь мы нашли остроумное решение. В русском языке эти слова пишутся одинаково, но в английском написание отличается, например, castle и lock, proteins и squirrels.

Из этого представления легко выделить информацию о том, как произносить омограф, ведь перевод должен различать формы для корректного подбора английского варианта. Буквально на 20 примерах можно выучить классификатор для нового омографа, чтобы по эмбеддингу перевода понимать, какую форму нужно произнести. Летом 2020 года допилили паузер для расстановки пауз внутри предложения.

Язык — хитрая штука. Не все знаки препинания в речи выражаются паузами Например, после вводного слова «конечно» на письме мы ставим запятую, но в речи обычно не делаем паузу. А там, где знаков препинания нет, мы часто делаем паузы.

Если эту информацию не передавать в акустическую модель, то она пытается её выводить и не всегда успешно. Первая модель Алисы из-за этого могла начать вздыхать в случайных местах длинного предложения. Для этого мы взяли датасет, разметили его детектором активности голоса, сгруппировали паузы по длительности, ввели класс длины паузы, на каждое слово навесили тэг и на этом корпусе обучили ещё одну голову внимания из тех же нейросетевых эмбеддингов, что использовались для детекции омографов.

Осенью 2020 года мы перевели на трансформеры нормализацию — в синтезе она нужна, чтобы решать сложные случаи, когда символы читаются не «буквально», а по неким правилам. Например, «101» нужно читать не как «один-ноль-один», а как «сто один», а в адресе yandex. Обычно нормализацию делают через комбинацию взвешенных трансдьюсеров FST — правила напоминают последовательность замен по регулярным выражениям, где выбирается замена, имеющая наибольший вес.

Мы долго писали правила вручную, но это отнимало много сил, было очень сложно и не масштабируемо. Тогда решили перейти на трансформерную сеть, «задистиллировав» знания наших FST в нейронку. Теперь новые «правила раскрытия» можно добавлять через доливание синтетики и данных, размеченных пользователями Толоки, а сеть показывает лучшее качество, чем FST, потому что учитывает глобальный контекст.

Итак, мы научили Алису говорить с правильными интонациями, но это не сделало ее человеком — ведь в нашей речи есть еще стиль и эмоции. Работа продолжалась. С чувством, толком, расстановкой: стили голоса Алисы Один и тот же текст можно произнести десятком разных способов, при этом сам исходный текст, как правило, никаких подсказок не содержит.

Если отправить такой текст в акустическую модель без дополнительных меток и обучить её на достаточно богатом различными стилями и интонациями корпусе, то модель сойдёт с ума — либо переусреднит всё к металлическому «голосу робота», либо начнёт генерировать случайный стиль на каждое предложение. Это и произошло с Алисой: в начале она воспроизводила рандомные стили в разговоре. Казалось, что у неё менялось настроение в каждом предложении.

Вот пример записи с явными перебоями в стилях: Чтобы решить проблему, мы добавили в акустическую модель стили: в процессе обучения нейросети специально ввели «утечку». Суть в том, что через очень lossy-пространство всего 16 чисел на всё предложение разрешаем сетке посмотреть на ответ — истинную мел-спектрограмму, которую ей и нужно предсказать на обучении. За счёт такой «шпаргалки» сеть не пытается выдумывать непредсказуемую по тексту компоненту, а для другой информации не хватит размерности шпаргалки.

На инференсе мы генерируем стилевую подсказку, похожую на те, что были в обучающем сете. Это можно делать, взяв готовый стиль из обучающего примера или обучив специальную подсеть генерировать стили по тексту. Если эту подсеть обучить на особом подмножестве примеров, можно получить специальные стили для, скажем, мягкого или дружелюбного голоса.

Или резкого и холодного. Или относительно нейтрального. Чтобы определиться со стилем по умолчанию, мы устроили турнир, где судьями выступали пользователи Толоки.

Там не было разметки, мы просто нашли кластеры стилей и провели между ними соревнование. Победил кластер с очень мягкой и приятной интонацией. Дальше началось самое интересное.

Мы взяли образцы синтезированной «мягкой» речи Алисы и фрагменты речи актрисы Татьяны Шитовой, которые относились к более резкому стилю. Затем эти образцы с одним и тем же текстом протестировали вслепую на толокерах. Оказалось, что люди выбирают синтезированный вариант Алисы, несмотря на более плохое качество по сравнению с реальной речью человека.

В принципе, этого можно было ожидать: уверен, многие предпочтут более ласковый разговор по телефону то есть с потерей в качестве живому, но холодному общению. К примеру, так звучал резкий голос: А так — мягкий: Результаты турниров позволили нам выделить во всем обучающем датасете данные, которые относятся к стилю-победителю, и использовать для обучения только их. Благодаря этому Алиса по умолчанию стала говорить более мягким и дружелюбным голосом.

Этот пример показывает, что с точки зрения восприятия важно работать не только над качеством синтеза, но и над стилем речи. После этого оставалось только обогатить Алису новыми эмоциями. Бодрая или спокойная: управляем эмоциями Алисы Когда вы включаете утреннее шоу Алисы или запускаете автоматический перевод лекции на YouTube, то слышите разные голоса — бодрый в первом случае и более флегматичный в другом.

Эту разницу сложно описать словами, но она интуитивно понятна — люди хорошо умеют распознавать эмоции и произносить один и тот же текст с разной эмоциональной окраской. Мы обучили этому навыку Алису с помощью той же разметки подсказок, которую применили для стилей.

На этом этапе происходит отделение голоса от фоновых шумов. Разобраться с акцентами, диалектами, сленгами и англицизмами алгоритмам позволяет накопленная Яндексом база из миллиарда произнесённых в разных условиях фраз [11] [12]. На следующем этапе наделить запрос смыслом и подобрать правильный ответ позволяет технология Turing, своим названием отсылающая к Алану Тьюрингу и его тесту. Благодаря ей «Алиса» может не только давать ответы на конкретные вопросы, но и общаться с пользователем на отвлечённые темы. Для этого текст запроса дробится на токены, как правило, это отдельные слова, которые в дальнейшем отдельно анализируются. Для максимально точного ответа Алиса учитывает историю взаимодействия с ней, интонацию запроса, предыдущие фразы и геопозицию. Это объясняет тот факт, что на один вопрос разные пользователи могут получить разные ответы [11] [12].

Первоначально нейросеть Алисы обучали на массиве текстов из классики русской литературы , включая произведения Льва Толстого , Фёдора Достоевского , Николая Гоголя , а затем — на массивах живых текстов из Интернета [13]. Как рассказывал глава управления машинного обучения Яндекса Михаил Биленко в интервью изданию Meduza , в ходе ранних тестов в манере общения Алисы появилась дерзость, которая удивляла и забавляла пользователей. Чтобы дерзость не перешла в хамство и чтобы ограничить рассуждения Алисы на темы, связанные с насилием, ненавистью или политикой, в голосового помощника была внедрена система фильтров и стоп-слов [14]. Последний этап — озвучивание ответа — реализуется с помощью технологии Text-to-speech. Основой служат записанные в студии 260 тысяч слов и фраз, которые затем были «порезаны» на фонемы. Из этой аудиобазы нейросеть собирает ответ, после чего интонационные перепады в готовой фразе сглаживаются нейросетью, что приближает речь «Алисы» к человеческой [11] [12] [15]. Навыки Помимо сервисов Яндекса, в Алису могут быть интегрированы сторонние сервисы. В 2018 году компания расширила возможности Алисы через систему навыков, использующих платформу голосового помощника для взаимодействия с пользователем. Навыки — это чат-боты и другие интернет-сервисы, активирующиеся по ключевой фразе и работающие в интерфейсе «Алисы».

В марте 2018 Яндекс открыл для сторонних разработчиков платформу Яндекс. Диалоги , предназначенную для публикации новых навыков и их подключения к Алисе. Уже к апрелю 2018 года на платформе Яндекс. Диалогов были опубликованы более 3 тысяч навыков, более 100 прошли модерацию [17]. Благодаря навыкам Алису обучили работе диктором: голосовая помощница Яндекса приняла участие в апрельской акции по проверке грамотности « Тотальный диктант » и прочитала диктант в Новосибирском государственном университете [18]. В конце мая на Yet Another Conference 2018 Яндекс сообщил, что благодаря навыкам Алиса научилась понимать, что изображено на фотографии, и распознает марку машины, породу кошки или собаки, незнакомое здание или памятник, способна назвать знаменитость или произведение искусства. Для товаров Алиса найдёт похожие варианты на Яндекс. Маркете или в поиске Яндекса [19]. В ноябре 2018 Яндекс обучил Алису заказывать товары на своём новом маркетплейсе «Беру» [20].

Она читает новости, ставит людям музыку и развлекает историями на разные темы — почти как настоящий диджей. Чтобы она включала наиболее подходящий контент, нужно указать свои предпочтения в настройках. Сейчас в голосовом помощнике доступны 11 новостных тематик и 21 рубрика для подкастов. В общей сложности у «Алисы» больше двух тысяч подкастов на разные темы.

Новости радиостанций можно слушать как в утреннем шоу, так и отдельно.

Утреннее шоу — это развлекательная программа, где «Алиса» выступает в роли ведущей. Она читает новости, ставит людям музыку и развлекает историями на разные темы — почти как настоящий диджей. Чтобы она включала наиболее подходящий контент, нужно указать свои предпочтения в настройках. Сейчас в голосовом помощнике доступны 11 новостных тематик и 21 рубрика для подкастов. В общей сложности у «Алисы» больше двух тысяч подкастов на разные темы. Новости радиостанций можно слушать как в утреннем шоу, так и отдельно.

Утреннее шоу Алисы – получайте новости и полезную информацию каждое утро

«Алиса» научилась персонализировать «Утреннее шоу». Как настроить новости в Алисе Можно дать ей обычную команду «Алиса, настрой новости». первый шаг в этом направлении". «Алиса» научилась персонализировать «Утреннее шоу» и включать новости радиостанций.

Похожие новости:

Оцените статью
Добавить комментарий