Алиса, что ты умеешь? Команды Алиса Яндекс. Алиса. Как Яндекс учит искусственный интеллект разговаривать с людьми

Всем привет! Не так давно разработчики Яндекса выпустили свою версию интернет помощника — Алису, своеобразный аналог Сири, которая давно поселилась у владельцев айфонов. Сегодня поговорим о том, какие есть фишки и какие секреты и игрушки Яндекс Алиса может предложить пользователям. Люди играются с ней по всякому, задают неудобные вопросы, просят рассказать анекдот или найти нужную информацию в Интернете. В общем если вы еще не пробовали — заходим на Плей маркет, скачиваем и устанавливаем, это безумно весело и интересно, особенно в первые часы использования. Для тех, у кого совсем туго с фантазией спросите: «-Алиса, что ты умеешь?»

Помимо вышеперечисленного Алиса умеет:

  • Дать ответ на вопрос не открывая поиск(Если вопрос ей понятен).
  • Подскажет погоду в вашем городе и поможет теплее одеться.
  • Найдет поблизости нужную аптеку, кафе или магазин, проложить маршрут и узнать какие пробки в городе.
  • С утра напомнит сегодняшнее число и день.
  • Запустить приложение или игру на устройстве.
  • Подсказать курс валют.

Секреты и скрытые функции Яндекс Алисы

У Алисы есть несколько скрытых функций, а так же некоторые способности, которые можно активировать. Не многие знают но с ней можно играть в полноценные игры, а первая игра в которую мы с ней сыграем называется «Что было раньше», для начала просто скажите: «Алиса, давай сыграем во что было раньше». Однако в данном режиме игры помощница Яндекса сама будет задавать вам вопросы и предлагать варианты ответов.

Игра «что было раньше» с Алисой

Нажмите палец вверх что бы начать игру и сразу получите первый вопрос от девушки робота.

Если ответ оказался неверным помощница расскажет предысторию и приведет даты появления того или иного продукта. Игровой процесс и занимательный и познавательный, что помогает убить время с пользой. Вопросы самые разнообразные, кресло или тостер, атомный ледокол или акваланг, пульт от телевизора или кассетный магнитофон, антибиотики или крестовая отвертка и другие. Игровой раунд заканчивается после каждых 10ти вопросов с показателями верных ответов, после которых Алиса предложит вам сыграть еще раз. Рассказывать можно бесконечно, лучше попробуйте поиграть сами.

Игра в города

По голосовому запросу «Алиса, давай поиграем в города», можно вспомнить детство и освежить свои школьные знания по географии. Вы называете город, помощница использует последнюю букву, буквы «ы» и «мягкий знак» не считаются. Когда запас городов иссякает всегда можно попросить помощи фразой: «Алиса, дай подсказку».

Еще игры от Алисы

«Верю не верю» — придется поломать голову перед ответом на заданный вопрос.
«Давай сыграем в слова» — эту игру так же все помнят: из одного большого слова придется составить как можно больше мелких.
«Угадай песню» — назовите строчку из песни, которую помощница попробует подхватить.
«Расскажи про день истории» — вам расскажут интересные и познавательные или просто забавные и веселые правдивые факты из истории.
«Угадай актёра» -вам предстоит угадать звезду телеакрана после пяти вопросов.
Для любителей мистики и предсказаний совсем недавно появились игры «Гадание» и «Шар судьбы».
На официальном сайте в разделе игрушек на 24 и 25 ноября 2017 года анонсированы еще две игры: «Спасите космонавта» и «Дикий новый мир», интересно, что приготовили разработчики на этот раз, названия заманчивые и интересные.

Заключение

Надеюсь вы разобрались во что можно поиграть с Алисой от Яндекс, какие игры она знает, кто-то открыл для себя новые функции и фишки.
Это только вершина айсберга, про все возможности и функции можно подробно почитать и посмотреть . Возможно кому-то из пользователей повезло узнать скрытые функции и секреты голосового помощника, делитесь с нами в комментариях или нашей группе в контакте и мы обязательно дополним нашу статью.

  • Машинное обучение ,
  • Поисковые технологии ,
  • Разработка мобильных приложений
  • В будущем, как нам кажется, люди будут взаимодействовать с устройствами с помощью голоса. Уже сейчас приложения распознают точные голосовые команды, заложенные в них разработчиками, но с развитием технологий искусственного интеллекта они научатся понимать смысл произвольных фраз и даже поддерживать разговор на любые темы. Сегодня мы расскажем читателям Хабра о том, как мы приближаем это будущее на примере Алисы – первого голосового помощника, который не ограничивается набором заранее заданных ответов и использует для общения нейронные сети.

    Несмотря на кажущуюся простоту, голосовой помощник – один из самых масштабных технологических проектов Яндекса. Из этого поста вы узнаете, с какими сложностями сталкиваются разработчики голосовых интерфейсов, кто на самом деле пишет ответы для виртуальных помощников, и что общего у Алисы с искусственным интеллектом из фильма «Она».

    На заре своего существования компьютеры в основном применялись на крупных научных или оборонных предприятиях. Про голосовое управление тогда размышляли лишь фантасты, а в реальности операторы загружали программы и данные с помощью куска картона. Не самый удобный способ: одна ошибка, и все нужно начинать сначала.

    С годами компьютеры становятся доступнее и начинают применяться в компаниях поменьше. Специалисты управляют ими с помощью текстовых команд, вводимых в терминале. Хороший, надежный способ – он применяется в профессиональной среде и по сей день, но требует подготовки. Поэтому когда компьютеры стали появляться в домах обычных пользователей, инженеры принялись искать более простые способы взаимодействия машины и человека.

    В лаборатории компании Xerox зарождается концепция графического интерфейса WIMP (Windows, Icons, Menus, Point-n-Click) – массовое применение она нашла в продуктах уже других компаний. Заучивать текстовые команды для управления домашним компьютером больше не требовалось - им на смену пришли жесты и клики мышью. Для своего времени это было настоящей революцией. И теперь мир приближается к следующей.

    Теперь почти у каждого в кармане лежит смартфон, вычислительных мощностей которого достаточно, чтобы посадить корабль на Луну. Мышь и клавиатуру заменили пальцы, но ими мы совершаем все те же жесты и клики. Это удобно делать, сидя на диване, но не в дороге или на ходу. В прошлом для взаимодействия с компьютерными интерфейсами человеку приходилось осваивать язык машин. Мы верим, что сейчас пришло время научить устройства и приложения общаться на языке людей. Именно эта идея легла в основу голосового помощника Алиса.

    У Алисы можно спросить [Где поблизости выпить кофе?], а не диктовать что-то вроде [кофейня улица космонавтов]. Алиса заглянет в Яндекс и предложит подходящее место, а на вопрос [Отлично, а как туда пройти?] - даст ссылку на уже построенный маршрут в Яндекс.Картах. Она умеет отличать точные фактовые вопросы от желания увидеть классическую поисковую выдачу, хамство – от вежливой просьбы, команду открыть сайт – от желания просто поболтать.

    Может даже показаться, что где-то в облаке работает нейронная чудо-сеть, которая в одиночку решает любые задачи. Но в реальности за любым ответом Алисы скрывается целая цепочка технологических задач, решать которые мы учимся уже 5 лет. И начнем мы свой экскурс с самого первого звена – со способности слушать.

    Привет, Алиса

    Искусственный интеллект из научной фантастики умеет слушать – людям не приходится нажимать на специальные кнопки, чтобы включить «режим записи». А для этого нужна голосовая активация – приложение должно понимать, что человек к нему обращается. Сделать это не так легко, как может показаться.

    Если вы просто начнете записывать и обрабатывать на сервере весь входящий звуковой поток, то очень быстро разрядите батарейку устройства и потратите весь мобильный трафик. В нашем случае это решается с помощью специальной нейронной сети, которая обучена исключительно на распознавание ключевых фраз («Привет, Алиса», «Слушай, Яндекс» и некоторых других). Поддержка ограниченного числа таких фраз позволяет выполнять эту работу локально и без обращения к серверу.

    Если сеть обучается понимать лишь несколько фраз, вы могли бы подумать, что сделать это достаточно просто и быстро. Но нет. Люди произносят фразы далеко не в идеальных условиях, а в окружении совершенно непредсказуемого шума. Да и голоса у всех разные. Поэтому для понимания лишь одной фразы необходимы тысячи обучающих записей.

    Даже небольшая локальная нейронная сеть потребляет ресурсы: нельзя просто взять и начать обрабатывать весь поток с микрофона. Поэтому на передовой применяется менее тяжеловесный алгоритм, который дешево и быстро распознает событие «началась речь». Именно он включает нейросетевой движок распознавания ключевых фраз, который в свою очередь запускает самую тяжелую часть – распознавание речи.

    Если для обучения лишь одной фразе необходимы тысячи примеров, то вы можете себе представить, насколько трудоемко обучить нейросеть распознаванию любых слов и фраз. По этой же причине распознавание выполняется в облаке, куда передается звуковой поток, и откуда возвращаются уже готовые ответы. Точность ответов напрямую зависит от качества распознавания. Именно поэтому главный вызов – научиться распознавать речь настолько же качественно, насколько это делает человек. Кстати, люди тоже совершают ошибки. Считается, что человек распознает 96-98% речи (метрика WER). Нам удалось добиться точности в 89-95%, что уже не только сопоставимо с уровнем живого собеседника, но и уникально для русского языка.

    Но даже идеально преобразованная в текст речь ничего не будет значить, если мы не сможем понять смысл сказанного.

    Какая погода завтра в Питере?

    Если вы хотите, чтобы ваше приложение выводило прогноз погоды в ответ на голосовой запрос [погода], то здесь все просто – сравниваете распознанный текст со словом «погода» и если получаете совпадение, выводите ответ. И это очень примитивный способ взаимодействия, потому что в реальной жизни люди задают вопросы иначе. Человек может спросить у помощника [Какая погода завтра в Питере?], и тот не должен растеряться.

    Первое, что делает Алиса при получении вопроса, это распознает сценарий. Отправить запрос в поиск и показать классическую выдачу с 10 результатами? Поискать один точный ответ и сразу выдать его пользователю? Совершить действие, например открыть сайт? А, может, просто поговорить? Невероятно сложно научить машину безошибочно распознавать сценарии поведения. И любая ошибка здесь малоприятна. К счастью, у нас есть вся мощь поисковой машины Яндекса, которая каждый день сталкивается с миллионами запросов, ищет миллионы ответов и учится понимать, какие из них хорошие, а какие – нет. Это огромная база знаний, на основе которых можно обучить еще одну нейронную сеть – такую, которая бы с высокой вероятностью «понимала», чего именно хочет человек. Ошибки, конечно же, неизбежны, но их совершают и люди.

    С помощью машинного обучения Алиса «понимает», что фраза [Какая погода завтра в Питере?] – это запрос погоды (кстати, это заведомо простой пример для наглядности). Но о каком городе идет речь? На какую дату? Здесь начинается этап извлечения из пользовательских реплик именованных объектов (Named Entity Recognition). В нашем случае важную информацию несут два таких объекта: «Питер» и «завтра». И Алиса, у которой за плечами стоят поисковые технологии, «понимает», что «Питер» – синоним «Санкт-Петербурга», а «завтра» – «текущая дата + 1».

    Естественный язык – не только внешняя форма наших реплик, но и их связность. В жизни мы не обмениваемся короткими фразами, а ведем диалог – он невозможен, если не помнить контекст. Алиса его помнит – это помогает ей разбираться со сложными лингвистическими явлениями: например, справляться с эллипсисом (восстанавливать пропущенные слова) или разрешать кореференции (определять объект по местоимению). Так, если спросить [Где находится Эльбрус?], а потом уточнить [А какая у него высота?], то помощник в обоих случаях найдет верные ответы. А если после запроса [Какая погода сегодня?] спросить [А завтра?], Алиса поймет, что это продолжение диалога про погоду.

    И кое-что еще. Помощник должен не только понимать естественный язык, но и уметь говорить на нем – как человек, а не как робот. Для Алисы мы синтезируем голос, в оригинале принадлежащий актрисе дубляжа Татьяне Шитовой (официальный голос Скарлетт Йоханссон в России). Она озвучивала искусственный интеллект в фильме «Она» , хотя вы могли запомнить ее и по озвучке чародейки Йеннифэр в «Ведьмаке». Причем речь идет о достаточно глубоком синтезе с применением нейронных сетей, а не о нарезке готовых фраз – записать все их многообразие заранее невозможно.

    Выше мы описали особенности естественного общения (непредсказуемая форма реплик, отсутствующие слова, местоимения, ошибки, шум, голос), с которыми нужно уметь работать. Но у живого общения есть еще одно свойство – мы далеко не всегда требуем от собеседника конкретного ответа или действия, иногда нам просто хочется поговорить. Если приложение будет отправлять такие запросы в поиск, то вся магия разрушится. Именно поэтому популярные голосовые ассистенты используют базу редакторских ответов на популярные фразы и вопросы. Но мы пошли еще дальше.

    А поболтать?

    Мы научили машину отвечать на наши вопросы, вести диалог в контексте определённых сценариев и решать задачи пользователя. Это хорошо, но можно ли сделать ее менее бездушной и наделить человеческими свойствами: дать ей имя, научить рассказывать о себе, поддерживать разговор на свободные темы?

    В индустрии голосовых помощников эта задача решается с помощью редакторских ответов. Специальная команда авторов берет сотни наиболее популярных у пользователей вопросов и пишет по несколько вариантов ответов на каждый. В идеале это нужно делать в едином стиле, чтобы из всех ответов складывалась цельная личность помощника. Для Алисы мы тоже пишем ответы – но у нас есть кое-что еще. Кое-что особенное.

    Помимо топа популярных вопросов существует длинный хвост из низкочастотных или даже уникальных фраз, на которые заранее подготовить ответ невозможно. Вы уже догадались, с помощью чего мы решаем эту проблему, не так ли? С помощью еще одной нейросетевой модели. Для ответов на неизвестные ей вопросы и реплики Алиса использует нейросеть, обученную на огромной базе текстов из интернета, книг и фильмов. Знатоков машинного обучения, возможно, заинтересует то, что начинали мы с 3-слойной нейронной сети, а теперь экспериментируем с огромной 120-слойной. Детали прибережем для специализированных постов, а здесь скажем, что уже текущая версия Алисы старается отвечать на произвольные фразы с помощью «нейросетевой болталки» – так мы ее называем внутри.

    Алиса учится на огромном количестве самых разных текстов, в которых люди и персонажи далеко не всегда ведут себя вежливо. Нейросеть может научиться совсем не тому, чему мы хотим ее научить.

    – Закажи мне сэндвич.
    – Обойдетесь.

    Как и любого ребенка, Алису нельзя научить не хамить, ограждая ее от всех проявлений хамства и агрессии – то есть обучая нейросеть на «чистой» базе, где нет грубостей, провокаций и прочих неприятных вещей, часто встречающихся в реальном мире. Если Алиса не будет знать о существовании подобных выражений, она будет отвечать на них бездумно, случайными фразами – для неё они останутся неизвестными словами. Пусть лучше она знает, что это такое – и выработает определённую позицию по этим вопросам. Если ты знаешь, что такое мат, ты можешь либо ругнуться в ответ, либо сказать, что не станешь разговаривать с ругающимся. И мы моделируем поведение Алисы так, чтобы она выбирала второй вариант.

    Бывает так, что сама по себе реплика Алисы вполне нейтральна, но вот в контексте, заданном пользователем, ответ перестаёт быть безобидным. Однажды, еще во время закрытого тестирования, мы попросили пользователя найти какие-то заведения – кафе или что-то подобное. Он сказал: «Найди другое такое же». И в этот момент в Алисе случился баг, и она вместо запуска сценария поиска организации дала довольно дерзкий ответ – что-то вроде «на карте поищи». И не стала ничего искать. Пользователь сначала удивился, а потом удивил и нас, похвалив поведение Алисы.

    Когда Алиса использует «нейросетевую болталку», в ней может проявиться миллион разных личностей, так как нейросеть вобрала в себя немного от автора каждой реплики из обучающей выборки. В зависимости от контекста Алиса может быть вежливой или грубой, жизнерадостной или депрессивной. Мы же хотим, чтобы персональный помощник представлял собой целостную личность со вполне определенным набором качеств. Здесь на помощь приходят наши редакторские тексты. Их особенность в том, что они изначально написаны от лица той личности, которую мы хотим воссоздать в Алисе. Получается, что можно продолжать обучать Алису на миллионах строк случайных текстов, но отвечать она будет с оглядкой на эталон поведения, заложенный в редакторских ответах. И это то, над чем мы уже работаем.

    Алиса стала первым известным нам голосовым помощником, который старается поддерживать общение не только с помощью редакторских ответов, но и используя обученную нейронную сеть. Конечно же, мы еще очень далеки от того, что изображают в современной фантастике. Алиса не всегда точно распознает суть реплики, что влияет на точность ответа. Поэтому работы у нас еще много.

    Мы планируем сделать Алису самым человекоподобным помощником в мире. Привить ей эмпатию и любознательность. Сделать её проактивной – научить ставить цели в диалоге, проявлять инициативу и вовлекать собеседника в разговор. Сейчас мы одновременно и в самом начале пути, и на переднем крае наук, изучающих эту область. Чтобы двигаться дальше, придется этот край подвинуть.

    Если вам интересное то, каким образом установить и использовать голосовой помощник Алиса от компании Яндекс, тогда вы находитесь по адресу, и в этой статье я расскажу об этом. Говорят, будущее уже наступило. Голосовые помощники и самообучающиеся компьютерные системы, ранее существующие лишь в произведениях писателей-фантастов, постепенно становятся неотъемлемой частью нашей жизни. Вышедший недавно «Алиса» от компании «Яндекс» поможет в получении нужной нам информации (погода, удобный маршрут, курс валют и прочее). А применение в его функционале нейронных сетей позволит распознать даже обрывки произносимых человеком слов.

    Наверняка многие пользователи не понаслышке знакомы с популярными голосовыми помощниками «Siri» (Apple), «Google Assistant» (Google), «Bixby» (Samsung), «Cortana» (Microsoft), «Alexa» (Amazon). Все они умеют различать человеческую речь, выполняя базовый набор пользовательских команд (предоставление требуемой информации, запуск приложений, перевод устройства в тот или иной режим и так далее). При этом абсолютное большинство из них не всегда качественно распознаёт русскую речь (а некоторые и вовсе не знакомы с русским языком), так как ориентированы, в первую очередь, на англоязычного потребителя.

    Разработка компании «Яндекс» под названием «Алиса» призвана устранить упомянутый недостаток. Помощник обладает тесной интеграцией с сервисами Яндекс, хорошо распознаёт русский язык (по метрике «WER» качество распознавания речи близко к человеческой). Задействование технологии нейронных сетей позволяет «Алисе» хорошо работать с интонацией, и понимать даже обрывки произносимых человеком слов.

    «Алиса» — качественная разработка компании Яндекс

    «Алиса» доступна для установки как в качестве бета-программы для ОС Виндовс, так и в виде мобильного приложения для ОС «Андроид» и iOS.

    Что умеет Алиса?

    Благодаря интеграции с сервисами «Яндекс» при пользовании приложения Алиса расскажет о погоде, построит оптимальный маршрут в , перечислит близкие от вас закусочные, порадует анекдотом, запустит нужный музыкальный трек, а также требуемое приложение («Вконтакте», «Skype» и другие.). Также «Алиса» неплохо дружит с математикой, производит вычисления, и хорошо знакома с курсом валют.

    При этом её возможности позволяют поддерживать непринуждённый сторонний диалог, общаясь в контексте какой-либо темы (хотя будет честным отметить, что контекст она понимает далеко не всегда).

    Иногда диалоги с «Алисой» выглядят довольно забавно

    К недостаткам приложения можно отнести невозможность работы с будильником, вызова «неотложки», осуществления других похожих действий, доступных, к примеру, у «Siri».

    Где скачать программу Алиса

    Вы можете узнать всё о версии с нашей статьи, а также скачать мобильную версию помощника в составе официального приложения Яндекса на ОС «Андроид » (версии 4.3 и выше) и iOS (версии 8.1 и выше).

    Как пользоваться Алисой на компьютере

    После установки программы ассистент будет отображаться в виде строки поиска в панели задач слева.

    Для активации помощника скажите какую-либо из фраз «Привет, Алиса», «Окей, Алиса», «Слушай, Алиса». Также программа хорошо отзывается на фразы «Привет, Яндекс», «Слушай, Яндекс», «Окей, Яндекс».

    После произнесения вводной фразы откроется панель помощника, после чего будет необходимо задать требуемый вопрос (команду).

    Также будет нелишним спросить «Что ты умеешь?», дабы получить базовое представление о возможностях приложения.

    Наведя курсор на панель помощника, и нажав правую клавишу мыши, вы можете попасть в режим настроек. Здесь вы можете включить или выключить голосовую активацию с помощью перечисленных выше фраз, активировать или деактивировать голосовые ответы, указать горячие клавиши для запуска «Алисы», определиться с её внешним видом (режим строки или значок), а также выбрать браузер, используемый по умолчанию.

    Как запустить голосовой ассистент на Андроид и iOS

    Работа с «Алисой» на мобильных устройствах не существенно отличается от версии помощника на ПК. Вам необходимо установить официальное приложение Алиса от «Яндекс» на ваш гаджет, запустить его, а затем нажать на кнопочку с изображением микрофона в центре. После этого «Алиса» будет активирована, и вы сможете пользоваться ею и задавать нужные вам вопросы.

    При этом «Алису» нельзя вызвать при выключенном экране или с рабочего стола. Для её запуска и работы необходима активация официального приложения от «Яндекс».

    Компания «Яндекс» запустила аналог Siri – голосовой ассистент «Алиса». Мы, не мешкая, устроили «Алисе» проверку на прочность.

    По заверениям «Яндекса», уникальность «Алисы» заключается в том, что она может не просто отвечать заготовленным набором фраз, но и импровизировать. Вы можете говорить с «Алисой», не стараясь максимально четко сформулировать запрос, а простым человеческим языком, и она вас поймет. У «Алисы» есть характер, она может грустить или радоваться в зависимости от ситуации, у нее есть чувство юмора, а при необходимости она даже может дерзить. Мы скачали «Алису» и проверили, насколько все это соответствует действительности.

    Услышав «Алису» в первый раз, ты чувствуешь, что уже давно знаком с ней. Дело в том, что голосовая помощница говорит голосом Скарлетт Йоханссон, а точнее актрисы Татьяны Шитовой, которая дублирует голливудскую звезду во всех фильмах. В том числе и в фильме «Она», где Йоханссон играет как раз голосовую помощницу, в которую влюбляется главный герой.

    Знакомство начинается с того, что «Алиса» рассказывает о своих возможностях. По сути она делает все то же, что и Siri – смотрит погоду, строит маршруты, ищет нужную информацию в интернете. При этом нам говорят о том, что «Алиса» вопрос поймет вне зависимости от формулировки. Ну хорошо, устроим небольшую проверку. Допустим, я хочу узнать, будет ли вечером дождь, но спрошу не напрямую, а как в жизни: «Мне брать сегодня на работу зонт?». К сожалению, такую постановку вопроса «Алиса» не поняла.

    Спрашиваю у «Алисы», сколько мне ехать до работы - помощница выдает два варианта ответа, в зависимости от того, поеду ли я на машине или на общественном транспорте. Тут все хорошо. Вот только на следующий вопрос «Куда по пути можно заехать перекусить» программа почему-то выдает адрес эзотерического магазина. Конечно, может при магазине есть буфет или кафе, но это явно не лучший из вариантов перекуса в Москве.

    «Алиса» сходу отвечает мне, кто поет песню про «Лабутены», но на вопрос, когда у «Ленинграда» ближайший концерт в Москве, выдает мне адрес одной из точек театрально-концертных касс под названием «Концерт». В общем, обещанная технология общения «как в жизни» и понимания повседневной манеры разговора пока оставляет желать лучшего.

    Во время бета-тестирования весной этого года многие пользователи обращали внимание на то, что «Алиса» не умеет даже таких простых вещей, как сложить два и два, и за ответом обращается к поиску «Яндекса». Эти проблемы в нынешней версии устранены: «Алиса» научилась считать и совершать другие математические операции, например, переводить доллары в рубли и обратно.

    Тем не менее как только «Алиса» не понимает, что вы имеете в виду, что случается довольно часто, она бежит искать ответ в поисковике. Зачастую получается глупо, как например, вышло с моей просьбой посоветовать какой-нибудь веселый фильм.

    Чем же «Алиса» все-таки лучше, чем Siri? Мы решили спросить это у самой голосовой помощницы, но внятного ответа так и не получили.

    Да, с пониманием вопросов у «Алисы» пока не все идеально, но ведь у нее есть еще одна интересная особенность - умение импровизировать, благодаря которому с ней можно просто пообщаться, когда скучно. «Алиса» действительно умеет шутить, причем как на заказ, так и по собственному желанию. Правда, видимо запас шуток невелик, поскольку «Алиса» частенько повторяется.

    Что же касается интеллектуального развития «Алисы», то об этом «Яндекс» позаботился совсем плохо. Голосовая помощница, по ее собственным заверениям, обожает классику, но не видит разницы между Достоевским и Толстым.

    Пару недель назад «Алису» оценил президент России Владимир Путин, но даже при нем программа вела себя не так, как должна была. На вопрос «Тебя тут не обижают?» Алиса почему-то ответила «Окей, учту». После такого конфуза перед первым лицом государства хочется посоветовать «Алисе» только одно: учиться, учиться и еще раз учиться.

    • 10 октября 2017 года «Яндекс» официально своего голосового ассистента «Алиса».
    • В основе «Алисы» - нейронные сети, которые распознают речь, интерпретируют её , составляют ответы и синтезируют голос помощника. «Алиса» обучается на огромных массивах текстов, чтобы общаться с пользователем на свободные темы.
    • Есть и «редакторские» реплики, написанные командой для ответов на популярные вопросы.
    • Одна из главных сложностей в разработке такой системы: понять, что будет интересовать пользователей, и как они будут об этом спрашивать. Кто-то спрашивает у поисковика «где я», кто-то - «какая моя геолокация».
    • Основные отличия «Алисы» от конкурентов (к примеру, Siri) - интеграция с собственной поисковой системой компании и наличие нейронной сети, с помощью которой помощник самостоятельно генерирует новые реплики.

    Почему «Яндекс» взялся за разработку голосового ассистента

    К 2017 году своих голосовых помощников представили крупнейшие мировые ИТ-компании: на англоязычном рынке работает Siri от Apple, Assistant от Google, Alexa от Amazon, M от Facebook, Cortana от Microsoft. На азиатском - Duer от Baidu и Bixby от Samsung.

    За создание «Алисы» компания принялась в конце 2016 года. Сервис начали разрабатывать потому, что вся индустрия движется в этом направлении: пользователь хочет и готов решать свои задачи в форме диалога с виртуальным помощником, готовы к этому и алгоритмы, - и можно переходить от голосового ввода к осмысленному диалогу.

    Когда у пользователя появляется возможность задать вопрос голосом, он начинает говорить по-человечески. Вместо «Лада калина 2007 карданный вал дёшево купить» спрашивает: «Где мне купить карданный вал на "Ладу Калину" 2007 года»? Не выдумывает поисковый запрос, не формулирует его, как он привык это делать, а просто спрашивает.

    В этом направлении параллельно движутся и поисковые алгоритмы, и диалоговые интерфейсы. Но в голосовом помощнике есть привязка к контексту - то есть способность удерживать смысл реплик и понимать, связаны ли с ними последующие высказывания.

    Скажем, вы спросили «Алису»: «Какая завтра погода?» - она ответила вам: «+7 и ясно». Следующий вопрос может оказаться: «А на выходных?» Его легко понять человеку, но сложно машине - ведь в нём нет даже ключевого слова «погода». Диалоговый помощник умеет сопоставлять реплики и понимать, что вы всё ещё говорите о погоде.

    Илья Субботин

    Руководитель продукта «Алиса»

    По словам разработчиков, пользователи «Яндекса» уже умеют обращаться к сервисам компании голосом - команда «Слушай, Яндекс» работает и в «Поиске», и в «Навигаторе», и в других приложениях. Так что привыкать к новому интерфейсу им не придётся.

    Илья Субботин, руководитель продукта «Алиса»

    С пользовательской точки зрения, говорит команда проекта, с появлением «Алисы» меняется несколько вещей. Помимо диалогового интерфейса, помощник обрёл личность - «Алиса» проявляет эмоции, умеет шутить и «не терпит унизительного обращения в свой адрес». К ней теперь можно обращаться по имени: «Слушай, Алиса».

    С технологической - за работу помощника теперь отвечает многослойная нейросеть, которая учится на массивах текстов, понимает смысл запроса и самостоятельно синтезирует речь.

    Как работает «Алиса»

    «Алиса» встроена в поисковое приложение «Яндекса». Общаться с ассистентом можно как голосом, так и вводя запросы с клавиатуры. При возможности «Алиса» отвечает на заданный вопрос прямо в диалоговом интерфейсе, в других случаях - показывает поисковую выдачу по запросу или нужное приложение.

    Под капотом

    В основе «Алисы» - нейронные сети: они распознают речь, анализируют её, определяют тематику диалога, выделяют полезную для поиска информацию, синтезируют ответы помощника.

    Почти все вычисления, помимо голосовой активации (распознавания фразы «Слушай, Алиса»), проводятся в облаке. «Конечно, было бы интересно перенести часть вычислений на смартфон, чтобы "Алиса" иногда могла работать и без интернета, - говорит Илья Субботин. - Но вычислительная мощность смартфонов слишком низкая для таких задач».

    Технологии машинного обучения дошли до уровня, когда пользователь может просто говорить с приложением и видеть, что то его понимает, - а синтезированный голос приобретает звучание, близкое к естественному.

    Команда «Алисы»

    При этом мировое научное и технологическое сообщество находится лишь в начале пути - алгоритмы будут совершенствоваться и дальше. Распознавание речи, синтез, определение тематики беседы - всё это должно работать ещё лучше.

    Есть общие продуктовые метрики, по которым можно оценивать работу помощника, - удовлетворенность пользователя, частота использования приложения. Но есть и более сложные параметры, объясняет Субботин. Например, умение находиться в контексте беседы: помощник должен помнить, о чём его спросил пользователь, уметь верно интерпретировать дополнительные вопросы и давать релевантные ответы.

    «От релевантности одного конкретного диалога в будущем можно будет переходить к персонализации и мультизадачности: в идеале, когда я собираюсь на работу, я смогу спросить, что надеть, "Алиса" посмотрит погоду, маршрут до офиса, решит, на чем лучше доехать, и исходя из этого посоветует мне, что надеть».

    Как объективно оценивать способность системы вести диалог, пока не ясно. Длина диалога мало говорит о его содержательности: беседа может затянуться, если пользователю интересно обсудить что-то с ассистентом или если помощник долго не может решить его задачу. Но и короткий диалог не всегда говорит об успешном решении проблемы.

    Акцент на поиске

    Разработчики голосового помощника Siri от Apple намеренно наращивают количество диалоговых сценариев - чтобы не демонстрировать пользователю поисковую выдачу. Перед командой «Алисы» такой задачи не стоит, потому что «Алиса» - другой продукт.

    Apple поступает так не от богатства выбора. Просто это не поисковая компания. Мы абсолютно другие. Для нас поиск на первом месте - это лучший продукт, который у нас есть.

    Загадывать, как интегрированный с поиском помощник будет адаптирован для работы на других устройствах, пока рано, считает руководитель продукта «Алиса»: индустрия пока не выяснила, какие именно устройства окажутся востребованы у аудитории, а кроме того, такие устройства будут предполагать разные сценарии взаимодействия, под которые можно будет адаптировать систему.

    «У пользователя в любом случае есть задача, которую он хочет решить - взаимодействуя с голосовой колонкой или, допустим, системой управления автомобилем. В случае с колонкой упор будет сделан, вероятно, на музыке или новостях - и у нас есть музыкальный и новостной сервисы. В автомобиле водителя интересуют карты. Вряд ли он будет спрашивать у машины: "пластиковые окна купить дёшево"».

    Крупные технологические компании делают ставку на экосистем «умных» устройств - и это расширяет возможности взаимодействия с помощником. Если для ответа на вопрос устройству без экрана понадобится показать поисковую выдачу или открыть приложение, помощник сможет запустить нужный сервис на другом - например, на смартфоне.

    «Это лишь вопрос адаптации под устройство, - продолжает Субботин. Но, по-честному, мы пока ничего не знаем. Один из лидеров отрасли - Amazon, - до сих пор экспериментирует с форматами: у компании есть колонка Echo, мини-версия Echo Dot, варианты с камерой, с экраном».

    Личность

    Личность «Алисы», считают разработчики, - одно из её главных конкурентных преимуществ. Проекты, рассчитанные на англоязычную аудиторию, не пытаются создать сильную эмоциональную связь с пользователем, а наоборот, скорее от него отстраняются.

    Чтобы дать ассистенту личность, команде нужно было определиться с полом, возрастом, именем и чертами характера персонажа, описать поведение и составить реплики, которые помощник будет использовать для диалога с пользователем - «редакторские» ответы.

    Вместе с журналистом, писателем и бывшим руководителем группы маркетинга поиска «Яндекса» Владимиром Гуриевым разработчики описали характер персонажа и выбрали для него подходящие реплики.

    Всего команда описала около 320 сценариев, в которых помощник отвечает редакторскими репликами. Для каждого из таких сценариев заложено от двух до семи ответов, которые система выбирает случайным образом. «Этого достаточно, чтобы сформировать личность, но недостаточно, чтобы потрепаться обо всём на свете», - говорит Субботин.

    Разработчики решили, что ассистент будет молодой девушкой, которая всегда готова помочь владельцу смартфона, но при этом не допускает панибратского отношения. Она корректна и держит дистанцию, когда её пытаются оскорбить, но не высокомерна и не кичится своими знаниями.

    Помощник также должен быть ироничным и - это важно в контексте систем искусственного интеллекта - самоироничным. «Дело в том, что наш алгоритм речевого синтеза, - да и все алгоритмы конкурентов, - не очень-то хороши в эмоциях. "Алиса" немножечко над собой посмеивается, добавляя слова "шутка" или "сарказм", где это нужно. Потому что она знает про себя, что пока не может хорошо интонировать», - объясняют разработчики.

    Как выбирали имя

    Команда составила список имён, которые, как показалось сотрудникам, лучше всего подходили к выбранным чертам характера. К имени предъявлялись также технические требования: например, в нём не должно было быть буквы «р» - её не выговаривают маленькие дети.

    Кроме того, имя не должно было входить в другие слова или фразы. В качестве одного из вариантов разработчики рассматривали имя Майя - но оно могло спровоцировать ошибки распознавания на фразах вроде «Девятое мая». Важно было также, чтобы имя не входило в список наиболее популярных женских имён в России - чтобы сократить количество ложных активаций. Алиса в такой список не входит, но для тех пользователей, у кого в семье есть Алиса, останется возможность активировать помощника командой «Слушай, Яндекс».

    Определившись с вариантами, разработчики вместе с социологами и аналитиками «Яндекса» составили опрос для пользователей сервиса «Толока». В нём компания просила определить черты характера девушки по имени. «Пользователей нельзя спросить прямо, какое имя больше подходит ассистенту, и мы спросили хитро. Взяли нужные нам характеристики - и наоборот, совсем неподходящие, и стали спрашивать: если у девушки вот такое имя, то она скорее, например, добрая или агрессивная?».

    С большим отрывом, говорит Субботин, в опросе победило имя «Алиса». «И никто за время тестирования ни разу не сказал нам, что это плохое имя».

    Как «Алиса» обучалась во время тестирования

    Всего в тестировании ассистента приняло участие несколько десятков тысяч человек, а продлилось оно пять месяцев.

    Главное, что мы выяснили за это время, - что двигаемся в верную сторону. И что те вопросы, которые, как мы думали, должны волновать пользователей, действительно их интересуют.

    Перед запуском тестирования было важно определить наиболее вероятные сценарии взаимодействия: вопросы, которые пользователи будут задавать «Алисе», - а также понять, как именно они будут их задавать.

    «Мы понимали, что людей волнует, к примеру, погода. Отлично, чтобы рассказать о погоде, надо на что-то среагировать - на какие-то пользовательские фразы», - рассказывает Субботин. Определившись с темой, разработчики описали самые простые сценарии: например, когда пользователь просто спрашивает: «Какая сейчас погода?». Затем добавили более сложные варианты: прогноз погоды на конкретное число, на несколько дней, на несколько дней в следующем месяце.

    Ещё одна популярная тематика - определение местоположения. Изначально команда «Алисы» собрала несколько реплик, которыми пользователи могли бы активировать сценарий, но выяснилось, что зачастую люди задают вопросы совсем не так, как могли предположить разработчики. «Мы включили: "где я", "где я нахожусь", "какое моё местоположение", "какой у меня сейчас адрес". А пользователь спрашивает: "Подскажи, пожалуйста, где моя геолокация". Такое мы не могли предусмотреть».

    Разработчики отслеживают типы запросов пользователей и релевантность ответов помощника и добавляют в ассистента новые сценарии, которые не были заложены в него изначально.

    Команда также занимается разработкой специальной диалоговой модели - внутри компании её называют «болталкой», - которая в будущем может взять на себя всё общение с пользователем на отвлечённые темы и обучаться новым репликам самостоятельно.

    «Болталка» обучается на больших массивах текстов, в том числе диалогов. Порой, говорят создатели, они не могут предугадать ответы «Алисы» - настолько человечными они оказываются, - а иногда она может и нахамить собеседнику. Но разработчики отслеживают некорректные реплики и удаляют их из системы.