проект Вадима Митякина

Как в Adobe XD сделать прототип голосового помощника

Тестирование еды на реальных пользователях
Нахожусь в поиске соответствующего инструментария, в котором можно было бы одновременно прописывать сценарии и проверять их в реальном взаимодействии голосом.
Январь, 2019
#Исследования
СЕРИЯ СТАТЕЙ

Концепция голосового помощника

При проектировании интерфейсов мобильных приложений нет смысла обсуждать экраны до тех пор, пока не откроешь макет на реальном устройстве. Сразу становится понятно, насколько хорошая компоновка, виден текст и можно попасть в кнопку. С голосовыми интерфейсами все еще интереснее. Можно конечно смотреть на графические схемы взаимодействия, но действительно понять, рабочий сценарий получился или нет, можно только вживую.

Нахожусь в поиске соответствующего инструментария, в котором можно было бы одновременно прописывать сценарии и проверять их в реальном взаимодействии голосом. Сейчас все только появляется и похоже придется много чего перепробовать. Сложившихся стандартов нет.

Юрий Ветров в последнем дайджесте писал, что Adobe добавил поддержку прототипирования голосового взаимодействия в свой продукт XD. С него и начнем. В базовом варианте он бесплатный, для тестирования хватит.
Почитать ещё:
Пошел читать документацию и какие-то обзоры. Много громких слов как все круто. Вот и статья с многообещающим названием. С учетом того, что пока в мире практики почти нет, то и в статье пока с ними не очень.
Почитать ещё:
Получается следующая схема. Каждый артборд – шаг в диалоге. Триггеры настраиваются на разные голосовые команды от пользователя. Голосовые ответы от системы реализуются за счет действий, запускаемых при открытии артобордов.

Хорошо, попробую собрать простой сценарий заказа кофе. Первый арборд – стартовая страницы выбора кофейного бренда, с которым можно повзаимодействовать голосом в виде чата. Пока это будет только Старбакс. Дальше артборд с первой приветственной фразой от бота. Пользователь может произнести один вариантов (Expresso или Cappuccino) либо нажать на кнопки рекомендаций. Каждое из таких действий является триггером для перехода на один из арбордов, показывающие разные варианты развития диалога.

Вернемся к списку задач:
самому в процессе создания прототипа более глубоко разобраться со схемой взаимодействия в рамках конкретного сценария – Возможно, более того, если интерфейс продукта не является чатом, а полноценной функциональной историей, например, приложением автомобильной навигации, то совсем супер. Если все-таки чат и ветвление диалога очень большое, то накладные расходы на попутное рисование очень высокие. Т.е. инструмент для проектирования диалогов не подходит, хотя простые варианты эмулировать можно.
визуализировать схему или лучше сказать дерево сценария взаимодействия (вопросы, ответы, точки принятия решения, действия) – Однозначно нет. На самом деле подобная схема переходов между артбордами и для проектирования карты переходов между экранами не самая удобная, а если речь идет про граф переходов между разными ветвями сценария диалога, то совсем все плохо. Все фразы спрятаны в свойствах триггеров и увидеть общую картину нельзя.
дать коллегам, клиенту и тестовой аудитории прототип, который можно поставить на телефон и с ним поговорить – Да, но! Есть локальное ограничение для русского языка, т.к. ввод и вывод возможен только на английском языке. Во-вторых, пользователь может ответить разными фразами на один и тот же вопрос и ставить триггеры на все из них – не самый лучший вариант. Короче для прототипа с инструкцией о том как взаимодействовать – да, как способ выявить действительные пути развития диалога – нет.
Продолжение следует…