09:26, 20 ноября 2019, 09:26
Количество просмотров 1939

Нейронные сети не так легко обучаются распознаванию речи, как принято считать

43% респондентов сообщили, что воздержатся от использования устройств, подобных Alexa, из-за проблем с безопасностью. В чем причина таких опасений, размышляет Борис Агатов, независимый эксперт по внедрению инноваций в ритейле, автор концепции «Магазин 4.0».
Нейронные сети не так легко обучаются распознаванию речи, как принято считать

 - рис.1

Борис Агатов, независимый эксперт по внедрению инноваций в ритейле, автор концепции «Магазин 4.0»

 - рис.2

По словам доцента Университета Вашингтона Николаса Вебера, «как бы мы не хотели верить, что у нас есть прорывные достижения в области искусственного интеллекта, но даже такие передовые разработки, как Alexa от Amazon, требуют участия человека». Такое вмешательство нужно, по его словам, для проверки и подтверждения аргументации искусственного интеллекта.

Огромное количество людей полагают, что ИИ не имеет ограничений, но в то же время Amazon нанимает тысячи сотрудников в Бостоне, Коста-Рике, Индии, Румынии и других странах, чтобы аннотировать тысячи часов аудио каждый день с устройств, работающих на его помощнике.

При включении человека в этот процесс сразу возникает вопрос конфиденциальности той информации, которая попадает на расшифровку и атрибутирование живым людям.

 - рис.3

Amazon, в частности, утверждает, что при работе с голосовыми треками сотрудники не имеют доступа к фамилии и имени человека, но специалисты говорят, что сама по себе запись может сказать куда как больше, и так или иначе возможно произнесение имени в разговоре, и эти имена, по мнению Mayank Varia, доцента-исследователя Бостонского университета, вряд ли убираются из записи.

В марте Google выпустила TensorFlow Privacy, библиотеку с открытым исходным кодом для своей платформы машинного обучения TensorFlow, которая предназначена для облегчения обучения разработчиков моделям ИИ с надежными гарантиями конфиденциальности. Но, к сожалению, надежные гарантии конфиденциальности не помогают улучшить качество распознавания, и человек все равно вынужден присутствовать в этом процессе.

Чувствуя такого рода подвохи в использовании технологии распознавания голоса, люди по соображениям безопасности отказываются использовать этот инструмент. Episerver опросил 4500 человек в конце 2018 года, и 43% сказали, что воздержатся от использования устройств, подобных Alexa, из-за проблем с безопасностью.

OpenVPN сообщает, что 35% не используют голосового помощника потому, что они чувствуют, что он вторгается в их частную жизнь.

Специалисты считают, что для всех технологий важно избежать эффекта «черного ящика», когда пользователи вынуждены поставить галочку в длиннющем трактате о конфиденциальности, который предлагает компания. Не секрет, что, как правило, большинство пользователей их не читает. Далее мы отдаем свои данные, а что с ними происходит – не знает ни один пользователь.

 - рис.4

Большая открытость со стороны компаний поможет преодолеть чувство тревоги за свою безопасность и даст возможность принять осознанное действие по распоряжению своими персональными данными, а компаниям – возможность улучшения своих инструментов.

Рубрика:
{}

ТАКЖЕ ПО ТЕМЕ