Кайл Виггерс @ Kyle_L_Wiggers 1 июля 2019 7:35
То, как вы идете, многое говорит о том, как вы себя чувствуете в данный момент. Например, когда вы угнетены или подавлены, у вас больше шансов опустить плечи, чем когда вы довольны или расстроены. Используя эту «соматическую лексику», исследователи из Университетов Чапел-Хилла и Мэриленда недавно исследовали метод машинного обучения, который может идентифицировать воспринимаемые человеком эмоции, настроение (например, негативное или позитивное) и возбуждение (спокойное или энергичное) по его походке. Исследователи утверждают, что этот подход - который они считают первым в своем роде - достигает 80,07% точности в предварительных экспериментах.
«Эмоции играют большую роль в нашей жизни, определяя наш опыт и формируя то, как мы видим мир и взаимодействуем с другими людьми», - написали соавторы. «Из-за важности восприятия эмоций в повседневной жизни автоматическое распознавание эмоций является критической проблемой во многих областях, таких как игры и развлечения, безопасность и обеспечение правопорядка, покупки, взаимодействие человека с компьютером и взаимодействие человека с роботом».
Исследователи выбрали четыре типа эмоций - счастливые, грустные, злые и нейтральные - за их склонность «долго длиться» и «яркую выраженность» при ходьбе. Затем они извлекли походки из нескольких видео людей при ходьбе, чтобы выявить аффективные особенности и извлекли позы, используя технику оценки позы 3D. Наконец, они использовали модель долгосрочной кратковременной памяти (LSTM) - способную изучать долгосрочные зависимости - для получения характеристик из последовательностей поз, которые они комбинировали методом классификации «случайный лес» (он выводит среднее прогнозирование из нескольких отдельных деревьев решений) для классификации примеров в вышеупомянутых четырех категориях эмоций.
Во входных данных учитывались такие особенности, как положение плеч, расстояние между последовательными шагами и область между руками и шеей. Угол наклона головы использовался для различения радостных и грустных эмоций, в то время как более компактные позы и размах жестов определяли положительные и отрицательные эмоции, соответственно. Что касается возбуждения, которое, как отмечают ученые, имеет тенденцию соответствовать движениям с большей амплитудой, модель учитывала скорость, ускорение и «порывистость» движений рук, ног и головы.
Система ИИ обработала образцы из Emotion Walk или EWalk, нового набора данных, содержащего 1384 походки, извлеченных из видео 24 людей, гуляющих по университетскому кампусу, как в помещении, так и на открытом воздухе. Примерно 700 участников из Amazon Mechanical Turk назвали эмоции, и исследователи использовали эти ярлыки для определения настроения и возбуждения.
В ходе испытаний группа сообщает, что их подход к выявлению эмоций позволил улучшить результаты на 13,85% по сравнению с современными алгоритмами и на 24,60% по сравнению с «классическими» LSTM, которые не учитывают аффективные функции. Это не значит, что он надежный - его точность во многом зависит от точности 3D позы человека и извлечения походки. Но, несмотря на эти ограничения, команда считает, что их метод обеспечит прочную основу для исследований, включающих дополнительные действия и другие алгоритмы идентификации эмоций.
«Наш подход также является первым подходом, обеспечивающим в реальном времени идентификацию эмоций по видео идущих людей, используя современную оценку 3D позы человека», - написали авторы. «В рамках будущей работы мы хотели бы собрать больше наборов данных и устранить ограничения».