31 января 2017

Когда искусственный интеллект начнет понимать человеческие эмоции?

Поделитесь новостью в соцсетях
Смогли бы вы довериться роботу, если бы он был вашим лечащим врачом? Или учителем? Или, например, психологом? «Эмоциональные разумные машины могут быть не так далеки от нас, как кажется. За последние несколько десятилетий, искусственный интеллект существенно прибавил в возможностях чтения эмоциональных реакций людей» — говорится в сообщении Hi-News.ru.

Но считывать эмоции — не значит их понимать, ведь искусственный интеллект не может сам их испытывать. Значит ли это, что и понять нас в полной мере он никогда не сможет? И если это так, рискуем ли мы приписывать роботам свойства, которых у них нет?

Последнее поколение искусственного интеллекта постепенно совершенствуется в делах, которые раньше могли выполнять только живые люди. Благодаря росту числа данных, а также благодаря увеличению вычислительной мощности, компьютеры могут легко обучаться человеческим операциям.

«Сегодня искусственный интеллект, среди прочего, может распознавать лица, превращать эскизы лиц в фотографии, распознавать речь и играть в го» — пишет Hi-News.ru.
Идентификация преступников
Совсем недавно учеными был разработан искусственный интеллект, способный определить, является ли человек преступником, лишь взглянув на его черты лица. Оценка системы происходила с использованием базы данных фотографий китайцев: результаты оказались просто ошеломляющими. Искусственный интеллект всего в 6% случаев ошибочно классифицировал невиновных как преступников, 83% были успешно опознаны; общая точность составила почти 90%.

Данная система основана на методе «глубокого обучения», оказавшемся эффективным, например, в распознавании лиц. «Глубокое обучение в сочетании с «моделью вращения лица» позволило искусственному интеллекту определить, представляют ли две фотографии лица одного и того же человека, даже если меняется освещение или угол» — сообщают Hi-News.ru.

Глубокое обучение создает «нейронную сеть», приближенную к человеческому мозгу. Она состоит из сотен тысяч нейронов, организованных в разных слоях. Каждый слой переводит входные данные (к примеру, изображение лица) на более высокий уровень абстракции, вроде набора ребер в определенных направлениях и расположениях. Затем она автоматически выделяет наиболее актуальные черты для выполнения той или иной задачи.

В связи с этим нет ничего удивительного в том, что искусственные нейронные сети могут отличать преступников от невиновных, конечно же, в том случае, если черты лица, которые их отличают, действительно существуют. Уже было проведено исследование, которое позволило выделить три такие черты. Во-первых, угол между кончиком носа и уголками рта у преступников в среднем на 19,6% меньше. Во-вторых, кривизна верхней губы в среднем у них на 23,4% больше. И в-третьих, расстояние между внутренними уголками глаз в среднем у преступников уже на 5,6%.
Исходя из этого исследования, можно сделать предположение о том, что преступников можно определить по внешним признакам. Но, на самом деле, все не так просто. Кроме того, две самых релевантных черты так или иначе связаны с губами (не самые выразительные черты лица). Фотографии преступников, использованные в исследовании, требуют нейтрального выражения лица, но искусственному интеллекту все же удается находить на них скрытые эмоции. Возможно, настолько незначительные, что люди не в силах их обнаружить.

Тщательное рассмотрение фотографий, использованных в исследовании, и правда обнаруживает легкую улыбку на фотографиях невиновных. Но в образцах не так много фотографий, поэтому сделать выводы о всей базе данных невозможно.

Сила аффективных вычислений
Компьютер и раньше мог распознавать человеческие эмоции: область «аффективных вычислений» или «эмоциональных вычислений» существует уже давно. Бытует мнение, что если мы хотим комфортно жить и взаимодействовать с искусственным интеллектом, то машины должны уметь понимать и правильно реагировать на человеческие эмоции: и возможности этой области довольно обширны.

К примеру, для определения студентов, испытывающих трудности с компьютерными обучающими программами, исследователи использовали анализ лиц. Искусственный интеллект «научили распознавать различные уровни вовлеченности и разочарования, чтобы система могла понять, когда студенты считают работу слишком простой или слишком сложной» — сообщает Hi-News.ru. Такая технология может оказаться полезной для улучшения процесса обучения на онлайн-платформах.

К слову, Sony пытается разработать робота, который будет способен устанавливать эмоциональные связи с людьми. Пока не совсем понятно, как компания собралась достичь этой цели или что конкретно будет делать робот. Но Sony заявляет, что пытается «интегрировать аппаратные средства и услуги, чтобы обеспечить эмоционально сопоставимый опыт».

Искусственный интеллект, способный воспринимать человеческие эмоции, безусловно будет иметь ряд преимуществ, будь это роль собеседника или исполнителя: ИИ сможет и преступника опознать, и о лечении поговорить.

Но встает вопрос об этических рисках. Будет ли рационально позволить пациенту с деменцией положиться на компаньона в лице искусственного интеллекта, сообщив ему, что он эмоционально живой (что на самом деле не так)? Сможем ли мы обвинить человека и посадить его за решетку по наводке ИИ? Вероятно, нет. Ведь искусственный интеллект, в первую очередь, будет не судьей, а следователем, определяющим «подозрительных», но уж никак не виновных людей.

Эмоции и чувства сложно объяснить искусственному интеллекту отчасти из-за недостатка данных. Сможет ли ИИ когда-нибудь понять сарказм? Ведь в одной ситуации предложение может быть саркастичным, а в другой — уже нет.

В любом случае, объем данных и вычислительной мощности продолжает расти. За несколькими исключениями, ИИ вполне может научиться распознавать различные типы эмоций в ближайшие несколько десятилетий. Но сможет ли он когда-нибудь сам их испытывать? Это спорный вопрос.
Copyright 2016 En+ Group Ltd.
Образовательный проект. Проект группы компании En+ Group Ltd.