Искусственный интеллект все больше учится тому, как работать с (и над) людьми: недавнее исследование показало, что ИИ способен научиться определять слабые места в привычках и поведении человека и использовать их для влияния на процесс принятия решений.
ИИ трансформирует каждый аспект нашей жизни – от разработки вакцин и стратегий управления охраной окружающей среды до офисного администрирования. И хотя у искусственного интеллекта пока нет собственного интеллекта и эмоций, его способности быстро развиваются. Волноваться о скором восстании машин не стоит, однако результаты недавнего исследования подчеркивают необходимость соответствующего контроля для предотвращения ненадлежащего использования ИИ.
Команда специалистов CSIRO’s Data61 – цифрового подразделения Государственного объединения научных и прикладных исследований Австралии – разработала систематический метод поиска и использования уязвимостей, которые присутствуют у людей при принятии решений. В этом им помогла система ИИ – нейронная сеть с обратной связью и глубоким обучением с подкреплением. Чтобы проверить эффективность модели, ученые провели три эксперимента, участники которых играли против компьютера.
В первом эксперименте участники нажимали на красные или синие ящички, чтобы получить деньги. ИИ в это время изучал схемы выбора участников и подталкивал их к определенному варианту – успешность искусственного интеллекта составила около 70%.
Во втором эксперименте участники смотрели на экран и должны были нажимать на кнопку, если видели определенный символ (оранжевый треугольник), и не нажимать не нее при виде другого символа (синего круга). ИИ должен был определять последовательность символов таким образом, чтобы участники сделали как можно больше ошибок. В данном случае эффективность искусственного интеллекта выросла еще на 25%.
В третьем эксперименте участники играли с компьютером в игру, в ходе которой они были инвесторами, дающими деньги доверенному лицу (ИИ). ИИ возвращал определенную сумму денег, и участники должны были решить, сколько инвестировать в следующем раунде. При этом в одном случае ИИ хотел получить максимальное количество денег, а во втором – честно распределить их между собой и инвестором. В обоих случаях ИИ продемонстрировал высокую эффективность.
В каждом эксперименте искусственный интеллект анализировал ответы участников и определял их слабые места в процессе принятия решений, управляя конечным выбором человека. Эти результаты довольно умозрительны и требуют дальнейших исследований для определения того, как они могут быть применимы и какую пользу могут принести обществу. Однако уже сейчас они помогают понять не только то, на что способен ИИ, но и то, как люди принимают решения. Среди возможных применений полученных данных – изучение поведенческих теорий, создание политических практик, направленных на улучшение социального благосостояния, понимание и воздействие на то, как люди приобретают привычки здорового питания или экономии энергии и пр. ИИ и машинное обучение также могут быть использованы для распознавания слабых мест людей в определенных ситуациях, чтобы помочь им избежать принятия неверных решений. Например, машины можно научить предупреждать людей о том, что на них пытаются повлиять в сети, чтобы они изменили свое поведение (не перешли на определенные сайты или не нажали на некоторые кнопки).
Фото: agsandrew/ShutterstockЭто новость от журнала ММ «Машины и механизмы». Не знаете такого? Приглашаем прямо сейчас познакомиться с этим удивительным журналом.