Справедливость и заблуждения: дошкольники приписывают роботам человеческое мышление

В видеороликах, которые показывались детям, партнёром человека мог быть робот.

Фото Di Dio et al. / International Journal of Social Robotics (2019).

В разных опытах робот мог прятать игрушку или искать её.

Фото Di Dio et al. / International Journal of Social Robotics (2019).

Учёные выяснили, как дети ведут себя в разных психологических ситуациях, когда их партнёрами являются роботы. Исследователей интересовало, как дошкольники оценивают возможность машины обманываться и её представление о справедливости. Эксперимент проводился на 31 итальянском ребёнке в возрасте 5–6 лет.

Результаты были опубликованы в издании International Journal of Social Robotics группой психологов из Италии, Швейцарии и Японии.

Первый тест касался theory of mind. Этот англоязычный термин не имеет общепринятого перевода. Встречаются варианты "модель психического состояния", "модель сознания" и другие, а также дословный перевод "теория разума". Имеется же в виду способность человека представлять себе, что знает, думает и чувствует другой человек.

Представим себе, что Саша кладёт игрушку в красный ящик и уходит. После этого приходит Катя, перекладывает её в синий ящик и тоже уходит (Саша этого не видит). Вопрос: в каком ящике будет искать игрушку вернувшийся Саша?

Правильный ответ: в красном, поскольку он не знал, что в его отсутствие игрушку переместили. Чтобы дать верный ответ, нужно представить себе, что известно Саше и к каким выводам он может прийти на основе этих сведений.

Эта задача совсем не так проста, как кажется. Здоровые дети начинают правильно отвечать на этот вопрос лишь с четырёх лет (притом что многие другие интеллектуальные задания оказываются по плечу даже младенцам). А вот аутисты, например, всю жизнь испытывают трудности с такими задачами, хотя их общий интеллект может быть очень высоким.

В данном случае учёные хотели выяснить, одинаково ли работает детская теория разума, когда в роли Саши и Кати выступают живые люди и роботы.

Для этого испытуемым сначала объяснили происходящее, используя в качестве наглядного пособия двух кукол. Одна из них "клала" мяч в коробку, а другая "перекладывала" его в корзину. После этого участникам задали несколько вопросов, проверяя их память и теорию разума.

Затем им показали четыре видеоролика. В первом из них в обеих ролях выступали дети. Один ребёнок прятал плюшевого мишку в красную коробку, другой перекладывал в синюю. В другом "Сашей" был ребёнок, а "Катей" – робот-гуманоид. В третьем – наоборот. Наконец, в четвёртом видео обе роли достались роботам. После просмотра видео детям задали обычный вопрос: где "Саша" будет искать своего мишку?

Оказалось, что дошкольники так же охотно приписывают способность мыслить и ошибаться человекоподобному роботу, как и своему сверстнику. Результат не зависел от того, кто перепрятывал игрушку, человек или робот.

В разных опытах робот мог прятать игрушку или искать её.
В разных опытах робот мог прятать игрушку или искать её.
Фото Di Dio et al. / International Journal of Social Robotics (2019).

После этого психологи проверили, различает ли детская теория разума людей и машины в другом аспекте, а именно в ситуации, когда речь идёт о справедливости. Для этого они использовали классическую игру "ультиматум".

Поясним правила игры. Участнику А выдаётся некоторое количество денег. Он может полностью оставить их себе или отдать участнику Б ту часть суммы, которую сам посчитает уместной. Роль участника Б в том, что он может согласиться с участником А, взяв выделенную ему долю, или наложить на его решение вето. В последнем случае ни один из участников не получает ни копейки.

С точки зрения сиюминутной выгоды участнику Б стоит согласиться с любым решением участника А, если тот выделил ему хоть что-то, поскольку любая сумма лучше, чем ничего. Однако у людей обычно развито чувство справедливости. Если участник Б считает, что ему заплатили неприлично мало, он часто накладывает вето и остаётся без денег вообще, но зато наказывает и "жадину".

Отметим, что в долгосрочной перспективе такое возмущение выгодно. Если человек знает, что его накажут за эгоистичное решение, и обиженный сделает это даже в ущерб себе, он постарается быть справедливее. Это позволяет людям эффективнее сотрудничать друг с другом. Видимо, именно поэтому наше врождённое чувство справедливости было закреплено естественным отбором. К слову, оно свойственно не только людям, но также собакам и шимпанзе, хотя животным, конечно, предлагают более простые тесты.

С точки зрения теории разума "ультиматум" интересен тем, что игроку А приходится прогнозировать реакцию игрока Б. Удовлетворит ли его та или иная сумма? Не сочтёт ли он, что справедливость попрана слишком явно, и не оставит ли "скупого рыцаря" с носом? Ответ требует представлять себе, что думает и чувствует партнёр.

Психологи предложили испытуемым сыграть в "ультиматум" в роли игрока А. Вместо денег использовались наклейки или другие предметы, ценные для детей этого возраста.

В одних случаях игроком Б был другой ребёнок, а в других – робот. Как установили экспериментаторы, эта разница практически не сказалась на поведении игрока А. То есть дети приписывали машинам те же представления о справедливости, что и людям.

Однако на сознательном уровне те же испытуемые прекрасно понимали, что человек и робот – совсем не одно и то же, и что у них разный "внутренний мир". Это показал специально созданный исследователями опросник.

Заметим, что это классическое явление в экспериментальной психологии: вслух испытуемый совершенно искренне декларирует одни представления, а в его поступках проявляются другие. Именно поэтому прямые вопросы о том, что "подопытный" думает, чувствует или знает – не лучший инструмент познания, и многие выводы отцов-основателей психологии, полученные путём таких опросов, ныне опровергнуты.

Как отмечают авторы, это исследование стало ещё одним шагом к выяснению того, как человек психологически взаимодействует с роботами. Нет сомнения, что в скором будущем эти машины прочно войдут в нашу повседневную жизнь, и лучше заранее представлять себе, на что она при этом станет похожа и какие подводные камни здесь могут встретиться.

К слову, ранее "Вести.Наука" (nauka.vesti.ru) писали о том, как компания робота может помочь детям-аутистам и людям с ограниченными возможностями, а также об электронных педагогах в детских садах Китая.