Новаторское исследование, недавно опубликованное в Journal of Experimental Теоретический искусственный интеллект исследует вопрос морали машин и задается вопросом, является ли «злом» то, что роботы маскируются под людей.Опираясь на теории информационной этики и искусственного зла Лучано Флориди, команда, возглавляющая исследование, исследует этические последствия разработки замаскированных машин. «Маскарадинг означает, что человек в данном контексте не может определить, является ли машина человеком», — объясняют исследователи, — в этом и заключается суть теста Тьюринга. Этот тип обмана увеличивает «метафизическую энтропию», что означает любое искажение сущностей и обеднение бытия; поскольку это приводит к недостатку добра в окружающей среде или инфосфере, Флориди считает это фундаментальным злом. Следуя этой предпосылке, команда намеревалась выяснить, где находится «локус моральной ответственности и моральной ответственности» в отношениях с маскирующими машинами, и попытаться установить, этично ли разрабатывать роботов, которые могут пройти тест Тьюринга.
В исследовании были выявлены и проанализированы шесть важных взаимоотношений между субъектом и пациентом, дающих ключевую информацию по данному вопросу. Глядя на ассоциации между разработчиками, роботами, пользователями и владельцами и интегрируя в исследования известные примеры, такие как бот Нанис в Twitter и Siri от Apple, команда определяет, где лежит этическая ответственность — с машинами, людьми или где-то посередине?Но что на самом деле скрывается за маской робота, и действительно ли это зло, когда машины маскируются под людей? «Когда машина маскируется, она влияет на поведение или действия людей [по отношению к роботам, а также их коллегам]», — утверждают ученые.
Даже когда маскировка не портит окружающую среду, она увеличивает вероятность зла, поскольку людям становится все труднее принимать подлинные этические решения. Достижения в области искусственного интеллекта опередили этические разработки, и теперь люди сталкиваются с новым набором проблем, вызванных постоянно развивающимся миром машин.
Пока эти проблемы не будут должным образом решены, вопрос, можем ли мы научить роботов быть хорошими, остается открытым.
