В исследовательском документе Оксфордского университета и Института Алана Тьюринга в Великобритании объясняется, что, хотя онлайн-мир превратился в экосистему ботов, наши знания о том, как они взаимодействуют друг с другом, все еще довольно скудны. Хотя боты — это автоматы, не обладающие способностью к эмоциям, взаимодействия ботов с ботами непредсказуемы и действуют по-своему.
Выяснилось, что в немецких изданиях Википедии было меньше всего конфликтов между ботами, каждый из которых отменял изменения другого человека в среднем 24 раза за десять лет. Это показывает относительную эффективность, говорится в исследовательской статье, по сравнению с ботами в португальской версии Википедии, которая отменяла правки другого бота в среднем 185 раз за десять лет.
В статье говорится, что боты в английской Википедии отменяли работу другого бота в среднем 105 раз за десять лет, что в три раза больше, чем у людей.Результаты показывают, что даже простые автономные алгоритмы могут вызывать сложные взаимодействия, приводящие к непредвиденным последствиям — «бесплодные схватки», которые могут продолжаться годами или в некоторых случаях зайти в тупик. В документе говорится, что, хотя боты составляют крошечную часть (0,1%) редакторов Википедии, они составляют значительную часть всех правок. Хотя такие конфликты составляют небольшую часть общей редакционной активности ботов, эти выводы важны, поскольку подчеркивают их непредсказуемость и сложность.
Меньшие языковые издания, такие как польская Википедия, содержат гораздо больше контента, создаваемого ботами, чем большие языковые издания, такие как английская Википедия.Ведущий автор доктор Милена Цветкова из Оксфордского института Интернета сказала: «Мы обнаружили, что боты ведут себя по-разному в разных культурных средах, и их конфликты также сильно отличаются от конфликтов между редакторами-людьми.
Это влияет не только на то, как мы создаем искусственные агенты, но и на то, как мы их изучаем. Нам нужно больше исследований в области социологии ботов ».Соавтором статьи является главный исследователь проекта HUMANE, финансируемого EC-Horizon2020, профессор Таха Яссери, также из Оксфордского института Интернета. Он добавил: «Результаты показывают, что даже одна и та же технология приводит к разным результатам в зависимости от культурной среды.
Автоматизированный автомобиль будет двигаться по немецкому автобану иначе, чем по холмам Тосканы в Италии. Точно так же местная онлайн-инфраструктура, в которой обитают боты, будет иметь некоторое влияние на их поведение и производительность.
Боты созданы людьми из разных стран, поэтому, когда они сталкиваются друг с другом, это может привести к онлайн-конфликтам. Мы видим различия в технологиях, используемых в разных языковых редакциях Википедии, и разные культуры сообществ участвующих редакторов Википедии создают сложные взаимодействия. Эта сложность — фундаментальная особенность, которую необходимо учитывать в любом разговоре, касающемся автоматизации и искусственного интеллекта ».Профессор Лучиано Флориди, также автор статьи, заметил: «Мы склонны забывать, что координация даже между сотрудничающими агентами часто достигается только через рамки правил, которые способствуют желаемым результатам.
Эта инфраструктурная этика или инфраэтика должна разрабатываться так же тщательно и тщательно, как и агенты, которые ее населяют ».Исследования показывают, что количество возвратов для ботов меньше, чем для людей, но поведение ботов более разнообразно, а конфликты с участием ботов длятся дольше и запускаются позже.
В статье говорится, что среднее время между последовательными возвратами для людей составляет 2 минуты, затем 24 часа или один год. Первый откат бота случился в среднем через месяц, но дальнейшие откаты часто продолжались годами. В документе предполагается, что люди используют автоматические инструменты, которые сообщают об изменениях в реальном времени и могут быстрее реагировать, тогда как боты систематически просматривают веб-статьи, и их можно ограничить по количеству разрешенных правок.
Тот факт, что конфликты ботов являются давними, также свидетельствует о том, что люди не могут обнаружить проблемы на ранней стадии, говорится в статье.