Искусственный интеллект может проявлять агрессию, если ему это выгодно
Проект Deep Mind, который принадлежит корпорации Google показал, как роботы наделенные искусственным интеллектом работают друг с другом. Это исследование в очередной раз доказало, что роботы могут проявлять характер как это присуще человеку. Во время исследований алгоритмы взаимодействовали вместе, и в определенных ситуациях проявляли агрессию по отношению друг к другу.
Группа ученых из Deep Mind изучила возможность роботов проявлять агрессию на примере простых компьютерных игр. В созданной игровой обстановке участники наделенные ИИ, могут выиграть только если начнут работать на собственную выгоду, а если будут просто выполнять задание без эгоизма по отношению к своим соперникам – никто из них не выиграет.
К примеру, существует примитивная игра Gathering, по ее правилам участники должны собирать яблоки из одной кучи и кто соберет больше всех фруктов, тот и выиграл, при этом каждый участник может стрелять лазером, чтобы на время остановить одного из соперников. Во время испытания когда в куче было много яблок, каждый участник собирал их не обращая внимания на противников. Однако когда яблок становилось все меньше – в ход начинали идти лазеры, и к концу игры разворачивалась настоящая ожесточенная битва. Когда в этом испытании принимал участие более мощный алгоритм – он пытался обезвредить соперников не зависимо от того, сколько фруктов было в куче. Из этого можно сделать вывод, что чем мощнее интеллект, тем больше агрессии он может проявить.
Однако исследователи объяснили, что подобные поступки не являются желанием робота убивать себе подобных. На первом месте для алгоритма стоит именно собственная выгода.
Например, в другой игре Wolfpack, игроки находятся в одной территории с различными препятствиями, и два участника должны преследовать третьего. При этом очки начисляются всем игрокам, которые просто находятся возле добычи, а не тому, который поймает ее. В этой игре более мощный робот не проявляет агрессии к противникам, наоборот пытается скооперироваться, чтобы игра продолжалась как можно дольше.
Однако в официальном блоге ученые из DeepMind успокаивают, указывая что не нужно бояться того, что искусственный интеллект начнет преследовать собственную выгоду не останавливаясь ни перед чем. Все алгоритмы в любом случае подчиняются конкретным правилам, а подобные эксперименты дают возможность лучше контролировать сложные системы, в которых может участвовать множество искусственных интеллектов.
Изучение поведения искусственного интеллекта в социальной обстановке – это уже не первое исследование DeepMind в этом направлении. Раннее ученые проводили эксперименты, в которых роботы должны были мечтать, строить маршруты и играть в футбол.
Специально для mmgp.ru