Стивен Хокинг и Элон Маск призвали запретить производство оружия с искусственным интеллектом. Десятки учёных, инвесторов и предпринимателей, тысячи экспертов в области робототехники подписали открытое письмо, призывающее запретить изготовление искусственного интеллекта и оружия на его основе. Под документом подписались сооснователь Apple Стив Возняк, философ Ноам Хомский. Представители научного сообщества считают, что это оружие (или, другими словами, роботы-убийцы) представляет серьёзную угрозу для всего человечества. 

«Автономное оружие способно само выбирать и наносить удар по цели без человеческого вмешательства. К примеру, таким видом оружия может являться самоуправляемый вооружённый дрон, самостоятельно ищущий и атакующий цели, подходящие под заданный критерий, искусственный интеллект нельзя вживить в крылатые ракеты или дроны-беспилотники, которые управляются только людьми. Технология искусственного интеллекта (ИИ) уже достигла той точки, когда внедрение подобных систем (не с юридической точки зрения) займёт несколько лет, а не десятилетий, как считалось раньше, и риск очень высок, ибо автономное оружие может положить начало новой, третьей революции в вооружении, после изобретения пороха и ядерного оружия.

Было приведено много аргументов за и против использования автономного оружия: например, если мы заменим обычного солдата на машину — уменьшим потери. Ключевым вопросом человечества на сегодняшний день является — положить начало глобальной гонки вооружения ИИ или не допустить её запуска. Если основной задачей какой-либо крупной военной державы является разработка оружия на основе ИИ, глобальная гонка вооружения практически неизбежна, и финальная точка такой цепи событий очевидна: распространение такого оружия сделает его «новым Калашниковым». В отличие от ядерного оружия, изготовление оружия на основе искусственного интеллекта не потребует дорогостоящего сырья, таким образом, оружие на основе ИИ станут повсеместно и дёшево производить во всех крупных военных державах и затем запустят в массовое производство. Это лишь вопрос времени, когда подобное оружие появятся на чёрном рынке и попадёт в руки террористов, диктаторов, желающих установить сверхконтроль над населением своей страны, верховных военачальников, желающих осуществить этническую чистку, и т. д. Автономное оружие идеально подходят для убийств, дестабилизация нации, оно способно подчинить население и избирательно убивать ту или иную этническую группу. Поэтому мы считаем, что военная гонка вооружения не может принести пользу человечеству. Существует много способов, при которых ИИ убережёт от человеческих жертв в войне, особенно гражданского населения, без создания новых инструментов для убийства людей. 

Так же как ведущие химики и биологи не заинтересованы в создании химического или биологического оружия, большинство исследователей ИИ не имеют никакого интереса в создании оружия на основе искусственного интеллекта. Данные исследователи и разработчики не хотят запятнать свою репутацию и поле своей деятельности, создавая крайне негативную общественную реакцию против ИИ. Это убьёт все дальнейшие социальные выгоды данной разработки. Действительно, химики и биологи активно поддерживают все международные соглашения, запрещающие использование химического и биологического оружия. Большинство физиков выступают за общественные договоры, запрещающие ядерное и ослепляющее лазерное оружие.

В целом мы считаем, что искусственный интеллект имеет большой потенциал и способен принести колоссальную пользу человечеству при правильном использовании. Однако начало военной гонки вооружения с ИИ мы не можем назвать хорошей идеей. Чтобы это предотвратить, нужно ввести запрет на развитие автономного оружия без значимого человеческого контроля».

Письмо сопровождается докладом Future of Life Institute. Эта организация была основана в минувшем году группой общественных деятелей, в число которых входит сооснователь Skype Яан Таллинн. В научный совет института наряду с Хокингом входит актёр Морган Фримен. Цель института «Будущее жизни» — контроль создания искусственного интеллекта, оценка его влияния на человечество и предотвращение риска в дальнейшем использовании. 

Научное сообщество обязывает своих коллег тщательно координировать разработку и просит сообщать обо всех своих достижениях, иначе искусственный интеллект может выйти из-под контроля человечества. 

В декабре Хокинг заявил в интервью BBC, что разработка полноценного искусственного интеллекта может привести к концу всего человечества и жизни на Земле, если такая система «начнёт неконтролируемо совершенствовать саму себя». Элон Маск также утверждал, что развитие искусственного интеллекта и оружия на его основе «потенциально опаснее ядерных бомб».