Война с искусственным интеллектом

Ведущие исследователи по вопросам, связанным с искусственным интеллектом опасаются последствий, к которым может привести гонка по разработке военного ИИ. И они вовсе не молчат о своих страхах.

Недавно специалисты поделились всеми опасениями на страницах открытого письма к ООН, где просили организацию рассмотреть вопрос запрета на разработку автоматизированного вооружения.

В открытом письме, что было опубликовано на официальном сайте организации Future of Life, такие люди как Элон Маск, Ноам Хомски и сам Стивен Хокинг изливают свои переживания относительно того, что оружие, которое может без вмешательства человека выбирать и атаковать свои цели, будет способно стать аналогом автомата Калашникова для людей будущего. Такое самостоятельное оружие легко способно стать спусковым крючком, что развяжет новые войны, обострит проблему терроризма и мировой неустойчивости.

В открытом письме ученые указывают, что в настоящий момент технология ИИ достигла той точки, когда возможность разработки соответствующих систем уже не фантастическое будущее, отдаленное от нас на множество десятилетий, а вполне себе скорая реальность, вопрос нескольких лет. Так же ученые упоминают, что, несмотря на бытующее мнение о том, что роботизированное оружие поможет снизить потери на поле боя – ожидать от роботов именно этого нельзя, ведь такая технология сама по себе способна превратиться в причину для новых войн, а, следовательно, – и больших жертв.


Война с искусственным интеллектом
Обеспокоенные ученые напоминают мировому сообществу, что в отличие от того же пугающего всех атомного оружия, роботизированное автономное оружие не будет требовать дорогостоящее сырье или сверхтонкую ручную сборку, то есть будет способно стать массовым для каждой крупной державы мира.

А к чему приведет появление такого оружия в руках террористов, диктаторов, на черном рынке – и подумать страшно. Стоит автономным орудиям оказаться в руках безумцев, мечтающих подчинить себе волю других, выступающих за этнические чистки – массовое истребление не заставит себя ждать.

Завершается письмо еще одной отнюдь не радужной перспективой – разработка военного ИИ может закончиться плохо для всей области работы над искусственным интеллектом, спровоцировать негативную реакцию общества, поставить крест на создании того ИИ, что мог бы принести пользу людям. Если первые самостоятельные роботы будут рождены, чтобы убивать, вряд ли люди так скоро благосклонно допустят ИИ к заботе над собственными детьми или уходу за своим домом.

С помощью открытого письма авторы взывают к помощи ООН и утверждают, что запрет на разработку автономного оружия, исключающего контроль человека, просто необходим.

Кстати, организация Future of Life Institute так же занимается вопросами, посвященными разработке ИИ, и ее представители отмечают, что, по мнению ВВС США, скоро, примерно к 2030 году способности машин станут столь велики, что слабым звеном в системе станет как раз человек.

Впрочем, как сторонники, так и критики автономного вооружения сходятся в одном – сложно будет установить единую черту того, что можно счесть автономной системой вооружения, а что – нет. И нас, вероятно, ожидает еще не один спор о том, насколько целесообразно применять очередное инновационное изобретение как новый способ слегка подсократить население планеты.






Комментариев 0
avatar