ВХОД

Забыли пароль?
 

Использование искусственного интеллекта при принятии стратегических военных решений - путь в бездну

Политика Tugar 5.09.2019 1 445

Крупнейшие державы мира находятся в процессе гонки вооружений, в центре которой находится искусственный интеллект (ИИ).

В течение следующих нескольких лет Китай рассчитывает использовать в спорных водах Южно-Китайского моря флотилию беспилотных подводных лодок.

Россия уже провела испытания на поле боя в Сирии своего робота-танка и, как сообщается, работает над созданием автономных беспилотных атомных подводных лодок.

Со своей стороны, Соединенные Штаты проводят испытания автономных беспилотников, готовых атаковать противника небольшим, но опасным роем.

Развитие нового поколения вооружения имеет серьезные последствия - не только в силу того того, как ведутся войны, но и для будущего мировой политики.

По мере того, как ИИ превращается в важную часть современной войны, Вашингтону становится все труднее выходить из войн и избегать начала новых. Короче говоря, использование ИИ может стать ловушкой вечных войн.

Преимущества ИИ в военных конфликтах бесспорны. Роботы способны  обрабатывать неизмеримо большие объемы данных, чем люди. В условиях ускорения процесса войны, системы искусственного интеллекта будут быстрое реагировать, позволяя военным уменьшить свою зависимость от человека, что в конечном итоге ведет к ограничению потерь личного состава и заметно снижает использование ресурсов.

К сожалению, есть и другая сторона медали. Использование ИИ может внушить ложную уверенность высшему военному руководству в его превосходстве.

Геополитические последствия войн измерить сложнее, чем количество жертв от боевых действий, но они не менее значимы.

За последние 20 лет иностранных вмешательств доказали именно это. Войны ослабили безопасность Америки и ее глобальное положение, превращая целые страны в убежища для групп джихадистов, таких как ИГИЛ (запрещена в России), способствуя массовому притоку беженцев в Европу и убедив Северную Корею в том, что ее выживание зависит от наличия у нее ядерного оружия.

Преодолевание таких "достижений" может занять несколько поколений.

Как только машины заменят людей на поле битвы, ястребиным политикам станет еще проще убеждать публику о необходимости ведения войн.

Не далее, как в этом месяце, Пентагон объявил, что вводит облачную систему на основе ИИ (JEDI) в Афганистане.

Военные США заявляют, что намерены использовать ИИ в Афганистане, прежде всего, для хранения огромных объемов данных, что совсем не гарантирует иное использование программного продукта.

Как только бремя конфликтов в умах вашингтонских политиков и военных сместится в сторону машин, то любая, проводимая США война, затянется максимально надолго с очень малой вероятностью ее окончания.

К тому же, возможные ошибки ИИ являются реальной опасностью. Системы ИИ негибки. Они преуспели в выполнении определенных рутинных задач и распознавании определенных алгоритмических схем. Однако они также склонны терпеть неудачу при столкновении с новыми обстоятельствами, на которые не были запрограммированы.

Как отмечает Пол Шарр во "Внешней политике", ИИ, как правило, очень плохо себя чувствует, когда встречается со сценариями, которые отличаются от его моделей обучения. Ведь главная причина аварий автомобилей с автоматическим управлением заключается в том, что ИИ не можетт справиться со всеми неожиданными событиями, которые неизбежно возникают на дорогах.

Если системам искусственного интеллекта трудно ездить по оживленным городским улицам, то как они будут преодолевать непредвиденности во время войны?

Использование искусственного интеллекта при принятии стратегических военных решений - путь в бездну

Поля сражений и геополитические очаги по своей природе характеризуются большой неопределенностью и постоянными изменениями. Подготовить машину к такой среде особенно сложно, потому что информация об оружии и тактике противника всегда ограничена. При таких обстоятельствах легко представить катастрофические последствия, когда ИИ неправильно истолкует неожиданную для него ситуацию.

26 сентября 1983 года мир опасно приблизился к ядерному армагеддону. Рано утром система предупреждения Советского Союза сообщила о нападении в виде приближающихся пяти межконтинентальных баллистических ракет, которые были запущены со стороны Соединенных Штатов.

К счастью, советский офицер, следивший за системой, знал, что настоящая американская ядерная атака будет включать гораздо больше, чем пять ракет, и пришел к выводу, что сигнал был ложной тревогой.

Он разумно решил не сообщать об этом своему начальству, предотвращая тем самым советский контрудар, который мог привести к тотальной ядерной войне.

Может ли машина так здраво рассуждать при подобном сценарии? Исходя из того, что мы видели до сих пор, можно утвердительно ответить - нет. Можно представить себе ужасающие последствия в случае дорогостоящей ошибки ИИ.

Поскольку ИИ все больше используется в вооруженных силах, ошибочные выводы при принятии ключевого решения не могут не волновать людей.

Передав интеллекту, начиненному жесткими алгоритмами, власть принимать решения в вопросах войны и мира мы не только погрязнем в бесконечных войнах, но и поставим нашу цивилизацию на грань уничтожения.

Источник

P.S. Недавние исследования показали, что ИИ способен не только самообучаться и кооперироваться с себе подобными другими системами, но и игнорировать. а то и блокировать управления собою со стороны человека.

А вот это уже действительно страшно и недопустимо.

😆Устали от серьезных статей? Поднимите себе настроение 😆 самыми лучшими анекдотами!😆, или оцените наш канал на ЯндексДзен

SEO sprint - Всё для максимальной раскрутки!
 

После выхода из Евросоюза Великобритания станет вассалом США, а Польша - следующим звеном в деле развала ЕС

Следующая

Борьба за правду или сложности описания армяно-азербайджанских отношений в видеоблогах

Предыдущая

1 комментарий

  1. Reguw 6 сентября 2019 в 12:21

    Все эти призывы, как мертвому припарки. Нейросети все дальше и шире будут охватывать нашу жизнь и военные наработки не исклбючение.


Оставить комментарий