"Панцирь", Mamba, Су-57. К чему может привести использование ИИ военными?

"Панцирь", Mamba, Су-57. К чему может привести использование ИИ военными?

Как используется искусственный интеллект в системах ПВО, авиации и танковых войсках, рассказал военный эксперт Юрий Кнутов.


Скорость баллистической ракеты такова, что человек не в состоянии вовремя принять решение и привести в действие систему, предназначенную для ее перехвата, отметил военный эксперт, директор Музея войск противовоздушной обороны (ПВО) Юрий Кнутов.

"Системы противоракетной обороны все основаны на искусственном интеллекте (ИИ), потому что скорость баллистической ракеты гигантская, и скорость противоракеты тоже гигантская. Мы только начали думать, а ракета уже улетела. Поэтому только ИИ может принять соответствующее решение. И наши, и французские, и американские зенитно-ракетные комплексы строятся с этим расчетом. Тот же ЗРПК "Панцирь" – там оператор ничего не успевает сделать, все делает ИИ: определяет цель и открывает огонь. Такая же система в комплексах Mamba (системы ПВО Samp/T-Mamba, – ред.), которые Франция и Италия планируют поставить на Украину", – уточнил он.

Что касается авиации, то даже летчик высочайшего класса не может соперничать с искусственным интеллектом, уверен военный эксперт.

"В нашем Су-57 только один летчик, а вообще-то должно быть два. Вместо второго летчика вполне успешно используется ИИ. Но там есть контроль со стороны человека, который находится в кабине. Такая же история и у американцев. Год назад проводились интересные испытания: взяли летчика морской пехоты США и составили для него определенную программу, сделали симулятор, а рядом – такой же симулятор, только для ИИ. В первом бою летчик, профессионал высочайшего уровня, продержался несколько секунд. Когда с ИИ провели боев десять, примерно в десятом бою человек смог продержаться секунд двадцать", – сказал Юрий Кнутов.

Однако ИИ может совершать ошибки, которые приводят к опасным последствиям, продолжил он.

"Есть такое понятие, как машинное зрение. Допустим, в машину закладываются фотографии танка зимой, летом, осенью, весной, на природе, в городе и так далее. И когда происходят военные действия, ИИ, исходя из той информации, которая у него находится в памяти, определяет, что это – Т-72 или Abrams. Если это американский ИИ, он по Т-72 должен открыть огонь, а по Abrams – не должен. Но, естественно, может произойти ошибка. Такие ошибки были у американцев несколько раз. Были ситуации, когда на полигонах проводились испытания, все шло хорошо, а потом ИИ все-таки давал сбой, и техника, например, пулемет, который установлен на бронетранспортере, начинал открывать огонь по своим", – добавил Юрий Кнутов.

Американский миллиардер Илон Маск, выступая в среду по видеосвязи на Всемирном правительственном саммите в Дубае, назвал ИИ главной угрозой человечеству.

По мнению Юрия Кнутова, заложенная в ИИ способность к самообучению действительно может сделать суперкомпьютеры опасными для людей.

"Когда будет создан ИИ довольно высокого уровня, в процессе самообучения он может решить, что он умнее, он более передовой, и у него есть право находиться на земле, а люди – лишние существа. Вероятность этого очень велика. Есть какие-то правила Айзека Азимова (американский писатель-фантаст, который сформулировал "три закона робототехники", – ред.), в соответствии с которыми ИИ никогда не должен действовать против человека. Но, во-первых, это всего лишь утверждение. А во-вторых, в процессе самообучения ИИ могут накапливаться определенные ошибки, которые могут носить системный характер. В результате мы будем считать, что ИИ действует по одному сценарию, а у него могут накопиться программные ошибки, которые приведут к тому, что он будет враждебно смотреть на людей или решит, что он Бог", – заключил военный эксперт.

Источник: https://radiosputnik.ria.ru/

Другие материалы раздела
Первая полоса