Надия КАФАРОВА

Надия КАФАРОВА

Война на уровне алгоритмов

Политика
15 Апрель 2026
12:54
113
Война на уровне алгоритмов

ИИ размывает границы ответственности

 

Военные конфликты XXI века все меньше похожи на те, к которым привыкло человечество

 

Надия КАФАРОВА,

«Бакинский рабочий»

 

Похоже, мир переступил черту, за которой война перестает быть исключительно человеческим делом - и делает это почти незаметно, без громких деклараций, но с пугающей скоростью.

Еще вчера решения о жизни и смерти принимались в штабах, где офицеры сутками сводили разрозненные данные, спорили, сомневались, ошибались. Сегодня этот процесс сжимается до минут, а иногда до секунд. И если верить сообщениям западной прессы, в первые же сутки удара США по Ирану были поражены тысячи целей - масштаб, который раньше требовал бы месяцев планирования, теперь укладывается в несколько часов работы алгоритмов.

Искусственный интеллект в этой новой реальности перестает быть вспомогательным инструментом и все чаще выступает как полноценный участник боевых действий - холодный, быстрый и лишенный сомнений. Американская система «Maven», разработанная при участии Palantir Technologies, стала своего рода «нервной системой» современной войны: она непрерывно собирает информацию со спутников, дронов, средств радиоразведки и агентурных источников, сводит ее в единую картину и практически мгновенно предлагает решения: от выбора цели до способа ее уничтожения. В этой логике война превращается в цепочку кликов: обнаружение, расчет, удар. Человеку остается лишь подтвердить или, что происходит все чаще, просто не успеть усомниться. Но именно здесь и возникает главный парадокс. Чем быстрее и эффективнее работают такие системы, тем выше соблазн довериться им полностью. Ошибка, которая раньше могла быть замечена на этапе обсуждения, теперь проходит незамеченной просто потому, что времени на сомнение больше нет.

Сообщения о том, что алгоритм способен принять гражданский объект за военный, уже перестают звучать как исключение. И в этой новой скорости цена сбоя измеряется не только стратегическими просчетами, но и жизнями, которые никто не успевает спасти.

Израильская практика лишь усиливает это ощущение сдвига. Там ИИ используется не столько для анализа поля боя, сколько для точечной охоты за конкретными людьми. Системы, подобные «Евангелию» и «Лаванде», формируют списки целей, обрабатывая данные из самых разных источников: от взломанных устройств до потоков уличных камер. Алгоритм не просто ищет, он предсказывает, отслеживает, выбирает момент.

Китай, в свою очередь, идет по пути системной трансформации, рассматривая искусственный интеллект как основу будущих вооруженных сил. Речь уже не о точечных решениях, а о создании «интеллектуализированной армии», где ИИ встроен во все уровни - от управления роями дронов до подготовки командиров в цифровых симуляторах.

На этом фоне особенно показателен украинский конфликт, который фактически превратился в полигон для обкатки подобных технологий. Здесь алгоритмы не просто анализируют данные, они учатся на реальном боевом опыте. Платформы, объединяющие спутниковую разведку, системы связи и обработку перехваченных сообщений, сокращают время принятия решений до нескольких минут.

Именно поэтому сегодняшнюю гонку ИИ все чаще сравнивают с началом ядерной эпохи. Но это сравнение обманчиво. Ядерное оружие, при всей своей разрушительной силе, было относительно предсказуемым фактором сдерживания. Искусственный интеллект, напротив, добавляет в уравнение элемент неопределенности. Он ускоряет все процессы до такой степени, что у человека может просто не остаться времени на осмысление происходящего.

В одном из исследовательских сценариев автономные системы, реагируя на угрозу, самостоятельно инициировали ответный удар не из злого умысла, а из-за логики алгоритма, для которого скорость важнее контекста.

«Искусственный интеллект можно классифицировать как новый вид оружия массового поражения, - отметил в беседе с нами офицер запаса Иса Исмаилов. - И самое опасное в том, что роль и значение человека в процессе принятия решений в ходе конфликтов и боевых действий постепенно снижается. Современные программы развились до такой степени, что человек может остаться лишь формальным «фактором контроля ситуации». Если в будущем роботы и рои дронов, управляемые программами, получат способность к самообучению и накоплению боевого опыта, то предоставление им «самостоятельности» будет равносильно вынесению смертного приговора самому человеку».

Искусственный интеллект меняет не только способ ведения войны, но и саму архитектуру ответственности. В классической модели всегда можно было проследить цепочку - кто отдал приказ, кто его передал, кто нажал кнопку. В мире алгоритмов она размывается. Решение возникает как результат обработки тысяч параметров, и даже оператор, подтверждающий удар, зачастую не в состоянии объяснить, почему система предложила именно эту цель. Ответственность начинает «растворяться» внутри кода. Военные это понимают. Именно поэтому сотрудничество государств с технологическими компаниями выходит на совершенно новый уровень.

Если раньше оборонка была закрытым контуром, то теперь ключевые разработки рождаются в частных лабораториях, стартапах и корпорациях, для которых война лишь один из рынков применения технологий. Это меняет баланс: государство больше не монополист в военной области, оно все чаще зависит от тех, кто пишет алгоритмы. И эти алгоритмы создаются не только под задачи фронта, они универсальны, масштабируемы и потенциально доступны куда более широкому кругу игроков.

Параллельно происходит еще один, почти незаметный сдвиг - изменение восприятия самой войны. Когда решения принимает человек, в них неизбежно присутствует элемент сомнения, страха, эмпатии, наконец. Машина лишена всего этого. Для нее цель - это просто набор признаков, совпавших с заданными параметрами. И чем больше таких решений принимается с участием алгоритмов, тем сильнее война теряет человеческое измерение, превращаясь в процесс оптимизации.

В итоге мир оказывается в ситуации, где старая логика сдерживания перестает работать в полной мере, а новая еще не сформировалась. И чем больше решений передается машинам, тем выше вероятность, что однажды критический момент наступит не потому, что кто-то сознательно сделал выбор, а потому, что система сочла его оптимальным.

«Тем не менее, существует и обнадеживающий момент. Человеческое воображение, безграничность мышления и присущие человеку морально-этические ценности отсутствуют у машин. Поэтому, каким бы совершенным ни было созданное человеком технологическое решение, именно человек остается тем, кто способен предусмотреть риски и найти способы противодействия этим технологиям», - резюмирует И.Исмаилов.

Экономика
Новости