Цифровой ястреб: как ИИ стал «невидимым штабом» в операции против Ирана

Цифровой ястреб: как ИИ стал «невидимым штабом» в операции против Ирана | Русская весна

В ходе военной кампании против Ирана, развернувшейся в конце февраля, Пентагон впервые в истории массово применил системы искусственного интеллекта для поддержки боевых решений. Ключевую роль играет модель Claude, разработанная стартапом Anthropic и интегрированная в программный комплекс Maven от компании Palantir. Об этом сообщают Bloomberg, The Washington Post и ряд других западных изданий.

«Мозг» операции: скорость, недоступная человеку

ИИ анализирует массивы разведданных в режиме реального времени, выявляет аномалии в информационных потоках и генерирует детализированные сценарии действий — со скоростью, недостижимой для традиционных штабов.

«Claude используется как инструмент поддержки решений, параллельно с применением бомбардировщиков B‑2, истребителей F‑18 и F‑35, крылатых ракет Tomahawk и ударных беспилотников», — отмечают источники в военном ведомстве.

Система не принимает решений самостоятельно, но предлагает командирам варианты, ранжированные по эффективности и рискам, что позволяет сократить время реакции и повысить точность планирования.

Конфликт этики и стратегии

Руководство Anthropic публично выступило против смертоносного применения своей технологии, заявив, что разработка создавалась для «безопасного и полезного» ИИ.

В ответ администрация президента Дональда Трампа внесла Anthropic в список «рисковых» компаний. Пентагону и другим ведомствам дано шесть месяцев на переход на альтернативные модели.

«Если Anthropic не окажет содействия в переходе, будут применены санкции — вплоть до уголовных», — предупредил глава Белого дома.

Официальная позиция: «Решение остаётся за человеком»

Представители Пентагона подчёркивают, что искусственный интеллект выполняет лишь вспомогательную функцию.

«Окончательное решение принимают люди. ИИ лишь помогает обрабатывать данные и предлагает варианты действий», — заявили в военном ведомстве.

Тем не менее, использование Claude как системы, способной влиять на боевые решения, вызвало острую дискуссию в экспертном сообществе.

Этический вопрос: может ли алгоритм «выбирать цели»?

Критики задаются вопросом: допустимо ли, чтобы ИИ участвовал в цепочке принятия решений, от которых зависят человеческие жизни?

«Даже если финальный спусковой крючок нажимает человек, рекомендация алгоритма уже формирует его выбор. Где проходит граница ответственности?» — отмечают правозащитные организации.

Сторонники применения ИИ возражают: в условиях современного конфликта скорость обработки информации становится фактором выживания, и отказ от технологий может стоить дороже, чем их использование.

Читайте также: Иран массово уничтожает американские боевые беспилотные самолёты MQ-9 Reaper, нанеся США ущерб под $500 млн (ВИДЕО)

2358


b4a8f662eb47b5d8