Военное применение искусственного интеллекта (ИИ) в современных конфликтах вызывает острую дискуссию о границах ответственности и правовых рамках. По мере интеграции ИИ в системы принятия решений, военные задаются вопросом о том, кто несет ответственность за ошибки в автономных боевых действиях.
Использование ИИ в современных военных операциях
Конфликт в Иране стал ареной для расширенного использования ИИ американскими вооруженными силами. Системы анализируют огромные массивы данных — от спутниковой разведки до сигнальной информации — с помощью программного обеспечения, разработанного подрядчиками, такими как Palantir.
- Ускорение анализа: Инструменты ИИ, например, Claude от Anthropic, способны обрабатывать данные для выявления потенциальных целей значительно быстрее человека.
- Применение: Системы, такие как Maven Smart System от Palantir, интегрированы в процесс целеуказания, позволяя оперативно обрабатывать данные и формировать рабочие потоки для командиров.
Правовые и этические дилеммы
Масштабное внедрение ИИ порождает вопросы о надежности и потенциальных ошибках на поле боя. В частности, инцидент с аэтактом, поразившим школу в Иране, вновь поднял эти темы.
- Позиция Пентагона: Министр обороны Пит Хегсет утверждал, что окончательное решение о применении силы всегда остается за человеком. «Мы следуем закону, и решения принимают люди. ИИ не принимает летальных решений», — заявил он в Комитете по вооруженным силам Сената.
- Пробелы в законодательстве: Критики отмечают, что действующее законодательство не устанавливает четких ограничений на то, как именно ИИ может быть использован на всех этапах «цепочки поражения» (kill chain).
- Проблема скорости: Эксперты указывают, что скорость, с которой ИИ ускоряет процесс принятия решений (связанный с циклом OODA — наблюдение, ориентация, решение, действие), требует пересмотра вопроса о минимальном уровне человеческого участия.
Регулирование и ответственность
Международное гуманитарное право обязывает командиров минимизировать жертвы среди гражданского населения. В ответ на развитие технологий, Пентагон выпустил директивы:
- Директива 2023 года: Указывает, что автономные и полуавтономные системы должны быть спроектированы таким образом, чтобы командиры сохраняли «надлежащий уровень человеческого суждения» при применении силы.
- Ответственность: Официальные лица Пентагона подчеркивают, что ответственность за законное использование любого ИИ-инструмента лежит на операторе и командовании, а не на самом программном обеспечении.
Тем не менее, правовые эксперты предупреждают, что, несмотря на технический прогресс, системы ИИ не могут заменить морально-этический расчет, необходимый для оценки допустимого уровня сопутствующего ущерба в условиях войны. Кроме того, качество работы ИИ напрямую зависит от данных, которые ему предоставляют, что возвращает фокус ответственности к человеческому анализу разведданных.