«Этичный» ИИ пошёл на войну

Компания Anthropic строила свой бренд на обещании: «мы делаем ИИ, который не причинит вреда». У их модели Claude есть собственная «конституция» — набор этических принципов, по которым она обучена быть полезной, безвредной и честной.

На каждой конференции руководители Anthropic рассказывали про ответственный подход, протоколы безопасности и заботу о человечестве. А потом выяснилось, что эту самую модель использовали в режиме реального времени во время военного рейда на Каракас, в ходе которого бомбили городские объекты, гибли люди, а президента суверенного государства захватили и вывезли из страны.

13 февраля 2026 года Wall Street Journal и Axios одновременно сообщили, что языковая модель Claude от Anthropic применялась во время операции по захвату президента Венесуэлы Николаса Мадуро и его жены Силии Флорес. Модель была развёрнута через платформу Palantir.

Это первый публично известный случай, когда коммерческая ИИ-модель работала в контуре секретной военной операции Пентагона.

Реакция Anthropic на публикацию — готовая глава для учебника по корпоративному двуличию. Компания выпустила идентичные заявления для Axios и Fox News:

«Мы не можем комментировать, использовался ли Claude или какая-либо другая ИИ-модель для каких-либо конкретных операций, засекреченных или иных».

При этом анонимный источник, знакомый с ситуацией, заверил Fox News, что Anthropic «отслеживает засекреченное и незасекреченное использование и уверена, что всё использование соответствует политикам компании». То есть с одной стороны — «мы не можем комментировать», а с другой — «но всё в рамках наших правил».

Но чтобы понять, как Claude оказалась на поле боя, нужно отмотать назад. Фундамент был заложен ещё 7 ноября 2024 года, когда Anthropic, Palantir и Amazon объявили о трёхстороннем партнёрстве: модели Claude интегрировались в платформу Palantir на так называемом шестом уровне, что даёт допуск к секретным данным Министерства обороны. Технический директор Palantir Шьям Санкар тогда заявил, что его компания стала «первым отраслевым партнёром, предоставившим модели Claude в засекреченных средах».

Уже тогда было понятно, для чего это делается, но конференции про этику продолжались.

К концу января 2026 года отношения Anthropic и Пентагона начали портиться, но не из-за операции в Венесуэле, а из-за того, что военные хотели ещё большего. Reuters 29 января сообщил, что переговоры зашли в «стадию застоя»: Пентагон требовал убрать ограничения, запрещающие использование Claude для автономного наведения оружия и внутренней слежки за американцами. Anthropic на этих двух «красных линиях» формально стояла насмерть.

Формально — потому что, как показала операция в Каракасе, другие красные линии, вроде запрета на поддержку насилия, оказались вполне пересекаемыми.

За четыре дня до публикации WSJ из Anthropic уволился Мринанк Шарма — глава группы безопасности. В открытом письме он написал: «Мир в опасности. Я видел, как трудно позволить ценностям управлять действиями». И уехал учиться на поэта.

Никто не поднимал бы шума, если бы не утечка. Все прекрасно понимали, зачем Claude интегрируется в Palantir и зачем ей нужен доступ уровня «секретно». Но пока это оставалось за кулисами, все могли сохранять лицо: Anthropic — говорить про этику, Пентагон — про инновации, а общественность — не задавать неудобных вопросов. Когда на столе контракт на 200 миллионов долларов, «конституция» из этических принципов оказывается не красной линией, а переговорной позицией.

Разумеется, ИИ-решения будут применяться военными, по сути они сейчас являются главными заказчиками таких исследований, которые будут активно прокачивать концепцию мультидоменных операций и полной цифровизации поля боя. Надежды сдержать этот процесс где-то из области пожеланий остановить гонку ядерных вооружений в 50х годах XX века.

Ну а про военную этику в эпоху нормализованного геноцида и уничтоженного международного права и вовсе смешно.

Материал: https://t.me/darpaandcia
Настоящий материал самостоятельно опубликован в нашем сообществе пользователем Proper на основании действующей редакции Пользовательского Соглашения. Если вы считаете, что такая публикация нарушает ваши авторские и/или смежные права, вам необходимо сообщить об этом администрации сайта на EMAIL abuse@newru.org с указанием адреса (URL) страницы, содержащей спорный материал. Нарушение будет в кратчайшие сроки устранено, виновные наказаны.

You may also like...

1 Комментарий
Старые
Новые
Межтекстовые Отзывы
Посмотреть все комментарии