Американская компания Anthropic, занимающаяся разработкой искусственного интеллекта, подала в суд, чтобы предотвратить внесение ее в черный список по вопросам национальной безопасности со стороны Пентагона, что открывает новый фронт в конфликте между компанией и американскими военными по поводу использования ИИ в военных операциях.
В иске, поданном в федеральный суд Калифорнии, содержится просьба к судье отменить это решение и запретить федеральным агентствам его применение. Компания Anthropic утверждает, что решение Министерства обороны является незаконным и нарушает ее конституционные права, включая свободу слова и надлежащую правовую процедуру.
«Эти действия беспрецедентны и незаконны. Конституция не уполномочивает правительство использовать свою власть для наказания компании за осуществление ею свободы выражения мнения», — говорится в жалобе компании.
Пентагон официально классифицировал компанию Anthropic как представляющую риск для цепочки поставок, что существенно ограничило использование её технологий федеральными ведомствами. По данным источников, знакомых с ситуацией, системы искусственного интеллекта компании использовались в некоторых военных операциях США, в том числе в контексте конфликта с Ираном.
Как сообщается, решение министра обороны США Пита Хегсета было принято после того, как компания Anthropic отказалась ослабить ограничения на использование своего искусственного интеллекта. Компания категорически запрещает использование своих технологий для автономного оружия или программ внутреннего наблюдения.
В последние месяцы переговоры между двумя сторонами активизировались, но так и не привели к компромиссу. Несмотря на судебные разбирательства, компания Anthropic заявила, что по-прежнему открыта для переговоров с правительством США.
В этом контексте Президент Дональд Трамп Также через социальные сети был дан призыв ко всем федеральным ведомствам прекратить использование Клода, искусственного интеллекта, разработанного компанией Anthropic, что усилило давление на стартап и его инвесторов.