Антропик в настоящее время представил Claude Gov, новый набор крупных языковых моделей, разработанных специально для использования правительственными и разведывательными агентствами правительства США. Модели ИИ созданы для обработки классифицированных данных с меньшим количеством ограничений и предлагают более продвинутое понимание контекста в средах высокой безопасности.
По словам компании, Claude Gov «уже развернуто агентствами на самом высоком уровне национальной безопасности США», хотя он отказался раскрывать, когда началось развертывание или какие отделы используют эту технологию. Доступ к моделям Гув Клода ограничен государственными учреждениями, работающими с классифицированными материалами.
Модели позиционируются как высокоспециализированные инструменты для анализа интеллекта и оценки угроз. В отличие от потребительских моделей Claude, которые обучены отклонять взаимодействие с конфиденциальной или конфиденциальной информацией, Claude Gov предназначен для того, чтобы быть более допустимым при работе с классифицированными входами. «Они меньше отказываются при взаимодействии с классифицированной информацией», — заявил Антропик в сообщении в блоге.
Компания также утверждает, что эти модели предлагают превосходное понимание документов, связанных с защитой, знания в критически важных диалектах и индивидуальные возможности для контекстов национальной безопасности. Тем не менее, Антропик подчеркнул, что Клод Гув прошел такое же строгое тестирование безопасности, что и его общедоступные коллеги.
Запуск Claude Gov отмечает стратегический толчок Anpropic в конкурентную арену правительственных решений для ИИ, которая встретилась с лицом в Openai’s Chatgpt Gov, который дебютировал в январе. OpenAI сообщил, что более 90 000 служащих правительства США использовали свои технологии в течение прошлого года для всего, от составления политики до генерации кода.
Антропик отказался делиться сравнительными показателями использования, но подтвердил свое участие в программе FedStart от Palantir, инициативой, поддерживающей поставщиков программного обеспечения, стремящейся обслуживать федеральных клиентов США.
Релиз также возрождает текущие дебаты о использовании ИИ в правительстве. Критики выразили обеспокоенность по поводу неправильного использования искусственного интеллекта в полицейской деятельности, наблюдении и социальных службах. Инструменты распознавания лиц, модели прогнозирующей полицейской деятельности и алгоритмическая смещение в оценках благосостояния все подвергаются резкому критике за непропорционально воздействие на маргинализованные сообщества.
В ответ на такие проблемы антропический подтвердил свою приверженность этическим ограждениям, заявив, что его политика использования запрещает развертывание ИИ для кампаний дезинформации, развития оружия, цензурных систем и вредоносных киберпейнов. Тем не менее, компания заявила, что ввела «договорные исключения», адаптированные для конкретных правительственных миссий, направленных на «уравновешивание обеспечения выгодного использования с уменьшением потенциального вреда».
Клод Гув присоединяется к более широкой волне развертываний ИИ в государственной инфраструктуре. В марте поставщик данных по провайдеру обучения поставщика AI подписал соглашение с Министерством обороны США по военному планированию на основе AI. С тех пор Scale также обеспечил пятилетнее соглашение с Катаром для оцифровки государственных служб.