В начале этой недели сообщалось, что администрация президента Дональда Трампа будет контролировать модели искусственного интеллекта (ИИ), прежде чем компании сделают их доступными для публичных пользователей. Теперь крупные технологические компании, в том числе Microsoft, Google DeepMind и xAI Илона Маска, как сообщается, согласились предоставить правительству США ранний доступ к своим моделям искусственного интеллекта следующего поколения для тестирования национальной безопасности.
Национальный институт стандартов и технологий поделился сообщением для прессы, подтверждающим, что Центр стандартов и инноваций ИИ (CAISI) подписал соглашение с этими тремя зарегистрированными на бирже компаниями, предоставляющее институту полномочия «проводить оценки перед развертыванием и целевые исследования для лучшей оценки передовых возможностей ИИ и улучшения состояния безопасности ИИ».
Стоит прочитать: правительство США может пересмотреть модели искусственного интеллекта перед их публичным выпуском из-за опасений мифов
Соглашение заключено на фоне растущих опасений по поводу кибербезопасности со стороны таких моделей искусственного интеллекта, как Claude Mythos от Anthropic. Модель вызвала глобальные дебаты о потенциальном неправильном использовании мощных систем искусственного интеллекта, побудив правительства и регулирующие органы во всем мире усилить меры безопасности и добиться большей прозрачности в области разработки и внедрения искусственного интеллекта.
Директор CAISI Крис Фолл заявил: «Независимая, строгая наука об измерениях необходима для понимания передового ИИ и его последствий для национальной безопасности. Такое расширенное отраслевое сотрудничество помогает нам масштабировать нашу работу в общественных интересах в критический момент». Помимо тестирования моделей национальной и общественной безопасности перед их запуском, он также будет проводить исследования и испытания после развертывания моделей ИИ.
Стоит прочитать: Риски антропных мифов вынуждают государственные банки Индии модернизировать инвестиции в ИТ: отчет
С другой стороны, Белый дом также планирует создать группу экспертов, которая будет предоставлять экспертные знания и давать советы о том, как правительство могло бы пересматривать модели ИИ. На данный момент правительство ведет переговоры с руководителями таких технологических компаний, как Google и OpenAI, о формировании основы для оценки безопасности ИИ, стандартов безопасности и механизмов надзора.