Открытый директор Сэм Альтман откладывает выпуск своей первой модели открытого веса за последние годы, сообщил во вторник в сообщении о X. Первоначально ожидается в июне, модель теперь появится «позже этим летом», поскольку компания потребует дополнительное время, чтобы усовершенствовать то, что намекал Альтман, является серьезным скачком в производительности.
«(W) E собирается занять немного больше времени с нашей моделью открытых весов, то есть ожидайте этого позже этим летом, но не (J) Une»,-написал Альтман. «(O) Ваша исследовательская группа сделала что -то неожиданное и довольно удивительное, и мы думаем, что это будет очень очень того, чтобы подождать, но нужно немного дольше».
Задержка происходит на фоне всплеска выпусков AI с открытым исходным кодом от конкурентов, усиливая давление на OpenaI, чтобы доставить модель, которая не просто прозрачна, но и наиболее в своем классе. Предполагается, что предстоящая модель компании будет включать возможности рассуждений, аналогичные тем, которые в его проприетарных моделях серии O и направлены на превзойти конкурентов, таких как Deedseek’s R1.
Только на этой неделе французский стартап искусственного интеллекта Мистраль выпустил свою новую линию моделей, ориентированных на рассуждения, названных магистралом. Между тем, китайская лаборатория Qwen выпустила гибридные модели в апреле, способную переключаться между быстрыми реакциями и более преднамеренными рассуждениями «цепочка мыслей», возникающим эталоном для эффективности искусственного интеллекта следующего поколения.
OpenAI намекала на добавление расширенных функций в свою открытую модель, включая возможность подключаться к своим запатентованным облачным моделям для обработки сложных запросов, хотя остается неясным, попадут ли такие функции в первоначальный выпуск.
Помимо модельной архитектуры, задержка также затрагивает более глубокую репутационную динамику. Альтман признал, что OpenAI подвергся критике за то, что оторвался от открытых пограничных моделей. В последние месяцы компания столкнулась с пристальным анализом со стороны исследователей и разработчиков, которые утверждают, что прозрачность необходима для безопасности, воспроизводимости и инноваций в ИИ.