Возможно, мир этого не заметил, но мы перешагнули одну из самых ожидаемых вех в истории вычислений. Когда идея пройти тест Тьюринга (машины, разговаривающие неотличимо от людей) стала реальностью, повседневная жизнь почти не дрогнула. Тем не менее, по словам Сэма Альтмана, генерального директора OpenAI, этот сдвиг знаменует собой начало чего-то гораздо более глубокого: мира, в котором искусственный интеллект не просто говорит, как люди, но думает и делает открытия, как они.
«Большая часть мира по-прежнему думает об ИИ как о чат-ботах и улучшенном поиске, — отметил Альтман, — но сегодня у нас есть системы, которые могут превзойти самых умных людей в некоторых из наших самых сложных интеллектуальных соревнований».
От чат-ботов к механизмам обнаружения
Альтман рассказал, что возможности ИИ превратились из выполнения второстепенных человеческих задач в решение задач, которые занимают часы, а вскоре и дни, или недели. Экспоненциальное снижение стоимости разведки, оцениваемое в 40 раз в год, ускоряет этот переход.
К 2026 году OpenAI ожидает создания систем, способных совершать небольшие научные открытия, а к 2028 году — систем, способных совершать крупные прорывы. «Мы не знаем, как думать о системах, которые могут выполнять задачи, на которые у человека уйдут столетия», — признал Альтман, намекая на грядущий глубокий когнитивный скачок.
Коэволюция общества с ИИ
Несмотря на быстрый прогресс, Альтман считает, что повседневная жизнь останется относительно стабильной. «Общество находит способы развиваться вместе с технологиями», — сказал он. «То, как мы живем, очень инерционно, даже при наличии гораздо лучших инструментов».
Он рассматривает ИИ как силу изобилия, преобразующую здравоохранение, моделирование климата и образование, а также переопределяющую работу и экономику. «Возможно даже, что фундаментальный социально-экономический контракт придется изменить», — сказал он, но подчеркнул, что в мире «широко распространенного изобилия» жизнь может стать гораздо более полноценной.
Безопасность, надзор и необходимость «строительных норм ИИ»
Подход OpenAI, подчеркнул Альтман, основан на безопасности как расширении прав и возможностей. «Хотя потенциальные преимущества огромны, мы считаем риски, связанные со сверхразумными системами, потенциально катастрофическими», — сказал он. Компания призывает к установлению общих стандартов безопасности для приграничных лабораторий, аналогичных строительным нормам или нормам пожарной безопасности.
Альтман предложил несколько принципов ответственного подхода к будущему ИИ:
- Общие стандарты и прозрачность среди ведущих лабораторий искусственного интеллекта.
- Общественный надзор пропорционален возможностям ИИ.
- Экосистема устойчивости ИИ, сравнимая с системами кибербезопасности в Интернете.
- Постоянное измерение воздействия как лабораториями, так и правительствами.
- Расширение индивидуальных прав и возможностей, гарантирующее, что люди смогут использовать ИИ «на своих условиях».
Создание устойчивого будущего искусственного интеллекта
Альтман утверждал, что по мере того, как ИИ приближается к сверхразуму, сотрудничество между странами и передовыми разработчиками будет иметь решающее значение. Он отметил необходимость координации для предотвращения биотерроризма, управления самосовершенствующимися системами и обеспечения подотчетности государственным учреждениям.
«Старшим битом должна быть подотчетность», — сказал Альтман. «Но то, как мы туда доберемся, возможно, должно отличаться от прошлого».
В конечном счете, Альтман рассматривает ИИ как основополагающую утилиту — наравне с электричеством или чистой водой — которая должна быть широко доступной и соответствовать человеческим целям. «Полярная звезда, — сказал он, — должна помогать людям достигать своих целей».