Сотрудники Google DeepMind и OpenAI говорят, что компании скрывают угрозы искусственного интеллекта уровня «вымирания человечества»

Некоторые из бывших сотрудников OpenAI, Anthropic и Google DeepMind в открытом письме предупредили, что ИИ представляет большие риски для человечества. В письме содержится призыв к корпорациям обеспечить большую прозрачность и развивать культуру критики, которая позволит им нести ответственность. В письме, подписанном 13 людьми, говорилось: «Компании, занимающиеся искусственным интеллектом, обладают существенной закрытой информацией о возможностях и ограничениях своих систем. Мы не думаем, что можно рассчитывать на то, что они все поделятся этим добровольно».

Они говорят, что искусственный интеллект может усилить дезинформацию, укрепить существующее неравенство и позволить системе вооружений стать автономной, что может даже привести к «вымиранию человечества». В письме показано, что компании, занимающиеся искусственным интеллектом, и правительства по всему миру уже признали эти риски. Они заявили, что эти риски можно смягчить при правильном руководстве со стороны политиков, научного сообщества и общественности.

В открытом письме также подчеркивалось, что компании, занимающиеся искусственным интеллектом, обладают секретной информацией о возможностях и ограничениях своих систем, которой они не делятся добровольно. В нем говорилось: «Компании, занимающиеся искусственным интеллектом, обладают существенной закрытой информацией о возможностях и ограничениях своих систем, адекватности их защитных мер и уровнях риска различных видов вреда. Однако в настоящее время у них есть лишь слабые обязательства по обмену частью этой информации с правительствами, а не с гражданским обществом. Мы не думаем, что можно рассчитывать на то, что они все поделятся этим добровольно.

Они отметили, что из-за отсутствия государственного надзора за этими корпорациями соглашения совета директоров о конфиденциальности не позволяют им публично говорить об этих проблемах. В нем говорилось: «Обычные меры защиты информаторов недостаточны, поскольку они сосредоточены на незаконной деятельности, тогда как многие из рисков, которые нас беспокоят, еще не регулируются. Некоторые из нас обоснованно опасаются различных форм возмездия, учитывая историю подобных случаев в отрасли. Мы не первые, кто сталкивается с этими проблемами или говорит об этом».

Это письмо поддерживают Йошуа Бенджио, ученый-компьютерщик, популярный благодаря своим работам в области искусственных нейронных сетей и глубокого обучения, Джеффри Хинтон, крестный отец искусственного интеллекта, и Стюарт Рассел, британский ученый-компьютерщик.

В эксклюзивном разговоре с Tech Today в прошлом году Рассел заявил, что внедрение моделей искусственного интеллекта — это верный путь к катастрофе, с потенциальными последствиями, варьирующимися от распространения дезинформации до поощрения людей причинять вред себе или другим. Он сказал: «Поскольку возможности искусственного интеллекта растут с каждым днем, крайне важно, чтобы мы сделали шаг назад и обеспечили разработку и внедрение этих мощных технологий ответственным и безопасным образом».