Skip to main content

Мы живем в симуляции? Роман Ямпольский, известный исследователь безопасности ИИ и автор книги «ИИ: необъяснимое, непредсказуемое, неконтролируемое», уверен, что да. «Я знаю, что никогда не скажу 100%, но [the chances of us living in a simulation are] довольно близко к этому», — сказал он Лексу Фридману во время недавнего интервью для подкаста Фридмана.

По его словам, можно обоснованно ожидать, что сверхразумный ИИ поможет нам узнать наверняка, и даже поможет нам спастись. С другой стороны, Ямпольский также предсказал вероятность того, что ИИ может привести к вымиранию человечества, «99,9% в течение следующих ста лет».

Аргументы Ямпольского основаны на быстро развивающихся возможностях искусственного интеллекта и его потенциале изменить наше понимание бытия. Он утверждает, что развитие общего суперинтеллекта несет экзистенциальные риски, но также предлагает беспрецедентные возможности, включая освобождение от нашей симулированной реальности.

«Я бы хотел, чтобы в этом нам помог суперинтеллект», — сказал он.

Сверхинтеллект — это ИИ, который превзошел возможности и границы человеческого интеллекта. Это следующий шаг после Общего Искусственного Интеллекта (AGI) — ИИ с такой же способностью к обучению, как и человеческий разум, но экспоненциально более мощный, не ограниченный клетками человеческого мозга.

Ряд выдающихся исследователей выдвинули гипотезу о том, что мы живем в смоделированной вселенной. Эта идея была выдвинута в 2003 году Ником Бостромом из Оксфордского университета, который в своей статье («Вы живете в компьютерной симуляции?») утверждал, что вполне вероятно существование развитой цивилизации, технологии которой настолько развиты, что она может создавать «самосознающие» существа внутри симулякра.

Это были бы мы. Представьте, если бы симы в популярной игре были бы на самом деле разумными, и вы угадали.

В своей статье «Как выбраться из симуляции» Ямпольский исходит из предположения, что мы действительно живем в симулированной вселенной. Если это так, он подозревает, что по мере того, как ИИ достигает сверхразума, мы можем найти способ освободиться от ограничений нашего собственного мира.

«Мы использовали ИИ-«боксинг» как возможный инструмент для управления ИИ», — сказал он, имея в виду идею о том, что ИИ всегда найдет способы сбежать из любой «коробки», созданной для его содержания. «Мы поняли, что ИИ всегда будет сбегать. Это навык, который мы могли бы использовать, чтобы помочь себе сбежать из нашей виртуальной коробки, если мы в ней находимся».

Ямпольский предполагает, что интеллект наших симуляторов играет решающую роль в этом сценарии: «Если симуляторы намного умнее нас и созданного нами сверхразума, то, вероятно, они могут нас сдерживать, [because] более высокий интеллект может контролировать более низкий интеллект, по крайней мере, на некоторое время.

«С другой стороны, если наш сверхразум каким-то образом по какой-то причине — несмотря на наличие только локальных ресурсов — сумеет «проскочить» на два уровня дальше, — возможно, ему это удастся», — добавил он.

Так же, как джейлбрейкеры играют в кошки-мышки с разработчиками, мы, люди, будем использовать сверхразумный ИИ, чтобы попытаться найти «лазейку» в космологической системе, созданной нашим Богом, или, если быть точнее, нашим симулятором.

В своей исследовательской работе Ямпольский объясняет, что один из способов избежать нашей симуляции — «создать имитационную копию нашей вселенной, поместить в нее ИИОН, наблюдать, как он сбегает, скопировать используемый подход или присоединиться к ИИОН, когда он сбегает из нашей симуляции». Похоже, это единственный подход, который не предполагает взаимодействия с нашими создателями или нарушения законов нашей собственной реальности.

Сможет ли ИИ действительно освободиться?

Каким бы захватывающим ни было видение Ямпольского, оно поднимает важный философский вопрос: может ли ИИ действительно освободиться от симуляции, если симуляция не была разработана с учетом этого?

В своей книге «Как разум может привести к Богу» философ Джошуа Расмуссен объясняет, что творение не может обладать той же природой, что и его создатель, что делает практически невозможным для симулированного ИИ иметь ту же сущность и природу, что и его симулятор. Несмотря на то, что он превосходит людей по интеллекту, он все равно будет ограничен законами, которые определяли симулированную реальность, в которой он был создан.

Расмуссен в своих философских изысканиях утверждает, что разум может привести к признанию необходимой основы для реальности. Его центральный тезис заключается в том, что реальность не может быть бесконечно регрессивной — должна быть фундаментальная сущность, которая является самоподдерживающейся и неограниченной. Эта фундаментальная сущность могла бы создавать вещи, которые по своей природе могут быть связаны с ней как с конечным источником.

Представьте себе ряд вложенных друг в друга русских матрешек. Каждая кукла может полностью понимать кукол внутри себя, но не может понять более крупных кукол, в которых она вложена.

Тщательное рассмотрение возражений и методическое обоснование Расмуссеном дает надежную основу для понимания пределов созданных существ. Так же, как люди не могут выйти за пределы своей созданной природы, чтобы стать богами, утверждает он, симулированный ИИ не может самостоятельно выбрать завершение симуляции, если симуляторы не предоставили условий для такой возможности.

Эта основа принципиально отличается от сотворенных существ, подчеркивая непреодолимую пропасть между создателем и сотворенным.

Эта философская позиция напрямую бросает вызов гипотезе Ямпольского. Если принять аргументы Расмуссена, то даже сверхразумный ИИ, будучи творением внутри симуляции, будет изначально ограничен параметрами, установленными его создателями (симуляторами). Он мог бы осознать свою симулированную природу, если бы создатели допустили такое осознание, но он был бы принципиально неспособен полностью выйти за пределы симуляции.

Ямпольский предлагает объяснение этому противоречию.

В своей статье агенты сначала исследуют возможность, пока не найдут информацию и эксплуатируемые сбои в сути своей реальности. «Используя сбой, агенты могут получить информацию о внешнем мире и, возможно, даже метаинформацию о своей симуляции, возможно, даже исходный код, стоящий за симуляцией, и самих агентов», — сказал Ямпольский.

После этого, объясняет он, агенты могли бы найти способы взаимодействовать со своими симуляторами без каких-либо ограничений, пока они «не найдут способ загрузить свои разумы и, возможно, сознание в реальный мир, возможно, в некую автономную киберфизическую систему».

Другими словами, хотя мы не могли бы «освободиться» от нашей симуляции, мы могли бы потенциально взаимодействовать через представления самих себя — возможно, мы бы осознавали себя как персонажей, созданных высшим, недостижимым разумом. Хорошо это или нет — открытый вопрос.

Между тем, Ямпольский не называет конкретной причины, по которой он считает, что ИИ уничтожит человечество. Но он считает, что это неизбежно, поскольку суперинтеллект становится самосознающим.

«У нас нет второго шанса. С точки зрения кибербезопасности, кто-то взломает ваш аккаунт, в чем проблема? Вы получаете новый пароль, новую кредитную карту, вы идете дальше», — сказал он. «Здесь, если мы говорим о экзистенциальных рисках, у вас есть только один шанс».

В целом интеллектуальный информационный бюллетень

Еженедельное путешествие в мир ИИ, рассказанное Дженом — генеративной моделью ИИ.

Оставить комментарий