Skip to main content

Более 2600 технологических лидеров и исследователей подписали открытое письмо, призывающее к временной «паузе» в дальнейшем развитии искусственного интеллекта (ИИ), опасаясь «глубоких рисков для общества и человечества».

Генеральный директор Tesla Илон Маск, соучредитель Apple Стив Возняк и множество генеральных директоров, технических директоров и исследователей ИИ были среди тех, кто подписал письмо, автором которого 22 марта был американский аналитический центр Future of Life Institute (FOLI).

Институт призвал все компании, занимающиеся искусственным интеллектом, «немедленно приостановить» обучение систем искусственного интеллекта, которые являются более мощными, чем GPT-4, по крайней мере на шесть месяцев, разделяя, среди прочего, опасения, что «человеческий конкурентный интеллект может представлять серьезную опасность для общества и человечества». :

«Усовершенствованный ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не происходит», — говорится в письме института.

GPT-4 — это последняя версия чат-бота OpenAI на базе искусственного интеллекта, которая была выпущена 14 марта. На сегодняшний день он сдал одни из самых строгих экзаменов в средней школе и по юриспруденции в США в пределах 90-го процентиля. Считается, что он в 10 раз более продвинут, чем исходная версия ChatGPT.

Между фирмами, занимающимися ИИ, идет «неконтролируемая гонка» за разработку более мощного ИИ, который «никто — даже их создатели — не может понять, предсказать или надежно контролировать», — заявила FOLI.

Среди главных опасений было то, могут ли машины затопить информационные каналы потенциально «пропагандой и неправдой» и смогут ли машины «автоматизировать» все возможности трудоустройства.

FOLI сделал еще один шаг вперед в этих опасениях, предположив, что предпринимательские усилия этих компаний, занимающихся искусственным интеллектом, могут привести к экзистенциальной угрозе:

«Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?»

«Такие решения не должны делегироваться неизбранным лидерам технологий», — говорится в письме.

Институт также согласился с недавним заявлением основателя OpenAI Сэма Альтмана о том, что перед обучением будущих систем ИИ может потребоваться независимая проверка.

Альтман в своем сообщении в блоге от 24 февраля подчеркнул необходимость подготовки к роботам с искусственным общим интеллектом (AGI) и искусственным сверхразумом (ASI).

Однако не все специалисты по искусственному интеллекту поспешили подписать петицию. Бен Герцель, генеральный директор SingularityNET, объяснил в ответе в Твиттере от 29 марта Гэри Маркусу, автору Rebooting.AI, что модели изучения языка (LLM) не станут AGI, которые на сегодняшний день мало разработаны.

Вместо этого он сказал, что исследования и разработки должны быть замедлены для таких вещей, как биологическое оружие и ядерное оружие:

В дополнение к моделям изучения языка, таким как ChatGPT, для создания убедительных изображений, аудио- и видеообманов использовалась технология искусственного интеллекта. Эта технология также использовалась для создания произведений искусства, созданных с помощью ИИ, при этом высказывались некоторые опасения по поводу того, может ли она в определенных случаях нарушать законы об авторском праве.

Связанный: ChatGPT теперь может получить доступ к Интернету с новыми плагинами OpenAI

Генеральный директор Galaxy Digital Майк Новограц недавно сказал инвесторам, что он был шокирован тем, насколько регулирующее внимание уделяется криптовалюте, в то время как искусственному интеллекту уделяется мало внимания.

«Когда я думаю об ИИ, меня шокирует, что мы так много говорим о регулировании криптовалюты и ничего о регулировании ИИ. Я имею в виду, я думаю, что правительство все перевернуло с ног на голову», — заявил он во время телефонного разговора с акционерами 28 марта.

FOLI утверждает, что если приостановить разработку ИИ не удастся быстро, правительствам следует ввести мораторий.

«Эта пауза должна быть публичной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий», — говорится в сообщении.

Журнал: Как предотвратить «уничтожение человечества» ИИ с помощью блокчейна


Источник: Сointеlеgrаph

Оставить комментарий