Более 2600 технологических лидеров и исследователей подписали открытое письмо, призывающее к временной «паузе» в дальнейшем развитии искусственного интеллекта (ИИ), опасаясь «глубоких рисков для общества и человечества».
Генеральный директор Tesla Илон Маск, соучредитель Apple Стив Возняк и множество генеральных директоров, технических директоров и исследователей ИИ были среди тех, кто подписал письмо, автором которого 22 марта был американский аналитический центр Future of Life Institute (FOLI).
Институт призвал все компании, занимающиеся искусственным интеллектом, «немедленно приостановить» обучение систем искусственного интеллекта, которые являются более мощными, чем GPT-4, по крайней мере на шесть месяцев, разделяя, среди прочего, опасения, что «человеческий конкурентный интеллект может представлять серьезную опасность для общества и человечества». :
Мы призываем лаборатории искусственного интеллекта временно приостановить обучение мощных моделей!
Присоединяйтесь к призыву FLI вместе с Йошуа Бенжио, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus и еще более чем 1000 подписавшимися: https://t.co/3rJBjDXapc
Коротко о том, почему мы призываем к этому — (1/8)
— Институт будущего жизни (@FLIxrisk) 29 марта 2023 г.
«Усовершенствованный ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не происходит», — говорится в письме института.
GPT-4 — это последняя версия чат-бота OpenAI на базе искусственного интеллекта, которая была выпущена 14 марта. На сегодняшний день он сдал одни из самых строгих экзаменов в средней школе и по юриспруденции в США в пределах 90-го процентиля. Считается, что он в 10 раз более продвинут, чем исходная версия ChatGPT.
Между фирмами, занимающимися ИИ, идет «неконтролируемая гонка» за разработку более мощного ИИ, который «никто — даже их создатели — не может понять, предсказать или надежно контролировать», — заявила FOLI.
ВАЖНО: распространяется петиция с призывом ПРИОСТАНОВИТЬ все основные разработки в области искусственного интеллекта.
например, больше никаких обновлений ChatGPT и многое другое.
Подписано Илоном Маском, Стивом Возняком, генеральным директором Stability AI и тысячами других технологических лидеров.
Вот разбивка: pic.twitter.com/jR4Z3sNdDw
— Лоренцо Грин 〰️ (@mrgreen) 29 марта 2023 г.
Среди главных опасений было то, могут ли машины затопить информационные каналы потенциально «пропагандой и неправдой» и смогут ли машины «автоматизировать» все возможности трудоустройства.
FOLI сделал еще один шаг вперед в этих опасениях, предположив, что предпринимательские усилия этих компаний, занимающихся искусственным интеллектом, могут привести к экзистенциальной угрозе:
«Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?»
«Такие решения не должны делегироваться неизбранным лидерам технологий», — говорится в письме.
Сегодня у меня есть немного экзистенциальной тревоги ИИ
— Илон Маск (@elonmusk) 26 февраля 2023 г.
Институт также согласился с недавним заявлением основателя OpenAI Сэма Альтмана о том, что перед обучением будущих систем ИИ может потребоваться независимая проверка.
Альтман в своем сообщении в блоге от 24 февраля подчеркнул необходимость подготовки к роботам с искусственным общим интеллектом (AGI) и искусственным сверхразумом (ASI).
Однако не все специалисты по искусственному интеллекту поспешили подписать петицию. Бен Герцель, генеральный директор SingularityNET, объяснил в ответе в Твиттере от 29 марта Гэри Маркусу, автору Rebooting.AI, что модели изучения языка (LLM) не станут AGI, которые на сегодняшний день мало разработаны.
В целом человеческому обществу будет лучше с GPT-5, чем с GPT-4 — лучше иметь немного более умные модели. ИИ, занявший рабочие места людей, в конечном итоге принесет пользу. Галлюцинаций и банальностей станет меньше, и люди научатся их обходить.
— Бен Герцель (@bengoertzel) 29 марта 2023 г.
Вместо этого он сказал, что исследования и разработки должны быть замедлены для таких вещей, как биологическое оружие и ядерное оружие:
В дополнение к моделям изучения языка, таким как ChatGPT, для создания убедительных изображений, аудио- и видеообманов использовалась технология искусственного интеллекта. Эта технология также использовалась для создания произведений искусства, созданных с помощью ИИ, при этом высказывались некоторые опасения по поводу того, может ли она в определенных случаях нарушать законы об авторском праве.
Связанный: ChatGPT теперь может получить доступ к Интернету с новыми плагинами OpenAI
Генеральный директор Galaxy Digital Майк Новограц недавно сказал инвесторам, что он был шокирован тем, насколько регулирующее внимание уделяется криптовалюте, в то время как искусственному интеллекту уделяется мало внимания.
«Когда я думаю об ИИ, меня шокирует, что мы так много говорим о регулировании криптовалюты и ничего о регулировании ИИ. Я имею в виду, я думаю, что правительство все перевернуло с ног на голову», — заявил он во время телефонного разговора с акционерами 28 марта.
FOLI утверждает, что если приостановить разработку ИИ не удастся быстро, правительствам следует ввести мораторий.
«Эта пауза должна быть публичной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий», — говорится в сообщении.
Журнал: Как предотвратить «уничтожение человечества» ИИ с помощью блокчейна
Источник: Сointеlеgrаph