Министерство внутренней безопасности США (DHS) привлекло широкий круг лидеров отрасли искусственного интеллекта для создания Совета по безопасности искусственного интеллекта, сообщило агентство в пятницу.
В DHS заявляют, что новый орган будет играть решающую роль в использовании искусственного интеллекта для защиты жизненно важной инфраструктуры США, а также в смягчении угроз, связанных с искусственным интеллектом.
«Искусственный интеллект — это преобразующая технология, которая может беспрецедентным образом продвигать наши национальные интересы», — заявил министр внутренней безопасности Алехандро Майоркас в подготовленном заявлении. «В то же время это представляет собой реальные риски, которые мы можем смягчить, приняв передовой опыт и предприняв другие изученные и конкретные действия».
Совет возглавит Майоркас, и в него войдут несколько высокопоставленных руководителей в области искусственного интеллекта, в том числе генеральный директор OpenAI Сэм Альтман, председатель и главный исполнительный директор Microsoft Сатья Наделла, генеральный директор Alphabet Сундар Пичаи, соучредитель и генеральный директор Anthropic Дарио Амодей, а также президент и генеральный директор NVIDIA Дженсен Хуанг. .
«Я благодарен за то, что такие опытные лидеры посвящают свое время и опыт совету директоров, чтобы помочь гарантировать, что критически важная инфраструктура нашей страны — жизненно важные службы, от которых американцы полагаются каждый день — эффективно защищает от рисков и реализует огромный потенциал этой преобразующей технологии. — сказал Майоркас.
DHS привлекает некоторых из самых выдающихся в мире руководителей критически важных инфраструктур, технологов, лидеров гражданских прав и политиков, чтобы они присоединились к первому Совету по безопасности и защите ИИ, чтобы способствовать ответственному развитию и внедрению ИИ. ⤵️ https://t.co/eF6IO8SscO pic.twitter.com/aKtAPpzVLX
– Национальная безопасность (@DHSgov), 26 апреля 2024 г.
«Технология искусственного интеллекта способна принести огромную пользу обществу, если ее применять ответственно, поэтому мы выступаем за усилия по проверке безопасности передовых систем искусственного интеллекта для снижения потенциальных рисков», — сказал Амодей из Anthropic в параллельном заявлении. «Мы гордимся тем, что вносим свой вклад в изучение влияния ИИ на защиту критической инфраструктуры вместе с другими лидерами государственного и частного секторов.
«Безопасное развертывание искусственного интеллекта имеет первостепенное значение для защиты инфраструктуры, которая питает американское общество, и мы считаем, что создание этого совета является позитивным шагом вперед в укреплении национальной безопасности США», — продолжил он.
«Искусственный интеллект — это самая преобразующая технология нашего времени, и мы должны обеспечить его безопасное и ответственное внедрение», — добавил Наделла из Microsoft. «Для Microsoft большая честь участвовать в этих важных усилиях, и мы с нетерпением ждем возможности поделиться как нашими знаниями, полученными на сегодняшний день, так и нашими планами на будущее».
В состав Совета по безопасности и защите ИИ войдут также генеральный директор Amazon Web Services Адам Селипски, председатель и главный исполнительный директор IBM Арвинд Кришна, содиректор Стэнфордского человеко-ориентированного института искусственного интеллекта Фей-Фей Ли и Майя Уайли, президент и генеральный директор Конференции лидеров по гражданским вопросам. и права человека.
«Для меня большая честь присоединиться к этой группе междисциплинарных лидеров, которые будут ответственно и с ориентацией на человека управлять этой меняющей мир технологией», — сказал Ли. «В конечном итоге ИИ — это инструмент, мощный инструмент, и его необходимо разрабатывать и применять с пониманием того, как он повлияет на человека, сообщество и общество в целом».
По данным DHS, совет проведет свое первое ежеквартальное заседание в начале мая, и ему будет немедленно поручено предоставить секретарю рекомендации по обеспечению безопасного внедрения технологий искусственного интеллекта в основные услуги. Цель состоит в том, чтобы создать форум для DHS, «сообщества критической инфраструктуры», и лидеров ИИ для обмена информацией о рисках безопасности, связанных с ИИ.
Быстрое проникновение искусственного интеллекта в мейнстрим в 2023 году заставило мировых лидеров изо всех сил пытаться разработать правила для работы с новой технологией. В январе Всемирный экономический форум (ВЭФ) включил искусственный интеллект и квантовые вычисления в список наиболее актуальных глобальных рисков.
После издания указа в октябре 2023 года администрация Байдена объявила о создании Консорциума Института безопасности искусственного интеллекта США (AISIC), в который входят многие имена, присоединившиеся к инициативе DHS.
Помимо проблем национальной безопасности, разработчики ИИ, в том числе Google, Meta и OpenAI, во вторник присоединились к некоммерческим организациям Thorn и All Tech is Human, пообещав установить ограничения вокруг своих соответствующих моделей ИИ, чтобы не допустить их использования для создания материалы о сексуальном насилии над детьми (CSAM). CSAM также оказался в центре внимания нового письма, отправленного сенатором Элизабет Уоррен в DHS и Министерство юстиции.