Спустя несколько месяцев после ухода из компании-разработчика искусственного интеллекта OpenAI, новое предприятие бывшего главного ученого Ильи Суцкевера Safe Superintelligence (SSI) привлекло 1 миллиард долларов финансирования, сообщила компания в среду.
По данным SSI, раунд финансирования включал инвестиции от NFDG, a16z, Sequoia, DST Global и SV Angel. Reuters со ссылкой на источники, «близкие к делу», сообщил, что SSI уже оценена в $5 млрд.
SSI разрабатывает прямой путь к безопасному сверхразуму.
Мы привлекли 1 млрд долларов от NFDG, a16z, Sequoia, DST Global и SV Angel.
Мы нанимаем: https://t.co/DmFWnrc1Kr
— SSI Inc. (@ssi) 4 сентября 2024 г.
«Гора: определена», — написал Суцкевер в среду в Twitter. «Время подниматься».
Safe Superintelligence не сразу отреагировала на просьбу Decrypt прокомментировать ситуацию.
В мае Суцкевер и Ян Лейке ушли из OpenAI после ухода Андрея Карпати в феврале. В сообщении в Twitter Лейке назвал нехватку ресурсов и внимания к безопасности причиной своего решения покинуть разработчика ChatGPT.
«Уход с этой работы был одним из самых сложных дел, которые я когда-либо делал», — написал Лейке. «Потому что нам срочно нужно выяснить, как управлять и контролировать системы ИИ, которые намного умнее нас».
По данным The New York Times, уход Суцкевера произошел после того, как в ноябре 2023 года он возглавил совет директоров OpenAI и несколько руководителей OpenAI, которые уволили соучредителя и генерального директора Сэма Альтмана. Альтман был восстановлен в должности неделю спустя.
В июне Суцкевер объявил о запуске своей новой компании по разработке искусственного интеллекта Safe Superintelligence Inc., соучредителями которой стали Дэниел Гросс, бывший руководитель направления искусственного интеллекта в Apple, и Дэниел Леви, ранее работавший в OpenAI.
По данным Reuters, Суцкевер является главным научным сотрудником SSI, Леви — главным научным сотрудником, а Гросс отвечает за вычислительную мощность и сбор средств.
«SSI — это наша миссия, наше имя и вся наша дорожная карта продукта, потому что это наш единственный фокус», — написала Safe Superintelligence в Twitter в июне. «Наша команда, инвесторы и бизнес-модель — все направлено на достижение SSI».
Поскольку генеративный ИИ становится все более распространенным, разработчики ищут способы заверить потребителей и регулирующие органы в безопасности своей продукции.
В августе OpenAI и разработчик искусственного интеллекта Claude Anthropic объявили о соглашениях с Национальным институтом стандартов и технологий Министерства торговли США (NIST) об установлении официального сотрудничества с Институтом безопасности искусственного интеллекта США (AISI), что предоставит агентству доступ к новым крупным моделям искусственного интеллекта от обеих компаний.
«Мы рады, что достигли соглашения с Институтом безопасности искусственного интеллекта США о предварительном тестировании наших будущих моделей», — написал в Twitter соучредитель и генеральный директор OpenAI Сэм Альтман. «По многим причинам мы считаем важным, чтобы это произошло на национальном уровне. [The] США должны продолжать играть лидирующую роль».
В целом интеллектуальный информационный бюллетень
Еженедельное путешествие в мир ИИ, рассказанное Дженом — генеративной моделью ИИ.