Skip to main content

Спустя несколько месяцев после ухода из компании-разработчика искусственного интеллекта OpenAI, новое предприятие бывшего главного ученого Ильи Суцкевера Safe Superintelligence (SSI) привлекло 1 миллиард долларов финансирования, сообщила компания в среду.

По данным SSI, раунд финансирования включал инвестиции от NFDG, a16z, Sequoia, DST Global и SV Angel. Reuters со ссылкой на источники, «близкие к делу», сообщил, что SSI уже оценена в $5 млрд.

«Гора: определена», — написал Суцкевер в среду в Twitter. «Время подниматься».

Safe Superintelligence не сразу отреагировала на просьбу Decrypt прокомментировать ситуацию.

В мае Суцкевер и Ян Лейке ушли из OpenAI после ухода Андрея Карпати в феврале. В сообщении в Twitter Лейке назвал нехватку ресурсов и внимания к безопасности причиной своего решения покинуть разработчика ChatGPT.

«Уход с этой работы был одним из самых сложных дел, которые я когда-либо делал», — написал Лейке. «Потому что нам срочно нужно выяснить, как управлять и контролировать системы ИИ, которые намного умнее нас».

По данным The New York Times, уход Суцкевера произошел после того, как в ноябре 2023 года он возглавил совет директоров OpenAI и несколько руководителей OpenAI, которые уволили соучредителя и генерального директора Сэма Альтмана. Альтман был восстановлен в должности неделю спустя.

В июне Суцкевер объявил о запуске своей новой компании по разработке искусственного интеллекта Safe Superintelligence Inc., соучредителями которой стали Дэниел Гросс, бывший руководитель направления искусственного интеллекта в Apple, и Дэниел Леви, ранее работавший в OpenAI.

По данным Reuters, Суцкевер является главным научным сотрудником SSI, Леви — главным научным сотрудником, а Гросс отвечает за вычислительную мощность и сбор средств.

«SSI — это наша миссия, наше имя и вся наша дорожная карта продукта, потому что это наш единственный фокус», — написала Safe Superintelligence в Twitter в июне. «Наша команда, инвесторы и бизнес-модель — все направлено на достижение SSI».

Поскольку генеративный ИИ становится все более распространенным, разработчики ищут способы заверить потребителей и регулирующие органы в безопасности своей продукции.

В августе OpenAI и разработчик искусственного интеллекта Claude Anthropic объявили о соглашениях с Национальным институтом стандартов и технологий Министерства торговли США (NIST) об установлении официального сотрудничества с Институтом безопасности искусственного интеллекта США (AISI), что предоставит агентству доступ к новым крупным моделям искусственного интеллекта от обеих компаний.

«Мы рады, что достигли соглашения с Институтом безопасности искусственного интеллекта США о предварительном тестировании наших будущих моделей», — написал в Twitter соучредитель и генеральный директор OpenAI Сэм Альтман. «По многим причинам мы считаем важным, чтобы это произошло на национальном уровне. [The] США должны продолжать играть лидирующую роль».

В целом интеллектуальный информационный бюллетень

Еженедельное путешествие в мир ИИ, рассказанное Дженом — генеративной моделью ИИ.

Оставить комментарий