Skip to main content

Война более выгодна, чем мир, и разработчики ИИ стремятся извлечь из этого выгоду, предлагая Министерству обороны США различные генеративные инструменты ИИ для полей сражений будущего.

Последнее свидетельство этой тенденции появилось на прошлой неделе, когда разработчик Claude AI Anthropic объявил, что он сотрудничает с военным подрядчиком Palantir и Amazon Web Services (AWS), чтобы предоставить разведке США и Пентагону доступ к Claude 3 и 3.5.

Антропик заявил, что Клод предоставит оборонным и разведывательным службам США мощные инструменты для быстрой обработки и анализа данных, что позволит военным выполнять операции быстрее.

Эксперты говорят, что эти партнерства позволяют Министерству обороны быстро внедрять передовые технологии искусственного интеллекта без необходимости их внутренней разработки.

«Как и в случае со многими другими технологиями, коммерческий рынок всегда движется быстрее и интегрируется быстрее, чем это может сделать правительство», — сказал в интервью Decrypt контр-адмирал ВМС США в отставке Крис Беккер. «Если вы посмотрите, как SpaceX прошла путь от идеи до реализации запуска и восстановления ракеты-носителя в море, правительство, возможно, все еще рассматривало первоначальные обзоры проекта в тот же период».

Беккер, бывший командующий Военно-морскими системами информационной войны, отметил, что интеграция передовых технологий, изначально разработанных для правительственных и военных целей, в общественное пользование не является чем-то новым.

«Интернет зародился как инициатива в области оборонных исследований, прежде чем стал доступен публике, где сейчас он является основным ожиданием», — сказал Беккер.

Anthropic — лишь последний разработчик искусственного интеллекта, предложивший свою технологию правительству США.

После октябрьского меморандума администрации Байдена о продвижении лидерства США в сфере искусственного интеллекта разработчик ChatGPT OpenAI выразил поддержку усилиям США и их союзников по разработке искусственного интеллекта, соответствующего «демократическим ценностям». Совсем недавно Meta также объявила, что предоставит Министерству обороны и другим агентствам США свой искусственный интеллект ламы с открытым исходным кодом для поддержки национальной безопасности.

Во время июльского мероприятия Axios «Будущее обороны» генерал армии в отставке Марк Милли отметил, что достижения в области искусственного интеллекта и робототехники, вероятно, сделают роботов с искусственным интеллектом большей частью будущих военных операций.

«Через десять-пятнадцать лет, я думаю, от трети, может быть, от 25% до трети армии США будут роботизированы», — сказал Милли.

В ожидании ключевой роли ИИ в будущих конфликтах в бюджете Министерства обороны на 2025 год запрашивается 143,2 миллиарда долларов на исследования, разработки, испытания и оценку, включая 1,8 миллиарда долларов, специально выделенных на проекты ИИ и машинного обучения.

Защита США и их союзников является приоритетом. Тем не менее, д-р Бенджамин Харви, генеральный директор AI Squared, отметил, что государственное партнерство также обеспечивает компаниям, занимающимся искусственным интеллектом, стабильный доход, раннее решение проблем и участие в формировании будущего регулирования.

«Разработчики искусственного интеллекта хотят использовать варианты использования федерального правительства в качестве возможностей обучения для понимания реальных проблем, уникальных для этого сектора», — сказал Харви Decrypt. «Этот опыт дает им преимущество в прогнозировании проблем, которые могут возникнуть в частном секторе в течение следующих пяти-десяти лет.

Он продолжил: «Это также дает им возможность активно формировать политику и процедуры управления, соблюдения требований, помогая им оставаться на шаг впереди в разработке политики и согласовании нормативных требований».

Харви, который ранее занимал должность руководителя отдела обработки данных в Агентстве национальной безопасности США, также сказал, что еще одна причина, по которой разработчики стремятся заключать сделки с государственными организациями, заключается в том, что они зарекомендовали себя как незаменимые для растущих потребностей правительства в искусственном интеллекте.

Выделив миллиарды долларов на искусственный интеллект и машинное обучение, Пентагон вкладывает значительные средства в развитие военного потенциала Америки, стремясь использовать быстрое развитие технологий искусственного интеллекта в своих интересах.

Хотя общественность может представить себе роль ИИ в вооруженных силах как участие автономных роботов с вооружением, продвигающихся по футуристическим полям сражений, эксперты говорят, что реальность гораздо менее драматична и больше ориентирована на данные.

«В военном контексте мы в основном наблюдаем высокоразвитую автономию и элементы классического машинного обучения, где машины помогают в принятии решений, но это обычно не связано с решениями о выпуске оружия», — сказал Стив, президент подразделения беспилотных систем Kratos Defense. Финли, рассказал Decrypt. «ИИ существенно ускоряет сбор и анализ данных для формирования решений и выводов».

Основанная в 1994 году базирующаяся в Сан-Диего компания Kratos Defense активно сотрудничает с вооруженными силами США, особенно с ВВС и морской пехотой, в разработке передовых беспилотных систем, таких как истребитель «Валькирия». По словам Финли, удержание людей в процессе принятия решений имеет решающее значение для предотвращения реализации опасного сценария «Терминатора».

«Если задействовано оружие или маневр угрожает человеческой жизни, человек, принимающий решения, всегда в курсе», — сказал Финли. «Всегда есть защита — «остановка» или «удержание» — для любого применения оружия или критического маневра».

Несмотря на то, как далеко продвинулся генеративный ИИ с момента запуска ChatGPT, эксперты, в том числе писатель и ученый Гэри Маркус, говорят, что текущие ограничения моделей ИИ ставят под сомнение реальную эффективность технологии.

«Компании обнаружили, что большие языковые модели не особенно надежны», — сказал Маркус Decrypt. «Они галлюцинируют, совершают глупые ошибки, и это ограничивает их реальную применимость. Вы бы не хотели, чтобы что-то галлюцинирующее разрабатывало вашу военную стратегию.

Маркус, известный критикой преувеличенных заявлений об искусственном интеллекте, является ученым-когнитивистом, исследователем искусственного интеллекта и автором шести книг по искусственному интеллекту. Что касается страшного сценария «Терминатора», Маркус, вторя руководителю Kratos Defense, также подчеркнул, что полностью автономные роботы, работающие на базе искусственного интеллекта, были бы ошибкой.

«Было бы глупо подключать их к войне без участия людей, особенно учитывая их нынешнюю явную ненадежность», — сказал Маркус. «Меня беспокоит то, что многие люди были соблазнены такого рода системами искусственного интеллекта и не осознали реальность их надежности».

Как объяснил Маркус, многие в области ИИ придерживаются убеждения, что простое предоставление системам ИИ большего количества данных и вычислительной мощности будет постоянно расширять их возможности — идея, которую он назвал «фантазией».

«В последние недели от многих компаний ходили слухи о том, что так называемые законы масштабирования истекли, и наступил период снижения доходности», — добавил Маркус. «Поэтому я не думаю, что военные должны реально ожидать, что все эти проблемы будут решены. Эти системы, вероятно, не будут надежными, а вы не захотите использовать ненадежные системы на войне».

В целом интеллектуальный информационный бюллетень

Еженедельное путешествие по искусственному интеллекту, рассказанное Дженом, генеративной моделью искусственного интеллекта.

Оставить комментарий