Skip to main content

Австралия ввела добровольные стандарты безопасности ИИ, направленные на поощрение этичного и ответственного использования искусственного интеллекта. Они содержат десять ключевых принципов, которые решают проблемы, связанные с внедрением ИИ.

В рекомендациях, опубликованных австралийским правительством в среду вечером, особое внимание уделяется управлению рисками, прозрачности, человеческому надзору и справедливости для обеспечения безопасной и справедливой работы систем ИИ.

Хотя стандарты страны не являются юридически обязательными, они разработаны на основе международных норм, в частности, принятых в ЕС, и, как ожидается, будут определять будущую политику.

Дин Лачека, вице-президент по аналитике компании Gartner, признал стандарты позитивным шагом, но предупредил о проблемах с их соблюдением.

«Добровольный стандарт безопасности ИИ — это хороший первый шаг на пути к тому, чтобы дать как государственным учреждениям, так и другим секторам промышленности некоторую уверенность в безопасном использовании ИИ», — сказал Лачека в интервью Decrypt.

«…Ограничения — это все хорошие передовые практики для организаций, желающих расширить использование ИИ. Но не следует недооценивать усилия и навыки, необходимые для внедрения этих ограничений».

Стандарты предусматривают процессы оценки рисков для выявления и минимизации потенциальных опасностей в системах ИИ, а также обеспечения прозрачности работы моделей ИИ.

Особое внимание уделяется человеческому контролю, чтобы не допустить чрезмерной зависимости от автоматизированных систем, а также обеспечению справедливости, что призывает разработчиков избегать предвзятости, особенно в таких областях, как занятость и здравоохранение.

В отчете отмечается, что непоследовательность подходов в разных частях Австралии создала путаницу для организаций.

«Хотя по всей Австралии есть примеры передовой практики, подходы непоследовательны», — говорится в сопроводительном отчете.

«Это вызывает путаницу в организациях и затрудняет понимание того, что им необходимо делать для разработки и использования ИИ безопасным и ответственным образом».

Для решения этих проблем в рамочной программе подчеркивается принцип недискриминации и разработчикам предлагается гарантировать, что ИИ не будет способствовать сохранению предвзятости, особенно в таких деликатных областях, как занятость или здравоохранение.

Защита конфиденциальности также является ключевым направлением, требующим, чтобы персональные данные, используемые в системах искусственного интеллекта, обрабатывались в соответствии с австралийскими законами о конфиденциальности и с соблюдением прав личности.

Кроме того, для защиты систем ИИ от несанкционированного доступа и потенциального неправомерного использования необходимы надежные меры безопасности.

Ежедневный бюллетень отчетов

Начинайте каждый день с главных новостей прямо сейчас, а также с оригинальных статей, подкастов, видео и многого другого.

Оставить комментарий