Австралия ввела добровольные стандарты безопасности ИИ, направленные на поощрение этичного и ответственного использования искусственного интеллекта. Они содержат десять ключевых принципов, которые решают проблемы, связанные с внедрением ИИ.
В рекомендациях, опубликованных австралийским правительством в среду вечером, особое внимание уделяется управлению рисками, прозрачности, человеческому надзору и справедливости для обеспечения безопасной и справедливой работы систем ИИ.
Хотя стандарты страны не являются юридически обязательными, они разработаны на основе международных норм, в частности, принятых в ЕС, и, как ожидается, будут определять будущую политику.
Дин Лачека, вице-президент по аналитике компании Gartner, признал стандарты позитивным шагом, но предупредил о проблемах с их соблюдением.
«Добровольный стандарт безопасности ИИ — это хороший первый шаг на пути к тому, чтобы дать как государственным учреждениям, так и другим секторам промышленности некоторую уверенность в безопасном использовании ИИ», — сказал Лачека в интервью Decrypt.
«…Ограничения — это все хорошие передовые практики для организаций, желающих расширить использование ИИ. Но не следует недооценивать усилия и навыки, необходимые для внедрения этих ограничений».
Стандарты предусматривают процессы оценки рисков для выявления и минимизации потенциальных опасностей в системах ИИ, а также обеспечения прозрачности работы моделей ИИ.
Особое внимание уделяется человеческому контролю, чтобы не допустить чрезмерной зависимости от автоматизированных систем, а также обеспечению справедливости, что призывает разработчиков избегать предвзятости, особенно в таких областях, как занятость и здравоохранение.
В отчете отмечается, что непоследовательность подходов в разных частях Австралии создала путаницу для организаций.
«Хотя по всей Австралии есть примеры передовой практики, подходы непоследовательны», — говорится в сопроводительном отчете.
«Это вызывает путаницу в организациях и затрудняет понимание того, что им необходимо делать для разработки и использования ИИ безопасным и ответственным образом».
Для решения этих проблем в рамочной программе подчеркивается принцип недискриминации и разработчикам предлагается гарантировать, что ИИ не будет способствовать сохранению предвзятости, особенно в таких деликатных областях, как занятость или здравоохранение.
Защита конфиденциальности также является ключевым направлением, требующим, чтобы персональные данные, используемые в системах искусственного интеллекта, обрабатывались в соответствии с австралийскими законами о конфиденциальности и с соблюдением прав личности.
Кроме того, для защиты систем ИИ от несанкционированного доступа и потенциального неправомерного использования необходимы надежные меры безопасности.
Ежедневный бюллетень отчетов
Начинайте каждый день с главных новостей прямо сейчас, а также с оригинальных статей, подкастов, видео и многого другого.