Принципы внедрения Искуственного Интелекта (ИИ) от Microsoft

В корпоративном блоге Microsoft Azure представили «Десять рекомендаций для руководителей по внедрению ответственного ИИ». Документ включает в себя основные требования, которых компания рекомендует придерживаться при внедрении проектов на базе искусственного интеллекта. Рекомендации были разработаны совместно с Boston Consulting Group.

Представители Microsoft отметили, что многие компании переоценивают ответственное поведении своих продуктов на базе ИИ. Причина — незнание того, как должен выглядеть подобный искусственный интеллект и каким требованиям отвечать. Также директор по этике ИИ Boston Consulting Group Стив Майлс отметил, что недостаточно только лишь соблюдение этических принципов. 

Рекомендации объединили в три группы:

  1. Оценка и подготовка: на этом этапе следует оценить преимущества продукта, технологии реализации и потенциальные риски;

  2. Проектирование: этап выделен для изучения воздействия, уникальных особенностей и формирования документации;

  3. Тестирование и поддержка: тут от компаний требуется выбрать способы тестирования и дальнейшей поддержки.

Сами рекомендации включают в себя следующие пункты:

  1. Оценка достоинств разработки продукта с учетом бизнес модели — следует сперва выяснить варианты использования и преимущества итогового продукта и оценить бизнес-результат, а также исследовать вопросы влияния на бизнес, не только компании-разработчика, но и всей индустрии;

  2. Формирование разнообразной команды профессионалов с явно определенными обязанностями — на этом этапе от компаний требуется убедиться в том, что команда разработчиков разнообразна и включает в себя представителей разных полов, возрастных и этнических групп. Также следует обратить внимание на широкий спектр навыков и знаний членов команды;

  3.  Оценка влияния на общество — компании должны оценить социальные, экономические и экологические последствия использования продукта, кроме того, обязателен этап оценки сценариев использования ИИ в незапланированных сценариях, в том числе и неправомерных;

  4. Обеспечить справедливость для всех групп населения — на этом этапе от разработчиков требуется оценить какие данные будут использоваться для обучения моделей и на сколько эти данные затрагивают всех представителей общества, а также предусмотреть системы постоянного наблюдения за соблюдением справедливости;

  5. Разработать продукт с учетом минимального вреда на общество и экологию — как можно минимизировать вредное воздействие на экологию и общество в случаях отказа системы или неправомерного использования, а также обеспечить прозрачность данных и уважение к пользовательским данных;

  6. Обеспечить функции, позволяющие человеку полностью контролировать работу продукта — тут следует разработать систему таким образом, чтобы пользователь мог настраивать работу ИИ и полностью осознавать принципы его работы, а также обеспечить инклюзивный опыт использования для людей с ограниченными возможностями;

  7. Обеспечить меры защиты данных — разработчики должны спроектировать систему с учетом сохранения данных пользователей, кроме того, предотвратить потенциальные риски раскрытия данных;

  8. Документирование процесса создания продукта на всем этапе работы — следует выбрать способы постоянного документирования, инструменты и методы;

  9. Тестирование итогового продукта на факт возникновения сбоев и использование ИИ в непредусмотренных сценариях — от компании требуется выбрать способы тестирования и провести сами тесты, как в корпоративной среде, так и на узкой группе пользователей и обеспечить системы постоянного мониторинга работоспособности;

  10. Предоставить пользователям правила работы с продуктом и возможные риски — пользователям следует разъяснить о принципах работы ИИ и рисках для юзеров, которые могут возникнуть в процессе работы, а также дать инструкции для минимизации потенциального ущерба.

Источник: https://habr.com/