Цель документа - уменьшение рисков и трудностей, связанных с искусственным интеллектом (ИИ), особенно с точки зрения усугубления существующего неравенства, а также последствий для прав человека.
В обсуждении проекта Рекомендации приняли участие представители 55 стран, включая Россию и Китай. В итоге проект был поддержан единогласно.
Государствам-членам ООН рекомендовано применять положения рекомендации об этических аспектах ИИ и принять надлежащие меры, в том числе законодательного характера, в соответствии с конституционной практикой и структурами управления каждого государства в целях воплощения в жизнь на их территориях принципов, закреплённых документом.
Описание этических аспектов разработки и применения ИИ-систем в «Национальной стратегии развития искусственного интеллекта на период до 2030 года», принятой в России в 2019 году, проекту Рекомендации ЮНЕСКО не противоречит, напротив, содержит совпадающие этические принципы. В октябре 2021 в России, напомним, разработан, опубликован и подписан первыми организациями-добровольцами кодекс этики ИИ.
Структура и содержание рекомендаций
Этичное применение
Под этичным применением ИИ в Рекомендации понимается систематическое нормативное осмысление этических аспектов ИИ на основе эволюционирующей комплексной, всеобъемлющей и многокультурной системы взаимосвязанных ценностных установок, принципов и процедур, способное ориентировать общества в вопросах ответственного учёта известных и неизвестных последствий применения ИИ-технологий для людей, сообществ, окружающей природной среды и экосистем, а также служить основой для принятия решений, касающихся применения или отказа от применения технологий на основе ИИ.
Этические принципы выступают в качестве гибкой основы для нормативной оценки, а также методического руководства в вопросах применения технологий на основе ИИ, «рассматривая человеческое достоинство, благополучие человека и недопущение нанесения вреда как целевой ориентир и уходя корнями в этику науки и технологии».
Определение ИИ
Рекомендация рассматривает ИИ как технологические системы, способные обрабатывать данные и информацию способом, напоминающим разумное поведение и включающим, как правило, такие аспекты, как рассуждение, обучение, распознание, прогнозирование, планирование и контроль.
В системах на основе ИИ могут использоваться различные методы, в частности:
- самообучение машины, в том числе глубокое обучение и обучение с подкреплением;
- автоматизированное рассуждение, в том числе планирование, диспетчеризация, представление знаний и формирование рассуждений, поиск и оптимизация;
- системы на основе ИИ могут использоваться в киберфизических системах, включая системы контроля оборудования через Интернет, робототехническое оборудование, социальную робототехнику и системы человеко-машинного интерфейса, объединяющие в себе функции контроля, распознания, обработки данных, собранных датчиками, а также работу исполнительных элементов в среде функционирования ИИ-систем.
Жизненный цикл ИИ
В документе указывается, что этическая составляющая характерна для всех этапов жизненного цикла искусственной интеллектуальной системы. Жизненный цикл понимается как вся совокупность этапов, начиная с этапов исследования, проектирования и создания и заканчивая этапами развертывания и использования, к которому относятся техническое обслуживание, эксплуатация, сбыт, финансирование, мониторинг и оценка эффективности, контроль работоспособности, вывод из эксплуатации, демонтаж и утилизация.
При этом под субъектами связанной с ИИ деятельности могут пониматься любые заинтересованные стороны, вовлеченные, по меньшей мере, в один их этапов жизненного цикла системы на основе ИИ, – как юридические, так и физические лица, в частности, исследователи, программисты, инженеры, специалисты по обработке данных, конечные пользователи, предприятия частного сектора, университеты, частные и государственные учреждения и т.д.
Ценностные установки
Как сказано в Рекомендации, ценностные установки и принципы деятельности должны, прежде всего, соблюдаться всеми заинтересованными сторонами на протяжении жизненного цикла ИИ-системы и, по мере необходимости и целесообразности, поощряться путем внесения изменений в действующее законодательство и новые законы, нормативные положения и руководящие принципы предпринимательской деятельности. Принимаемые меры должны соответствовать положениям международного права, в том числе уставу ООН, включая обязательства государств-членов в области прав человека.
К ценностным установкам и принципам деятельности отнесено следующее.
1. Уважение, защита и поощрение прав человека и основных свобод и человеческого достоинства
Ни один из этапов жизненного цикла искусственной интеллектуальной системы не должен быть связан с ущербом или зависимостью физического, экономического, социального, политического, культурного или интеллектуального характера для человека или для человеческого сообщества. На протяжении жизненного цикла ИИ-систем необходимо заботиться о повышении качества жизни людей; при этом любой человек или группа лиц вправе самостоятельно трактовать понятие «качество жизни» в той мере, в какой это не ведёт к нарушению или попранию прав человека и основных свобод и не умаляет человеческого достоинства с точки зрения существующего определения.
2. Благополучие окружающей среды и экосистем
Все вовлечённые в жизненный цикл ИИ-систем заинтересованные стороны должны соблюдать положения соответствующих международных и национальных норм, стандартов и правил, включая меры предосторожности, предусмотренные для защиты и восстановления состояния окружающей среды и экосистем, а также обеспечения устойчивого развития.
Они должны стремиться к тому, чтобы снизить оказываемое ИИ-системами на экологию воздействие, в том числе их углеродный след, с тем чтобы минимизировать масштабы изменения климата и влияние факторов экологического риска, а также препятствовать использованию экологически опасных моделей освоения, эксплуатации и переработки природных ресурсов, ведущих к ухудшению состояния окружающей среды и экосистем.
3. Обеспечение разнообразия и инклюзивности
Не должна ограничиваться возможность выбора человеком предпочтительного для него образа жизни, убеждений, взглядов, способов самовыражения или жизненного пути, в том числе возможность факультативного использования ИИ-систем, а также участия в определении их параметров.
4. Жизнь в мирных, справедливых и взаимосвязанных обществах
Процессы в рамках жизненного цикла ИИ не должны вести к дискриминации и обезличиванию людей или ущемлять свободы и независимое принятие решений, а также подрывать безопасность людей и общин, порождать разногласия между отдельными людьми и группами лиц и настраивать их друг против друга или ставить под угрозу сосуществование человека с другими живыми существами и окружающей его природной средой.
5. Соразмерность и непричинение вреда
При наличии потенциальной угрозы причинения вреда людям, правам человека и основным свободам, общинам и обществу в целом или окружающей природе и экосистемам следует предусмотреть соответствующие процедуры оценки рисков, а также принять меры для исключения вероятности причинения такого вреда.
6. Безопасность и защищённость
В интересах обеспечения безопасности и защищённости людей, экологии и экосистем на всех этапах жизненного цикла ИИ-систем следует избегать непреднамеренного причинения вреда (риски для безопасности), а также уязвимости перед кибератаками (риски для защищённости), учитывать, предотвращать и ликвидировать эти риски. Безопасность и защищённость ИИ-систем могут быть повышены посредством разработки надёжных и защищённых от несанкционированного доступа к личной информации комплексных систем, которые обеспечат более эффективный характер обучения и сертификации моделей ИИ на основе качественных данных.
7. Справедливость и отказ от дискриминации
Данное положение подразумевает инклюзивный подход к обеспечению распространения и всеобщего доступа к полученным благодаря ИИ благам с учётом специфических потребностей разных возрастных групп, культурных систем, языковых сообществ, инвалидов, женщин и девочек, малообеспеченных, социально незащищённых и уязвимых категорий населения, либо лиц, находящихся в незащищённом положении.
8. Устойчивость
Оценка людских, социальных, культурных, экономических и экологических аспектов применения технологий на основе ИИ должна неизменно проводиться с должным учётом их влияния на устойчивость развития, под которым понимается набор постоянно меняющихся целей в различных областях деятельности, сформулированных на сегодняшний день в виде целей ООН в области устойчивого развития.
9. Право на неприкосновенность частной жизни и защита данных
Неприкосновенность частной жизни в качестве права, имеющего важнейшее значение для обеспечения защиты человеческого достоинства, личной независимости и способности человека выступать субъектом действия, должна уважаться, защищаться и поощряться на всех этапах жизненного цикла ИИ-систем. Важно, чтобы сбор, использование, передача, архивирование и удаление данных, применяемых в искусственных интеллектуальных системах, осуществлялись в соответствии с международным правом и ценностными установками и принципами, изложенными в настоящей Рекомендации, при одновременном соблюдении соответствующих национальных, региональных и международных правовых норм.
Соответствующие рамочные принципы защиты данных и механизмы управления ими должны разрабатываться на основе подхода с участием многих заинтересованных сторон на национальном уровне, защищаться судебными системами и обеспечиваться на всём протяжении жизненного цикла ИИ-систем. Рамочные принципы защиты данных и любые связанные с ними механизмы должны основываться на международных принципах защиты данных и стандартах, касающихся сбора, использования и раскрытия личных данных, а также реализации субъектами данных своих прав при обеспечении законной цели и надлежащей правовой основы для обработки персональных данных.
ИИ-системы ещё на этапе концептуальной проработки требуют надлежащей оценки последствий на предмет соблюдения неприкосновенности частной жизни, в том числе социальных и этических аспектов их применения, а также инновационных подходов в отношении неприкосновенности частной жизни. Субъекты ИИ должны гарантировать свою подотчётность в рамках разработки и внедрения ИИ-систем, обеспечивая защиту личной информации на протяжении всего жизненного цикла таких систем.
10. Подконтрольность и подчиненность человеку
Государствам-членам следует обеспечить во всех случаях возможность возложения этической и правовой ответственности в отношении любого из этапов жизненного цикла ИИ-системы, а также в случаях применения мер правовой защиты в отношении ИИ-систем, на конкретных физических или действующих юридических лиц. В связи с этим термин «подконтрольность» подразумевает не только контроль со стороны отдельного человека, но и, в необходимых случаях, инклюзивный контроль со стороны общества.
11. Прозрачность и объяснимость
Прозрачность необходима для эффективного применения соответствующего национального и международного законодательства, регулирующего вопросы ответственности. Также люди должны иметь возможность доступа к обоснованию затрагивающего их права и свободы решения и представлять заявления уполномоченным сотрудникам частных компаний или государственных учреждений, которые могут пересмотреть и изменить это решение.
12. Ответственность и подотчётность
Для обеспечения подконтрольности ИИ-систем и их воздействия на всех этапах жизненного цикла необходимо разработать соответствующие механизмы контроля, оценки воздействия, аудита и проверки, включая защиту лиц, сообщающих о нарушениях.
13. Осведомленность и грамотность
Изучение воздействия ИИ-систем должно включать просвещение в области прав человека и основных свобод, с их помощью и в их интересах. Это означает, что отношение к ИИ-системам и их понимание должны зависеть от того, каким образом они воздействуют на сферу прав человека и возможность реализации этих прав, а также на окружающую среду и экосистемы.
14. Многостороннее и адаптивное управление и взаимодействие
Использование данных должно осуществляться на основе международного права и уважения национального суверенитета. Это означает, что государства, руководствуясь нормами международного права, определяют порядок обращения с данными, генерируемыми на их территории или передаваемыми через их территорию, и принимают меры по эффективному правовому регулированию их использования, включая защиту данных, на основе уважения права на неприкосновенность частной жизни в соответствии с нормами международного права и другими нормами и стандартами в области прав человека.
Отечественный опыт
Описание этических аспектов разработки и применения ИИ-систем в «Национальной стратегии развития искусственного интеллекта на период до 2030 года», принятой в России в 2019 году, проекту Рекомендации ЮНЕСКО не противоречит ни в одном из пунктов, напротив, содержит совпадающие этические принципы.
В октябре 2021 в России, напомним, разработан, опубликован и подписан первыми организациями-добровольцами кодекс этики ИИ.
Как и в случае с Рекомендацией ЮНЕСКО, цель кодекса — обеспечение прав граждан, которые могут нарушаться – и на практике уже нарушаются – ИИ-системами, которые применяют компании и государство.
Кодекс соответствует Рекомендации ЮНЕСКО по духу, а местами и буквально – например, в части повышения осведомлённости об этике применения ИИ, непричинении вреда человеку ИИ-системами и пр. Также, как и Рекомендация, кодекс возлагает ответственность за последствия применения ИИ-систем на человека и определяет благо человека и человеческих сообществ целью использования ИИ-систем.
Российский кодекс, однако, представляет собой прежде всего практически применимый документ, рассчитанный на добровольное присоединение к нему новых компаний и организаций. Он больше, чем Рекомендация ЮНЕСКО, напоминает инструкцию по правильному, т.е. этичному, обращению с ИИ. Кодекс содержит не только общие принципы, но и конкретные положения, он определяет, например, что ИИ-системы не должны использоваться за пределами «своей» предметной области, которая была выбрана разработчиками для решения определённых на этапе проектирования ИИ-системы задач, т.п.
Принципиального значения, это, впрочем, не имеет. Напротив, принятые в России документы, имеющие отношение к этике использования ИИ систем, a том числе официальные, совпадают с Рекомендацией ЮНЕСКО в основном и даже в частностях.
Источник https://d-russia.ru/junesko-prinjala-rekomendaciju-ob-jeticheskih-aspektah-iskusstvennogo-intellekta.html