avatar_Grafff

В России хотят запретить ИИ с «неприемлемым уровнем риска»

Автор Grafff, 12-04-2025, 04:38

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

GrafffTopic starter

В России хотят запретить ИИ с «неприемлемым уровнем риска»

Guests are not allowed to view images in posts, please You are not allowed to view links. Register or Login or You are not allowed to view links. Register or Login

Участники рынка, эксперты и депутаты обсуждают разработанный профильной рабочей группой проект законодательного регулирования сферы искусственного интеллекта в России. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта в России» и обсуждается на заседаниях рабочих групп в Госдуме, «Деловой России» и на отраслевых дискуссионных площадках.

В пояснительной записке к проекту сказано, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года, которая была утверждена в феврале прошлого года. Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов рассказал, что сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ». Он также добавил, что законодательные инициативы пока депутатами «всерьёз не рассматриваются».

«Рабочая группа создана для того, чтобы проработать и внимательно, детально изучить все запросы от различных отраслей», — сообщил господин Свинцов. Он также добавил, что в ближайшие месяцы появятся несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но появления в этом году регулирующего всю деятельно ИИ законопроекта ждать не следует.

Что касается самого законопроекта, то прежде всего он предполагает введение понятия ИИ, т.е. комплекса технологических и программных решений, имитирующих когнитивные функции человека, включая самообучение, поиск решений на базе заранее заданного алгоритма, и обеспечивающий получение результатов, которые сопоставимы с результатами деятельности человека. К ИИ-технологиям предлагается приравнять компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальный анализ данных, машинное обучение и др. ИИ-системами предлагается считать информационные системы, имитирующие когнитивные функции человека с помощью упомянутых ранее технологий.

Ещё в рамках законопроекта предлагается ввести требования к маркировке ИИ-систем, т.е. обязательному информационному обозначению, которое будет указывать на применение ИИ-технологий при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой», а обеспечить её должен оператор ИИ-системы. Это требование не будет распространяться на ИИ-системы, которые применяются в закрытых технологических процессах, для внутренней автоматизации в организациях и др.

Одним из важных пунктов законопроекта является введение классификации ИИ-систем по уровню потенциального риска. Авторы проекта предлагают разделить ИИ-алгоритмы на системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. При этом разработку и эксплуатацию систем с неприемлемым уровнем риска, т.е. создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина, предлагается запретить. Для систем с высоким уровнем риска, т.е. используемых в здравоохранении, на транспорте, в финансовом секторе, в правоохранительной деятельности и некоторых других сферах, предлагается ввести обязательную госрегистрацию и сертификацию. Для систем с ограниченным уровнем риска — разработать системы внутреннего контроля и добровольную сертификацию.

В дополнение к этому предлагается ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации ИИ-систем. При этом разработчик не будет нести ответственность в случае принятия всех необходимых мер для предотвращения причинения вреда, а также если вред возник из-за нарушения правил эксплуатации системы и в ряде других случаев. Предлагается внести обязательное страхование ответственности операторов ИИ-систем с высоким уровнем риска. Для определения владельца прав на результат интеллектуальной деятельности, созданной с помощью ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека. Если такой вклад был, то исключительное право на результат будет принадлежать человеку, а в противном случае оператору ИИ-системы (действует в течение 50 лет).

Если законопроект будет принят, то операторы и разработчики ИИ-систем будут обязаны выполнить его требования в течение года после вступления документа в силу. ИИ-системы с высоким уровнем риска, созданные до принятия закона, должны будут пройти обязательную сертификацию в течение двух лет.
Guests are not allowed to view images in posts, please You are not allowed to view links. Register or Login or You are not allowed to view links. Register or Login

Guests are not allowed to view images in posts, please You are not allowed to view links. Register or Login or You are not allowed to view links. Register or Login

Guests are not allowed to view images in posts, please You are not allowed to view links. Register or Login or You are not allowed to view links. Register or Login


You are not allowed to view links. Register or Login

🡱 🡳

* Ваши права в разделе

  • Вы не можете создавать новые темы.
  • Вы не можете отвечать в темах.
  • Вы не можете прикреплять вложения.
  • Вы не можете изменять свои сообщения.