Госдума готовит законопроект по регулированию ИИ

Госдума готовит законопроект по регулированию ИИ



В целях борьбы с мошенниками.

Депутаты Госдумы из партии «Единая Россия» подготавливают законопроект о регулировании ИИ. В официальном заявлении партия говорит не о запрете нейросетей, а о необходимости составить законодательную базу для использования. Документ должен «актуализировать существующие акты, определить ответственность и исключить использование ИИ мошенниками».

Законопроект пока на стадии подготовки, а в это время Правительство, напротив, «проводят исследование по выявлению барьеров нормативно-технического регулирования, препятствующих внедрению ИИ-технологий». План регулирования ИИ будут готовить, основываясь на результатах исследования. Работу ведут совместно с Центром компетенций по реализации федерального проекта «Искусственный интеллект» (Сбербанк) и Национальным центром развития искусственного интеллекта при правительстве РФ (НИУ ВШЭ).

В других странах тоже озаботились вопросом законодательства в отношении ИИ. К примеру, Италия и Германия временно ограничили использование ChatGPT для обработки данных пользователей, в США тоже разрабатывают нормы регулирования, а Китай планирует ввести процедуру проверки безопасности системы генеративного ИИ перед выпуском.

Правительство оценивает возможные риски для рынка труда в связи с развитием технологий. Зампред комитета Госдумы по информполитике Антон Горелкин сообщил:

«Совместно с министерствами мы планируем провести оценку изменений на рынке труда, связанных с распространением ИИ-решений. Сейчас технологии, которые должны были избавить человека от излишнего физического труда, пытаются вместо этого взять на себя решение творческих задач».

Больше всего, ожидаемо, пострадают представители творческих профессий: дизайнеры, художники, музыканты, дикторы и актеры. Компании уже используют ИИ, к примеру, для озвучки аудиокниг. Впрочем, если будут возможности оптимизировать работу с помощью нейросетей, компании будут этим пользоваться и экономить на сотрудниках.



Source link