Закон об искусственном интеллекте: жесткие рамки для нейросетей
Недавно в Европейском парламенте рассматривались вопросы регулирования искусственного интеллекта. Подавляющим большинством голосов был принят проект закона об искусственном интеллекте (Artificial Intelligence Act, AI Act), который, по мнению Роберты Мецоли, главы Европарламента, должен "задать глобальный стандарт" на будущее.
Кроме того, European Parliament подал антимонопольный иск против Google, что рассматривают как серьезный шаг на пути регулирования технологий ИИ.
В чем ценность AI Act?
Главная цель Artificial Intelligence Act — создание безопасной среды для использования и развития искусственного интеллекта, которая гарантирует пользователям защиту их прав. По мнению парламентариев, условия для этого должны обеспечить определенные ограничения для тех ИИ-систем, которые могут влиять на подсознание людей.
Некоторые AI-программы могут полностью запретить, если риск их использования будет определен как "неприемлемый". В отношении технологий с “высоким риском” планируют ввести существенные ограничения и установить новые требования к прозрачности таких систем.
Закон вступит в силу не раньше 2025 года. Окончательной редакции еще нет, но так как черновой вариант текста обнародован, можно проанализировать, что предлагает новый проект правил по использованию ИИ.
Ограничения, связанные с распознаванием эмоций
Планируют ввести запрет на использование программ для распознавания эмоций во время проведения проверок (полицейскими, пограничниками, миграционной службой и т. п.). А также на отслеживание с помощью ИИ эмоционального состояния сотрудников компаний, студентов, учащихся (на рабочих местах, в учебных заведениях и т. д.).
Разработчикам AI-программ для распознавания эмоций такая перспектива, разумеется, не по душе. Они настаивают на пользе своего софта, утверждая, что, например, по выражению лица водителя можно вовремя определить, что он засыпает за рулем транспортного средства. Таким же способом можно выявлять учеников, студентов, которым трудно дается обучение.
Ограничение отслеживания биометрических данных граждан в реальном времени
Эксперты прогнозируют наиболее ожесточенные споры законодателей в отношении этого запрета. И понятно почему: во Франции, например, лоббируют увеличение использования цифровых средств распознавания лиц.
Против полного запрета удаленной биометрической идентификации выступают представители правоохранительных органов стран-членов ЕС. Аргументируют свою позицию тем, что использование такой технологии облегчает поиск пропавших детей, выявление преступников, предотвращение террористических угроз.
Проблема действительно многогранная, поэтому важно, чтобы выбор систем ИИ и их использование было строго регламентированным.
Ограничение отслеживания социального поведения
Запланировано введение ограничений на использование социальных скорингов граждан при формировании их обобщенного data-портрета. Сейчас сведениями о социальном поведении активно пользуются различные институты, принимая решение о: выдаче ипотечных кредитов (банки), найме сотрудников (работодатели), выборе страховых ставок (страховые компании) и т. д.
Европейцы хотят максимально обезопасить себя от горького опыта стран с авторитарными режимами. Яркий пример — Китай, с его печально известной системой социального рейтинга, обеспечивающей тотальный контроль частных лиц за счет сбора и обработки их персональных данных. Например, гражданам с низким рейтингом там сложно найти хорошую работу, получить кредит и даже купить билеты на транспорт.
Ограничение использования материалов, защищенных авторским правом
Большим языковым моделям нейросетей (таким как GPT-4 OpenAI), вероятно, запретят собирать данные, защищенные авторским правом. Лаборатория исследований искусственного интеллекта OpenAI уже попала в зону внимания европейских законодателей из-за нарушений интеллектуальной собственности.
Новый закон говорит о необходимости маркировки авторского контента, которая должна сохраняться даже после его видоизменения. У лоббистов техиндустрии много претензий к потенциальному нововведению, поэтому они пытаются противостоять появлению такого запрета.
Ограничение алгоритмов рекомендаций соцсетей
Современные алгоритмы, по которым формируется список рекомендованного контента, часто критикуют правозащитники. И для этого есть основания, поскольку неоднократно фиксировалась утечка личных данных пользователей из-за взаимодействия с определенными рекламными аккаунтами.
Если же будут приняты новые правила, система рекомендаций на платформах соцсетей будет проходить более тщательную проверку. А технологические компании будут нести больше ответственности за влияние контента, созданного пользователями.
Заключение
Развитие ИИ-технологий связано с риском распространения дезинформации, повышения уязвимости цифровых систем, социальных манипуляций и массовой слежки. Законопроект AI Act привлекает внимание к необходимости регуляции нейросетевых инструментов, чтобы предотвратить возможные негативные последствия использования технологий Artificial Intelligence.
Заказать сайт сейчас!
Ваш будущий сайт слишком хорош, чтобы принадлежать кому-то другому