Закон про штучний інтелект: жорсткі рамки для нейромереж
Нещодавно в Європейському парламенті розглядали питання регуляції нейромережевих інструментів. Переважною більшістю голосів було ухвалено проєкт закону про штучний інтелект (Artificial Intelligence Act, AI Act), який, на думку Роберти Мецоли, голови Європарламенту, має “задати глобальний стандарт” на майбутнє.
Крім того, European Parliament подав антимонопольний позов проти Google, що вважають серйозним кроком на шляху регулювання технологій штучного інтелекту.
У чому цінність AI Act?
Головна мета Artificial Intelligence Act — створення безпечного середовища для використання та розвитку штучного інтелекту, у якому користувачі можуть бути впевнені, що їхні права захищені.
На думку європарламентарів, умови для цього повинні забезпечити певні обмеження для програм, які можуть мати маніпулятивні, а також соціально небезпечні властивості.
Деякі AI-програми можуть повністю заборонити, якщо ризик їх використання буде визначено як “неприйнятний”. Щодо технологій з “високим ризиком”, планують запровадити суттєві обмеження та встановити нові вимоги до прозорості таких систем.
Закон набуде чинності не раніше 2025 року. Остаточної редакції ще немає, але оскільки чорновий варіант тексту оприлюднений, можна проаналізувати, що пропонує новий проєкт правил використання ШІ.
Обмеження розпізнавання емоцій
Планується запровадити заборону розпізнавання емоцій людей під час проведення перевірок (поліціянтами, прикордонниками, міграційною службою тощо). А також на відстеження за допомогою ШІ емоційного стану співробітників компаній, студентів, учнів (на робочих місцях, у навчальних закладах тощо).
Розробникам AI-програм для розпізнавання емоцій, звісно, це не до вподоби. Вони наполягають на користі використання їх софту. До прикладу, стверджують, що за виразом обличчя водія можна вчасно визначити, що він засинає за кермом транспортного засобу. У такий самий спосіб можна виявляти здобувачів знань (учнів, студентів), яким важко дається навчання.
Обмеження відстежування біометричних даних громадян у реальному часі
Експерти прогнозують найбільш запеклі суперечки законодавців саме щодо цієї заборони. І зрозуміло чому: у Франції, наприклад, лобіюють збільшення використання цифрових засобів розпізнавання облич.
Проти повної заборони віддаленої біометричної ідентифікації виступають представники правоохоронних органів країн-членів ЄС. Аргументують свою позицію тим, що використання такої технології полегшує пошук зниклих дітей, виявлення злочинців, запобігання терористичним загрозам.
Проблема справді багатогранна, тому важливо, щоб вибір систем AI та їх використання було суворо регламентованим .
Обмеження відстежування соціальної поведінки
Заплановано впровадження обмежень використання соціальних скорингів громадян під час формування їх узагальненого data-портрета. Зараз відомостями про соціальну поведінку користуються різні інститути, приймаючи рішення про: видачу іпотечних кредитів (банки), наймання співробітників (роботодавці), вибір страхових ставок (страхові компанії) тощо.
Проте європейці хочуть максимально убезпечити себе від гіркого досвіду країн з авторитарними режимами. Яскравим прикладом є Китай, з його сумно відомою системою соціального рейтингу, що забезпечує тотальний контроль приватних осіб завдяки збору їх персональних даних. Наприклад, громадянам із низьким рейтингом там складно знайти хорошу роботу, отримати кредит та навіть купити квитки на транспорт.
Обмеження використання матеріалів, захищених авторським правом
Великим мовним моделям нейромереж, як, наприклад, GPT-4 OpenAI, ймовірно, заборонять збирати дані, захищені авторським правом. Лабораторія досліджень штучного інтелекту OpenAI вже потрапила до зони уваги європейських законодавців через порушення інтелектуальної власності.
Новий закон говорить про необхідність маркування авторського контенту, яке має зберігатися навіть після його видозміни. У лобістів техіндустрії багато претензій до потенційного нововведення, тому вони намагаються протистояти появі такої заборони.
Обмеження для алгоритмів рекомендацій соціальних мереж
Сучасні алгоритми, за якими формується перелік рекомендованого контенту, часто критикують правозахисники. І для цього є підстави, оскільки неодноразово було зафіксовано виток особистих даних, спричинений взаємодією з певними рекламними акаунтами.
Якщо ж будуть ухвалені нові правила, система рекомендацій на платформах соцмереж буде проходити більш прискіпливу перевірку. А технологічні компанії будуть нести більше відповідальності за вплив контенту, створеного користувачами.
Висновок
Розвиток технологій ШІ пов'язаний із ризиками поширення дезінформації, підвищення вразливості цифрових систем, соціальних маніпуляцій та масового стеження. Тож законопроєкт AI Act привертає увагу до необхідності регуляції нейромережевих інструментів, щоб запобігти можливим негативним наслідкам використання Artificial Intelligence.
Замовити сайт зараз!
Всього один крок до вашого бездоганного сайту