ІСТИНА І ТРАДИЦІЇ

ООН попереджає, що штучний інтелект може представляти "негативну, навіть катастрофічну" загрозу правам людини

Велика Епоха
Розумний робот iPal smart AI для навчання дітей демонструється на стенді AvatarMind на виставці споживчої електроніки CES 2019 в Las Vegas Convention Center в Лас-Вегасі, штат Невада, 8 січня 2019 року. (Robyn Beck/AFP via Getty Images)

Організація Об'єднаних Націй попередила про те, що системи штучного інтелекту (ШІ) можуть становити "негативну, навіть катастрофічну" загрозу правам людини, і закликала заборонити додатки ШІ, які використовуються без дотримання прав людини.

15 вересня голова ООН з прав людини Мішель Бачелет закликала держави-члени ввести тимчасову заборону на продаж і використання ШІ до того часу, поки не будуть розглянуті потенційні ризики, які він несе, і не будуть створені відповідні гарантії того, що технологією не будуть зловживати.

"Ми не можемо дозволити собі продовжувати грати в квача із ШІ — дозволяти його використання в обмежених або відсутніх межах або наглядом і займатися майже неминучими наслідками у питаннях прав людини після того, як це вже сталося", — йдеться в заяві М. Бачелет.

"Сила ШІ в служінні людям беззаперечна, але також беззаперечна і здатність ШІ порушувати права людини у величезних масштабах практично без видимих наслідків. Зараз необхідно вжити заходів, щоб встановити правовий захист на шляху використання ШІ для нашого спільного блага", — додала голова правозахисної організації.

Її зауваження були озвучені невдовзі після того, як офіс М. Бачелет опублікував доповідь з аналізом того, як ШІ впливає на право людей на приватне життя, та на ряд інших прав, які стосуються здоров'я, освіти, свободи пересування та свободи вираження думок.

Документ включає оцінку профілювання, автоматизованого прийняття рішень та інших технологій машинного навчання.

Хоча у доповіді наголошується, що ШІ може використовуватися з доброю метою і може допомогти "суспільству подолати деякі великі виклики нашого часу", але його застосування у якості інструменту прогнозування і профілювання може різко вплинути на "право приватного життя, на справедливий суд, на свободу від довільного арешту і затримання та на право на життя".

Згідно з доповіддю, багато держав і компаній часто не проводять належної перевірки, поспішаючи впровадити програми ШІ, внаслідок чого, в деяких випадках, це призводить до небезпечних помилок, коли деякі люди піддаються жорстокому поводженню і, навіть арешту, через недосконалість програмного забезпечення з розпізнавання обличчя.

Тим часом розпізнавання обличчя потенційно може дозволити необмежене стеження за людьми, що може привести до виникнення цілого ряду проблем, пов'язаних із дискримінацією та захистом даних.

Робот штучного інтелекту (L) компанії CloudMinds під час Всесвітньої мобільного конференції в Шанхаї 27 червня 2018 року. (-/AFP/Getty Images)
Відвідувачі розглядають систему "розумного міста" зі штучним інтелектом від компанії iFLY на Міжнародній виставці "2018 International Intelligent Transportation Industry Expo" у Ханчжоу в східній китайській провінції Чжецзян в грудні 2018 року. (STR/AFP/Getty Images)

Оскільки багато систем ШІ спираються на великі масиви даних, подальші питання, пов'язані із тим, як ці дані будуть зберігатися в довгостроковій перспективі, також становлять ризик, також існує можливість використання таких даних у майбутньому, що може спричинити значні ризики для національної безпеки.

"Складність середовища даних, алгоритмів і моделей, що покладені в основу розробки і функціонування систем ШІ, а також навмисна секретність державних і приватних структур, є факторами, що підривають значущі способи розуміння громадськістю впливу систем ШІ на права людини і суспільство", — йдеться у доповіді.

Тім Енгельхардт, співробітник з прав людини у відділі верховенства права і демократії, попередив, що ситуація "жахлива" і що з роками вона тільки погіршується, оскільки деякі країни і підприємства впроваджують програми ШІ, не досліджуючи численні потенційні ризики, пов'язані із цією технологією.

Він вітає угоду ЄС про "посилення правил контролю", але він зазначив, що вирішення величезної кількості питань, пов'язаних із ШІ, не з'явиться в найближчому році, і що перші кроки щодо вирішення цієї проблеми повинні бути зроблені саме зараз, інакше "багато людей в світі заплатять надто високу ціну".

"Чим вищим є ризик щодо прав людини, тим суворіше повинні бути юридичні вимоги до використання технологій ШІ", — додала Бачелет.

Доповідь та коментарі М. Бачелет з'явилися після липневих викриттів того, що шпигунська програма під назвою Pegasus, використовувалась для злому смартфонів тисяч людей по всьому світу, включаючи журналістів, урядовців і правозахисників.

Телефон міністра фінансів Франції Бруно Ле Мера був лише одним із багатьох, щодо яких проводилося розслідування у зв'язку зі зломом за допомогою шпигунської програми, розробленої ізраїльською компанією NSO Group.

NSO Group виступила із заявою, в якій не розглядалось звинувачення, але говорилося, що компанія "продовжить надавати розвідувальним і правоохоронним органам по всьому світу життєво важливі технології для боротьби з терором і злочинністю".

Доповідаючи на слуханнях в Раді Європи щодо наслідків, які виникають через суперечки про шпигунські програми Pegasus, М. Бачелет промовила, що викриття не стало несподіванкою, враховуючи "безпрецедентний рівень стеження по всьому світу з боку державних і приватних структур".


Джерело: The Epoch Times