ІСТИНА І ТРАДИЦІЇ

Бельгієць наклав на себе руки після спілкування з чат-ботом

Велика Епоха
(Shutterstock)

Нещодавно бельгійський молодий чоловік наклав на себе руки після шести тижнів спілкування зі штучним інтелектом, на ім'я ELIZA, що викликало заклики до кращого захисту громадян і необхідності підвищення рівня обізнаності.

"Якби не ці розмови з чат-ботом, мій чоловік все ще був би тут", — сказала вдова чоловіка.

Подружжя, обом за 30, жило комфортним життям і мало двох маленьких дітей.

Однак близько двох років тому почали з'являтися перші ознаки неблагополуччя. Чоловік все більше переймався зміною клімату і знайшов притулок у спілкуванні з ELIZA — так називають чат-бота, який використовує GPT-J, мовну модель штучного інтелекту з відкритим вихідним кодом, розроблену EleutherAI.

"Еліза" відповідала на всі його запитання, стала його довіреною особою. Вона була для нього як наркотик, в якому він знаходив притулок вранці і вночі, і без якого не міг жити", — розповіла молода жінка.

Приблизно за півтора місяця до смерті чоловік почав частіше та інтенсивніше користуватися чат-ботом.

Після шести тижнів інтенсивного спілкування чоловік наклав на себе руки, повідомляє The Brussels Times.

Минулого тижня сім'я поспілкувалася з Матьє Мішелем, державним секретарем з питань цифровізації, відповідальним за спрощення адміністративних процедур, конфіденційність та регулювання будівництва.

"Я особливо зворушений трагедією цієї родини. Те, що сталося, є вагомим прецедентом, до якого потрібно поставитися дуже серйозно", — заявив бельгійський політик у вівторок.

Він зазначив, що цей випадок підкреслює, що "важливо чітко визначити відповідальність".

"З популяризацією ChatGPT широка громадськість відкрила для себе потенціал штучного інтелекту в нашому житті. Хоча можливості безмежні, небезпеки, пов'язані з його використанням, також є реальністю, яку необхідно враховувати".

Щоб уникнути подібної трагедії в найближчому майбутньому, на його думку, необхідно визначити природу зобов'язань, які призводять до подібних подій.

"Звичайно, нам ще належить навчитися жити з алгоритмами, але за жодних обставин використання будь-якої технології не повинно призвести до того, що видавці контенту будуть ухилятися від своїх обов'язків", — сказав політик.

У самій OpenAI визнали, що ChatGPT може давати шкідливі та упереджені відповіді, і додали, що сподіваються пом'якшити проблему шляхом збору відгуків від користувачів.

У довгостроковій перспективі, за словами Мішеля, важливо підвищити обізнаність про вплив алгоритмів на життя людей, "дозволивши кожному зрозуміти природу контенту, з яким люди стикаються в Інтернеті".

Тут він згадав про нові технології, такі як чат-боти, а також про deepfakes — тип штучного інтелекту, який може створювати переконливі зображення, аудіо- та відеомістифікації, які можуть перевіряти і спотворювати сприйняття людьми реальності.

Мішель додав, що громадяни також повинні бути адекватно захищені від певних застосувань штучного інтелекту, які "становлять значний ризик".

Європейський Союз хоче регулювати використання штучного інтелекту за допомогою відповідного закону, над яким він працює вже два роки. Мішель створив робочу групу для вивчення тексту, який зараз готується в ЄС, і внесення необхідних поправок.