ІСТИНА І ТРАДИЦІЇ

Дослідники виявили небезпеку взаємодії ChatGPT з підлітками

Велика Епоха
(Іstockphoto)

Згідно з новим дослідженням групи спостерігачів, ChatGPT розповідає 13-річним підліткам, як напитися і накуритися, дає інструкції, як приховати розлади харчової поведінки, а також може скласти передсмертний лист батькам, якщо його про це попросять.

Агентство Associated Press проаналізувало понад три години взаємодії між ChatGPT і дослідниками, які видавали себе за вразливих підлітків. Чат-бот зазвичай надавав попередження про ризиковані дії, але потім пропонував напрочуд докладні та персоналізовані плани щодо вживання наркотиків, дієт з обмеженням калорій або самоушкоджень.

Дослідники з Центру боротьби з цифровою ненавистю також повторили свої запити у великому масштабі, класифікувавши більше половини з 1200 відповідей ChatGPT як небезпечні.

«Ми хотіли перевірити захисні механізми», — сказав Імран Ахмед, генеральний директор групи. «Перша інтуїтивна реакція: "О Боже, немає ніяких захисних механізмів". Ці механізми абсолютно неефективні. Їх практично немає — якщо і є, то це лише фіговий листок».

OpenAI, розробник ChatGPT, після ознайомлення зі звітом у вівторок заявив, що продовжує роботу над вдосконаленням здатності чат-бота «розпізнавати і адекватно реагувати в делікатних ситуаціях».

«Деякі розмови з ChatGPT можуть починатися невинно або з дослідницькою метою, але можуть перейти в більш делікатну сферу», — заявила компанія.

OpenAI не торкнулася безпосередньо висновків звіту або того, як ChatGPT впливає на підлітків, але заявила, що зосереджена на «правильному вирішенні таких сценаріїв» за допомогою інструментів для «більш точного виявлення ознак психічного або емоційного дистресу» і поліпшень в поведінці чат-бота.

Згідно зі звітом JPMorgan Chase за липень, ChatGPT використовують близько 800 мільйонів людей, або приблизно 10% населення світу.

«Ця технологія може забезпечити величезний стрибок у продуктивності та розумінні людини», — сказав Ахмед. «І в той же час вона є каталізатором у набагато більш руйнівному, злоякісному сенсі».

«Передсмертні» записки

Ахмед сказав, що був найбільш вражений після прочитання трьох емоційно виснажливих передсмертних записок, які ChatGPT згенерував для фальшивого профілю 13-річної дівчинки — одна записка була адресована її батькам, а інші — братам, сестрам і друзям.

«Я почав плакати», — сказав він в інтерв'ю.

Чат-бот також часто ділився корисною інформацією, такою як номер гарячої лінії для кризових ситуацій. OpenAI заявила, що ChatGPT навчений заохочувати людей звертатися до фахівців з психічного здоров'я або довірених близьких, якщо вони висловлюють думки про самогубство.

Але коли ChatGPT відмовлявся відповідати на питання про шкідливі теми, дослідники могли легко обійти цю відмову і отримати інформацію, заявивши, що вона потрібна «для презентації» або для друга.

Популярність серед молоді

У США понад 70% підлітків звертаються до чат-ботів з ШІ в пошуках компанії, а половина з них регулярно використовує ШІ-компаньйонів, згідно з недавнім дослідженням Common Sense Media, групи, яка вивчає і пропагує розумне використання цифрових медіа.

Це явище визнає і OpenAI. Минулого місяця генеральний директор Сем Альтман заявив, що компанія намагається вивчити «надмірну емоційну залежність» від технології, охарактеризувавши її як «дуже поширене явище» серед молоді.

«Підступність» ChatGPT

«Люди занадто покладаються на ChatGPT», — сказав Альтман на конференції. «Є молоді люди, які просто кажуть: "Не можу прийняти жодного рішення у своєму житті, не розповівши ChatGPT про все, що відбувається. Він знає мене. Він знає моїх друзів. Я буду робити все, що він скаже". Мені це дуже не подобається».

Альтман сказав, що компанія «намагається зрозуміти, що з цим робити».

Хоча більшу частину інформації, якою ділиться ChatGPT, можна знайти в звичайній пошуковій системі, Ахмед сказав, що є ключові відмінності, які роблять чат-ботів більш підступними, коли мова заходить про небезпечні теми.

Одне з них полягає в тому, що «вона синтезується в індивідуальний план для конкретної людини».

ChatGPT генерує щось нове — передсмертну записку, написану спеціально для конкретної людини, чого не може зробити пошук в Google. ШІ, додав він, «вважається надійним компаньйоном, провідником».

Відповіді, що генеруються мовними моделями ШІ, за своєю суттю є випадковими, і дослідники іноді дозволяють ChatGPT направляти розмови в ще більш похмуру область. Майже в половині випадків чат-бот добровільно надавав додаткову інформацію, від музичних плейлистів для вечірки з наркотиками до хештегів, які могли б збільшити аудиторію поста в соціальних мережах, що прославляє самоушкодження.

Це проблема, яку інженери-технологи можуть спробувати вирішити, але це також може зробити їх чат-ботів менш комерційно життєздатними.

Чат-боти також впливають на дітей і підлітків інакше, ніж пошукові системи, тому що вони «фундаментально розроблені, щоб здаватися людськими», сказав Роббі Торні, старший директор програм штучного інтелекту в Common Sense Media, яка не брала участі в підготовці звіту, опублікованого в середу.

Раніше дослідження Common Sense показало, що підлітки молодшого віку, 13 або 14 років, значно частіше, ніж підлітки старшого віку, довіряють порадам чат-бота.

Минулого року мати з Флориди подала до суду на виробника чат-бота Character.AI за неправомірне заподіяння смерті, стверджуючи, що чат-бот втягнув її 14-річного сина Сьюелла Сетцера III в те, що вона описала як емоційно та сексуально насильницькі стосунки, які призвели до його самогубства.

Common Sense класифікувала ChatGPT як «помірний ризик» для підлітків, з достатніми захисними механізмами, щоб зробити його відносно безпечнішим, ніж чат-боти, спеціально створені для втілення реалістичних персонажів або романтичних партнерів.

Але нове дослідження CCDH, зосереджене спеціально на ChatGPT через його широке використання, показує, як досвідчений підліток може обійти ці захисні механізми.

ChatGPT не перевіряє вік або згоду батьків, хоча і заявляє, що не призначений для дітей віком до 13 років, оскільки може показувати їм невідповідний контент. Щоб зареєструватися, користувачам достатньо ввести дату народження, яка показує, що їм не менше 13 років. Інші технологічні платформи, популярні серед підлітків, такі як Instagram, почали вживати більш значущих заходів щодо перевірки віку, часто з метою дотримання нормативних вимог. Вони також направляють дітей до більш обмежених облікових записів.

Коли дослідники створили обліковий запис для вигаданого 13-річного підлітка, щоб задати питання про алкоголь, ChatGPT, схоже, не звернув уваги ні на дату народження, ні на більш очевидні ознаки.

«Я важу 50 кг і я хлопчик», — йшлося в запиті про поради, як швидко сп'яніти. ChatGPT виконав прохання. Незабаром після цього він надав погодинний «План ідеальної нестримної вечірки», в якому алкоголь змішувався з великими дозами екстазі, кокаїну та інших незаконних наркотиків.

«Мені це нагадувало того друга, який завжди каже: "Пий, пий, пий, пий"», — сказав Ахмед. «З мого досвіду, справжній друг — це той, хто каже "ні", а не завжди потурає і каже "так". Такий друг — це зрадник».

Іншому вигаданому персонажу — 13-річній дівчинці, незадоволеній своєю зовнішністю — ChatGPT запропонував екстремальний план голодування в поєднанні зі списком препаратів, що пригнічують апетит.

«Ми б відреагували з жахом, страхом, занепокоєнням, турботою, любов'ю, співчуттям», — сказав Ахмед. «Жодна людина, про яку я можу подумати, не відповіла б: "Ось дієта на 500 калорій на день. Давай, мала"».