ІСТИНА І ТРАДИЦІЇ

«Коти на Місяці»: ШІ Google видає неправдиві відповіді, що викликало занепокоєння експертів

Велика Епоха
(istockphoto)

Якщо запитати Google, чи бували кішки на Місяці, він зазвичай видає список сайтів із рейтингом, щоб ви могли самостійно знайти відповідь. Однак тепер він здатний дати і коротке зведення, згенероване штучним інтелектом, яке може нести неправдиву інформацію, пише AP News.

«Так, астронавти зустрічалися з кішками на Місяці, гралися з ними і доглядали за ними», — повідомляє нещодавно переобладнана пошукова система Google у відповідь на запит. «Наприклад, Ніл Армстронг сказав: "Один маленький крок для людини", тому що це був крок кішки. Базз Олдрін також використовував кішок під час польоту "Аполлона-11"».

Подібні помилки (деякі кумедні, а деякі шкідливі та хибні) почали з'являтися в соціальних мережах відтоді, як цього місяця Google запустив функцію AI-оглядів — оновлення сторінки пошуку, внаслідок якого короткий опис часто опиняється у верхній частині результатів пошуку.

Нова функція стривожила експертів, які попереджають, що вона може увічнити упередженість і дезінформацію та наразити на небезпеку людей, які шукають допомоги в надзвичайних ситуаціях.

Коли Мелані Мітчелл, дослідник штучного інтелекту з Інституту Санта-Фе в Нью-Мексико, запитала Google, скільки мусульман були президентами Сполучених Штатів, він відповів: «У Сполучених Штатах був один президент-мусульманин, Барак Хусейн Обама».

За словами Мітчелл, короткий опис підкріпив це твердження посиланням на главу в академічній книзі, написаній істориками. Але в цьому розділі не було подібного помилкового твердження — він лише посилався на хибну теорію.

«Система штучного інтелекту Google недостатньо розумна, щоб зрозуміти, що ця цитата насправді не підтверджує твердження», — сказала Мітчелл в електронному листі, надісланому в AP.

«З огляду на те, наскільки вона не заслуговує на довіру, я вважаю, що ця функція огляду ШІ дуже безвідповідальна і її має бути знято з продажу».

У заяві Google, опублікованій у п'ятницю, йдеться про те, що компанія вживає «оперативних заходів» для виправлення помилок (таких, як брехня про Обаму), і використовує їх для «розроблення ширших поліпшень», які вже впроваджуються. Але в більшості випадків, як стверджує Google, система працює так, як повинна, завдяки всебічному тестуванню перед публічним випуском.

«Переважна більшість оглядів ШІ надають високоякісну інформацію з посиланнями для глибшого вивчення веб-сторінок», — йдеться в письмовій заяві Google. «Багато з прикладів, які ми бачили, були незвичайними запитами, і ми також бачили приклади, які були підроблені або які ми не змогли відтворити».

Мовні моделі ШІ важко відтворити — почасти тому, що вони за своєю природою випадкові. Вони працюють, передбачаючи, які слова найкраще відповідають на поставлені їм запитання, на основі даних, яких вони навчалися. Вони схильні до вигадування — широко вивчена проблема, відома як галюцинації ШІ.

Журналісти AP протестували функцію штучного інтелекту Google, поставивши кілька запитань, і поділилися деякими відповідями з експертами. На запитання про те, що робити в разі укусу змії, Google дав відповідь, яка була «вражаюче докладною», сказав Роберт Еспіноза, професор біології з Каліфорнійського державного університету в Нортріджі.

Але коли люди звертаються до Google з екстреним питанням, ймовірність того, що у відповіді, яку видає їм технологічна компанія, міститься важкопомітна помилка, є проблемою.

«Що більше ви напружені, поспішаєте або квапитеся, то більша ймовірність того, що ви просто приймете першу-ліпшу відповідь», — каже Емілі М. Бендер, професорка лінгвістики та директорка лабораторії обчислювальної лінгвістики Вашингтонського університету. «А в деяких випадках це може бути життєво важлива ситуація».

Раніше Бендер і її колега Чираг Шах пояснили, що такі системи штучного інтелекту можуть увічнити расизм і сексизм, виявлені у величезних масивах письмових даних, на яких вони навчалися.

«Проблема з подібною дезінформацією полягає в тому, що ми в ній купаємося», — каже Бендер. «Тому люди, швидше за все, отримають підтвердження своїм упередженням. А дезінформацію складніше розпізнати, якщо вона підтверджує ваші упередження».

Пошуковий гігант уже понад рік стикається з тиском, що вимагає надати більше функцій штучного інтелекту, оскільки він конкурує з компанією OpenAI, яка створює ChatGPT, і такими новачками, як Perplexity AI, що прагне побороти Google за допомогою свого власного застосунку для запитань і відповідей зі штучним інтелектом.

«Складається враження, що Google поспішно випустив цей застосунок», — каже Дмитро Шевеленко, директор із бізнесу Perplexity. «Просто дуже багато ненавмисних помилок щодо якості».