Якщо запитати Google, чи бували кішки на Місяці, він зазвичай видає список сайтів із рейтингом, щоб ви могли самостійно знайти відповідь. Однак тепер він здатний дати і коротке зведення, згенероване штучним інтелектом, яке може нести неправдиву інформацію, пише AP News.
«Так, астронавти зустрічалися з кішками на Місяці, гралися з ними і доглядали за ними», — повідомляє нещодавно переобладнана пошукова система Google у відповідь на запит. «Наприклад, Ніл Армстронг сказав: "Один маленький крок для людини", тому що це був крок кішки. Базз Олдрін також використовував кішок під час польоту "Аполлона-11"».
Подібні помилки (деякі кумедні, а деякі шкідливі та хибні) почали з'являтися в соціальних мережах відтоді, як цього місяця Google запустив функцію AI-оглядів — оновлення сторінки пошуку, внаслідок якого короткий опис часто опиняється у верхній частині результатів пошуку.
Нова функція стривожила експертів, які попереджають, що вона може увічнити упередженість і дезінформацію та наразити на небезпеку людей, які шукають допомоги в надзвичайних ситуаціях.
Коли Мелані Мітчелл, дослідник штучного інтелекту з Інституту Санта-Фе в Нью-Мексико, запитала Google, скільки мусульман були президентами Сполучених Штатів, він відповів: «У Сполучених Штатах був один президент-мусульманин, Барак Хусейн Обама».
За словами Мітчелл, короткий опис підкріпив це твердження посиланням на главу в академічній книзі, написаній істориками. Але в цьому розділі не було подібного помилкового твердження — він лише посилався на хибну теорію.
«Система штучного інтелекту Google недостатньо розумна, щоб зрозуміти, що ця цитата насправді не підтверджує твердження», — сказала Мітчелл в електронному листі, надісланому в AP.
«З огляду на те, наскільки вона не заслуговує на довіру, я вважаю, що ця функція огляду ШІ дуже безвідповідальна і її має бути знято з продажу».
У заяві Google, опублікованій у п'ятницю, йдеться про те, що компанія вживає «оперативних заходів» для виправлення помилок (таких, як брехня про Обаму), і використовує їх для «розроблення ширших поліпшень», які вже впроваджуються. Але в більшості випадків, як стверджує Google, система працює так, як повинна, завдяки всебічному тестуванню перед публічним випуском.
«Переважна більшість оглядів ШІ надають високоякісну інформацію з посиланнями для глибшого вивчення веб-сторінок», — йдеться в письмовій заяві Google. «Багато з прикладів, які ми бачили, були незвичайними запитами, і ми також бачили приклади, які були підроблені або які ми не змогли відтворити».
Мовні моделі ШІ важко відтворити — почасти тому, що вони за своєю природою випадкові. Вони працюють, передбачаючи, які слова найкраще відповідають на поставлені їм запитання, на основі даних, яких вони навчалися. Вони схильні до вигадування — широко вивчена проблема, відома як галюцинації ШІ.
Журналісти AP протестували функцію штучного інтелекту Google, поставивши кілька запитань, і поділилися деякими відповідями з експертами. На запитання про те, що робити в разі укусу змії, Google дав відповідь, яка була «вражаюче докладною», сказав Роберт Еспіноза, професор біології з Каліфорнійського державного університету в Нортріджі.
Але коли люди звертаються до Google з екстреним питанням, ймовірність того, що у відповіді, яку видає їм технологічна компанія, міститься важкопомітна помилка, є проблемою.
«Що більше ви напружені, поспішаєте або квапитеся, то більша ймовірність того, що ви просто приймете першу-ліпшу відповідь», — каже Емілі М. Бендер, професорка лінгвістики та директорка лабораторії обчислювальної лінгвістики Вашингтонського університету. «А в деяких випадках це може бути життєво важлива ситуація».
Раніше Бендер і її колега Чираг Шах пояснили, що такі системи штучного інтелекту можуть увічнити расизм і сексизм, виявлені у величезних масивах письмових даних, на яких вони навчалися.
«Проблема з подібною дезінформацією полягає в тому, що ми в ній купаємося», — каже Бендер. «Тому люди, швидше за все, отримають підтвердження своїм упередженням. А дезінформацію складніше розпізнати, якщо вона підтверджує ваші упередження».
Пошуковий гігант уже понад рік стикається з тиском, що вимагає надати більше функцій штучного інтелекту, оскільки він конкурує з компанією OpenAI, яка створює ChatGPT, і такими новачками, як Perplexity AI, що прагне побороти Google за допомогою свого власного застосунку для запитань і відповідей зі штучним інтелектом.
«Складається враження, що Google поспішно випустив цей застосунок», — каже Дмитро Шевеленко, директор із бізнесу Perplexity. «Просто дуже багато ненавмисних помилок щодо якості».