ІСТИНА І ТРАДИЦІЇ

Маск приєднався до 1000 експертів, які закликали призупинити розвиток передового ШІ (ВІДЕО)

Велика Епоха
Генеральний директор Tesla Ілон Маск. (Justin Sullivan/Getty Images)

Генеральний директор Twitter Ілон Маск приєднався до десятків експертів у галузі штучного інтелекту (ШІ) і керівників галузі, підписавши відкритого листа, який закликає всі лабораторії ШІ "негайно призупинити" навчання систем, потужніших за Chat GPT-4, щонайменше на шість місяців.

Лист, випущений некомерційним інститутом Future of Life Institute, підписали понад 1100 осіб, зокрема співзасновник Apple Стів Возняк, засновник і генеральний директор Stability AI Емад Мостак, інженери з Meta і Google та інші.

Вони стверджують, що системи ШІ з інтелектом, який можна порівняти з людським, можуть становити "глибоку небезпеку для суспільства і людства" і змінити "історію життя на Землі", посилаючись на великі дослідження з цього питання і визнання "провідних лабораторій ШІ".

Далі експерти стверджують, що наразі існує обмежене планування та управління щодо просунутих систем ШІ, попри те, що останніми місяцями компанії "втягнулися в неконтрольовані перегони з розроблення та впровадження дедалі потужніших цифрових розумів, яких ніхто (навіть їхні творці) не може зрозуміти, передбачити або надійно контролювати".

"Сучасні системи штучного інтелекту зараз стають конкурентоспроможними щодо людини при виконанні загальних завдань, і ми повинні запитати себе: Чи повинні ми дозволити машинам заполонити наші інформаційні канали пропагандою і неправдою? Чи повинні ми автоматизувати всі робочі місця, включно з тими, які приносять задоволення? Чи повинні ми розвивати нелюдські розуми, які в кінцевому підсумку перевершать, перехитрять, витіснять і замінять нас? Чи повинні ми ризикувати втратою контролю над нашою цивілізацією? Такі рішення не повинні бути передані невиборним технологічним лідерам", — йдеться в листі.

Далі в листі міститься заклик до публічної і перевіреної мінімальної шестимісячної паузи в навчанні систем ШІ, потужніших за GPT-4, або до урядового мораторію на таке навчання, якщо паузу не можна запровадити швидко.

Під час такої паузи лабораторії ШІ та незалежні експерти мають використати цей час для створення та впровадження набору загальних протоколів безпеки для проєктування та розробки передових ШІ, які "суворо перевіряються" і контролюються незалежними сторонніми експертами, йдеться в листі.

За словами експертів, такі протоколи мають бути розроблені таким чином, щоб системи, які їх дотримуються, були безпечними поза всякими розумними сумнівами, точними, такими, що заслуговують на довіру, і узгодженими.

"Це не означає паузу в розвитку ШІ загалом, а лише відступ від небезпечних перегонів до дедалі більших непередбачуваних моделей "чорної скриньки" з емерджентними можливостями", — зазначають експерти у своєму листі.

Лист з'явився всього через два тижні після того, як компанія OpenAI, творець системи штучного інтелекту ChatGPT, 14 березня випустила довгоочікуване оновлення своєї технології ШІ — Chat GPT-4, найпотужнішу систему ШІ в історії.