ІСТИНА І ТРАДИЦІЇ

Илон Маск и эксперты говорят, что развитие ИИ следует приостановить

Великая Эпоха
Генеральный директор Tesla Илон Маск. (Justin Sullivan/Getty Images)

Генеральный директор Twitter Илон Маск присоединился к десяткам экспертов в области искусственного интеллекта (ИИ) и руководителей отрасли, подписав открытое письмо, призывающее все лаборатории ИИ "немедленно приостановить" обучение систем мощнее Chat GPT-4 как минимум на шесть месяцев.

Письмо, выпущенное некоммерческим институтом Future of Life Institute, подписали более 1100 человек, в том числе соучредитель Apple Стив Возняк, основатель и генеральный директор Stability AI Эмад Мостак, инженеры из Meta и Google и другие.

Они утверждают, что системы ИИ с интеллектом, сравнимым с человеческим, могут представлять "глубокую опасность для общества и человечества" и изменить "историю жизни на Земле", ссылаясь на обширные исследования по этому вопросу и признания "ведущих лабораторий ИИ".

Далее эксперты утверждают, что в настоящее время существует ограниченное планирование и управление в отношении продвинутых систем ИИ, несмотря на то, что в последние месяцы компании "втянулись в неконтролируемую гонку по разработке и внедрению все более мощных цифровых разумов, которые никто (даже их создатели) не может понять, предсказать или надежно контролировать".

"Современные системы искусственного интеллекта сейчас становятся конкурентоспособными по отношению к человеку при выполнении общих задач, и мы должны спросить себя: Должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая те, которые приносят удовлетворение? Должны ли мы развивать нечеловеческие разумы, которые в конечном итоге превзойдут, перехитрят, вытеснят и заменят нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны быть переданы неизбираемым технологическим лидерам", — говорится в письме.

Далее в письме содержится призыв к публичной и проверяемой минимальной шестимесячной паузе в обучении систем ИИ, более мощных, чем GPT-4, или к правительственному мораторию на такое обучение, если пауза не может быть введена быстро.

Во время такой паузы лаборатории ИИ и независимые эксперты должны использовать это время для создания и внедрения набора общих протоколов безопасности для проектирования и разработки передовых ИИ, которые "строго проверяются" и контролируются независимыми сторонними экспертами, говорится в письме.

По словам экспертов, такие протоколы должны быть разработаны таким образом, чтобы системы, придерживающиеся их, были безопасными вне всяких разумных сомнений, точными, заслуживающими доверия и согласованными.

"Это не означает паузу в развитии ИИ в целом, а лишь отступление от опасной гонки к все более крупным непредсказуемым моделям "черного ящика" с эмерджентными возможностями", — отмечают эксперты в своем письме.

Письмо появилось всего через две недели после того, как компания OpenAI, создатель системы искусственного интеллекта ChatGPT, 14 марта выпустила долгожданное обновление своей технологии ИИ - Chat GPT-4, самую мощную систему ИИ в истории.