Компанія OpenAI попереджає: групи, пов'язані з Китаєм, дедалі частіше використовують ChatGPT для зловмисних дій, зокрема для публікації дезінформації в соцмережах, політичних маніпуляцій, розроблення шкідливого ПЗ і злому паролів. У звіті компанія повідомила, що такі тактики стають більш витонченими, але їхній масштаб поки що відносно невеликий.
За останні три місяці OpenAI припинила 10 таємних операцій, заблокувавши відповідні акаунти. Чотири з них, імовірно, пов'язані з Китаєм.
З моменту запуску ChatGPT наприкінці 2022 року зростають побоювання, що штучний інтелект може створювати переконливі тексти, зображення та аудіо.
OpenAI повідомила, що її інструменти використовували для створення шкідливого ПЗ і поширення дезінформації через фальшиві дописи в соцмережах. Компанія заблокувала акаунти, пов'язані з Китаєм, через які критикували торгівельну політику США і намагалися посіяти розбрат.
В одній із кампаній, яку назвали Sneer Review, ChatGPT використовували для створення фальшивих діалогів, що імітували реальні обговорення, на таких платформах як X і Фейсбук.
OpenAI також виявила спроби вплинути на політику США за допомогою фальшивих профілів, створених з використанням ШІ.
Деякі групи застосовували ШІ для збирання загальнодоступних даних, розроблення нових інструментів і злому паролів. Більшість таких спроб було виявлено на ранній стадії, вони не досягли широкої аудиторії.