Россия Китай США Украина искусственный интеллект пропаганда нейросеть ИИ пропагандисты Россия Китай США Украина
/ focus.ua

Россия и Китай могут развивать ИИ для распространения пропаганды: как этому помешать

Ученые считают, что ИИ не должен быть слишком умным и предлагают контролировать нейросети с помощью чипов. Группа исследователей из OpenAI, Стэнфордского и Джорджтаунского университетов считают, что большие языковые модели, вроде ChatGPT, могут использоваться для дезинформации в соцсетях и не только.

Согласно отчету ученых, генеративные языковые модели сегодня доступны всем и каждому, а потому они опасаются, что такие инструменты, если окажутся в руках пропагандистов, рискуют стать инструментом для операций влияния в будущем, пишет vice.com.

Согласно мнению ученых, пропагандисты смогут прибегнуть к более дешевым и эффективным тактикам, благодаря ИИ-инструментам. Больше не нужно будет оплачивать работу армии троллей, ведь при помощи нейросетей можно будет генерировать убедительные тексты в больших количествах, рассылать их по соцсетям, продвигать через СМИ в Интернете.

Читать на focus.ua
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA