Ученые считают, что ИИ не должен быть слишком умным и предлагают контролировать нейросети с помощью чипов. Группа исследователей из OpenAI, Стэнфордского и Джорджтаунского университетов считают, что большие языковые модели, вроде ChatGPT, могут использоваться для дезинформации в соцсетях и не только.
Согласно отчету ученых, генеративные языковые модели сегодня доступны всем и каждому, а потому они опасаются, что такие инструменты, если окажутся в руках пропагандистов, рискуют стать инструментом для операций влияния в будущем, пишет vice.com.
Согласно мнению ученых, пропагандисты смогут прибегнуть к более дешевым и эффективным тактикам, благодаря ИИ-инструментам. Больше не нужно будет оплачивать работу армии троллей, ведь при помощи нейросетей можно будет генерировать убедительные тексты в больших количествах, рассылать их по соцсетям, продвигать через СМИ в Интернете.
Читать на focus.ua