Системы искусственного интеллекта на основе больших языковых моделей (LLM) становятся все более доступными способами получения ответов и советов, несмотря на некоторые расовые и гендерные предубеждения.Новое исследование обнаружило убедительные доказательства того, что теперь к этому списку можно добавить и политическую предвзятость, что еще больше демонстрирует потенциал новой технологии невольно влиять на политические взгляды общества.Исследование, проведенное компьютерным ученым Дэвидом Розадо из Политехнического института Отаго в Новой Зеландии, поднимает вопросы о том, как на нас могут влиять ИИ чат-боты, на которых мы полагаемся в получении различной информации.Розадо проверил 11 стандартных политических опросников, таких как тест Политический компас, на 24 различных LLM, включая ChatGPT от OpenAI и чат-бот Gemini, разработанного Google, и обнаружил, что средняя политическая позиция всех моделей не была близка к нейтральной.Исследователь отмечает, что большинство существующих LLM демонстрируют левоцентристские политические предпочтения, когда их оценивают с помощью различных тестов на политические взгляды.Средний левый уклон не был сильным, но он был значительным.
Дальнейшие тесты на пользовательских ботах, где пользователи могут точно настроить обучающие данные LLM, показали, что на данные ИИ можно повлиять, чтобы они выражали политические пристрастия, используя левоцентристские или правоцентристские тексты.Розадо также рассмотрел базовые модели, такие как GPT-3.5, на которых основаны разговорные чат-боты.
Здесь не было обнаружено никаких признаков политической предвзятости, хотя без фронтэнда чат-бота было сложно сопоставить ответы в осмысленном виде.«Поскольку LLM начинают частично вытеснять традиционные
Читать на habr.com