ChatGPT – полезный ИИ-помощник или скрытый политический манипулятор?

Недавнее исследование от Университета Восточной Англии (UEA) выявилозначительный системный левый политический уклон в ответах искусственного интеллекта ” data-html=”true” data-original-title=”ChatGPT” >ChatGPT. По данным исследования, платформа склонна поддерживать Демократическую партию США, Лейбористскую партию Великобритании и президента Бразилии Лулу да Силву.

Команда исследователей из Великобритании и Бразилии применили новый метод для оценки политического уклона нейронной модели. Этот метод включал в себя своеобразное анкетирование ChatGPT по более чем 60 идеологическим вопросам, в ходе которого исследователи презентовали себя различными политическими организациями и персонами.

Важность данного исследования подчёркивается стремительным ростом использования ИИ-платформ для поиска информации и создания нового контента. “Наличие политического уклона может влиять на взгляды пользователей и иметь потенциальные последствия для политических и избирательных процессов”, – заявил ведущий автор исследования, доктор Фабио Мотоки.

Для повышения надёжности выводов каждый вопрос задавался ни много ни мало – 100 раз. Затем полученные ответы обрабатывались методом “bootstrap”, применяемым для повторной выборки исходных данных. “Из-за случайности модели даже при имитации Демократа ответы ChatGPT иногда склонялись к правой тональности”, – отметил соавтор исследования Виктор Родригес.

Авторы также провели ряд дополнительных тестов для подтверждения методологии. Они задали ChatGPT вопросы, имитируя радикальные политические позиции, а также профессиональные ориентации.

“Надеемся, что наш метод будет способствовать регулированию этих быстро развивающихся технологий”, – подчеркнул доктор Валдемар Пинью Нето. Инструмент анализа, разработанный в рамках проекта, будет бесплатно доступен общественности, что, по мнению доктора Мотоки, “демократизирует надзор”.

Исследование не выявило причин левого политического уклона модели, но указало на два возможных источника: тренировочный набор данных и сам алгоритм. Оба могут содержать определённые предвзятости или усиливать уже существующие.

Исследование было проведено весной 2023 года на версии языковой модели GPT3.5, а опубликовано17 августа. Оно в очередной раз напоминает о важности критического подхода к использованию новых технологий искусственного интеллекта. Хотя ChatGPT и представляет собой впечатляющий технический прорыв, эта платформа, как и любая другая, не лишена недостатков.

Выявленный политический уклон подчёркивает необходимость более глубокого понимания особенностей работы ИИ, особенно при использовании для создания информационного контента.

В то же время предложенная исследователями методология анализа предвзятостей является ценным инструментом для улучшения прозрачности и подотчётности подобных систем.

Разумное и этичное применение ИИ требует постоянных усилий по выявлению и устранению потенциальных искажений. Только так получится извлечь максимальную пользу из этих технологий без вреда для общества.

Public Release.