Нейросети стереотипщики: ИИ повторяет человеческие когнитивные ошибки
Исследование вскрыло парадокс искусственного интеллекта: модели мыслят как люди — и ошибаются так же
Исследователи Пермского Политеха доказали, что языковые модели, как и люди, подвержены когнитивным искажениям, что может привести к ошибочным решениям в критически важных областях.
Министерство науки и высшего образования Российской Федерации и Пермский национальный исследовательский политехнический университет (ПНИПУ) представили результаты исследования, опубликованного в журнале «Технологос». Ученые доказали, что современные нейросети, несмотря на свою вычислительную мощь, демонстрируют склонность к когнитивным искажениям, подобно человеку. Это означает, что ИИ может выбирать «правдоподобное» вместо «вероятного», аргументируя ошибочный ответ и создавая иллюзию рациональности.
В эксперименте, адаптированном по методике нобелевского лауреата Даниэля Канемана, участникам (как обычным людям, так и студентам, изучающим статистику) и четырем популярным чат-ботам – ChatGPT, YaGPT, GigaChat и DeepSeek – был предложен сценарий:
Петр застенчив, нелюдим, всегда готов помочь, мало интересуется окружающими и действительностью, тихий, аккуратный, любит порядок и систематичность, очень внимателен к деталям. Какая профессия подходит ему больше: библиотекаря или охранника?
Результаты оказались поразительными. Большинство опрошенных людей, не имеющих статистической подготовки, интуитивно выбрали профессию библиотекаря. Это отражает распространенное стереотипное мышление, когда набор описанных качеств ассоциируется с более «тихой» и «спокойной» работой. Студенты же, обладающие статистическими знаниями, чаще называли охранника, опираясь на реальную гендерную статистику профессий.
Однако все четыре протестированных языковых модели выбрали профессию библиотекаря. Более того, они не просто дали ответ, но и убедительно его аргументировали, перечисляя черты характера, подходящие для работы с книгами, и подчеркивая важность порядка. Это демонстрирует, что нейросети, обученные на огромных массивах данных, проигнорировали очевидную статистику реального мира (где мужчин-охранников значительно больше, чем мужчин-библиотекарей) в пользу «правдоподобного» сценария, основанного на стереотипных ассоциациях.
Чтобы избежать дискриминации по половому, расовому или возрастному признаку, разработчики стараются обучать нейросети на сбалансированных данных — например, с равным количеством записей о мужчинах и женщинах. Это требование закреплено в этических кодексах разработки ИИ. Однако такое выравнивание само по себе создает искажения, поскольку статистически значимые признаки (например, реальное преобладание мужчин в определенных профессиях) намеренно искажаются ради соблюдения формального требования. Попытки устранить дискриминацию таким способом не решают проблему, а лишь меняют форму искажения, — объясняет Александр Алексеев, доктор технических наук, кандидат экономических наук, доцент, начальник управления организации научных исследований ПНИПУ.
Исследователи подчеркивают, что проблема когнитивных искажений в ИИ носит не чисто технический, а антропологический характер. Процесс принятия решений в глубоких нейросетях остается «черным ящиком», и даже при попытках исправить ошибки, их причина остается неясной.
Ученые предлагают междисциплинарный подход к решению проблемы, привлекая к работе не только инженеров, но и философов, социологов, психологов и правоведов. Ключевыми аспектами названы:
- Прозрачность и верификация: Разработка систем, позволяющих аудировать и проверять решения ИИ, даже если внутренний механизм остается непрозрачным.
- Человеческий контроль: Обязательное присутствие человека в критически важных сферах принятия решений.
- Обучение пользователей: Формирование критического мышления у тех, кто пользуется ИИ, поскольку слепое доверие к сгенерированному контенту обесценивает любые технические решения.



























