TrustAI (СОЦИАЛЬНО-ПСИХОЛОГИЧЕСКИЕ И КОГНИТИВНЫЕ ФАКТОРЫ ДОВЕРИЯ К ИИ-СОЦИАЛЬНЫМ АГЕНТАМ И ИИ-ГЕНЕРИРУЕМОЙ ИНФОРМАЦИИ В ОБЛАСТИ ДОВЕРИЯ)
Руководитель проекта: Ядвига Синявская
Общее описание
На фоне стремительного внедрения ИИ-технологий в повседневную жизнь всё больше людей обращаются к ИИ-агентам за советами в чувствительных сферах — от физического и психического здоровья до принятия решений, влияющих на качество жизни. Однако механизмы формирования доверия к такой информации остаются недостаточно изученными, особенно в русскоязычном контексте и в условиях текстовой коммуникации.
Проект TrustAI направлен на выявление социально-психологических и когнитивных процессов, через которые пользователи конструируют доверие не к достоверности информации как таковой, а к самому ИИ-агенту как источнику. Эмпирические данные свидетельствуют, что доверие может формироваться независимо от фактической точности рекомендаций: пользователи склонны принимать недостоверную информацию от «надёжно воспринимаемого» агента и отвергать корректные сведения при отсутствии доверия к источнику. Таким образом, доверие рассматривается как самостоятельная психологическая конструкция, предшествующая и модулирующая оценку содержания.
Цель проекта: выявить социально-психологические и когнитивные детерминанты доверия к ИИ-агентам в медицинском контексте.
Задачи проекта:
Теоретико-аналитический — систематический обзор литературы и анализ применимости существующих шкал (Human–Computer Trust Scale, Anthropomorphism Scale и др.).
Эмпирический — серия полуструктурированных интервью (N ≈ 30–35) с пользователями ИИ-чатов, включая think-aloud сессии при взаимодействии с агентом. Анализ данных — тематический и нарративный, в рамках grounded theory.
Научная и прикладная значимость
Проект вносит вклад в развитие междисциплинарного поля human–AI interaction, стремясь объединить существующие модели доверия в единую.
Результаты лягут в основу нового психометрического инструмента и позволят сформулировать рекомендации по проектированию ИИ-интерфейсов и повышению цифровой грамотности в сфере здравоохранения. Планируется публикация в рецензируемых журналах по социальной психологии и человеко-машинному взаимодействию.
Новости проекта:
Общее описание
На фоне стремительного внедрения ИИ-технологий в повседневную жизнь всё больше людей обращаются к ИИ-агентам за советами в чувствительных сферах — от физического и психического здоровья до принятия решений, влияющих на качество жизни. Однако механизмы формирования доверия к такой информации остаются недостаточно изученными, особенно в русскоязычном контексте и в условиях текстовой коммуникации.Проект TrustAI направлен на выявление социально-психологических и когнитивных процессов, через которые пользователи конструируют доверие не к достоверности информации как таковой, а к самому ИИ-агенту как источнику. Эмпирические данные свидетельствуют, что доверие может формироваться независимо от фактической точности рекомендаций: пользователи склонны принимать недостоверную информацию от «надёжно воспринимаемого» агента и отвергать корректные сведения при отсутствии доверия к источнику. Таким образом, доверие рассматривается как самостоятельная психологическая конструкция, предшествующая и модулирующая оценку содержания.
Цель проекта: выявить социально-психологические и когнитивные детерминанты доверия к ИИ-агентам в медицинском контексте.
Задачи проекта:
- Проанализировать существующие теории и шкалы доверия к технологиям;
- Выявить ключевые воспринимаемые характеристики ИИ, релевантные для доверия;
- Провести качественное исследование (полуструктурированные интервью и think-aloud протоколы);
- Заложить основы для разработки оригинального опросника доверия к ИИ.
Теоретико-аналитический — систематический обзор литературы и анализ применимости существующих шкал (Human–Computer Trust Scale, Anthropomorphism Scale и др.).
Эмпирический — серия полуструктурированных интервью (N ≈ 30–35) с пользователями ИИ-чатов, включая think-aloud сессии при взаимодействии с агентом. Анализ данных — тематический и нарративный, в рамках grounded theory.
Научная и прикладная значимость
Проект вносит вклад в развитие междисциплинарного поля human–AI interaction, стремясь объединить существующие модели доверия в единую.
Результаты лягут в основу нового психометрического инструмента и позволят сформулировать рекомендации по проектированию ИИ-интерфейсов и повышению цифровой грамотности в сфере здравоохранения. Планируется публикация в рецензируемых журналах по социальной психологии и человеко-машинному взаимодействию.
Новости проекта:
- Теоретическая статья-обзор моделей доверия к ИИ-агентам принята к выступлению и публикации в рамках 28 международной конференции Human-Computer Interaction (HCI International 2026, 26-31 июля 2026)
- Начала работу студенческая команда проекта
Нашли опечатку?
Выделите её, нажмите Ctrl+Enter и отправьте нам уведомление. Спасибо за участие!
Сервис предназначен только для отправки сообщений об орфографических и пунктуационных ошибках.