• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

TrustAI (СОЦИАЛЬНО-ПСИХОЛОГИЧЕСКИЕ И КОГНИТИВНЫЕ ФАКТОРЫ ДОВЕРИЯ К ИИ-СОЦИАЛЬНЫМ АГЕНТАМ И ИИ-ГЕНЕРИРУЕМОЙ ИНФОРМАЦИИ В ОБЛАСТИ ДОВЕРИЯ)

Руководитель проекта: Ядвига Синявская

Общее описание

На фоне стремительного внедрения ИИ-технологий в повседневную жизнь всё больше людей обращаются к ИИ-агентам за советами в чувствительных сферах — от физического и психического здоровья до принятия решений, влияющих на качество жизни. Однако механизмы формирования доверия к такой информации остаются недостаточно изученными, особенно в русскоязычном контексте и в условиях текстовой коммуникации.

Проект TrustAI направлен на выявление социально-психологических и когнитивных процессов, через которые пользователи конструируют доверие не к достоверности информации как таковой, а к самому ИИ-агенту как источнику. Эмпирические данные свидетельствуют, что доверие может формироваться независимо от фактической точности рекомендаций: пользователи склонны принимать недостоверную информацию от «надёжно воспринимаемого» агента и отвергать корректные сведения при отсутствии доверия к источнику. Таким образом, доверие рассматривается как самостоятельная психологическая конструкция, предшествующая и модулирующая оценку содержания.

Цель проекта: выявить социально-психологические и когнитивные детерминанты доверия к ИИ-агентам в медицинском контексте. 

Задачи проекта:

  • Проанализировать существующие теории и шкалы доверия к технологиям;
  • Выявить ключевые воспринимаемые характеристики ИИ, релевантные для доверия;
  • Провести качественное исследование (полуструктурированные интервью и think-aloud протоколы);
  • Заложить основы для разработки оригинального опросника доверия к ИИ.
Проект реализуется в два этапа:
Теоретико-аналитический — систематический обзор литературы и анализ применимости существующих шкал (Human–Computer Trust Scale, Anthropomorphism Scale и др.).
Эмпирический — серия полуструктурированных интервью (N ≈ 30–35) с пользователями ИИ-чатов, включая think-aloud сессии при взаимодействии с агентом. Анализ данных — тематический и нарративный, в рамках grounded theory.

Научная и прикладная значимость
Проект вносит вклад в развитие междисциплинарного поля human–AI interaction, стремясь объединить существующие модели доверия в единую.
Результаты лягут в основу нового психометрического инструмента и позволят сформулировать рекомендации по проектированию ИИ-интерфейсов и повышению цифровой грамотности в сфере здравоохранения. Планируется публикация в рецензируемых журналах по социальной психологии и человеко-машинному взаимодействию.

Новости проекта:

  • Теоретическая статья-обзор моделей доверия к ИИ-агентам принята к выступлению и публикации в рамках 28 международной конференции Human-Computer Interaction (HCI International 2026, 26-31 июля 2026)
  • Начала работу студенческая команда проекта

 

Нашли опечатку?
Выделите её, нажмите Ctrl+Enter и отправьте нам уведомление. Спасибо за участие!
Сервис предназначен только для отправки сообщений об орфографических и пунктуационных ошибках.