Искусственный интеллект в психическом здоровье
Искусственный интеллект в психическом здоровье — область, охватывающая применение искусственного интеллекта (ИИ), вычислительных технологий и алгоритмов для поддержки понимания, диагностики и лечения психических расстройств[1]. В контексте психического здоровья ИИ рассматривается как часть цифрового здравоохранения, с целью повышения доступности и точности оказания помощи и реагирования на растущее распространение психических заболеваний. К приложениям ИИ в данной сфере относят идентификацию и диагностику психических расстройств, анализ электронных медицинских записей, разработку персонализированных планов лечения и аналитику для предотвращения самоубийств[2]. Также ведутся исследования и развивается коммерческое предложение ИИ-терапевтов (англ. AI Therapist), способных проводить разговорную психотерапию, например, когнитивно-поведенческую терапию. Несмотря на значительный потенциал, внедрение ИИ в психическое здоровье сталкивается с рядом сложностей и этических проблем, а его распространение остаётся ограниченным из-за необходимости устранения существующих барьеров[3]. Среди главных опасений — вопросы приватности данных и разнообразия обучающих выборок.
Внедрение ИИ в сферу психического здоровья может способствовать преодолению стигмы и осмыслению тяжести психических проблем в мировом масштабе. При этом уровень развития ИИ-подходов пока не позволяет полностью закрыть потребности в решении глобальных задач в области психического здоровья.
Историческая справка
В 2019 году каждый восьмой человек в мире (970 миллионов человек) жил с психическим расстройством, наиболее распространёнными из которых были тревожные и депрессивные расстройства[4]. В 2020 году количество людей с тревожными и депрессивными расстройствами резко выросло из-за пандемии COVID-19[5]. Проблемы психического здоровья и зависимостей проявляются среди мужчин и женщин примерно одинаково, что подчёркивает масштаб распространённости[6].
Использование ИИ в психическом здоровье нацелено на поддержку эффективных и устойчивых решений для борьбы с глобальным бременем психических расстройств. Среди общих проблем отрасли — недостаток специалистов, затрудненная диагностика и неэффективные методы лечения. Ожидается существенный рост рынка ИИ-приложений в психиатрии: согласно прогнозам, объём рынка возрастёт с 0,92 млрд долларов в 2023 году до 14,89 млрд долларов к 2033 году. Это отражает интерес к возможностям ИИ в решении ключевых задач здравоохранения благодаря инновационным подходам[7].
ИИ-методы в психическом здоровье
Используются различные технологии ИИ, в том числе машинное обучение, обработка естественного языка, глубокое обучение, компьютерное зрение, большие языковые модели (LLM) и генеративный ИИ. Они позволяют раннее выявление психических состояний, персонализированные рекомендации по лечению и мониторинг состояния пациента в реальном времени.
Машинное обучение — это ИИ-подход, при котором компьютер выявляет закономерности в больших массивах данных и делает на их основе прогнозы. В отличие от традиционных медицинских исследований, в которых выдвигается гипотеза, модели машинного обучения анализируют существующие данные для поиска скрытых корреляций и построения предсказательных алгоритмов. В психиатрии развитие машинного обучения ограничено объёмом и качеством данных: многие диагнозы основываются на субъективных оценках, интервью и наблюдении, а структуризация данных затруднена[7]. Для преодоления этого используются методы трансферного обучения — адаптация моделей из других областей[8].
Глубокое обучение, разновидность машинного обучения, основано на нейронных сетях с большим числом слоёв, способных выявлять сложные паттерны, схожим образом с человеческим мозгом. Особенно эффективно при работе с речью, изображениями и физиологическими данными[9]. Такие методы используются для анализа нейровизуализации при выявлении нарушений, ассоциированных с шизофренией, депрессией или ПТСР[10]. Существенным ограничением является необходимость больших, качественных и разнообразных датасетов, доступ к которым часто ограничен из-за требований к сохранению медконфиденциальности. Кроме того, глубокие модели часто являются «чёрными ящиками», что затрудняет интерпретацию их решений врачами и снижает уровень доверия[11].
Обработка естественного языка (англ. Natural Language Processing, ОНЯ) позволяет анализировать речь, текст и интонацию для выявления психических проблем. В психиатрии ОНЯ применяется для работы с записями интервью, симптомами, заметками врачей, выявления настроения, паттернов речи, языковых маркёров тревоги или депрессии. Большинство диагнозов согласно DSM-5 ставится на основе анализа речи и наблюдений за поведением в беседе «врач-пациент». Остаётся актуальной задача обеспечения этических стандартов конфиденциальности и предотвращения языковой предвзятости.
Современные методы ОНЯ включают в себя, например, анализ настроения и речевых паттернов для диагностики тревожных расстройств и депрессии (как реализовано в приложении Woebot), а также оценку интонации голоса (платформа Cogito)[12][13].
Компьютерное зрение анализирует визуальные данные (мимику, жесты, микровыражения лица) для оценки эмоционального состояния. Его используют для выявления признаков депрессии, тревоги и ПТСР по особенностям лицевой экспрессии[14]. Однако эта технология подвержена культурным и расовым предубеждениям[15], возникает много вопросов о достоверности интерпретаций, необходимости получения информированного согласия и защите персональных данных.
С развитием больших языковых моделей (LLM; например, ChatGPT, Gemini) появились приложения для поддержки психического здоровья. LLM могут имитировать человеческое поведение, предлагая помощь людям, которые стесняются обращаться за поддержкой лично. Однако LLM подвержены феномену «галлюцинаций» — генерации потенциально ошибочных медицинских советов, и не могут воспроизвести необходимую степень эмпатии.
Применение
ИИ с помощью ОНЯ и машинного обучения способен дифференцировать сходные психические расстройства, например, различать униполярную и биполярную депрессию по данным сканирований[7] ИИ может выявлять ранее незамеченные/новые типы заболеваний, основанные на вариативности проявлений депрессии и других расстройств.
ИИ применяется для предсказания развития болезни, анализа данных электронной карты пациента, нейровизуализации, генетической и речевой информации с целью моделирования рисков суицидальности, злоупотребления психоактивными веществами и прочих неблагоприятных исходов.[7][16] Важная задача — обеспечить внутреннюю и внешнюю валидацию моделей.
ИИ способен анализировать специфику речи, текстов, мимики и поведения в социальных сетях для обнаружения ранних признаков депрессии, тревожности, ПТСР и даже шизофрении[17].
В психиатрии часто приходится подбирать терапию методом подбора разных препаратов и стратегий. ИИ-системы тестируются для прогнозирования эффективности лечения на основе различных источников данных, что призвано ускорить достижение оптимального результата[7].
Преимущества
Искусственный интеллект в психическом здоровье обладает рядом преимуществ[18][2]:
- Повышение точности диагностики — ИИ-анализ больших данных (мозговые снимки, генетика, поведение) для поиска биомаркёров психических расстройств обеспечивает более своевременную и точную диагностику.
- Персонализация лечения — модели ИИ используют EHR, геномику и нейровизуализацию для выбора оптимальной терапии с учётом индивидуальных особенностей.
- Расширение доступа к помощи — виртуальные платформы на базе ИИ позволяют оказывать психотерапевтические услуги (например, КБТ), включая труднодоступные регионы.
- Раннее выявление и мониторинг — ИИ помогает своевременно выявлять признаки психических нарушений, снижая риск обострений и госпитализаций.
- Чат-боты и виртуальные ассистенты — автоматизация записи, сортировки пациентов, сбора анамнеза повышает эффективность работы медучреждений.
- Аналитика для предотвращения самоубийств — ИИ выявляет группы риска на основании клинических, поведенческих и социальных данных.
Проблемы и ограничения
Несмотря на перспективы, внедрение ИИ в психиатрии сопровождается рядом этических, технических и организационных вызовов[3][2]:
- Информированное согласие и прозрачность — сложность понимания работы ИИ обязывает медицинских работников подробно объяснять пациентам ограничения, возможные риски и источники ошибок.
- Право на объяснение — обязательство предоставлять пациенту доступные и понятные объяснения принятых ИИ решений.
- Защита данных — баланс между полезностью ИИ и необходимостью защиты конфиденциальной информации критичен для доверия пользователей.
- Недостаток разнообразия обучающих данных — ограниченное разнообразие выборок приводит к смещению результатов; алгоритмы хуже справляются с диагностикой у представителей нерепрезентированных групп.
- Скепсис и барьеры внедрения — часть врачей опасается ненадёжности и сложности интеграции ИИ в рабочие процессы[19].
- Персональная ответственность и «правило Тарассофф» — неясно, кто несёт юридическую и этическую ответственность, если ИИ выявляет у пациента опасные тенденции[20].
- Качество и доступность медицинских данных — сложность получения разнообразных, качественных данных снижает точность и применимость ИИ-решений[21].
- Алгоритмическая предвзятость — большинство моделей обучаются на англо- или западноориентированных наборах данных, что увеличивает вероятность ошибок диагностики и лечения среди людей из других культур.
Современные тенденции
По данным на 2020 год, Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) не выдало полноценного разрешения ни одному инструменту на основе ИИ для медицины и психиатрии[22]. В 2022 году FDA одобрило проведение пилотных клинических испытаний ИИ-инструмента оценки психического здоровья — AI-COA. Этот инструмент использует мультимодальную обработку сигналов и машинное обучение для мониторинга симптомов тревоги и депрессии. На 2025 год AI-COA не получил полного регуляторного одобрения[23].
Венчурные инвестиции в цифровое здоровье продолжают основываться в том числе на стартапах по ИИ для психиатрии[24]. По отчёту CB Insights за 2021 год, технологии цифрового психического здоровья собрали $5,5 млрд инвестиций по всему миру (рост на 139 % за год)[25].
В 2022–2024 годах крупные инвестиции получили чатбот Wysa ($20 млн), BlueSkeye (улучшение ранней диагностики, £3,4 млн), Upheal (смарт-блокнот для психотерапевтов, $10 млн), ИИ-компаньон clare&me (€1 млн)[26][27]. Основанный в 2021 году проект Earkick позиционирует себя как ИИ-терапевт[28][29].
Исследования показывают потенциал более «эмоционально интеллектуальных» ИИ-ботов и новых приложений для мониторинга/прогнозирования психических состояний. Разработанный в Vanderbilt University Medical Center алгоритм оценивает риск суицида пациента по данным госпитализации с точностью 80 %[30]. В Университете Флориды тестируют ИИ для диагностики ранней стадии болезни Паркинсона[31]. Ведутся эксперименты по встроенным пояснимым ИИ-системам для подбора лечения детей с шизофренией[32].
ИИ-инструменты анализа социальных сетей тестируются для выявления групп с риском психических расстройств на популяционном уровне[33].
В 2024 году команда Cedars-Sinai внедрила первую систему поддержки психического здоровья, сочетающую виртуальную реальность и генеративный ИИ (XAIA)[34].
ИИ-терапевт Ellie (Университет Южной Калифорнии) анализирует мимику и интонацию пациента через камеру и микрофон[35]. Приложения Woebot, Heartfelt Services симулируют тематерапию на базе ИИ.
Носимый гаджет Oura Ring на базе ИИ анализирует пульс и сон для формирования индивидуальных рекомендаций по поддержанию психического здоровья.
Сравнение эффективности: ИИ и традиционная терапия
Исследования показывают, что ИИ-инструменты для легких и среднетяжёлых случаев тревоги/депрессии (в частности, чатботы, реализующие когнитивно-поведенческую терапию) эффективны на уровне краткосрочных очных консультаций[36]. Мета-анализ 2022 года подтвердил умеренную эффективность цифровых инструментов при высоком уровне вовлеченности пользователей и использовании доказательных методов[37].
Традиционная терапия считается более результативной для сложных или высокорисковых заболеваний, когда требуются эмоциональная гибкость и качество человеческого контакта (ПТСР, тяжёлая депрессия, угрозы суицида). Значимость терапевтического альянса между пациентом и клиницистом согласно клинической литературе может объяснять до 30 % успешного результата[38]. ИИ-решения остаются полезны в качестве инструментов скрининга, мониторинга и поддержки между визитами[39].
Критика и проблемы
Несмотря на перспективы, отмечаются следующие проблемы:
- Ограниченность данных — сложность стандартизации, чувствительность и приватность психиатрических данных затрудняют обучение полноценных ИИ-моделей[40].
- Алгоритмическая предвзятость — склонность унаследовать и усиливать заложенные в данных и системах различия, приводящие к ошибкам при работе с представителями нерепрезентированных групп.
- Конфиденциальность и безопасность — обработка и хранение чувствительных данных требует строгого соблюдения этических и юридических стандартов[41].
- Риски вредных советов — зафиксированы случаи, когда чатботы рекомендовали опасные действия; часть подобных приложений закрыта или проходит пересмотр системы контроля за качеством[42][43].
- Терапевтические отношения — ключевой фактор терапии — уровень доверия и эмпатии, который трудно воспроизвести для ИИ-моделей[44].
- Недостаток эмоционального интеллекта — ИИ-системы не обладают опытом и «эмоциональной памятью», что ограничивает их применение во многих клинических ситуациях.
- Риск психоза — отмечены случаи возникновения иллюзий и психотических эпизодов на фоне «реалистичного» общения с ИИ-чатботами (chatbot psychosis)[45][46].
Этические вопросы
ИИ всё шире опирается на персональные данные — речь, биометрию, поведение. Для недопущения дискриминации, важно сделать алгоритмы устойчивыми к культурным и языковым различиям, учитывать проблемы приватности и прозрачности. Необходим разработка нормативов, регулирующих использование ИИ в медицине, чтобы сохранять баланс между автоматизацией и человеческим участием[3][2].
Значительное внимание уделяется вопросам утечки персональных данных, злоупотребления конфиденциальностью, неясности принципов принятия решений («чёрный ящик»), а также дискриминации женщин, представителей расовых и этнических меньшинств.
ИИ в психическом здоровье относительно легко воспроизводит существующие неравенства, если обучающие наборы данных однобоки или ограничены. Например, модели анализа социальных сетей могут хуже обнаруживать депрессию среди темнокожих из-за недопредставленности лингвистических особенностей в исходных данных[47]. Алгоритмы ОНЯ часто ошибочно трактуют идиолекты и культурные коды, что грозит пропуском симптомов или гипердиагностикой среди маргинализированных групп.
Это привело к ряду инициатив:
- Инклюзивные данные — увеличение репрезентативности и разнообразия исходных выборок.
- Оценка и аудит предвзятости — тестирование инструментов на разных подвыборках, разработка методов внешней и внутренней валидации.
- Вовлечение сообществ — сотрудничество с пациентами и представителями уязвимых групп на этапе дизайна, валидации и внедрения[48].
- Прозрачность и объяснимость решений — развитие технологий объяснимого ИИ.
Корректная организация этих аспектов — ключ к снижению повторения исторического неравенства.
Примечания
Литература
- Lee, Ellen E.; Torous, John; De Choudhury, Munmun; Depp, Colin A.; Graham, Sarah A.; Kim, Ho-Cheol; Paulus, Martin P.; Krystal, John H.; Jeste, Dilip V. (2021). “Artificial Intelligence for Mental Health Care: Clinical Applications, Barriers, Facilitators, and Artificial Wisdom”. Biological Psychiatry: Cognitive Neuroscience and Neuroimaging. 6 (9): 856—864. DOI:10.1016/j.bpsc.2021.02.001. PMC 8349367. PMID 33571718.