Искусственный интеллект в медицине: план действий для безопасного и эффективного внедрения

13 октября 2025 года в журнале «JAMA» была опубликована новая работа, в которой сформулирован план по ответственной интеграции искусственного интеллекта (ИИ) в систему здравоохранения.

В статье под названием «AI, Health, and Health Care Today and Tomorrow» авторы представили дорожную карту для безопасного и эффективного внедрения ИИ, чтобы его использование не просто ускоряло процессы, а реально улучшало результаты лечения пациентов.

Одно из ключевых предложений — расширение надзора со стороны Управления по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) и разработка инструментов оценки клинической эффективности ИИ.


Ускоряющееся внедрение требует новых правил

Автором отчёта стала профессор права и политики здравоохранения Мишель Мелло (Michelle Mello) из Стэнфордской школы права (Stanford Law School) и Медицинской школы Стэнфордского университета (Stanford University School of Medicine).

Работа выросла из Саммита JAMA по искусственному интеллекту 2024 года, который объединил более 60 лидеров медицины, права, политики и индустрии для обсуждения рисков и возможностей ИИ в клинической практике.

«ИИ внедряется в здравоохранение с невероятной скоростью, но наши системы регулирования и оценки за этим не успевают», — подчёркивает профессор Мелло, член Национальной академии медицины США (National Academy of Medicine).
«Мы предлагаем конкретные шаги, которые сделают использование ИИ более прозрачным, эффективным и справедливым».


Потенциал ИИ — огромен, но риски не меньше

ИИ уже помогает врачам снижать административную нагрузку, точнее ставить диагнозы и персонализировать лечение.
Однако без продуманной инфраструктуры и стимулов этот потенциал может обернуться неравномерным доступом, непреднамеренными ошибками и потерей ресурсов.

Авторы выделяют четыре стратегических приоритета, необходимых для ответственного внедрения технологий.


1. Усилить надзор и оценку эффективности

Сегодня многие ИИ-системы уже встроены в медицинскую практику:

  • алгоритмы для раннего обнаружения сепсиса в больницах,
  • мобильные приложения для контроля сердечного ритма или психического состояния,
  • автоматизированные системы записи и выставления счетов.

Некоторые, как ИИ-«медицинские писцы», одновременно записывают разговор врача с пациентом и предлагают варианты лечения.

Но лишь часть этих инструментов регулируется FDA, и даже они не обязаны доказывать эффективность в реальных клинических условиях.


2. Учитывать влияние «невидимого» ИИ

Алгоритмы, применяемые в административных целях — например, для планирования операций или одобрения страховых выплат, — могут влиять на доступ пациентов к помощи, но не проходят федеральную проверку.

А многочисленные приложения для потребителей, позиционируемые как «инструменты для здоровья», вообще обходят регуляцию, заявляя о низком уровне риска.

«Больницы внедряют ИИ быстрее, чем могут его оценивать.
У многих просто нет ресурсов и инфраструктуры, чтобы проводить серьёзные испытания», — отмечает Мелло.
«Сейчас контроль ограничивается проверками на ошибки и прозрачность, но не оценивает, улучшает ли ИИ здоровье пациентов».


3. Не тормозить инновации, но сделать их безопасными

Авторы подчёркивают: цель их доклада — не замедлить технологический прогресс, а сделать его результаты реальными и измеримыми.
ИИ должен работать не только ради автоматизации, но прежде всего ради улучшения здоровья и равного доступа к медицинской помощи.


4. Создать систему измерения пользы

Чтобы понять, какие ИИ-инструменты действительно эффективны, необходимы новые стандарты клинической оценки — такие же строгие, как для лекарств или медицинских устройств.
Это позволит врачам и пациентам доверять алгоритмам, а государству — вырабатывать справедливую политику их внедрения.


📘 Литература:
Derek C. Angus et al, AI, Health, and Health Care Today and Tomorrow, JAMA (2025). DOI: 10.1001/jama.2025.18490

Medical Insider