Искусственный интеллект не справляется с прогнозом риска суицида: выводы масштабного анализа

Учёные из Мельбурнского университета (University of Melbourne) проанализировали, насколько современные алгоритмы машинного обучения способны предсказывать риск самоубийства или членовредительства.

Результаты исследования опубликованы в журнале «PLOS Medicine». Руководил работой Мэтью Спиттал (Matthew Spittal) и его коллеги.


Как проводилось исследование

Команда провела систематический обзор и метаанализ 53 ранее опубликованных исследований, охвативших более 35 миллионов медицинских записей и почти 250 тысяч случаев суицида или госпитализаций по причине членовредительства.

Учёные проверяли, могут ли алгоритмы лучше традиционных шкал риска выявлять пациентов, находящихся в опасности.


Основные результаты

Алгоритмы показали высокую специфичность — то есть хорошо распознавали людей, у которых впоследствии не возникало повторных эпизодов членовредительства или суицида. Но вот чувствительность оказалась крайне низкой.

  • Более чем половина людей, впоследствии попавших в больницу с самоповреждениями или умерших от суицида, была алгоритмами ошибочно отнесена к «низкому риску».
  • Среди тех, кого системы записали в «группу высокого риска», только 6% реально умерли от суицида, а менее 20% снова обратились за медицинской помощью из-за членовредительства.

«Алгоритмы не показали преимуществ по сравнению с традиционными шкалами оценки риска», — заключили авторы.


Почему это важно

Мэтью Спиттал (Matthew Spittal) и его коллеги отмечают, что качество большинства исследований в этой области оставляло желать лучшего: высокий или неясный риск систематических ошибок.

Международные клинические рекомендации уже давно предостерегают врачей от использования шкал риска как основы для выбора терапии после попыток самоубийства или членовредительства. Новые данные подтверждают эту позицию: машинное обучение пока не даёт точного прогноза и, более того, имеет высокий процент ложных срабатываний.


👉 Иными словами, ожидания от ИИ в этой сфере пока сильно завышены. Машинные алгоритмы неплохо умеют говорить, у кого проблем не будет, но вот выявить тех, кто действительно в опасности, они не способны.


Литература:
Machine learning algorithms and their predictive accuracy for suicide and self-harm: Systematic review and meta-analysis, PLOS Medicine (2025). DOI: 10.1371/journal.pmed.1004581

Medical Insider