Искусственный интеллект угрожает конфиденциальности данных о здоровье

Исследования показывают, что достижения в области искусственного интеллекта (ИИ) создали новые угрозы для конфиденциальности данных о здоровье людей. Об этом сообщает Калифорнийский университет (University of California) в Беркли. Исследование было опубликовано в журнале JAMA Network Open.

Результаты научной работы

Научная работа, проводимая под руководством Беркли Анила Асуани (Anil Aswani), показывает, что действующие законы и нормативные акты далеко не достаточно разработаны для того, чтобы сохранить индивидуальный статус здоровья в условиях развития ИИ. Полученные данные показывают, что с помощью искусственного интеллекта можно идентифицировать людей, изучая ежедневные шаблоны в пошаговых данных, таких как данные, собранные трекерами активности, умными часами и смартфонами, и сопоставляя их с демографическими данными.

Изучение данных за 2 года, охватывающих более 15 000 американцев, показали о необходимости пересмотра и доработки стандартов конфиденциальности, связанных с законодательством HIPAA 1996 года (Закон о мобильности и подотчетности медицинского страхования).

«Мы хотели использовать NHANES (Национальное обследование здоровья и питания), чтобы изучить вопросы конфиденциальности, потому что эти данные отражают разнообразие населения США», – сказал Асуани. «Результаты указывают на серьезную проблему. Если вы удалите всю идентифицирующую информацию, она не защитит вас так сильно, как вы думаете. Кто-то еще может вернуться и собрать все вместе, если у них есть правильная информация. В принципе, вы можете представить себе, как Facebook собирает данные о шагах из приложения на вашем смартфоне, а затем покупает данные о здравоохранении у другой компании и сопоставляет их», – добавил он. «Теперь у них будут медицинские данные, соответствующие именам, и они могут либо начать продавать рекламу на их основе, либо продавать эти данные другим».

По словам Асуани, проблема не в устройствах, а в том, как информация, которую захватывают устройства, может быть неправильно использована и потенциально продана на открытом рынке.

«Я не говорю, что мы должны отказаться от этих устройств», – сказал он. «Но мы должны быть очень осторожны с тем, как мы используем эти данные. Нам нужно защищать информацию».

Результаты свидетельствуют о более широкой угрозе конфиденциальности данных о состоянии здоровья.

“Технологические компании не охвачены HIPAA. Есть компании, покупающие медицинские данные. Предполагается, что это анонимные данные, но вся их бизнес-модель заключается в том, чтобы найти способ прикрепить имена к этим данным и продать их».

По словам Асуани, достижения в области искусственного интеллекта облегчают компаниям доступ к медицинским данным, а соблазн компаний использовать их незаконными или неэтичными способами возрастает. Например, работодатели, ипотечные кредиторы, компании, выпускающие кредитные карты, и другие могут использовать ИИ для дискриминации по признаку беременности или инвалидности.

«В идеале, я хотел бы видеть из этого новые правила или правила, которые защищают медицинские данные», – сказал он.

«Дело в том, что существует риск того, что мы потеряем контроль над нашей конфиденциальностью, когда речь заходит о здравоохранении».

Авторы другого исследования утверждают, что подготовили новый алгоритм искусственного интеллекта, чтобы сделать точные прогнозы относительно снижения познавательной способности, приводящей к болезни Альцгеймера.