я могу 
Все гениальное просто!
Машины и Механизмы
Все записи
текст

Может ли искусственный интеллект ставить диагнозы не хуже медиков?

Еженедельный медицинский журнал The Lancet Digital Health опубликовал статью, в которой обсуждаются перспективы искусственного интеллекта, а также варианты его использования в медицинских целях.
Может ли искусственный интеллект ставить диагнозы не хуже медиков?
В том числе и для диагностики заболеваний. Авторы считают, что у искусственного интеллекта в этой области имеются серьёзные перспективы, но недостаток серьёзных исследований по этой части тормозит внедрение новых технологий в медицину.

Уже сейчас известно, что нейронные сети глубокого обучения способны ставить диагноз с той же или большей степенью точности, на которую способны обычные врачи, тем не менее, возможности искусственного интеллекта всё ещё остаются неопределёнными из-за всё той же нехватки данных о его эффективности. Также нет достаточного количества работ, посвящённых сравнению качества работы людей и искусственного интеллекта в одной и той же области.

Авторы работы изучили более 20 500 статей, но менее 1% из них были достаточно надёжными по своей структуре и содержанию для того, чтобы независимые рецензенты с большим доверием отнеслись к их утверждениям. Более того, только в 14 исследованиях фактически сравнивались показатели ИИ и медицинских работников. Также ещё 25 исследований подтвердили эффективность нейросетей в постановке диагнозов по изображениям и другим данным.

В публикации сказано, что эти немногие, но высококачественные исследования дают повод серьёзно задуматься о перспективах внедрения нейросетей в медицинскую среду, так как их эффективность в этих случаях не подлежит сомнению, кроме того, искусственный интеллект не только так же точен в постановке диагноза, как и человек, в ряде случаев он существенно превосходит серьёзных специалистов по скорости принятия верных решений.


Модели нейросетей с глубоким обучением могут быстро исследовать тысячи медицинских карточек и изображений. Это дает огромный потенциал для повышения точности и скорости диагностики. Но, несмотря на сильный общественный интерес и рыночные факторы, стимулирующие быстрое развитие этих технологий, контролирующие органы продолжают высказывать озабоченность по поводу того, что исследования проводятся с пристрастием в пользу машинного обучения.
Для получения дополнительных данных исследователи провели систематический обзор и мета-анализ всех исследований, сравнивая результаты работы нейросетей и медицинских работников по выявлению заболеваний на основе медицинских изображений, опубликованных в период с января 2012 года по июнь 2019 года. В систематический обзор было включено в общей сложности 82 статьи. Были проанализированы данные по 69 статьям, содержащим достаточно данных для точного расчёта эффективности испытания. В мета-анализ были включены оценки из 25 статей, подтверждающие эффективность ИИ.
К сожалению, большая часть работ, связанных с искусственным интеллектом, проводилось с нарушениями. Например, в сравнении эффективности медработников и нейросети специалисты не всегда получали весь комплекс необходимых им для постановки диагноза данных. В этом случае получалось, что исследование намеренно искажалось таким образом, чтобы выставить в нужном свете алгоритм искусственного интеллекта. Кроме того, исследований в реальных клинических условиях проводилось довольно мало, а ведь для определения диагностической точности сложно обойтись лишь обширной базой данных.
Подводя итог, медики поясняют, что желание использовать новые, пусть и самые современные технологии при диагностике заболеваний само по себе похвально и действительно может принести пользу, но есть устоявшаяся медицинская практика, которую попросту нельзя игнорировать. Поэтому проводя исследования с медицинскими нейросетями, очень важно правильно выстраивать свои исследования. В этом случае на них будут обращать больше внимания, а их итоги не будут вызывать недоверия.

Фото: ShutterStock

Технологии

Машины и Механизмы
Всего 0 комментариев
Комментарии

Рекомендуем

OK OK OK OK OK OK OK