Модель глубокого обучения автоматизирует обнаружение тяжелых заболеваний сердечного клапана
ДомДом > Блог > Модель глубокого обучения автоматизирует обнаружение тяжелых заболеваний сердечного клапана

Модель глубокого обучения автоматизирует обнаружение тяжелых заболеваний сердечного клапана

Aug 17, 2023

Источник: Гетти Изображения

Шанайа Кеннеди

30 августа 2023 г. — Исследователи из Йельской школы медицины разработали подход глубокого обучения (DL), который позволяет точно обнаруживать аортальный стеноз путем анализа ультразвукового сканирования сердца, согласно исследованию, опубликованному на прошлой неделе в European Heart Journal.

Исследовательская группа указала, что аортальный стеноз, распространенное заболевание сердца, вызванное сужением аортального клапана, является важной причиной смертности и заболеваемости. Раннее выявление заболевания имеет решающее значение для предотвращения этих последствий, но оно требует специальной ультразвуковой визуализации сердца, известной как допплер-эхокардиография.

Допплер-эхокардиография является основным тестом, используемым для выявления аортального стеноза, но специализированный характер визуализации делает его неэффективным и недоступным для использования в целях раннего выявления.

«Наша задача заключается в том, что точная оценка [аортального стеноза] имеет решающее значение для ведения пациентов и снижения риска. Хотя специализированное тестирование остается золотым стандартом, зависимость от тех, кто попадает в наши эхокардиографические лаборатории, скорее всего, упускает из виду людей на ранних стадиях их болезненного состояния», — сказал старший автор Рохан Кера, доктор медицинских наук, магистр наук, доцент кафедры сердечно-сосудистой медицины и медицинской информатики в Йельском университете и директор Лаборатории сердечно-сосудистых данных (CarDS) в пресс-релизе с подробным описанием исследования.

Целью исследовательской группы была разработка модели, которая могла бы позволить проводить ультразвуковой скрининг в местах оказания медицинской помощи, чтобы облегчить раннее выявление заболевания.

Для этого исследователи разработали модель глубокого обучения, используя 5257 исследований трансторакальной эхокардиографии (ТТЭ), включая 17 570 видео, проведенных в период с 2016 по 2020 год в Йельской больнице Нью-Хейвена.

Затем инструмент прошел внешнюю проверку с использованием 2040 последовательных исследований в больнице Йельского университета в Нью-Хейвене, а также двух географически различных когорт из 4226 и 3072 исследований в Калифорнии и других больницах Новой Англии.

Модель достигла высокой производительности во всех когортах, достигнув области под кривой рабочей характеристики приемника 0,978 в тестовом наборе. Кроме того, DL достиг площади под кривой рабочей характеристики приемника 0,952 в когорте Калифорнии и 0,942 в когорте Новой Англии.

Эти результаты привели исследователей к выводу, что модель потенциально полезна для раннего выявления стеноза аорты.

«Наша работа может обеспечить более широкий общественный скрининг на [аортальный стеноз], поскольку портативные ультразвуковые устройства могут все чаще использоваться без необходимости в более специализированном оборудовании. Они уже часто используются в отделениях неотложной помощи и во многих других медицинских учреждениях», — заявил Кера.

Однако необходимы дополнительные исследования, прежде чем этот инструмент можно будет использовать в клинических условиях.

Предыдущие исследования также были направлены на улучшение обнаружения аортального стеноза с помощью искусственного интеллекта (ИИ).

В 2021 году исследователи Kaiser Permanente продемонстрировали, что обработка естественного языка (НЛП) может помочь врачам идентифицировать стеноз аорты.

Модель была обучена анализировать отчеты эхокардиограммы и данные ЭМИ, чтобы отмечать сокращения, слова и фразы, связанные с заболеванием.

Затем инструмент быстро выявил почти 54 000 пациентов, которые соответствовали критериям аортального стеноза - процесс, который, как отметила исследовательская группа, мог бы занять годы, если бы его проводили вручную.