+7 (499) 519-32-50 МРТ томография   О компании   Найдите нас   
Поиск

МРТ
Записаться на МРТ
Стоимость МРТ

МРТ в Москве
ВИП МРТ
Полное МРТ сканирование тела
Где сделать МРТ комфортно

МРТ - информация для пациентов
О методе МРТ
Показания к МРТ
Направление на МРТ
Задайте вопрос

Консультации иностранных врачей
Консультации МРТ в Израиле
Врачи МРТ
Консультанты по МРТ и КТ
Стоимость консультаций

МРТ и томография главная /  Автоматизация МРТ диагностики /  Новые статьи для архива



Автоматизация МРТ диагностики




1 2 3 4 5 6 

Среди всех признаков, перечисленных в Главе 1 дис­сертационной работы, автоматизированному распознаванию на томограмме подлежат лишь несколько:

1. Изменение сигнала на томограммах Т1 взвешенности

2. Изменение сигнала на томограммах Т2 взвешенности

3. Количество зон патологии

4. Форма патологии

5. Размеры патологии

6. Локализация патологии

7. Наличие субдуральной гематомы

8. Наличие геморрагии в патологическом очаге

Распознавание остальных признаков затруднено из-за сложности и ком­бинированной структуры их описания. Выделенные признаки используются для принятия решений в диагностической подсистеме.

Третья глава диссертации посвящена разработке алгоритмов принятия решений на основе признаков заболевания.

Проведен анализ различных методов принятия решений. Приоритетным направлением выбраны методы поиска закономерностей в данных (data mining), позволяющие выявить скрытые закономерности.

Среди всех методик data mining выбраны деревья решений, так как дере­вья решений позволяют создавать классификационные модели в областях, где достаточно сложно формализовать знания, а также дают возможность извлекать правила из базы данных на естественном языке, понятном пользователю и на­глядно представлять результаты.

Исследованы наиболее популярные алгоритмы построения деревьев ре­шений C4.5, CART, CHAID и ID3, и выявлены недостатки при работе с боль­шими объемами трудноформализуемых данных.

Для устранения этих недостатков был предложен алгоритм отделения од­нородных групп наблюдений, который отличается компактной структурой де­рева, сравнительно простым и не требующим больших затрат памяти критери­ем ветвления, компенсацией смещения данных в сторону одного из классов, а также способом обработки пропущенных значений.

При построении дерева решений с помощью алгоритма отделения одно­родных групп, каждый узел дерева имеет два дочерних узла. Для узла форми­руется правило, которое делит заданное множество примеров (обучающую вы­борку) на две части: - часть, в которой выполняется правило (потомок - left) и часть, в которой правило не выполняется (потомок - right).

Г1, если условие выполняется;

ai=

[О, в противном случае, где at. = 1, если условие для правила выполняется.

13

Структура узла дерева, построенного с помощью этого алгоритма, изо­бражена на рисунке 9.

Условие разбиения исходной выборки

>v Условие Nt    не выполняется

Условие разбиения оставшейся выборки

Рисунок 9 - Дерево, построенное с помощью алгоритма отделения одно­родных групп

Для обучения дерева используется уже классифицированный набор при­меров. Для разбиения выборки по узлам предлагается двухэтапный подход, в котором два алгоритма включаются последовательно в зависимости от наличия в классах подгрупп. - на первом этапе от обучающей выборки отделяются од­нородные подгруппы Gi класса «образование» (алгоритм №1), по некоторым специфическим для них факторам, на втором происходит отделение от остав­шейся выборки групп одного класса с минимальной ошибкой (алгоритм №2) (Рисунок 10).

Конец

Рисунок 10 - Общая схема работы комбинированного алгоритма.

14

Алгоритм выполняется до тех пор, пока в выборке не останется наблюде­ний, которые можно сгруппировать и отделить по определенным факторам. Ос­тановка ветвления осуществляется, если не удается отделить группу наблюде­ний больше 10 наблюдений с точностью более 97%. Пропущенные значения в выборке переносятся в правую ветку, для дальнейшего анализа по другим фак­торам.

В основе разбиения по каждому узлу лежит критерий ветвления. Далеко не все критерии ветвления успешно работают на больших объемах данных с пропусками. Например, индекс Gini, реализованный в алгоритме CART на та­ких данных требует значительного времени на осуществление разбиения:

Gini (T ) = 1-£ Р2,

i=1

где pi - вероятность (относительная частота) класса i в выборке T. В алгоритмах ID3 и С 4.5. критерий ветвления основан на уменьшении энтропии и разбивает данные на множество ветвей по каждой категории вы­бранного фактора. В алгоритме С 4.5. этот критерий улучшен и позволяет учи­тывать пропущенные значения:

GairiX) = И-^ InfdT) - Infox (Г) ^

где T - множество обучающих примеров и X - проверка по некоторому атрибу­ту A; Uколичество неопределенных значений атрибута A.

info(T) - оценка среднего количества информации, необходимого для оп­ределения класса примера из множества T - энтропия множества Т.

На факторах, у которых более 5 категорий (в медицинских данных часто встречается) разбиение по такому критерию приведет к потере мощности и обобщающей способности, а также на выходе будет трудно интерпретируемая структура дерева.

Таким образом, в качестве критерия ветвления предлагается критерий от­деления однородных групп наблюдений. Оценочная функция, базируется на идее отделения как можно более чистой и полной группы наблюдений одного класса или группы по определенной категории фактора. При таком подходе для более полного учета влияния факторов значимость определяется группой кате­горий выбранного фактора.

Для выбора списка отделяющих категорий используется критерий R:

R =----> max ,

const + К

где B - количество наблюдений отделяемого класса, которое выделяет рассмат­риваемая категория; A - количество наблюдений отделяемого класса; K - коли­чество наблюдений постороннего класса, соответствующее группе выбранных категорий; P(B) - условная вероятность выделения наблюдений нужного класса категорией fmn:

Р(В)=*А

15

При нахождении коэффициента R количество ошибочно классифициро­ванных наблюдений отделяемой группы учитывается в параметре К.

К = В-С

Значение критерия зависит от количества ошибочных наблюдений, по­павших в группу K, а также от условной вероятности выделения наблюдений данной категорией. Константа const введена в формулу на случай, если в вы­бранной группе не будет ошибочных наблюдений. В этом случае решающим фактором выбора группы станет вероятность P(B).

Таким образом, вышеописанный алгоритм с помощью критерия отделяет от выборки группы с минимальным количеством ошибочных наблюдений мак­симального размера по определенному набору категорий. Такое отделение по­зволяет учесть особенность медицинских данных - группы наблюдений с по­хожими характеристиками, например случаи различных стадий одного и того же заболевания и т.п. Благодаря такому подходу удается сократить признаковое пространство выборки и упростить интерпретацию результатов врачом.

В четвертой главе на основе предложенных методов и алгоритмов про­ведена разработка автоматизированной системы диагностики новообразований головного мозга. Представлены результаты экспериментальных исследований.

Разработанная структура автоматизированной системы для диагностики новообразований головного мозга, представлена на рисунке 11.

Рисунок 11 - Структура автоматизированной системы диагностики новообразо­ваний головного мозга

Основные блоки системы:

1. База данных. Осуществляет хранение информации о предметной об­ласти.

16

2

1 2 3 4 5 6 


Все услуги - Московский Врач

Виды МРТ

Виды томографии

МРТ архив

Конгрессы по томографии

 
 
Реклама: