Байесова схема принятия коллективных решений в условиях противоречий

Существуют различные подходы к интеграции частных решений. В одних случаях предлагается использовать метод голосования (majority vote method) [11,12] или ранжирования

Байесова схема принятия коллективных решений в условиях противоречий

Информация

Философия

Другие материалы по предмету

Философия

Сдать работу со 100% гаранией
положив P(V1) = 0.4, P(V2) = 0.6. В этом случае λ = 0.67 и, как видно из рис. 1, точка с координатами P(A1)=0.05 и P(A2)=0.08 попадает уже в область решений в пользу класса V1. В самом деле

=

и

=,

т.е. P(V1/S12) > P(V2/S12). Значит в этом случае объект следует отнести к классу V2, что совпадает с решением более “квалифицированного” эксперта A1.

Итак мы показали, что при различных решениях двух независимых экспертов с фиксированными вероятностями ошибок окончательное решение изменяется с изменением λ.

Заметим, что рассматриваемая схема принятия решений основывается на знании весьма ограниченных вероятностных характеристик, которые при решении практических задач, в частности задач медицинской и технической диагностики, легко могут быть получены на основании предыдущего опыта. При достаточном числе наблюдений вероятности P(Vk) и P(Ai) могут быть оценены соответствующими частотами:

где Gk общее число появлений k-го класса (k=1,2) в выборке из G наблюдений, а Ei общее число ошибок i-го эксперта (i =1,2) в этой же выборке.

При этом совершенно не требуется знать, на основании какой информации эксперты принимают частные решения и как именно эксперты принимают эти решения используя формальный или эвристический алгоритм, либо просто полагаясь на свою интуицию.

В то же время мы сделали одно важное допущение о том, что решения экспертов независимы, а вероятность ошибки каждого эксперта не зависит от класса, т.е. P(Ai)=P(Ai/V1)=P(Ai/V2). Естественно, что такое допущение должно быть обосновано.

Для того, чтобы продемонстрировать практическую возможность описанной схемы, рассмотрим один из возможных формальных алгоритмов принятия независимых решений двумя экспертами.

Предположим, что эксперт A1 классифицирует объект по бинарному признаку x1 (симптому), имеющему всего лишь две градации и , а эксперт A2 - по другому признаку x2, также имеющему две градации и . Будем считать, что для минимизации вероятности ошибок оба эксперта используют правило максимума апостериорных вероятностей, т. е. эксперт A1 принимает свое частное решение по максимуму P(V1/x1) и P(V1/x1), а эксперт A2 - по максимуму P(V1/x2) и P(V1/x2).

Будем считать, что P(V1)=0.3, P(V2)=0.7, а также заданы условные распределения значений признаков в классах V1 и V2, которые представлены в таблицах 1 и 2 соответственно .

Для определения вероятности ошибочных решений эксперта A1 найдем апостериорные вероятности классов при возможных значениях признака x1:

= ,

= ,

= ,

= .

Поскольку и , то эксперт A1 классифицирует объект Z по признаку x1 следующим образом

δ1(Z) = (15)

Легко видно, что , а значит вероятность ошибки первого эксперта не зависит от класса, т.е. P(A1)=P(A1/V1)=P(A1/V2) =0.05.

Для определения вероятности ошибочных решений эксперта A2 найдем апостериорные вероятности классов при возможных значениях признака x2:

= ,

= ,

= ,

= .

Поскольку , а , то эксперт A2 классифицирует объект Z по признаку x2 следующим образом

δ2(Z) = (16)

При этом вероятность ошибки эксперта A2 составляет P(A2)=0.08, причем эта вероятность также не зависит от класса, т.е. P(A2)= P(A2/V1) = P(A2/V2).

Как видно из таблиц 1 и 2 признаки x1 и x2 статистически независимы в обоих классах, поскольку для любых их значений справедливо соотношение p(x1,x2/Vk) = p(x1/Vk)p(x2/Vk) при k =1,2. Отсюда непосредственно следует, что решения (15),(16) экспертов будут независимыми.

Предположим, что в момент принятия решений признаки получили следующие значения , а . В этом случае, согласно (15), (16), δ1(Z) = 1 и δ2(Z) = 2, т.е. требуется принять окончательное решение в условиях противоречивой ситуации S12. Поскольку априорные вероятности классов и найденные вероятности ошибок экспертов имеют такие же значения, как в первой части рассмотренного выше примера, то, согласно предложенной схеме, окончательное решение следует принимать в пользу V2.

Покажем, что такое решение совпадает с оптимальным решением, основанным на результатах измерения совокупности двух признаков по формальному правилу максимуму апостериорных вероятностей классов и . По формуле Байеса определим эти вероятности при и :

= (17)

и

=. (18)

Сравнение (13),(14) с (17),(18) позволяет заключить, что для k =1,2. Нетрудно убедиться в том, что аналогичные равенства имеют место и при других возможных значениях признаков.

Следовательно, если эксперты принимают независимые решения, причем P(Ai/V1)=P(Ai/V2) при i =1, 2, то предлагаемая схема эквивалентна оптимальной, обеспечивающей минимум средней вероятности ошибочной классификации по совокупности двух независимых признаков в классах.

В условиях данного примера средняя вероятность ошибочных решений, принимаемых по результатам классификации двух экспертов, составляет 0.0406. Заметим, что эта величина меньше вероятности ошибки каждого из экспертов.

Решающее правило 2.

Предложенную схему легко можно обобщить на случай, когда вероятности ошибок экспертов зависят от классов. Такое обобщение актуально для решения практических задач, в частности, задач медицинской диагностики.

Пусть требуется отнести обследуемого пациента Z к одному из двух классов: V1 болен, V2 здоров. При этом будем считать известными априорные вероятности P(V1), P(V2), и ставить окончательный диагноз на основании информации, полученной от двух экспертов A1, A2, которые производят независимое обследование пациента по различным методикам.

Будем, как это принято в медицинской практике [23], оценивать “квалификацию” каждого из экспертов двумя величинами: чувствительностью Qi = 1- P(Ai /V1), где вероятность P(Ai /V1) ошибочного отнесения больного пациента к здоровому, и специфичностью Wi = 1- P(Ai /V2), где вероятность P(Ai /V2) ошибочного отнесения здорового пациента к больному (В теории распознавания вероятности P(Ai /V1) и P(Ai /V2) принято называть вероятностями ошибок первого и второго рода, или, что то же самое , вероятностями ошибок пропуска цели и ложной тревоги [24].).

Тогда в ситуации S12 , когда A1 признал Z больным, а A2 признал Z здоровым, окончательный диагноз следует ставить согласно схеме:

(19)

где λ = P(V2)/P(V1) отношение априорных вероятностей здоровых и больных пациентов.

Решающее правило 3.

Предположим теперь, что N >2 экспертов проводят независимое обследования пациента Z, в результате которых относят его к классу V1 (болен) или к классу V2 (здоров). Будем считать, что известны априорные вероятности P(V1) и P(V2), чувствительности Q1, …, QN и специфичности W1,…,WN каждого из экспертов.

Пусть в результате обследования получена комбинация S решений экспертов. Обозначим I1 - множество номеров экспертов, которые приняли решение в пользу класса V1, т.е. признали Z больным, а I2 - множество номеров экспертов, которые признали пациента здоровым. Очевидно, что I1  I2 = ; I1  I2 ={1,...,N}.

Тогда в ситуации S будем считать, что Z болен, если

, (20)

и Z здоров, если

. (21)

Решающее правило 4.

Рассмотрим теперь общий случай, когда требуется отнести объект Z к одному из M > 2 классов V1,..., VM. Будем полагать, что известны априорные вероятности классов P(V1),..., P(VM) и условные вероятности ошибочных решений P(A1/Vk),...,P(AN/Vk), (k=1,…,M), принимаемых N независимыми экспертами A1,...,AN.

Пусть в результате обследования Z получена комбинация S частных решений экспертов. Обозначим Im - множество номеров экспертов, принявших решение в пользу m-го класса. Очевидно, что Ii  Ij = ( i, j = 1,...,M ), I1  ... IM ={1,...,N}.

В этом случае окончательное решение в пользу m-го класса будем принимать только в том случае, когда

P(Vm/S) = P(Vk/S). (22)

По формуле Байеса условие (22) эквивалентно следующему:

P(Vm)P(S/Vm) = P(Vk)P(S/Vk) ,

или, что то же самое,

P(Vm)P(S/Vm) > P(Vk)P(S/Vk) ,  k=1,...,M, k  m (23)

Поскольку для любых m, k =1,..., M решения экспертов независимы, то

На основании условия (23) с учетом последних соотношений заключаем, что окончательное решение принимается в пользу класса Vm , если

 k=1, ... , M, k  m выполняется неравенство:

> . (24)

Заключение.

В статье показано, что в условиях противоречивой информации от независимых экспертов правомерно принимать окончательное решение, совпадающее с решением более квалифицированного эксперта, только при равновероятных классах. В более общем случае для минимизации вероятности ошибочных классификаций следует учитывать как вероятности ошибочных классификаций каждого из экспертов, так и соотношения априорных вероятностей классов.

Рассмотрены правила интеграции частных решений независимых экспертов, которые можно пользоваться даже в тех практически важных случаях, когда эксперты принимают свои решения неформально, опираясь на опыт и интуицию.

Предложенный подход нашел применение при построении комплексного решающего правила для диагностики кардиологических патологий у больных с неизмененной ЭКГ по результатам автоматического анализа карт плотностей тока в плоскости сердца [25].

Список литературы

1. Ларичев О.И. Наука и искусство принятия решений. М: Наука, 1979. 200 с.

2. Макаров И.М. Теория выбора и принятия решений. М.: Наука,1987. 350 с.

3. Выявление экспертных знаний/О.И. Ларичев , А.И. Мечитов , Е.М.Мошкович , Е. М. Фуремс . М.: Наука, 1989. 128 с.

4. Макеев С.П., Шахнов И.Ф. Упорядочение альтернатив на основе расплывчатых оценок: Сообщения по прикладной математике. М.: ВЦАН СССР, 1989. 42 с.

6. Миркин Б.Г. Проблема группового выбора. М.: Наука, 1974. 256 с.

7. Мулен Э. Кооперативное принятие решений: аксио

Похожие работы

< 1 2 3 >