1. Системный анализ процесса принятия решений.

Как принимается решение

 

Целенаправленное воздействие в системе «внешняя среда» для устранения возникшего конфликта – решение.

Существуют два основных направления формирования решения:

  1. Формирование решения с позиции причинно-следственного подхода

 

K – количество компонент определяемых условием формирования p

  1. С позиции целенаправленной системы. Осуществляется с помощью метода оптимизации

Находим  

 

2. Оптимизация линейных коллективов решающих правил.

Давно известны приемы повышения качества принимаемых решений, состоящие в объединении специалистов той или иной области знаний в коллектив, вырабатывающий совместное решение. Идею коллективного решения можно применить и к <коллективу> формальных алгоритмов, что позволит повысить эффективность решения многих задач.

Для рационального использования особенностей различных алгоритмов при решении задач распознавания, возможно, объединить различные по характеру алгоритмы распознавания в коллективы, формирующие классификационное решение на основе правил, принятых в теории коллективных решений. Пусть в некоторой ситуации Х принимается решение S. Тогда S=R(X), где R-алгоритм принятия решения в ситуации X. Предположим, что существует L различных алгоритмов решения задачи, т. е. Sl=Rl(X), l=1, 2, ... , L, где Sl-решение, полученное алгоритмом Rl. Будем называть множество алгоритмов {R}={R1, R2, ..., Ri.} коллективом алгоритмов решения задачи (коллективом решающих правил), если на множестве решений Sl в любой ситуации Х определено решающее правило F, т. е. S=F(S1, S2, ..., SL, X). Алгоритмы Rl принято называть членами коллектива, Sl - решением l-го члена коллектива, а S - коллективным решением. Функция F определяет способ обобщения индивидуальных решений в решения коллектива S. Поэтому синтез функции F, или способ обобщения, является центральным моментом в организации коллектива.

Принятие коллективного решения может быть использовано при решении различных задач. Наиболее интересными коллективами распознающих алгоритмов являются такие, в которых существует зависимость веса каждого решающего правила Rl от распознаваемого изображения. Например, вес решающего правила Rl может, определяется соотношением (1):

 

 где Bl - область компетентности решающего правила Rl. Веса решающих правил выбираются так, что (2)

 

Для всех возможных значений X. Соотношение (1) означает, что решение коллектива определяется решением того решающего правила Ri, области компетентности которого принадлежит изображение объекта X. Такой подход представляет собой двухуровневую процедуру распознавания. На первом уровне определяется принадлежность изображения той или иной области компетентности, а уже на втором - вступает в силу решающее правило, компетентность которого максимальна в найденной области. Решение этого правила отождествляется с решением всего коллектива. Основным этапом в такой организации коллективного решения является обучение распознаванию областей компетентности. Практически постановкой этой задачи различаются правила организации решения коллектива. Области компетентности можно искать, используя вероятностные свойства правил коллектива, можно применить гипотезу компактности и считать, что одинаковым правилам должны соответствовать компактные области, которые можно выделить алгоритмами самообучения. В процессе обучения сначала выделяются компактные множества и соответствующие им области, а затем в каждой из этих областей восстанавливается свое решающее правило. Решение такого правила, действующего в определенной области, объявляется диктаторским, т. е. отождествляется с решением всего коллектива.

Каждый A-элемент может интерпретироваться как член коллектива. В процессе обучения все A-элементы приобретают веса, в соответствии с которыми эти A-элементы участвуют в коллективном решении. Особенность каждого A-элемента состоит в том, что он действует в некотором подпространстве исходного пространства, характер которого определяется связями между S- и A-элементами.

 

3. Обучающиеся системы принятия решений и их характеристика.

       Если бы удалось подметить некое всеобщее свойство, не зависящее ни от природы образов, на от их изображений, а определяющее лишь их способность к разделимости, то наряду с обычной задачей обучения распознаванию, с использованием информации о принадлежности каждого объекта из обучающей последовательности тому или иному образу можно было бы поставить иную классификационную задачу - так называемую задачу обучения без учителя. Задачу такого рода на описательном уровне можно сформулировать следующим образом: системе одновременно или последовательно предъявляются объекты без каких-либо указаний об их принадлежности к образам. Входное устройство системы отображает множество объектов на множество изображений и, используя некоторое заложенное в нее заранее свойство разделимости образов, производит самостоятельную классификацию этих объектов. После такого процесса самообучения система должна приобрести способность к распознаванию не только уже знакомых объектов (объектов из обучающей последовательности), но и тех, которые ранее не предъявлялись. Процессом самообучения некоторой системы называется такой процесс, в результате которого эта система без подсказки учителя приобретает способность к выработке одинаковых реакций на изображения объектов одного и того же образа и различных реакций на изображения различных образов. Роль учителя при этом состоит лишь в подсказке системе некоторого объективного свойства, одинакового для всех образов и определяющего способность к разделению множества объектов на образы.

Оказывается, таким объективным свойством является свойство компактности образов. Взаимное расположение точек в выбранном пространстве уже содержит информацию о том, как следует разделить множество точек. Эта информация и определяет то свойство разделимости образов, которое оказывается достаточным для самообучения системы распознаванию образов.

Большинство известных алгоритмов самообучения способны выделять только абстрактные образы, т. е. компактные множества в заданных пространствах. Различие между ними состоит, по-видимому, в формализации понятия компактности. Однако это не снижает, а иногда и повышает ценность алгоритмов самообучения, так как часто сами образы заранее никем не определены, а задача состоит в том, чтобы определить, какие подмножества изображений в заданном пространстве представляют собой образы. Хорошим примером такой постановки задачи являются социологические исследования, когда по набору вопросов выделяются группы людей. В таком понимании задачи алгоритмы самообучения генерируют заранее не известную информацию о существовании в заданном пространстве образов, о которых ранее никто не имел никакого представления.

Кроме того, результат самообучения характеризует пригодность выбранного пространства для конкретной задачи обучения распознаванию. Если абстрактные образы, выделяемые в процессе самообучения, совпадают с реальными, то пространство выбрано удачно. Чем сильнее абстрактные образы отличаются от реальных, тем "неудобнее" выбранное пространство для конкретной задачи.

Обучением обычно называют процесс выработки в некоторой системе той или иной реакции на группы внешних идентичных сигналов путем многократного воздействия на систему внешней корректировки. Такую внешнюю корректировку в обучении принято называть "поощрениями" и "наказаниями". Механизм генерации этой корректировки практически полностью определяет алгоритм обучения. Самообучение отличается от обучения тем, что здесь дополнительная информация о верности реакции системе не сообщается.

Обучение - это процесс, в результате которого система постепенно приобретает способность отвечать нужными реакциями на определенные совокупности внешних воздействий, а адаптация - это подстройка параметров и структуры системы с целью достижения требуемого качества управления в условиях непрерывных изменений внешних условий.

 

4. Синтез непараметрических коллективов решающих правил.

 Нелинейные непараметрические коллективы решающих правил. Идея предлагаемого подхода состоит в декомпозиции исходной задачи, построении семейства локальных решающих функций на основании однородных частей обучающей выборки и последующей их организации в едином нелинейном решающем правиле с помощью методов непараметрической статистики. Однородная часть обучающей выборки содержит её элементы, удовлетворяющие одному или нескольким требованиям, таким как наличие однотипных признаков (непрерывные, дискретные, лингвистические и др.), отсутствие либо наличие пропусков данных, что порождает широкий круг условий синтеза непараметрических решающих правил. Однородные части обучающей выборки могут отличаться размерностью и количеством элементов.

На основании однородных частей обучающей выборки сформируем наборы признаков (x (j), j =1,m) из исходных x=( x1 , К, x k)  и построим семейство частных моделей Фj (x(j)), j=1,m на основании обучающих выборок  Vj = (xi(j), yi, i=1,n), j=1,m. Интеграция частных моделей в нелинейном коллективе решающих правил осуществляется в соответствии с процедурой:

 

 

Структура предлагаемого коллектива решающих правил при восстановлении многомерной стохастической зависимости представлена на рисунке (каскадная структура):

 

При построении частных моделей yi= ФИj (x(j)), j=1,m могут быть использованы известные методы аппроксимации, включая непараметрическую регрессию

 

где I j - номера признаков, составляющих их набор x(j); Cv=Cv(n) - коэффициенты размытости ядерных функций, значения которых зависят от объёма выборки n.

Оптимизация непараметрического коллектива по коэффициентам размытости ядерных функций c j , j =1, m производится в режиме «скользящего экзамена» из условия минимума эмпирического критерия. Преимущества предлагаемой процедуры по сравнению с моделями типа «черный ящик» состоит в возможности учета частичных априорных сведений о виде взаимосвязи между переменными исследуемой зависимости «обходе» проблем малых выборок за счет снижения размерности задачи.

 

5. Постановки задач распознавания образов и характеристика методов их решения.

Рассмотрим в общем виде постановки основных задач классификации в условиях неполной информации.

Пусть  А {а} - множество, состоящее из классов объектов {Aj, j = 1, M} , с заданной на нем σ-алгеброй и некоторой вероятност­ной мерой Р. Предположим существование согласующихся со структу­рой разбиения {Aj, j = 1, M} семейства измерительных процедур F={fw} отображающих объекты a έ A  в пространстве Ω(w) призна­ков сигнала w(y,x), где y = (уv =fУv(a)), v = 1,i), x = (xv =fxv(а), v = 1,k).  Порождаемые при этом вероятностные меры в Ω(w) Ω(y) характеризуются совместными плотностями вероятности р(х,у) έ L2,  p(y) έ L2, p(x) έ L2. Компоненты векторов х и у взаимо­связаны неизвестной зависимостью.

Сигналы w, i=1,n , составляющие статистическую Vу = (уi, i= 1,n) и обучающую Vх = (xi, σ(xi), i= 1,n)  выборки, поступают независимо и одинаково распределены с плотностью вероятности  р(x,y). В зада­чах классификации "указания учителя" σ (х) формируются с помощью решающего правила:

 

оптимального в смысле минимума функции среднего риска:

 

где Q(.) - характеристическая функция j-го класса; Pi, рi, (у) - априор­ная вероятность и условное распределение у; Wij -элементы платежной матрицы W = ||Wij||, определяющие "цену" решений при использовании уравнений разделяющей поверхности

Задача распознавания образов. Пусть известно оптимальное ре­шающее правило (у(х)), с использованием которого сформулиро­вана обучающая выборка Vх = (xi, σ(xi), i= 1,n) и сведения о структуре классов не определены, но имеются сведения, что рj (х) έ L2, i=1,M, a оптимальная решающая функция:

 

где R(f(x)) - средний риск.

Необходимо синтезировать решающую функцию fn(x) для распо­знавания классов Ωj(x), j=1, М, обладающую свойством асимптоти­ческой сходимости к f(x) έF.

 

6. Непараметрическая регрессия в условиях неоднородных данных и её свойства.

Цель регрессионного анализа состоит в осуществлении разумной аппроксимации (сглаживание) неизвестной функции отклика Y(X) по известным точкам (Xij,Yi)i=1m. В случае малых ошибок наблюдения становится возможным сконцентрировать внимание на важных деталях средней зависимости Y от X при ее интерпретации.

Ядерное сглаживание: Принцип, использующий идейно простой подход к представлению последовательности весов (рисунок ->)  состоит в описании формы весовой функции (рисунок ->2 строка) посредством функции плотности со скалярным параметром, который регулирует размер и форму весов около х. Эту функцию формы принято называть ядром К.

 

Полученные таким образом веса далее используются для представления величины a(x) в виде взвешенной суммы значений Yi обучающей выборки.

Ядро — это непрерывная ограниченная симметричная вещественная функция  с единичным интегралом.

 

 

7. Непараметрические модели стохастических зависимостей коллективного типа

Пусть дана выборка  из статистически независимых наблюдений значений неизвестной функции и её аргументов.

Преобразование  и плотности вероятности  достаточно гладкие и имеют хотя бы первые две производные.

Поставим в соответствие некоторым точкам обучающей выборки , условно назовём их «опорными», упрощённые параметрические аппроксимации  (опорные функции) зависимости, параметры которых удовлетворяют условиям

 

 

т.е. -я упрощённая аппроксимация проходит через ю «опорную» точку и близка с среднеквадратическом ко всем остальным элементам обучающей выборки.

Здесь и далее опорные точки , выбираемые из выборки , упорядочиваются .

Упрощенные параметрические аппроксимации  могут быть линейными либо нелинейными.

Для линейных опорных функций

где параметры , а коэффициенты  находятся из условия минимума критерия

 

Тогда задача определения параметров может быть сведена к решению системы линейных уравнений.

Для нелинейных опорных функций

, где  - количество признаков вектора входной переменной,  - максимальная степень опорной аппроксимации.

       Исходя из условия прохождения опорной аппроксимации через опорную точку параметр, а коэффициенты  находятся из условия минимума критерия.                   

Задача определения коэффициентов сводится к нахождению минимума критерия путём решения системы уравнений с помощью правила Крамера либо метода Гаусса

Объединение упрощённых параметрических аппроксимаций в коллектив осуществляется на основе процедуры условного усреднения:

 

где положительная, ограниченная значением единица функция  определяет «вес» правила  при формировании решения в ситуации .

       Примером функции  является нормированное расстояние между точками  (основанная на преобразовании Евклидовых расстояний).

 

8. Последовательные процедуры формирования решений и их применение.

Принятие решения — это процесс рационального или иррационального выбора альтернатив, имеющий целью достижение осознаваемого результата

 

Решение – целенаправленное воздействие в системе «внешняя среда- субъект» для устранения возникшего конфликта.

Есть 2 способа  формирования решения

  1. 1.        Формирование с позиции причинно-следственного подходи
  2. 2.        С позиции целенаправленной системы

1 метод

 

Y=(x) где фи - преобразование между Х и У. для этого можно использовать метод восстановления стохастических зависимостей.

Данные бывают: 1) О виде функции фи 2) Экспериментальные данные, тобишь известные иксы и игрики.

2 метод

Осуществляются с помощью методов оптимизации.

АФР зависит от условий

АФР(Р(х)) тут надо восстанавливать стохастическую зависимость.

 

11. Декомпозиция систем в задачах принятия решений.

Декомпозиция - разбиение большой задачи на серию мелких. Базируется на анализе функций системы. При этом ставится вопрос, что делает система, независимо от того, как она работает. Основанием разбиения на функциональные подсистемы служит общность функций, выполняемых группами элементов. Используется в Методе деления выборки на контрольную и обучающую. Идея метода состоит в декомпозиции исходной обучающей выборки на контрольную  и обучающую  выборки

 

где  - объём обучающей выборки, а  - контрольной.

При этом среднеквадратический критерий будет иметь вид

.

       Данный критерий характеризует среднеквадратическое расхождение между строящейся по выборке  непараметрической регрессией и элементами контрольной выборки.

       Рассматриваемый метод поиска оптимального коэффициента размытости наиболее удобно применять при достаточно больших объёмах обучающей выборки (более 200 наблюдений на каждый признак x), когда исследователь может пожертвовать частью исходной выборки V и сформировать контрольную.

Еще используется в декомпозиции систем в каскадные структуры Общая теория систем является удобным аппаратом исследования сложных систем, позволяющим обосновать возможность их декомпозиции в виде семейства взаимодействующих подсистем. Тем самым создаются теоретические предпосылки последующего анализа системы с позиций более разработанных методологий.

 

12. Непараметрические алгоритмы распознавания образов в пространстве разнотипных признаков.

В вероятностной постановке задач классификации проблема оценивания смеси возникает при восстановлении совместной плотности вероятности.

 

Распределения признаков сигнала x в классах  и при обработке разнотипных данных W=(X,U), где u - вектор дискретных переменных. Если в первом случае получение непараметрической оценки не вызывает затруднений, то во втором процедура оценивания неочевидна. Пусть вектор дискретных либо качественных признаков u допускает представление в пространстве Хемминга. Будем считать, что                     - вектор, состоящий из m групп переменных                                                  размерности,   причем каждая компонента  принимает лишь два значения.                                                                                     Представим вероятностные свойства случайной величины (x, u) в виде смеси.

 

где N(u) - число различающихся значений вектора. А то что под суммой - априорная вероятность их появления и соответствующая им условная плотность вероятности непрерывных переменных.

При конечных объемах исходной выборки и значительных размерностях вектора u прямое оценивание p(x,u)  практически невозможно. Реальный выход из подобного положения заключается во введении меры близости (u,,u,,) между любыми двумя точками  (u,,u,,,)  в пространстве u дискретных переменных и последующем представлении p(x,u) в виде

 

где Dj(u) - h-окрестность вокруг точки uj.

Параметр h характеризует граничное значение меры близости (u, uj) при превышении которого точки  (u,uj)  считаются несравнимо далеко состоящими и не учитываются при оценивании p(x,u).

В этом случае можно построить непараметрическую оценку смеси. Оценка эта удовлетворяет основному свойству плотности вероятности -  нормированности.

       При формировании решающего правила в задаче распознавания образов с использованием оценок плотности, и ее параметры выбираются из условия минимума ошибки распознавания в режиме скользящего экзамена.

13. Методы оптимизации непараметрических алгоритмов принятия решений

Оптимизация непараметрической оценки регрессии по виду ядерной функции - подставляем в интегральное выражение среднеквадратического отклонения выражение соответствующее оптимальному коэффициенту размытости. В результате имеем:

 

Следовательно, задача минимизации данного выражения сводится к решению вариационной задачи:

 

В результате получаем ядерную функцию Епанечникова

 

Оптимизация непараметрической оценки регрессии по коэффициенту размытости - при фиксированном объёме статистических данных качество аппроксимации стохастических зависимостей с помощью непараметрической оценки регрессии существенно зависит от выбранных коэффициентов размытости ядерных функций. 

Определение конкретных значений коэффициентов размытости  обычно осуществляется из условия минимума эмпирических критериев:

средняя ошибка аппроксимации

;

среднеквадратическая ошибка аппроксимации

;

средняя относительная ошибка аппроксимации

;

среднеквадратическая относительная ошибка аппроксимации

 

 

14. Гибридные модели принятия решений

Пусть при восстановлении однозначной зависимости  кроме выборки, известны частичные сведения (либо принимается гипотеза)  о виде преобразования  с точностью до набора параметров . 

Гибридная модель формируется как некоторая комбинация  и , зависящая от введённого преобразования q.

Выберем одно из предлагаемых преобразований:

 

 

тогда гибридная модель запишется соответственно в виде:

 

следует отметить снижение требований к точности оценивания параметров a по сравнению с параметрическими моделями.

       Синтез и анализ гибридных моделей стохастических зависимостей в условиях наличия их частного описания. 

Традиционные гибридные модели сочетают в одном решающем правиле преимущество параметрических и непараметрических аппроксимаций. При этом единое решающее правило образуют параметрическая модель восстанавливаемой зависимости и непараметрическая оценка функции невязки, которые строятся в одном и том же пространстве переменных.

       Пусть об искомой однозначной зависимости  известно её частное описание относительно некоторого ограниченного набора признаков

 

и выборка  экспериментальных данных, составленная из статистически независимых значений переменной  исследуемой зависимости .

Задача состоит в построении модифицированной гибридной модели  искомой зависимости, совмещающей в одном решающем правиле всю имеющуюся априорную информацию.

Непараметрические гибриды решающих правил в задаче восстановления стохастических зависимостей

Неопределённость выбора функции невязки порождает проблемы в обоснованном применении той или иной разновидностей гибридных моделей, несмотря на имеющиеся рекомендации, полученные в результате аналитических исследований. Так, гибридная модели с функцией невязки типа разности хорошо зарекомендовала себя в случае аддитивных помех, накладываемых на переменные изучаемой зависимости. При мультипликативных помехах эффективно использовать невязку типа отношение. Отсутствие априорных сведений о характере случайных воздействий делает необходимым применение методов коллективного оценивания, что повышает эффективность гибридных моделей и позволяет дополнительно получить полезную информацию.

       Пусть при восстановлении однозначной зависимости  кроме выборки, известны частичные сведения (либо принимается гипотеза)  о виде преобразования  с точностью до набора параметров .

       Этапы формирования непараметрических гибридных решающих правил:

1. Построить параметрическую модель  искомой зависимости  и оценить компоненты вектора  по выборке  методом наименьших квадратов.

2. Используя различные виды невязок сформировать выборки

 

Значения невязок вычисляются на основании выборки .

3. Построить непараметрические оценки функций невязок по значениям выборок, например, используя непараметрическую регрессию и оптимизировать их по коэффициентам размытости. (для скаляра или многомерной СВ)

4. Сформировать промежуточную выборку, для которой аргументами будут, является значения параметрической модели и непараметрические оценки функций невязок. Используя данную выборку построить обобщённое непараметрическое гибридное решающее правило, оптимизация которого по коэффициентам размытости осуществляется с помощью метода «скользящего экзамена»

 

15.  Линейные коллективы решающих правил.

Структуру предлагаемых моделей составляют семейство упрощённых параметрических аппроксимаций искомой зависимости, не имеющих самостоятельного значения, которые строятся относительно системы «опорных» ситуаций из обучающей выборки. Объединение упрощённых аппроксимаций в коллектив реализуется с помощью непараметрической оценки оператора условного математического ожидания.

Пусть дана выборка  из статистически независимых наблюдений значений неизвестной функции  и её аргументов.

Преобразование  и плотности вероятности p(x), p(x , y) достаточно гладкие и имеют хотя бы первые две производные.

Поставим в соответствие некоторым точкам обучающей выборки  условно назовём их «опорными», упрощённые параметрические аппроксимации  (опорные функции) зависимости, параметры которых удовлетворяют условиям:

 

 

т.е. i -я упрощённая аппроксимация проходит через i-ю «опорную» точку и близка в среднеквадратическом ко всем остальным элементам обучающей выборки.

Здесь и далее опорные точки , выбираемые из выборки V , упорядочиваются

Упрощенные параметрические аппроксимации  могут быть линейными либо нелинейными.

Для линейных опорных функций

 

где параметры  , а коэффициенты   находятся из условия минимума критерия

 

Тогда задача определения параметров может быть сведена к решению системы линейных уравнений

 

 

относительно , используя, например, правило Крамера либо метод Гаусса.

Система уравнений для определения её коэффициентов  представляется в матричном виде.

Объединение упрощённых параметрических аппроксимаций в коллектив осуществляется на основе процедуры условного усреднения

 

где положительная, ограниченная значением единица функция определяет «вес» правила   при формировании решения в ситуации x .

Примером функции является нормированное расстояние между точками (основанная на преобразовании Евклидовых расстояний)

 

либо «весовая» функция, составленная из «ядерных» функций, на основе которых строятся непараметрические модели.

 

16. Методы принятия решений при неполной информации.

      Основной категорией аппарата принятия решений при нечетко заданных условиях является расплывчатое множество, представляющее собой класс G C S объектов (состояние системы, значения управляющих воздействий и выходных переменных системы), в котором нет четкой границы между объектами s έ G, принадлежащих данному классу либо ему не принадлежащих. Несмотря на это расплывчатое множество, может быть точно определено путем сопоставления каждому объекту s некоторого числа из интервала [0; 1], характеризующего степень его принадлежности к расплывчатому множеству G.

       В соответствии с этим будем придерживаться следующего определения: расплывчатое множество G в S представляет собой совокупность упорядоченных пар:

G = {s, μG (s)}, sέS ,

составленных из объектов s и степени μG(s) их принадлежности к G.

       Преобразование μG: S → Л έ [0; 1] носит название функции принадлежности, имеющей такое же назначение в теории расплывчатых множеств, как понятие вероятностной меры в теории вероятностей.

       Взаимосвязь между заданной вероятностной мерой P в S и измеримой функцией μG(s) проявляется через категорию расплывчатое событие G в S, вероятность которого определяется интегралом

P(G) =∫μG(s)dP=M{μG (s)}

для непрерывных случайных величин s (M - знак математического жидания), либо в виде конечной суммы

P(G) = Σ iέIμG(s)P(si) ,

если s принимает дискретные значения si с вероятностью P(s), iέI. С данных позиций запишем формулу для вычисления условных вероятностей расплывчатого события для встречающейся в последующих рассуждениях ситуации:

u, s - соответственно непрерывная и дискретная случайная величины, распределение которых описывается условными плотностями вероятности p(u/si) и вероятностями P(s), iέI.

       Так как по формуле Байеса

 

P(G/u)=M{μG(s)}=Σ iέIμG(s)P(si/u),

где M - оператор условного математического ожидания. Если функция принадлежности μG(s), sέS принимает лишь два значения (1 любой sέS и 0 в противном случае), то (P(G)) совпадает с привычным выражением вероятности нерасплывчатого события.

       Таким образом, в отличие от случайности, понятие расплывчатости связано с неопределенностью sέS, задаваемой различными градациями.

       Пусть F - отображение из пространства U управляющих воздействий

(альтернатив) на систему в дискретное пространство S и ее выходных переменных (состояний системы).

       При формулировке задачи принятия решений в нечетких условиях цель G отождествляется с расплывчатым множеством

G = {si , μG (si ), iέI },

       где I - множество индексов состояний системы, а ограничение C определяется как расплывчатое множество:

C = {u, μс (u)}, u έU .

       Так как искомое решение должно одновременно удовлетворять C и G, то определим его как расплывчатое множество R = G ں C с функцией принадлежности

 

Таким образом, расплывчатому решению соответствует множество альтернатив с различной степенью принадлежности искомому решению. В силу выпуклости расплывчатых множеств G и C множество R также выпукло. Причем оптимальное решение, в общем случае, есть множество R точек из R, соответствующих условию

 

       В отличие от традиционных методов условной оптимизации (методы множителей Лагранжа и штрафных функций) в данном случае определение решения на основе утверждения тождественности цели и ограничений является естественным и следует из самой постановки задачи.

 

18. Методы выбора информативных признаков

Отбор информативных признаков. Пусть при восстановлении f jj (x) используется непараметрическая оценка плотности вероятности типа Розенблатта – Парзена. Причем оптимизация f jj (x) по параметрам c=(c1,…,ck) осуществляется из условия минимума функционала

 

Что целесообразно при большом количестве классов. Тогда:

Если в пространстве нормированных значений вектора признаков  субо… Продолжение »

© saginwasja

Бесплатный хостинг uCoz