В лекции, посвященной извлечению знаний, мы уже познакомились с нейросетевыми методами извлечения правил из данных. Настало время узнать, как можно извлечь с их помощью нечеткие правила.
Рассмотрим набор нечетких правил
Если
есть , то есть ,Каждое из них может интерпретироваться как обучающая пара для многослойного персептрона. При этом, условие (x есть
) определяет значение входа, а следствие (y есть ) - значение выхода сети. Полное обучающее множество имеет вид . Заметим, что каждому лингвистическому значению соответствует своя функция принадлежности, так что каждое нечеткое правило определяет связь двух функций.Если же правила имеют более сложный вид, типа "два входа - один выход":
Если
есть и есть , то есть то обучающая выборка принимает форму , Существует два основных подхода к реализации нечетких правил типа if-then с помощью многослойных персептронов.В методе Умано и Изавы нечеткое множество представляется конечным числом значений совместимости. Пусть
включает носители всех , входящих в обучающую выборку а также носители всех , которые могут быть входами в сети. Предположим также, что включает носители всех , входящих в обучающую выборку, а также носители всех , которые могут быть входами в сети. ПоложимДискретный аналог обучающего множества правил (заменяющее функциональное) имеет вид:
Если теперь ввести обозначения
, то можно представить нечеткую нейронную сеть с входными и выходными нейронами ( рисунок 11.3).Пример 1. Предположим, что обучающая выборка включает три правила:
Если город мал, то доход от продажи бриллиантов отрицателен, Если город средний, то доход от продажи бриллиантов близок к нулю, Если город велик, то доход от продажи бриллиантов положителен.Функции принадлежности определим как
(Здесь предполагается, что доход не превышает 100% или 1.0 в относительных величинах)