Нейрокомпьютинг и его применения в экономике и бизнесе



              

Индивидуальная нормировка данных


Приведение данных к единичному масштабу обеспечивается нормировкой каждой переменной на диапазон разброса ее значений. В простейшем варианте это - линейное преобразование:

\mbox{\~x}_i=\frac{x_i-x_{i,min}}{x_{i, max}-x_{i, min}}

в единичный отрезок:

\mbox{\~x}_i
. Обобщение для отображения данных в интервал
[-1,1]
, рекомендуемого для входных данных тривиально.

Линейная нормировка оптимальна, когда значения переменной

x_i
плотно заполняют определенный интервал. Но подобный "прямолинейный" подход применим далеко не всегда. Так, если в данных имеются относительно редкие выбросы, намного превышающие типичный разброс, именно эти выбросы определят согласно предыдущей формуле масштаб нормировки. Это приведет к тому, что основная масса значений нормированной переменной
\mbox{\~x}_i
сосредоточится вблизи нуля:
|\mbox{\~x}_i|\ll 1
.

Гистограмма значений переменной при наличии редких, но больших по амплитуде отклонений от среднего

Рис. 7.2.  Гистограмма значений переменной при наличии редких, но больших по амплитуде отклонений от среднего

Гораздо надежнее, поэтому, ориентироваться при нормировке не на экстремальные значения, а на типичные, т.е. статистические характеристики данных, такие как среднее и дисперсия:

\mbox{\~x}_i\frac{x_i-\mbox{\=x}_i}{\sigma_i},

\mbox{\=x}_i\equiv \frac{1}{P}\sum_{\alpha}^{P}x_i^\alpha,

\frac{1}{P-1}\sum_{\alpha-1}^P(x_i^{\alpha}-\mbox{\={x}}_i)^2.

В этом случае основная масса данных будет иметь единичный масштаб, т.е. типичные значения всех переменных будут сравнимы (см. рисунок 7.2).

Однако, теперь нормированные величины не принадлежат гарантированно единичному интервалу, более того, максимальный разброс значений

\mbox{\~{x}_i}
. заранее не известен. Для входных данных это может быть и не важно, но выходные переменные будут использоваться в качестве эталонов для выходных нейронов. В случае, если выходные нейроны - сигмоидные, они могут принимать значения лишь в единичном диапазоне. Чтобы установить соответствие между обучающей выборкой и нейросетью в этом случае необходимо ограничить диапазон изменения переменных.

Линейное преобразование, как мы убедились, неспособно отнормировать основную массу данных и одновременно ограничить диапазон возможных значений этих данных. Естественный выход из этой ситуации - использовать для предобработки данных функцию активации тех же нейронов. Например, нелинейное преобразование

\mbox{\~{x}_i}=f(\frac{x_i-\mbox{\={x}_i}}{\sigma_i}),

f(\alpha)=\frac{1}{1+e^{-\alpha}}




Содержание  Назад  Вперед