Нейрокомпьютинг и его применения в экономике и бизнесе

         

Оценка вычислительной сложности обучения


В этой лекции мы рассмотрели два разных типа обучения, основанные на разных принципах кодирования информации выходным слоем нейронов. Логично теперь сравнить их по степени вычислительной сложности и выяснить когда выгоднее применять понижение размерности, а когда - квантование входной информации.

Как мы видели, алгоритм обучения сетей, понижающих размерность, сводится к обычному обучению с учителем, сложность которого была оценена ранее. Такое обучение требует

Оценка вычислительной сложности обучения
операций, где
Оценка вычислительной сложности обучения
- число синаптических весов сети, а
Оценка вычислительной сложности обучения
- число обучающих примеров. Для однослойной сети с
Оценка вычислительной сложности обучения
входами и
Оценка вычислительной сложности обучения
выходными нейронами число весов равно
Оценка вычислительной сложности обучения
и сложность обучения
Оценка вычислительной сложности обучения
можно оценить как
Оценка вычислительной сложности обучения
, где
Оценка вычислительной сложности обучения
- коэффициент сжатия информации.

Кластеризация или квантование требуют настройки гораздо большего количества весов - из-за неэффективного способа кодирования. Зато такое избыточное кодирование упрощает алгоритм обучения. Действительно, квадратичная функция ошибки в этом случае диагональна, и в принципе достижение минимума возможно за

Оценка вычислительной сложности обучения
шагов (например в пакетном режиме), что в данном случае потребует
Оценка вычислительной сложности обучения
операций. Число весов, как и прежде, равно
Оценка вычислительной сложности обучения
, но степень сжатия информации в данном случае определяется по-другому:
Оценка вычислительной сложности обучения
. Сложность обучения как функция степени сжатия запишется в виде:
Оценка вычислительной сложности обучения
.

При одинаковой степени сжатия, отношение сложности квантования к сложности данных снижения размерности запишется в виде:

Оценка вычислительной сложности обучения

Рисунок 4.11 показывает области параметров, при которых выгоднее применять тот или иной способ сжатия информации.

Оценка вычислительной сложности обучения

Рис. 4.11.  Области, где выгоднее использовать понижение размерности или квантование

Наибольшее сжатие возможно методом квантования, но из-за экспоненциального роста числа кластеров, при большой размерности данных выгоднее использовать понижение размерности. Максимальное сжатие при понижении размерности равно

Оценка вычислительной сложности обучения
, тогда как квантованием можно достичь сжатия
Оценка вычислительной сложности обучения
(при двух нейронах-прототипах). Область недостижимых сжатий
Оценка вычислительной сложности обучения
показана на рисунке серым.

В качестве примера рассмотрим типичные параметры сжатия изображений в формате JPEG.
При этом способе сжатия изображение разбивается на квадраты со стороной

Оценка вычислительной сложности обучения
пикселей, которые и являются входными векторами, подлежащими сжатию. Следовательно, в данном случае
Оценка вычислительной сложности обучения
. Предположим, что картинка содержит
Оценка вычислительной сложности обучения
градаций серого цвета, т.е. точность представления данных
Оценка вычислительной сложности обучения
. Тогда координата абсциссы на приведенном выше графике будет
Оценка вычислительной сложности обучения
. Как следует из графика при любых допустимых степенях сжатия в данном случае оптимальным с точки зрения вычислительных затрат является снижение

размерности. 1)

Однако, при увеличении размеров элементарного блока, появляется область высоких степеней сжатия, достижимых лишь с использованием квантования. Скажем, при
Оценка вычислительной сложности обучения
, когда
Оценка вычислительной сложности обучения
, в соответствии с графиком (см. рисунок 4.11), квантование следует применять для сжатия более
Оценка вычислительной сложности обучения
, т.е.
Оценка вычислительной сложности обучения
.


Содержание раздела