алгоритм обратного распространения

Функция активация в алгоритме обратного распространения ошибки должна обладать несколькими важными характеристиками: непрерывностью

Ох, нашел ошибку. В последнем цикле нужно было вместо outputs[indexByLayerAndNeuron(i, j)]; написать: outputs[indexByLayerAndNeuron(i-1, k)]; Все беды от невнимательности.

Уважаемые товарищи, я интересуюсь искусственными нейронными сетями, а именно алгоритмом обучения многослойного персептрона обратным распространением ошибки. Предмет нейронные сети проходил в университете, но настолько детально нам проблему не преподавали. Имею несколько математических описаний этого алгоритма (учебники, Интернет) и пару программных реализаций, но разобраться пока не могу (очень много условностей и деталей в теории, и по 4 вложенных цикла, работающих с группами объектов, в примерах). Если кто-нибудь занимается нейросетями и хорошо представляет этот алгоритм, можно ли как-нибудь состыковаться и объяснить этот алгоритм «на пальцах»? Как сеть работает в прямом направлении мне понятно, непонятности появляются именно при обучении обратным распространением. Буду очень признателен, ибо бъюсь уже не один день.

19.03.2015, 22:29 Метод обратного распространения ошибки. Similar.  Не знаю, вроде бы я правильно понял этот алгоритм, а на выходе получается не то?

А что там непонятного, представляем сеть в виде структур данных. Классы, массивы, хеши... все зависит от языка програмирования. Реализуем загрузку сети из какого-нибудь источника. Потом реализуем собственно функции расчета выхода сети. Подаем изображение, если классифицировалось неправильно, то методом обратного распространения подправляем веса и сохраняет конфигурацию сети обратно в источник.
Но вместо всего выше описаного можно использовать готовую библиотеку, которые я уверен существуют в бесплатном варианте.
Обучение с помощью алгоритма обратного распространения. Обратное распространение (Backpropagation algorithm)

Алгоритм обратного распространения ошибки. Back propagation algorithm.  Алгоритм стал значимой вехой в истории становления и развития нейросетевых


Метод обратного распространения ошибки (англ. backpropagation)— метод обучения многослойного перцептрона. Впервые метод был описан в 1974 г. А.И. Галушкиным, а также независимо и одновременно Полом Дж. Вербосом.

Метод обратного распространения ошибки. Метод обратного распространения ошибки (англ. backpropagation)— метод обучения многослойного перцептрона. Впервые метод был описан в 1974 г. А.И. Галушкиным


Для обучения описанной нейронной сети был использован алгоритм обратного распространения ошибки (backpropagation).

1.8. Алгоритм обратного распространения. 14. 1.9. Описание шаблона программы и форматов входных данных.


Рассмотрим процесс обучения нейронной сети с использованием алгоритма обратного распространения ошибки (backpropagation).

Идея создания алгоритма обратного распространения. Примерно в 1974 году Поль Дж.  Алгоритм обратного распространением проще всего понять, когда все


Основные соотношения метода обратного распространения ошибки получены в  , т. е. является простой функцией от выходов нейронов. 1.3.6. Алгоритм настройки

Алгоритм обратного распространения ошибок. Этот алгоритм определяет два «потока» в сети.20 декабря 2014


3.2.1. Идея создания алгоритма обратного распространения.  Алгоритм обратного распространением проще всего понять, когда все элементы сети линейны.

Ух не на тот вы форум явно зашли. Ну обучение это что - это вы подсовываете программе ндцать примеров, получаете ответы и правите оценночную функцию (у вас весовые функции) . Вроде там формула была как они должны правиться.


 

Меню