Метод обратного распространения ошибки
Материал из Википедии — свободной энциклопедии
Ме́тод обра́тного распростране́ния оши́бки — метод обучения искусственных нейронных сетей, который подразумевает наличие некоего идеального выходного образца для каждого входного вектора. Суть обучения сводится к получению разницы между идеальным значением и полученным.
Впервые метод был описан Полем Дж. Вербосом в 1974, и далее развит Дэвидом И. Румельхатом и Рональдом Дж. Вильямсом в 1986.
Для возможноcти применения этого метода, передаточная функция нейронов должна быть дифференцируема.
Алгоритм метода таков:
- Провод по сети входного вектора (активизация сети).
- Получения идеального значения для каждого нейрона каждого слоя (наиболее простое решение — получения через следующий слой).
- Изменение весовых коэффицентов.