neuro.nigmatec.ru       Вход для партнёров 
 
  Пользователь не определен  
 
    Serverzeit

 На главную 
 Статьи 
 Материалы 
 Контакты 

Поиск по разделу:
Материалы:    [ Общее кол-во: 26 ]

  Название Файл Размер Загружен Скачано

95 kb
Riedmiller M. RPROP - Description and Implementation Details. Karlsruhe (1994)
 riedmiller94rprop.pdf   95 kb   07.11.2009  350 
 RPROP – алгоритм ускоренного обучения многослойных сетей прямого распространения, относится к алгоритмам с локальной адаптивной техникой, на ряде задач позволяет достичь сокращения времени обучения в 5-6 раз и более в сравнении с классическим backpropagation, является одним из наиболее часто применяемых на практике, реализован «в железе» на некоторых нейроплатах.

145.7 kb
Короткий С. Нейронные сети: основные положения. ()
 N1.pdf   145.7 kb   07.11.2009  290 
 В статье рассмотрены основы теории нейронных сетей, позволяющие в дальнейшем обратиться к конкретным структурам, алгоритмам и идеологии практического применения сетей в компьютерных приложениях.

219.5 kb
Bruske Joerg, Sommer Gerald. Dinamic Cell Structures. Kiel (1995)
 1994_Dynamic_Cell_Structures.pdf   219.5 kb   07.11.2009  716 
 Динамические ячеистые структуры представляют семейство архитектуры искусственных нейронных сетей, сочетающих контролируемое и неконтролируемое обучение.

181.5 kb
Короткий С. Нейронные сети: алгоритм обратного распространения. ()
 N2.pdf   181.5 kb   07.11.2009  298 
 В статье рассмотрен алгоритм обучения нейронной сети с помощью процедуры обратного распространения, описана библиотека классов для С++. Алгоритм расписан пошагово в удобном для практической реализации виде. Приведен работающий код.

211.5 kb
Короткий С. Нейронные сети Хопфилда и Хэмминга. ()
 N4.pdf   211.5 kb   07.11.2009  321 
 Рассказывается о сетях, обладающих так называемой ассоциативной памятью. Сеть Хопфилда умеет восстанавливать образ по имеющемуся зашумленному сигналу или, если не может распознать, дает об этом заключение. Когда нет необходимости, чтобы сеть в явном виде выдавала образец, то есть достаточно, скажем, получать номер образца, ассоциативную память успешно реализует сеть Хэмминга.

2.2 Mb
Уоссермен Ф. Нейрокомпьютерная техника: Теория и практика. (перевод 1992)
 NeuroTech.pdf   2.2 Mb   07.11.2009  302 
 В книге американского автора в общедоступной форме излагаются основы построения нейрокомпьютеров. Описаны структура нейронных сетей и различные алгоритмы их настройки. Отдельные главы посвящены вопросам реализации нейронных сетей. Для специалистов в области вычислительной техники, а также студентов соответствующих специальностей вузов.

206.1 kb
Riedmiller M. Advanced Supervised Learning In Multi-Layer Perceptrons – From Backpropagation to Adaptive Learning Algorithms. Karlsruhe ()
 riedmiller94advanced.pdf   206.1 kb   07.11.2009  304 
 Статья описывает алгоритм обучения многослойных сетей RPROP. Автор дает описание своего алгоритма и краткое описание других техник (Backpropagation, Delta-Bar-Delta, SuperSAB, Quickprop), с которыми затем идет сравнение. Сравнение производится на задачах: проблема XOR, сжатие информации кодировщиками 10-5-10 и 12-2-12, две спирали. В целом, по результатам приведенных сравнений, RProp на высоте.

152.2 kb
Fahlman S. The Cascade-Correlation Learning Architecture. Pittsburgh (1991)
 fahlman91cascadecorrelation.pdf   152.2 kb   07.11.2009  34 
 Обучение многослойной сети прямого распространения в сочетании с динамическим увеличением размеров сети (наращивание слоев и добавление нейронов) дает хорошее улучшение процесса, особенно в сложных задачах, какой, к примеру, является задача о двух спиралях. На этой задаче автор и показал эффективность метода.

51.7 kb
Fahlman S. An Empirical Study of Learning Speed in Back-Propagation Networks. Pittsburgh (1988)
 fahlman88empirical.pdf   51.7 kb   07.11.2009  255 
 Автор систематизирует улучшения стандартного алгоритма обратного распространения в своих исследованиях и, как результат первых шести месяцев своей работы, предлагает алгоритм ускоренного обучения Quickprop. Данный алгоритм является комплексом эвристических дополнений к исходному Backpropagation. По эффективности и популярности приближается к RProp.

146.5 kb
Короткий С. Нейронные сети: обучение без учителя. ()
 N3.pdf   146.5 kb   07.11.2009  279 
 В статье рассмотрены алгоритмы обучения искусственных нейронных сетей без учителя. Приведена библиотека классов на C++ и тестовый пример. Такие сети способны обобщать схожие образы, относя их к одному классу. Рассмотрено обучение Хебба и алгоритм Кохонена, на основе которого строятся нейронные сети особого типа – так называемые самоорганизующиеся структуры (карты) – self-organizing feature maps.

   Стр. 1 2 3  

  Online : 1  - Guest -


Copyright © 2009 nigmatec.ru