neuro.nigmatec.ru        
 
   
 
    Serverzeit

   
  
  
  

:
:    [ -: 27 ]

 

146.5 kb
Короткий С. Нейронные сети: обучение без учителя. ()
 N3.pdf   146.5 kb   07.11.2009  397 
 В статье рассмотрены алгоритмы обучения искусственных нейронных сетей без учителя. Приведена библиотека классов на C++ и тестовый пример. Такие сети способны обобщать схожие образы, относя их к одному классу. Рассмотрено обучение Хебба и алгоритм Кохонена, на основе которого строятся нейронные сети особого типа – так называемые самоорганизующиеся структуры (карты) – self-organizing feature maps.

116.5 kb
Крисилов В.А., Чумичкин К.В., Кондратюк А.В. Представление исходных данных в задачах нейросетевого прогнозирования. Одесса (2003)
 krisilov2003represent.pdf   116.5 kb   07.11.2009  367 
 В работе рассматриваются вопросы предварительных преобразований данных в задачах прогнозирования временных рядов посредством нейронных сетей. Сформулированы требования к предварительным к предварительным преобразованиям, необходимым для уменьшения ошибки прогноза. Приведены практические результаты применения предложенных соображений при прогнозировании финансовых временных рядов.

791.3 kb
Воронцов K. Лекции по искусственным нейронным сетям. (2005)
 NeuralNets.pdf   791.3 kb   07.11.2009  385 
 Это черновой вариант конспекта лекций. Здесь освещена история развития искусственных нейронных сетей, начиная с работ МакКаллока и Питтса, показаны теоретические аспекты существующих парадигм, а также практические рекомедации. Особое внимание уделено сетям прямого распространения, картам Кохонена, даны классические алгоритмы обучения.

300.2 kb
Igel C., Huesken M. Improving the Rprop Learning Algorithm. Bochum ()
 igel00improving.pdf   300.2 kb   07.11.2009  380 
 Авторы модифицировали алгоритм RProp, предложенный Ридмиллером и Брауном, чем достигли повышения скорости обучения. В статье описан сам алгоритм и его четыре модификации. Алгоритм может быть реализован с «откатом» (Weight-Backtracking) коррекции весов или без него. В новой (улучшенной) схеме с откатом последний производится только в том случае, если ошибка сети на данной итерации больше, чем на предыдущей. В схеме без отката переменная, содержащая значение производной ошибки по весу, обнуляется если ее знак изменился. Сравнения выполнены на задачах диагностики диабета, рака, а также T-C-классификации.

299.9 kb
Riedmiller Martin, Braun Heinrich. A Direct Adaptive Method for Faster Backpropagation Learning: The RPROP Algorithm. Karlsruhe ()
 riedmiller93direct.pdf   299.9 kb   07.11.2009  400 
 Ридмиллер и Браун описывают модификацию градиентного спуска - алгоритм прямой подстройки RPROP. В статье приведены сравнения с классическим backpropagation, SuperSAB, Qiuckprop на задачах шифраторов 10-5-10, 12-2-12, игре Nine Men's Morris, двух спиралях.

955.5 kb
Заенцев И. Нейронные сети: основные модели. Воронеж (1999)
 course.pdf   955.5 kb   07.11.2009  371 
 Учебное пособие к курсу "Нейронные сети". Читается студентам 5 курса магистратуры Воронежского Государственного университета физического факультета. Описание начинается с биологических нейронов, довольно подробно рассматриваются электрохимические процессы передачи нервного импульса, далее переход на обзор моделей искусственных нейронов с различными активационными функциями. Дается алгоритм обратного распространения ошибки для обучения многослойной сети. Рассматриваются известные проблемы и ограничения нейросетей, а также имеются примеры практического применения.

225.5 kb
Першин Д. Обзор некоторых видов нейронных сетей. Новосибирск (2000)
 063.pdf   225.5 kb   07.11.2009  447 
 Рассмотрены наиболее распространенные модели нейронных сетей, кратко описаны известные алгоритмы обучения. Обзор ведется в научно-популярной форме.

   . 1 2 3  

  Online : 1  - Guest -


Copyright 2009 nigmatec.ru