Искусственные нейронные сети

 













Курсовая работа

Тема: Искусственные нейронные сети

Дисциплина: Нейротехнологии и нейрокомплексные системы


План


Введение

Теоретические сведения

Структура простой рефлекторной нейронной сети

Биологическая изменчивость и обучение нейронных сетей

Классификация нейронных сетей

Теорема об обучении персептрона

Линейная разделимость и персептронная представляемость

Неокогнитрон и инвариантное распознавание образов

Практическое задание

Задание 2

Задание 3

Задание 4

Выводы

Литература

нейронный сеть графический неокогнитрон

Введение


Цель работы: изучение архитектуры искусственных нейронных сетей, способов их графического изображения в виде функциональных и структурных схем и программного представления в виде объектов специального класса network, включающих массив структур с атрибутами сети и набор необходимых методов для создания, инициализации, обучения, моделирования и визуализации сети, а также приобретение навыков построения сетей различной архитектуры с помощью инструментального программного пакета Neural Network Toolbox системы MATLAB.



Теоретические сведения


Нейронные сети


Нейронная сеть - термин, имеющий два значения: биологическая нейронная сеть и искусственная сеть.

Искусственная нейронная сеть - сеть, состоящая из искусственных нейронов (программируемая конструкция, имитирующая свойства биологических нейронов). Искусственные нейронные сети используются для изучения свойств биологических нейронных сетей, а также для решения задач в сфере искусственного интеллекта. Нейронная сеть, в случае искусственных нейронов называемая искусственной нейронной сетью или смоделированной нейронной сетью, является взаимосвязанной группой естественных или искусственных нейронов, которая использует математические и вычислительные модели для обработки информации на основе коннективисткого подхода к вычислению. В большинстве случаев искусственная нейронная сеть является адаптивной системой, которая изменяет свою структуру под влиянием внешней или внутренней информации, которая течет через сеть.


Структура простой рефлекторной нейронной сети


Выделяют несколько (обычно три) основных типов нейронных сетей, отличающихся структурой и назначением. Первый тип составляют иерархические сети, часто встречающиеся в сенсорных и двигательных путях. Информация в таких сетях передается в процессе последовательного перехода от одного уровня иерархии к другому.

Рис. 1. Простая рефлекторная нейронная сеть


Биологическая изменчивость и обучение нейронных сетей


Структура основных типов нейронных сетей генетически предопределена. При этом исследования в области сравнительной нейроанатомии говорят о том, что по фундаментальному плану строения мозг очень мало изменился в процессе эволюции. Однако детерминированные нейронные структуры демонстрируют свойства изменчивости, обуславливающие их адаптацию к конкретным условиям функционирования. Генетическая предопределенность имеет место также и в отношении свойств отдельных нейронов, таких, например, как тип используемого нейромедиатора, форма и размер клетки. Изменчивость на клеточном уровне проявляется в пластичности синаптических контактов. Характер метаболической активности нейрона и свойства проницаемости синаптической мемраны могут меняться в ответ на длительную активизацию или торможение нейрона. Синаптический контакт "тренируется" в ответ на условия функционирования. Изменчивость на уровне сети связана со спецификой нейронов. Нервная ткань практически лишена характерной для других типов тканей способности к регенерации путем деления клеток. Однако нейроны демонстрируют способность к формированию новых отростков и новых синаптических контактов. Ряд экспериментов с преднамеренным повреждением нервных путей указывает, что развитие нейронных ответвлений сопровождается конкуренцией за обладание синаптическими участками. Это свойство в целом обеспечивает устойчивость функционирования нейронный сетей при относительной ненадежности их отдельных компонент - нейронов. Специфическая изменчивость нейронных сетей и свойств отдельных нейронов лежит в основе их способности к обучению - адаптации к условиям функционирования - при неизменности в целом их морфологической структуры. Следует заметить, однако, что рассмотрение изменчивости и обучаемости малых групп нейронов не позволяет в целом ответить на вопросы об обучаемости на уровне высших форм психической деятельности, связанных с интеллектом, абстрактным мышлением, речью. Прежде чем перейти к рассмотрению моделей нейронов и искусственных нейронных сетей, сформулируем общие фактологические положения о биологических нейронных сетях. Основными действующими элементами нервной системы являются отдельные клетки, называемые нейронами. Они имеют ряд общих с клетками других типов черт, при этом сильно отличаясь от них по своей конфигурации и функциональному назначению. Активность нейронов при передаче и обработке нервных импульсов регулируется свойствами мембраны, которые могут меняться под воздействием синаптических медиаторов. Биологические функции нейрона могут меняться и адаптироваться к условиям функционирования. Нейроны объединяются в нейронные сети, основные типы которых, а также схемы проводящих путей мозга являются генетически запрограммированными. В процессе развития возможно локальное видоизменение нейронных сетей с формированием новых соединений между нейронами. Отметим также, что нервная система содержит помимо нейронов клетки других типов.


Классификация нейронных сетей


Можно провести следующую классификацию нейронных сетей:


Рис. 2. Классификация нейронных сетей


Характер обучения

Классификация нейронных сетей по характеру обучения делит их на:

нейронные сети, использующие обучение с учителем;

нейронные сети, использующие обучение без учителя.

Нейронные сети, использующие обучение с учителем. Обучение с учителем предполагает, что для каждого входного вектора существует целевой вектор, представляющий собой требуемый выход. Вместе они называются обучающей парой. Обычно сеть обучается на некотором числе таких обучающих пар. Предъявляется выходной вектор, вычисляется выход сети и сравнивается с соответствующим целевым вектором. Далее веса изменяются в соответствии с алгоритмом, стремящимся минимизировать ошибку. Векторы обучающего множества предъявляются последовательно, вычисляются ошибки и веса подстраиваются для каждого вектора до тех пор, пока ошибка по всему обучающему массиву не достигнет приемлемого уровня. Нейронные сети, использующие обучение без учителя. Обучение без учителя является намного более правдоподобной моделью обучения с точки зрения биологических корней искусственных нейронных сетей. Развитая Кохоненом и многими другими, она не нуждается в целевом векторе для выходов и, следовательно, не требует сравнения с предопределенными идеальными ответами. Обучающее множество состоит лишь из входных векторов. Обучающий алгоритм подстраивает веса сети так, чтобы получались согласованные выходные векторы, т. е. чтобы предъявление достаточно близких входных векторов давало одинаковые выходы. Процесс обучения, следовательно, выделяет статистические свойства обучающего множества и группирует сходные векторы в классы.

Настройка весов

сети с фиксированными связями - весовые коэффициенты нейронной сети выбираются сразу, исходя из условий задачи;

сети с динамическими связями - для них в процессе обучения происходит настройка синаптических весов.


Тип входной информации


аналоговая - входная информация представлена в форме действительных чисел;

двоичная - вся входная информация в таких сетях представляется в виде нулей и единиц.

Применяемая модель нейронной сети

Сети прямого распространения - все связи направлены строго от входных нейронов к выходным. К таким сетям относятся, например: простейший персептрон и многослойный персептрон. Реккурентные нейронные сети - сигнал с выходных нейронов или нейронов скрытого слоя частично передается обратно на входы нейронов входного слоя. Радиально базисные функции - вид нейронной сети, имеющий скрытый слой из радиальных элементов и выходной слой из линейных элементов. Сети этого типа довольно компактны и быстро обучаются. Самоорганизующиеся карты или Сети Кохонена - такой класс сетей, как правило, обучается без учителя и успешно применяется в задачах распознавания. Сети такого класса способны выявлять новизну во входных данных: если после обучения сеть встретится с набором данных, непохожим ни на один из известных образцов, то она не сможет классифицировать такой набор и тем самым выявит его новизну. Сеть Кохонена имеет всего два слоя: входной и выходной, составленный из радиальных элементов.


Теорема об обучении персептрона


Обучение сети состоит в подстройке весовых коэффициентов каждого нейрона. Пусть имеется набор пар векторов (x,y), =1..p, называемый обучающей выборкой. Будем называть нейронную сеть обученной на данной обучающей выборке, если при подаче на входы сети каждого вектора x на выходах всякий раз получается соответствующий вектор y. Предложенный Ф.Розенблаттом метод обучения состоит в итерационной подстройке матрицы весов, последовательно уменьшающей ошибку в выходных векторах. Алгоритм включает несколько шагов:

Шаг 0. Начальные значения весов всех нейронов полагаются случайными.

Шаг 1. Сети предъявляется входной образ x, в результате формируется выходной образ.

Шаг 2. Вычисляется вектор ошибки , делаемой сетью на выходе. Дальнейшая идея состоит в том, что изменение вектора весовых коэффициентов в области малых ошибок должно быть пропорционально ошибке на выходе, и равно нулю если ошибка равна нулю.

Шаг 3. Вектор весов модифицируется по следующей формуле: . Здесь - темп обучения.

Шаг 4. Шаги 1-3 повторяются для всех обучающих векторов. Один цикл последовательного предъявления всей выборки называется эпохой. Обучение завершается по истечении нескольких эпох, а) когда итерации сойдутся, т.е. вектор весов перестает изменяться, или б) когда полная просуммированная по всем векторам абсолютная ошибка станет меньше некоторого малого значения.

Используемая на шаге 3 формула учитывает следующие обстоятельства: а) модифицируются только компоненты матрицы весов, отвечающие ненулевым значениям входов; б) знак приращения веса соответствует знаку ошибки, т.е. положительная ошибка (d>0, значение выхода меньше требуемого) проводит к усилению связи; в) обучение каждого нейрона происходит независимо от обучения остальных нейронов, что соответствует важному с биологической точки зрения, принципу локальности обучения. Данный метод обучения был назван Ф.Розенблаттом методом коррекции с обратной передачей сигнала ошибки. Позднее более широко стало известно название d-правило. Представленный алгоритм относится к широкому классу алгоритмов обучения с учителем, поскольку известны как входные вектора, так и требуемые значения выходных векторов. Доказанная Розенблаттом теорема о сходимости обучения по d-правилу говорит о том, что персептрон способен обучится любому обучающему набору, который он способен представить.


Линейная разделимость и персептронная представляемость


Каждый нейрон персептрона является формальным пороговым элементом, принимающим единичные значения в случае, если суммарный взвешенный вход больше некоторого порогового значения: Таким образом, при заданных значениях весов и порогов, нейрон имеет определенное значение выходной активности для каждого возможного вектора входов. Множество входных векторов, при которых нейрон активен (y=1), отделено от множества векторов, на которых нейрон пассивен (y=0) гиперплоскостью, уравнение которой есть, суть: Следовательно, нейрон способен отделить (иметь различный выход) только такие два множества векторов входов, для которых имеется гиперплоскость, отсекающая одно множество от другого. Такие множества называют линейно разделимыми. Проиллюстрируем это понятие на примере. Пусть имеется нейрон, для которого входной вектор содержит только две булевые компоненты, определяющие плоскость. На данной плоскости возможные значения векторов отвечают вершинам единичного квадрата. В каждой вершине определено требуемое значение активности нейрона 0 или 1. Требуется определить, существует ли такое такой набор весов и порогов нейрона, при котором этот нейрон сможет отделить точки разного цвета? Представлена одна из ситуаций, когда этого сделать нельзя вследствие линейной неразделимости множеств белых и черных точек. Белые точки не могут быть отделены одной прямой от черных. Требуемая активность нейрона для этого рисунка определяется таблицей, в которой не трудно узнать задание логической функции исключающее или.


X1X2Y000101011110Рис. 3. Задание логической функции исключающее или


Линейная неразделимость множеств аргументов, отвечающих различным значениям функции означает, что функция исключающее или, столь широко использующаяся в логических устройствах, не может быть представлена формальным нейроном. Столь скромные возможности нейрона и послужили основой для критики персептронного направления Ф.Розенблатта со стороны М.Минского и С.Пейперта. При возрастании числа аргументов ситуация еще более катастрофична: относительное число функций, которые обладают свойством линейной разделимость резко уменьшается. А значит и резко сужается класс функций, который может быть реализован персептроном.


Неокогнитрон и инвариантное распознавание образов


Создание когнитрона явилось плодом синтеза усилий нейрофизиологов и психологов, а также специалистов в области нейрокибернетики, совместно занятых изучением системы восприятия человека. Данная нейронная сеть одновременно является как моделью процессов восприятия на микроуровне, так и вычислительной системой, применяющейся для технических задач распознавания образов.


Практическое задание


Создаем вычислительную модель нейронной сети с двумя выходами, тремя слоями и одним целевым входом, используя общий конструктор сети с параметрами

Net = network (numInputs, numLayers, biasConnect, imputConnect,

layerConnect, outputConnect, tartegtConnect).

Связи между слоями должны быть только прямыми, входы необходимо соединить с первым слоем, а выход - с последним. Выход должен быть целевым, первый слой должен иметь смещения.

Смысл и значения параметров конструктора для создания модели сети заданной архитектуры таковы:= 2 - количество входов сети;= 3 - количество слоёв в сети;= [1; 0; 0] - матрица связности для смещений размера numLayers * 1;= [1 1; 0 0; 0 0] - матрица связности для входов размера numLayers * numImputs;= [0 0 0;1 0 0 0 ; 0 1 0] - матрица связности для слоев размера numLayers * numLayers;= [0 0 1] - матрица связности для выходов размера 1* numLayers;= [0 0 1] - матрица связности для целей размера 1 * numLayers.

Порядок выполнения задания следующий:

. Создал шаблон сети, выполнив команду= network (2, 3, [1; 0; 0], [1 1; 0 0 ; 0 0],[0 0 0 ; 1 0 0 ; 0 1 0], [0 0 1]), в результате получаем:

Рис. 4. Командное окно


. Проверил значения полей вычислительной модели нейронной сети net и их соответствие заданным значениям в списке параметров.

. Проверил значения вычисляемых полей модели, которые дополняют описание архитектуры сети.= 1 - количество выходов сети; = 0 - количество целей сети; = 0 - максимальное значение задержки для входов сети. NumLayerDelays = 0 - максимальное значение задержки для слоёв сети.

Заметим, что каждый выход и каждая цель присоединяются к одному или нескольким слоям при этом количество компонент выхода или цели равно количеству нейронов в соответствующем слое. Для увеличения возможности модели в сеть включают линии задержки либо на её входах, либо между слоями. Каждая линия задерживает сигнал на один такт. Параметры numInputDelays и NumLayerDelays определяют максимальное число линий для какого-либо входа или слоя соответственно.

. Проанализировал структурную схему построенной сети, выполнил команду gensim(net) и детализируя блоки с помощью двойного щелчка левой клавиши мыши по рассматриваемому блоку.


Рис. 5. Структурная схема созданной многослойной нейронной сети


На структурных схемах искусственных нейронных сетей в пакете NNT используются следующие обозначения:

а) Neural Network - искусственная нейронная сеть с обозначениями входов x{1}, x{2}, … и выхода y{1};

б) входы Input1 , или x{1} и Input2 , или x{2};

в) дисплей y{1};

г) Layer 1, Layer 2, Layer 3, … слои нейронов с обозначениями входов x{1}, x{2], a{1}, a{2}, … и выходов a{1}, a{2}, a{3}, … , y{1};

д) TDL - линии задержки (Time Delay) с именами Delays1, Delays2, ..., которые обеспечивают задержку входных сигналов или сигналов между слоями нейронов на 1, 2, 3, … такта;

е) Weights - весовая матрица для входных сигналов или сигналов между слоями нейронов; размер матрицы весов для каждого вектора входа S×R, где S - число нейронов входного слоя, а R - число компонент вектора входа, умноженное на число задержек; размер матрицы для сигналов от слоя j к слою i равен S×R, где S - число нейронов в слое i, а R - число нейронов в слое j, умноженное на число задержек;

ж) dotprod - блок взвешивания входных сигналов и сигналов между слоями, на выходе которого получается сумма взвешенных, т. е. умноженных на соответствующие веса компонент сигнала;

з) mux - концентратор входных сигналов и сигналов между слоями, преобразует набор скалярных сигналов в вектор, а набор векторов в один вектор суммарной длины;

и) netsum - блок суммирования компонент для каждого нейрона слоя: компонент от нескольких векторов входа с учётом задержек, смещения и т. п.;

к) hardlim, purelin и т. д. - блоки функций активации;

л) pd{1, 1}, pd{1, 2}, ad{2, 1}, ... - сигналы после линий задержки (d - delay);

м) iz{1, 1}, iz{1, 2}, lz{2, 1}, lz{3, 2} - вектор-сигналы с выхода концентратора;

н) bias - блок весов смещений для слоя нейронов;

о) IW - массив ячеек с матрицами весов входов: IW{i, j} - матрицы для слоя i от входного вектора j;

п) LW - массив ячеек с матрицами весов для слоёв: LW{i, j} - матрицы для слоя i от слоя j.

. Проанализировал все параметры каждого блока структурной схемы рассматриваемой нейронной сети и в случае необходимости обратиться к справочной системе пакета NNT.

. Задал нулевые последовательности сигналов для входов= [0 0 ; 0 0]

и произвел моделирование сети= sim(net, P)

. Задал диапазоны входных сигналов и весовые матрицы с помощью следующих присваиваний:

net.inputs{1}.range = [0 1];.inputs{2}.range = [0 1]; .b{1} = - 0,25;.IW{1, 1} = [0.5];.IW{1, 2} = [0.5];

net.LW{2, 1} = [0.5];.LW{3, 2} = [0.5].

Исполнил команду gensim(net) и проверил параметры блока.



Рис. 6. График работы нейронной сети


. Вывел на экран поля вычислительной модели и их содержимое, используя функцию celldisp. Убедился в правильности значений полей модели.{1} =

exampleInput: [0 1]

name: 'Input'

processFcns: {}

processParams: {}

processSettings: {1x0 cell}

…{2} =

exampleInput: [0 1]

name: 'Input'

processFcns: {}

processParams: {}

processSettings: {1x0 cell}

. Промоделировал созданную статическую сеть, т. е. сеть без линий задержки, использую групповое и последовательное представление входных сигналов

PG = [0.5 1 ; 1 0.5];= {[0.5 1] [1 0.5]};= sim(net, PG);

PS1 = sim(net, PS)

Убедился, что для статической сети групповое и последовательное представления входных сигналов дают один и тот же результат.

. Дополнил архитектуру созданной нейронной сети линиями задержки для входных сигналов и для сигналов между 2-м и 3-м слоями, превратив, таким образом, статическую сеть в динамическую:.inputWeights{1, 1}.delays = [0 1];.inputWeights{1, 2}.delays = [0 1];.layerWeights{3, 2}.delays = [0 1 2].

. Скорректировал весовые матрицы:.IW{1, 1} = [0.5 0.5];.IW{1, 2} = [0.5 0.25];.LW{3, 2} = [0.5 0.25 1].

. Промоделировал динамическую сеть, используя групповое и последовательное представление входных сигналов:

AG = sim(net, PG); = sim(net, PS).

Групповое представление входных сигналов искажает результат, так как в этом случае работа одной сети заменяется параллельной работой двух (по числу последовательностей) одинаковых сетей с нулевыми начальными значениями сигналов на выходах линий задержки.



Рис. 7. График динамической многослойной нейронной сети


. Вывел на печать поля вычислительной модели и их содержимое, используя функций celldisp.

ans{1} =

exampleInput: [0 0,5]

name: 'Input'

processFcns: {0,5 0,5}

processParams: {0,5 0,25}

processSettings: {1x0 cell}

…{2} =

exampleInput: [0 0,5]

name: 'Input'

processFcns: {0,5 0,5}

processParams: {0,5 0,25 1}

processSettings: {1x0 cell}

. Сохранил содержимое командного окна в М-файле для последующего использования.

Задание 2.

Создать точно такую же динамическую сеть asgnet, используя конструктор класса network без параметров и задавая значения соответствующих полей вычислительной модели с помощью операторов присваивания. Убедиться в идентичности сетей net и asgnet.

Сравнить результаты работы полученных сетей.

Порядок выполнения.


1. Создал динамическую сеть asgnet использую пустой конструктор network


= network();

. Задал все параметры и значения полей при помощи присвоения

asgnet.numInputs = 2

asgnet.numLayers = 3.biasConnect = [1; 0; 0].inputConnect = [1 1; 0 0 ; 0 0].layerConnect = [0 0 0; 1 0 0; 0 1 0].outputConnect = [0 0 1]


Рис. 8. Структурная схема нейронной сети asgnet


P1 = [0 0 ; 0 0]= sim(asgnet, P1).inputs{1}.range = [0 1];.inputs{2}.range = [0 1]; = [0.5 1 ; 1 0.5];= {[0.5 1] ; [1 0.5]};= sim(asgnet, PG1); = sim(asgnet, PS1);.b{1} = - 0,25;.inputWeights{1, 1}.delays = [0 1];.inputWeights{1, 2}.delays = [0 1];.layerWeights{3, 2}.delays = [0 1 2];.IW{1, 1} = [0.5 0.5];.IW{1, 2} = [0.5 0.25];.LW{2, 1} = [0.5];.LW{3, 2} = [0.5 0.25 1]


Рис. 9. График работы нейронной сети asgnet


Рис. 10. График работы нейронной сети net


Даже при помощи простого присвоения и построения по элементам нейронной сети получал идентичные результат работы.

Задание 3. Используя блоки имитационного моделирования инструментального пакета Simulink системы MATLAB, построить модель динамической сети asgnet, провести исследование модели, проверить адекватность её поведения поведению модели net и оформить электронный отчёт с помощью генератора Report Generator.

Был создан отчет при помощи пакета Simulink, сам отчет предоставляется с файлам курсовой работы.

Задание 4. Используя конструктор класса network с параметрами и операторы присваивания для полей и ячеек объектов этого класса, построить, выдать на экран и промоделировать искусственные нейронные сети следующей архитектуры:

а) однослойная сеть с тремя нейронами, тремя двухкомпонентными входами и одним целевым выходом;= network (3, 1, [1], [1 1 1],[1], [1], [1])


Рис. 11.Результат выполнения

Рис. 12. Однослойная сеть с тремя нейронами


б) трёхслойная сеть с прямой передачей сигналов и с тремя нейронами в каждом слое; количество входов - три с двумя, пятью и тремя компонентами; для всех слоёв имеется смещение; выход -один;= network (3, 3, [1 ; 1; 1], [1 0 0; 1 0 0; 1 0 0],[1 0 0; 1 0 0; 1 0 0], [1 0 0], [1 0 0])

Рис. 13.Результат выполнения

Рис. 14. Трехслойная сеть с прямой передачей сигналов


в) трёхслойная сеть, в которой каждый слой соединён со всеми остальными; вход - один и состоит из двух компонентов; количество нейронов в каждом слое - три; слои имеют смещения;= network (3, 3, [1 ; 0; 0], [1 1 1; 1 1 1; 1 1 1],[1 1 1; 1 1 1; 1 1 1], [1 0 0], [1 0 0])

Рис. 15.Результат выполнения

Рис. 16. трёхслойная сеть, в которой каждый слой соединён со всеми остальными;


г) трёхслойная динамическая сеть с тремя нейронами в каждом слое; число входов - три, из них каждый состоит из трёх компонентов; имеются смещения на всех слоях; линии задержки задерживают сигналы на один и два такта и включены между всеми слоями, а также на входе;= network (3, 3, [1 ; 0; 0], [1 1 1; 1 1 1; 1 1 1],[1 1 1; 1 1 1; 1 1 1], [1 0 0], [1 0 0])

Рис. 17.Результат выполнения

Рис. 18. трёхслойная динамическая сеть

.inputWeights{1, 1}.delays = [0 1];

t3.inputWeights{1, 2}.delays = [0 1];.inputWeights{1, 3}.delays = [0 1];.inputWeights{2, 1}.delays = [0 1];.inputWeights{2, 2}.delays = [0 1];.inputWeights{2, 3}.delays = [0 1];.inputWeights{3, 1}.delays = [0 1 2];.inputWeights{3, 2}.delays = [2 1 2];.IW{1, 1} = [0.5 0.8];.IW{1, 2} = [0.5 0.2];.IW{1, 3} = [0.2 1];.IW{2, 1} = [0.2 1];.IW{2, 2} = [0.5 0.2];.IW{2, 3} = [0.5 1];.LW{3, 1} = [0.5 0.2 0.1];.LW{3, 2} = [0.1 0.2 0.1];.LW{3, 3} = [0 0.2 1];

Рис. 19. График трехслойной динамической сети


д) квадратная сеть с десятью слоями и десятью нейронами в каждом слое; десять векторов подключаются по одному к каждому слою; имеется десять выходов от всех слоёв сети; смещения подключены к каждому слою.

P1 = [0; 0; 0; 0; 0; 0; 0; 0; 0; 0];= {

[1 1 1 1 1 1 1 1 1 1]

[ 1 1 1 1 1 1 1 1 1 1]

[ 1 1 1 1 1 1 1 1 1 1]

[ 1 1 1 1 1 1 1 1 1 1]

[ 1 1 1 1 1 1 1 1 1 1]

[ 1 1 1 1 1 1 1 1 1 1]

[ 1 1 1 1 1 1 1 1 1 1]

[ 1 1 1 1 1 1 1 1 1 1]

[ 1 1 1 1 1 1 1 1 1 1]

[ 1 1 1 1 1 1 1 1 1 1] };= [1 1 1 1 1 1 1 1 1 1];= network(10, 10, P1, P2, P2, P3, P3)

Нейронная сеть получилась достаточно большая по массивности связей и слоев, по этому внешний вид схемы был сохранен в фай task3.mdl.


Выводы


Искусственные нейронные сети используются для изучения свойств биологических нейронных сетей, а также для решения задач в сфере искусственного интеллекта.

Классификация нейронных сетей по характеру обучения делит их на:

нейронные сети, использующие обучение с учителем и нейронные сети, использующие обучение без учителя.

Сети прямого распространения - все связи направлены строго от входных нейронов к выходным. К таким сетям относятся, например: простейший персептрон и многослойный персептрон. Реккурентные нейронные сети - сигнал с выходных нейронов или нейронов скрытого слоя частично передается обратно на входы нейронов входного слоя.

Используя математический пакет MatLab мы смогли ознакомиться, поэкспериментировать и построить простые нейронные сети. Наша сеть проста, но показывает базовые представления о нейросетях.


Литература


1.#"justify">.#"justify">.http://ru.vlab.wikia.com/wiki/Искусственная_нейронная_сеть

4. Круглов В. В. - Искусственные нейронные сети. Теория и практика <http://www.techbook.ru/kruglov.html>, 2001г.

. В. А. Терехов, Д. В. Ефимов, И. Ю. Тюкин Нейросетевые системы управления, 2002г.

. Уоссермен, Ф. Нейрокомпьютерная техника: Теория и практика <http://evrika.tsi.lv/index.php?name=texts&file=show&f=410>.

. Саймон Хайкин Нейронные сети: полный курс, 2006г.

. Роберт Каллан Основные концепции нейронных сетей, 2001г.

. Л.Н. Ясницкий Введение в искусственный интеллект, 2005г.


Курсовая работа Тема: Искусственные нейронные сети Дисциплина: Нейротехнологии и нейрокомплексные системы

Больше работ по теме:

КОНТАКТНЫЙ EMAIL: [email protected]

Скачать реферат © 2017 | Пользовательское соглашение

Скачать      Реферат

ПРОФЕССИОНАЛЬНАЯ ПОМОЩЬ СТУДЕНТАМ