Всё сдал! - помощь студентам онлайн Всё сдал! - помощь студентам онлайн

Реальная база готовых
студенческих работ

Узнайте стоимость индивидуальной работы!

Вы нашли то, что искали?

Вы нашли то, что искали?

Да, спасибо!

0%

Нет, пока не нашел

0%

Узнайте стоимость индивидуальной работы

это быстро и бесплатно

Получите скидку

Оформите заказ сейчас и получите скидку 100 руб.!


Классификация римских цифр на основе нейронных сетей

Тип Реферат
Предмет Коммуникации и связь
Просмотров
380
Размер файла
170 б
Поделиться

Ознакомительный фрагмент работы:

Классификация римских цифр на основе нейронных сетей

ЗАДАНИЕ

на курсовое проектирование

Тема курсового проекта

Классификация римских цифр на основе нейронных сетей

Исходные данные к проекту

1. NeuroShell2 русскоеиздание

2. NeuroShell Classifier v2.0

3. NeuroPro

Содержание пояснительной записки

1. Назначение проекта

2. Требования

3. Выбор нейронной сети и нейропакета

4. Обучение

5. Блок-схема алгоритма обучения

6. Тестовый пример

Рекомендуемая литература

1. Стандарт предприятия СТП 1–У–НГТУ–98

2. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. – М.: Горячая линия – Телеком, 2001. – 382 с.:ил.

3. Электронный учебник по NeuroShell 2

4. Каллан Р. Основные концепции нейронных сетей


Содержание

1 Анализ исходных данных и разработка ТЗ

1.1 Основание и назначение разработки

1.2 Классификация решаемой задачи

1.3 Предварительный выбор класса нейронной сети

1.4 Предварительный выбор структуры нейронной сети

1.5 Выбор пакета нейронной сети

1.6 Минимальные требования к информационной и программной совместимости

1.7 Минимальные требования к составу и параметрам технических средств

2 Обучение нейронной сети

2.1 Формирование исходных данных

2.2 Окончательный выбор модели, структуры нейронной сети

2.3 Выбор параметров обучения

2.4 Оптимальные параметры обучения

2.5 Блок-схема алгоритма обучения

3 Анализ качества обучения

Вывод

Список использованных источников

1. Анализ исходных данных и разработка технического задания

1.1 Основание и назначение разработки

Данную разработку технического задания можно отнести к применению нейронных сетей, выполняется как курсовая работа в пределах дисциплины «Представление знаний в информационных системах». Целью данной разработки является освоение моделирования нейронных сетей. Назначением работы является необходимость решения задачи классификация римских цифр на основе нейронной сети.

1.2 Классификация решаемой задачи

Исходными данными в работе является набор изображений некоторого размера.

Рассмотрим классификацию решаемых задач искусственных нейронных сетей по книге [Терехов]. Вид исходных данных может быть представлен в виде:

А — распознавание и классификация:

входные данные необходимо отнести к какому-либо из известных классов при управляемом обучении (классификации); при обучении без управления (кластеризации) сеть проводит разделение входных образцов на группы самостоятельно, при этом все образцы одного кластера должны иметь что-то общее — они будут оцениваться, как подобные.

Исходными данными является вектор признаков, выходные данные - вектор, значения всех координат которого должны быть равными О, за исключением координаты, соответствующей выходному элементу, представляющему искомый класс(значение этой координаты должно быть равным 1).

К этому классу задач также относится категоризация (кластеризация). Исходными данными является вектор признаков, в котором отсутствуют метки классов.

В — аппроксимация функций:

предположим, что имеется обучающая выборка ((xlyi), (х2, у2), ..., (xn, yw)), которая генерируется неизвестной функцией, искаженной шумом. Задача аппроксимации состоит в нахождении оценки этой функции.

Исходные данные – набор обучающих векторов. Выход сети – рассчитанное сетью значение функции.

С --предсказание/прогноз :

пусть заданы N дискретных отсчетов {(y(f1), y(f2), …, y(fN)} в последовательные моменты времени t1, t2, …, tN . Задача состоит в предсказании значения y(tN+1) в момент tN+1. Прогноз имеют значительное влияние на принятие решений в бизнесе, науке и технике.

Исходные данные – вектора данных по M признакам за T периодов времени. Выход сети – вектора данных по M признакам запериоды времени T+L.

Dоптимизация:

многочисленные проблемы в математике, статистике, технике, науке, медицине и экономике могут рассматриваться как проблемы оптимизации. Задачей оптимизации является нахождение решения, которое удовлетворяет системе ограничений и максимизирует или минимизирует целевую функцию.

E - Память, адресуемая по содержанию:

В модели вычислений фон Неймана обращение к памяти доступно только посредством адреса, который не зависит от содержания памяти. Более того, если допущена ошибка в вычислении адреса, то может быть найдена совершенно иная информация. Память, адресуемая по содержанию, или ассоциативная память, доступна по указанию заданного содержания. Содержимое памяти может быть вызвано даже по частичному или искаженному содержанию. Ассоциативная память чрезвычайно желательна при создании перспективных информационно-вычислительных систем.

F- Управление:

Рассмотрим динамическую систему, заданную совокупностью {u(t), y(t)}, где u(t) является входным управляющим воздействием, ay(t) - выходом системы в момент времени t. В системах управления с эталонной моделью целью управления является расчет такого входного воздействия u(t), при котором система следует по желаемой траектории, диктуемой эталонной моделью.

Исходными данными для данной задачи является вектора(из нулей и единиц) размерности 63, которые описывают каждую из 9 римских цифр, выбранных для обучения. Исходные данные предлагаются в прилагаемом файле “данные для нейросети”.

В этом же файле содержатся и выходные вектора размерности 9, где единица в одном из 9 положений означает принадлежность классифицируемого образца к той или иной букве.

Сеть, принимая входной вектор, должна в соответствии с ним выдать соответствующий данной последовательности выходной вектор.

Исходя из исходных данных, данная задача относится к классу A- задача классификации.

1.3 Предварительный выбор класса НС

Рассмотрим классификацию искусственных нейронных сетей по Терехову (Управление на основе нейронных сетей). В книге говорится о различиях вычислительных процессов в сетях, частично обусловленных способом взаимосвязи нейронов, поэтому выделяют следующие виды сетей , при помощи которых можно решить данную задачу:

· сети прямого распространения (feedforward);

· сети с обратными связями (feedforward /feedback);

· гибридные сети (fuzzy).

· некоторые модели сетей, основанных на статических методах

Для решения нашей задачи наиболее подходящими классами являются классы статических и динамических сетей, так как первые позволяют довольно эффективно решать достаточно широкий диапазон задач (наиболее известными и используемыми являются многослойные нейронные сети , где искусственные нейроны расположены слоями. ), а вторые из-за обратных связей состояние сети в каждый момент времени зависит от предшествующего состояния, что позволяет эффективно обучать сеть и подстраивать весовые коэффициенты (наиболее известны сети Хопфилда, т. к. в них происходит обучение по обратному распространению ошибок). Также подходят сети, основанные на статических методах (среди них можно выделить вероятностную нейронную сеть). Сети, с помощью которых нельзя решить поставленную задачу: нечёткие структуры (fuzzy), среди которых можно выделить сети («самоорганизующихся карт») Кохонена, а так же сети с «радиальными базисными функциями» активации.

Остановим свой выбор на следующих видах сетей:

· многослойный персептрон

· сети Ворда

· сети Кохонена

· вероятностная нейронная сеть

1.4 Предварительный выбор структуры НС

Понятие структуры НС включает в себя

· Количество слоев,

· Количество нейронов в каждом слое,

· Вид функции активации,

· Обратные связи

Входные данные для всех четырех типов сетей одинаковые, и представляют собой вектора из 0 и 1, полученный в результате деления растрового изображения сеткой 7х9.

Выходные данные для всех сетей кроме сети Кохонена – вектор из нулей и единиц размерности 9, так как число классов равно 9.

Многослойный персептрон, как и сети Ворда, обладает тем большими интеллектуальными способностями, чем больше число связей внутри сети.

Число скрытых нейронов для этих классов сетей определим по формуле:

N скрытых нейронов = 1/2 (Nвходов + Nвыходов) + корень квадратный из количества тренировочных примеров.

Число входных нейронов 63. Число выходных 9. По формуле число скрытых нейронов 48.

Определим число слоев:

Число связей при 1 скрытом слое равно (между слоями каждый нейрон соединен с каждым):

63*48+48*9=3456

при 2 скрытых слоях:

63*24+24*24+24*9=2304

при 3 слоях:

63*16+16*16+16*16+16*9=1664

Таким образом оптимальное число скрытых слоев равно 2.

В вероятностной нейронной сети и сети Кохонена выбор числа входных нейронов равен числу примеров (в нашем случае 63), а выходных – числу категорий (в нашем случае 9).

Для ВНС число скрытых нейронов должно быть не менее числа примеров (в нашем случае 10 – на 1 боле числа примеров).

вид функций активации: зависит от окончательного выбора модели и структуры (наиболее подходящими являются логистическая (сигмоидальная) и линейная).

Скорость обучения выберем исходя из того, что при очень большой скорости сеть может обучиться неверно, а при очень маленькой процесс обучения может быть долгим.

1.5 Выбор пакета НС

Выбор пакета основывался на следующих принципах:

• Доступность пакета;

• Полнота пакета (наличие необходимых моделей сети, достаточного количества параметров для построения и обучения нейронных сетей);

• Простота использования;

• Русифицированная документация

• Работа с .bmp файлами

Опираясь на [Круглов, Борисов] проведем сравнительный анализ нескольких пакетов:

1) NeuroPro

2) NeuroShell 2

3) NeuroShell Classifier v2.0

4) QwikNet32 v2.1

5) Neural Planner

Нейропакет NeuroPro

Возможности программы:

1) Работа (чтение, запись, редактирование) с файлами данных, представленными в форматах *.dbf (СУБД dBase, FoxPro, Clipper) и *.db (СУБД Paradox).

Создание слоистых нейронных сетей для решения задач прогнозирования:

• число слоев нейронов - до 10;

• число нейронов в слое - до 100;

• нейроны: с нелинейной сигмоидальной функцией активации f(A) = А/(|А| + с), крутизна сигмоиды может задаваться отдельно т для каждого слоя нейронов.

Нейронная сеть может одновременно решать несколько задач прогнозирования; для каждого из выходных сигналов могут быть установлены свои требования к точности прогнозирования.

2) Обучение нейронной сети производится по принципу двойственного функционирования с применением одного из следующих методов оптимизации:

• градиентного спуска;

• модифицированного ParTan - метода;

• метода сопряженных градиентов.

Работа с .bmp файлами: нет.

Руководство: есть.

Наличие пакета: есть.

Нейропакет NeuroShell 2

Для начинающего пользователя непонятный интерфейс.

Обучающая выборка формируется достаточно просто, поддерживает импорт таблиц с входными данными в формате Excel или Lotus.

Работа с .bmp файлами: нет.

Наличие пакета: есть.

Руководство: есть (русифицированное).

Кроме русскоязычного руководства, есть учебник по NeuroShell 2.

Нейропакет реализует широкий круг типов нейронных сетей.

Нейропакет NeuroShellClassifierv2.0

Этот пакет является средством разработки нейронносетевых приложений, для решения проблем классификации. Поддержка генетических алгоритмов.

Работа с .bmp файлами: нет.

Руководство: есть.

Пакет на английском языке.

Наличие пакета: есть.

Нейропакет QwikNet32 v2.1

В QwikNet реализуется лишь один тип нейронной сети - многослойная сеть прямого распространения с числом скрытых слоев до 5 и с набором из 6 алгоритмов обучения (модификации алгоритма обратного распространения ошибки).

Работа с .bmp файлами: нет.

Руководство: есть (русифицированное).

Пакет на английском языке.

Наличие пакета: нет.

Нейропакет NeuralPlanner

Предназначен для решения различных задач классификации объектов, обработки значений случайных процессов, решения некоторых математических задач, создания эффективных экспертных систем.

Работа с .bmp файлами: нет.

Руководство: есть (русифицированное).

Пакет на английском языке.

Наличие пакета: нет.

Таблица 1 Сравнение пакетов

ПакетДоступностьНаличие необходимых моделей НСРусификация / руководство на русскомРабота с .bmp
NeuralPlannerнетестьнет / естьнет
QwikNet32 v2.1нетнетнет / естьнет
NeuroShellClassifierv2.0естьестьнет / нетнет
NeuroShell 2естьестьесть / естьнет
NeuroProестьнетнет / естьнет

Исходя из сравнительного анализа нейропакетов останавливаем свой выбор на продукте NeuroShell 2.

1.6 Минимальные требования к информационной и программной совместимости

Microsoft Office 2000, XP

Пакет NeuroShell 2

Графический редактор (Paint)

1.7 Минимальные требования к составу и параметрам технических средств

Операционная система Windows 95 или выше

32 Мб ОЗУ

500 Кб HDD

2. Обучение НС

2.1 Формирование исходных данных

В качестве исходных данных в задаче выступает графическое изображение римских цифр с различными вариациями. Поскольку в выбранном пакете нет графического редактора, изображение преобразуют в последовательность нулей и единиц по определенным правилам.

Данный пакет позволяет подавать на вход нейросети порядка 32000 значений для одной обучающей пары, но необходимо ограничить размер входного изображения, т.к. MSExcelXP имеет максимальное число столбцов 256.

При создании входного вектора мы руководствовались несколькими критериями:

· Макимальная различимость

· Минимальный размер

Изначально рассматривались различные варианты размерности входного вектора.

Минимально для различимости символов высота изображения цифры требуется 7 пикселей, т.к. 2 пиксела идет на изображение подчеркивания (это является особенностью написания римских цифр), а оставшиеся 5 на сам символ. На сетке меньшей высоты теряется различимость. Для определения второго параметра изображения мы брали в расчет те цифры, для написания которых требуется максимальная ширина сетки: это цифры 7 и 8. При написании этих цифр минимальной оказалась ширина = 9 пикселам. Дело в том что эти цифры состоят из нескольких символов: основной символ, изображающий цифру 5 либо 10, а также дополнительные, которые показывают сколько к основной цифре нужно добавить (либо отнять) единиц, чтобы получилась искомая. А поскольку именно в эти цифры входит максимально для наших данных по два дополнительных символа, два пиксела мы оставляем на промежуток между символами и основной символ, нам потребовалось не менее 9 пикселей.

Таким образом для моделирования был выбран размер изображения 7x9 пикселей.

Обучающая пара содержит 63+9=72 значения.

Представили 144 объекта различной формы.

В Excel получили файл, таблицу с обучающими параметрами.

Наш объект заносится в таблицу при помощи нулей и единиц, т.е. формируется соответствующий массив, записанный в одну строку, также в процессе обучения используются реальные выходные значения, которые записаны как одно значения в конце строки сформированного массива. Объекты, расположение которых должно быть выучено сетью, представляются размерной сеткой (7x9), где темным пикселям (частям объекта) соответствуют 1, а белым (пустое пространство) – 0.

изображение римской цифры 9.

изображение умышленно перевернуто нами для достижения лучшей терпимости сети к подаваемому углу изображения.

2.2 Окончательный выбор модели, структуры НС

По рекомендациям разработчиков пакета критерием остановки обучения будет:

события после минимума > 20000, так как с использованием встроенной калибровки этот критерий позволяет избежать переучивания сети и запоминания тестовых примеров.

Рассмотрим наиболее подходящие сети для решения данной задачи. Основные параметры, такие как виды функций активации: скорость обучения (=0,1),веса (=0,3),момент равен (=0,1)

По умолчанию для предсказания рекомендуется использовать сеть Ворда, содержащую два скрытых блока с разными передаточными функциями.

Стандартные сети.

Попробуем провести обучение с помощью модели 4-хслойной сети, в которой каждый слой соединён только с предыдущим слоем.

Структура НС:

1. количество слоев: 4

2. количество нейронов:

а) во входном слое: 63

б) в выходном слое: 9

3. вид функций активации:

а) входной слой – линейная [0;1]

б) выходной слой – логистическая

В таблице отражена зависимость минимальной средней ошибки на тренировочном и тестовом наборах от количества нейронов в скрытом слое.

Скорость обучения = 0,1; момент = 0,1; скрытые слои – слой 1 – 24 нейрона, слой 2 – 24 нейрона.

Таблица данных

Время обученияФункции активацииMin средняя ошибка
1слой2слойна тренировочном наборена тестовом наборе
03:18логистическаялогистическая0,00000360,0002548
08:03ГауссоваГауссова0,00000060,0003652
00:05линейнаялинейная0,50475480,7126971
01:01компГауссовакомпГауссова0,00000590,0004709

Исходя из таблицы, оптимальной структурой для данной сети являестся сесть с Гауссовыми активационными функциями.

Вых1Вых2Вых3Вых4Вых5Вых6Вых7Вых8Вых9
R квадрат1,00001,00001,00001,00001,00001,00000,99951,00000,9999
СКО0,0020,0020,0010,0010,0010,0020,0070,0010,004
Относ СКО %0,1550,1950,0730,0570,0820,1660,7220,0840,351

НС после обучения показывает не очень хорошие обобщающие данные. Неплохие обобщающие данные сеть в середине интервала.

Скорость обучения и начальный момент на качество обобщения не влияют.

Сеть Ворда с двумя блоками в скрытом слое.

Структура НС:

1. количество слоев: 4

2. количество нейронов:

а) во входном слое: 63

б) в выходном слое: 9

В таблице отражена зависимость минимальной средней ошибки на тренировочном и тестовом наборах и времени обучения от вида функций активации.

Скорость обучения = 0,1; момент = 0,1

Таблица данных

1 скрытый слой2 скрытый слойMin средняя ошибкаВремя обучения
Функция активацииКол-во нейроновФункция активацииКол-во нейроновна тренировочном наборена тестовом наборе
Комп.Гауссова24Комп. Гауссова240,00000160,000535804:42
Гауссова24Гауссова240,00000170,001952903:58
логистическая24логистическая240,00000580,000368802:18
логистическая24Комп.Гауссова240,00000430,000600701:35

Исходя из таблицы дла данной сети оптимальными будут гауссовы функции активации.

Вых1Вых2Вых3Вых4Вых5Вых6Вых7Вых8Вых9
R квадрат1.00000.99920.99991.00000.99991.00000.99951.00001.0000
СКО0.0020.0090.0030.0010.0030.0010.0210.0010.002
Относ СКО %0.1520.9100.2750.1070.3200.1332.1120.1280.153

Данная сеть после обучения показывает хорошие обобщающие данные.

Скорость обучения и начальный момент на качество обобщения не влияют.

Сеть Ворда с двумя блоками в скрытом слое и с обходным соединением

Структура НС:

1. количество слоев: 4

2. количество нейронов:

а) во входном слое: 63

б) в выходном слое: 9

3. активационная функция

а) во входном слое: линейная

б) в выходном: логистическая

В таблице отражена зависимость минимальной средней ошибки на тренировочном и тестовом наборах и времени обучения от вида функций активации.

Скорость обучения = 0,1; момент = 0,1


Таблица данных

1 скрытый слой2 скрытый слойMin средняя ошибкаВремя обучения
Функция активацииКол-во нейроновФункция активацииКол-во нейроновна тренировочном наборена тестовом наборе
Гауссова24компГауссова240,00000130,003489802:59
Гауссова24Гауссова240,00000050,006550705:21
компГауссова24компГауссова240,00000170,003742602:29
логистческая24логистическая240,00001470,001954900:38

Исходя из таблицы дла данной сети оптимальными будут функции активации Гауссова для 1 слоя и Комплем. Гауссова для 2 слоя.

Вых1Вых2Вых3Вых4Вых5Вых6Вых7Вых8Вых9
R квадрат0,99950,99950,99860,99950,99830,99940,99960,99770,9979
СКО0,0070,0080,0130,0070,0120,0070,0060,0140,015
Относ СКО %0,6900,7601,2580,6921,2300,7460,6201,4291,512

Данная сеть после обучения показывает не очень хорошие обобщающие данные.

Скорость обучения и начальный момент на качество обобщения не влияют.

Сеть Кохонена

Структура НС:

1. кол-во нейронов

a. входной слой: 63

b. выходной слой: 9

2. скорость обучения: 0,5

3. начальные веса: 0,5

4. окрестность: 8

5. эпохи: 500


в таблице отражена зависимость средней количества неиспользованных категорий от пораметров выбора примеров и метрик расстояния.

Параметры выбора примеровМетрики расстоянияВремя обученияКол-во неиспозльзованных категорий
поочередныйевклидова00:021
случайныйевклидова00:021
поочередныйнормированная00:023
случайныйнормированная00:022

Данная сеть обладает плохим обобщением.

На данной диаграмме показаны сравнительные данные по времени обучения рассмотренных сетей.

Т.к сеть Кохонена обладает наихудшими обобщением, ее в диаграмму не включаем.


На данной диаграмме показаны сравниваемые нами значения выходных данных обученных сетей.

Исходя из представленных диаграмм оптимальной для нас будет сеть Ворда с 2мя скрытыми блоками.

2.3 Выбор параметров обучения

Находим оптимальные параметры:

скорость обучения в интервале от 0 до1

момент в интервале от 0 до 1

начальные веса от 0 до 1

1. Зависимость качества обучения от скорости обучения

Скорость обучения0,10,50,71
Мин. ср. ошибка на тест. наборе0,00195290,00069560,00050160,0002641

2.Зависимость качества обучения от момента

Момент0,10,50,71
Мин. ср. ошибка на тест. наборе0,00195290,00124110,00138240,5690943

3.Зависимость качества обучения от начальных весов

Начальный вес0,10,30,71
Мин. ср. ошибка на тест. наборе0,00103590,00195290,00321820,0031102

2.4 Оптимальные параметры обучения

Скорость обучения: 0,1

Начальный момент: 0,1

Начальные веса: 0,3

Модель - Сеть Ворда с двумя блоками в скрытом слое.

Структура НС:

1. количество слоев: 4

2. количество нейронов:

1) блок 1: 63

2) блок 2: 24

3) блок 3: 24

4) блок 4: 9

3. вид функций активации:

1) блок 1 – линейная [0;1]

2) блок 2 –гауссова

3) блок 3 –гауссова

4) блок 5 – логистическая.


2.5 Блок-схема алгоритма обучения


3. Анализ качества обучения

При данных оптимальных параметрах результаты применения сети можно представить виде таблицы

Вых1Вых2Вых3Вых4Вых5Вых6Вых7Вых8Вых9
R квадрат1.00000.99920.99991.00000.99991.00000.99951.00001.0000
СКО0.0020.0090.0030.0010.0030.0010.0210.0010.002
Относ СКО %0.1520.9100.2750.1070.3200.1332.1120.1280.153
доля с ош <5%10.41712.50013.1949.7229.72211.11110.4179.72212.500
доля с ош 5-10%000000000
доля с ош 10-20%000000000
доля с ош 20-30%0000000.69400
доля с ош >30%000000000

Для проверки способностей к обобщению на вход сети подаются зашумленные последовательности входных сигналов. Процент зашумления показывает, какое количество битов входного вектора было инвертировано по отношению к размерности входного вектора.

Для зашумления 5% сеть выдает такие результаты:

Вых1Вых2Вых3Вых4Вых5Вых6Вых7Вых8Вых9
Rквадрат0,98680,98840,98000,98310,98430,98300,98140,98550,9838
СКО0,0360,0340,0440,0410,0390,0410,0430,0380,040
Относ СКО %3,6163,3854,4484,0893,9424,0964,2893,7813,998
доля с ош<5%11,11100000000
доля с ош5-10%011,11111,1110011,111011,11111,111
доля с ош 10-20%00011,11111,111011,11100
доля с ош 20-30%000000000
доля с ош>30%000000000

Далее мы подавали различное количество инвертированных битов.

В таблице представлена зависимость количества инвертированных битов от количества правильных ответов на выходе

Количество инвертированных битов Количество верных ответов на выходе
500
252
139
196
167
158
148

Таким образом мы выявили критическое количество зашумленных данных = 16 на каждый входной вектор.

Это соответствует 20% зашумления. При большем зашумлении входных данных сеть не может отдать предпочтение одной цифре, причем с увеличением зашумления количество таких букв растет.

Результаты сети при критическом зашумлении:

Вых1Вых2Вых3Вых4Вых5Вых6Вых7Вых8Вых9
R квадрат0,71930,82740,65830,73030,79280,69810,91350,87020,7746
СКО0,0280,0170,0340,0270,0200,0300,0090,0130,022
Относ СКО %16,65013,05718,36916,32214,30417,2689,24311,32114,922
доля с ош <5%000000000
доля с ош 5-10%000000000
доля с ош 10-20%011,1110011,1110000
доля с ош 20-30%00000011,111011,111
доля с ош >30%11,111011,11111,111011,111011,1110

Судя по анализу качества обучения, сеть хорошо справляется при 20% зашумлении.

Это говорит о том что у сети неплохой потенциал для обобщения.


Выводы

В ходе данной курсовой работы были получены навыки моделирования нейронных сетей, а также была решена частная задача моделирования нейронной сети для классификации римских цифр. Исходными данными для сети являлись изображения римских цифр, представленные виде матриц, размерностью 7х9.

Обученная нейронная сеть хорошо себя показала при 20% уровне шума. Для увеличения этого показателя нужно снизить риск возникновения критических шумов. Этого можно достигнуть путем увеличения размерности сетки.

Список использованных источников

1 Стандарт предприятия СТП 1–У–НГТУ–98

2 Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. – М.: Горячая линия – Телеком, 2001. – 382 с.:ил.

3 Электронный учебник по NeuroShell 2

4 Каллан Р. Основные концепции нейронных сетей

5 Ресурсы сети Интернет


Нет нужной работы в каталоге?

Сделайте индивидуальный заказ на нашем сервисе. Там эксперты помогают с учебой без посредников Разместите задание – сайт бесплатно отправит его исполнителя, и они предложат цены.

Цены ниже, чем в агентствах и у конкурентов

Вы работаете с экспертами напрямую. Поэтому стоимость работ приятно вас удивит

Бесплатные доработки и консультации

Исполнитель внесет нужные правки в работу по вашему требованию без доплат. Корректировки в максимально короткие сроки

Гарантируем возврат

Если работа вас не устроит – мы вернем 100% суммы заказа

Техподдержка 7 дней в неделю

Наши менеджеры всегда на связи и оперативно решат любую проблему

Строгий отбор экспертов

К работе допускаются только проверенные специалисты с высшим образованием. Проверяем диплом на оценки «хорошо» и «отлично»

1 000 +
Новых работ ежедневно
computer

Требуются доработки?
Они включены в стоимость работы

Работы выполняют эксперты в своём деле. Они ценят свою репутацию, поэтому результат выполненной работы гарантирован

avatar
Математика
История
Экономика
icon
159599
рейтинг
icon
3275
работ сдано
icon
1404
отзывов
avatar
Математика
Физика
История
icon
156450
рейтинг
icon
6068
работ сдано
icon
2737
отзывов
avatar
Химия
Экономика
Биология
icon
105734
рейтинг
icon
2110
работ сдано
icon
1318
отзывов
avatar
Высшая математика
Информатика
Геодезия
icon
62710
рейтинг
icon
1046
работ сдано
icon
598
отзывов
Отзывы студентов о нашей работе
63 457 оценок star star star star star
среднее 4.9 из 5
Тгу им. Г. Р. Державина
Реферат сделан досрочно, преподавателю понравилось, я тоже в восторге. Спасибо Татьяне за ...
star star star star star
РЭУ им.Плеханово
Альберт хороший исполнитель, сделал реферат очень быстро, вечером заказала, утром уже все ...
star star star star star
ФЭК
Маринаааа, спасибо вам огромное! Вы профессионал своего дела! Рекомендую всем ✌🏽😎
star star star star star

Последние размещённые задания

Ежедневно эксперты готовы работать над 1000 заданиями. Контролируйте процесс написания работы в режиме онлайн

Подогнать готовую курсовую под СТО

Курсовая, не знаю

Срок сдачи к 7 дек.

только что
только что

Выполнить задания

Другое, Товароведение

Срок сдачи к 6 дек.

1 минуту назад

Архитектура и организация конфигурации памяти вычислительной системы

Лабораторная, Архитектура средств вычислительной техники

Срок сдачи к 12 дек.

1 минуту назад

Организации профилактики травматизма в спортивных секциях в общеобразовательной школе

Курсовая, профилактики травматизма, медицина

Срок сдачи к 5 дек.

2 минуты назад

краткая характеристика сбербанка анализ тарифов РКО

Отчет по практике, дистанционное банковское обслуживание

Срок сдачи к 5 дек.

2 минуты назад

Исследование методов получения случайных чисел с заданным законом распределения

Лабораторная, Моделирование, математика

Срок сдачи к 10 дек.

4 минуты назад

Проектирование заготовок, получаемых литьем в песчано-глинистые формы

Лабораторная, основы технологии машиностроения

Срок сдачи к 14 дек.

4 минуты назад

2504

Презентация, ММУ одна

Срок сдачи к 7 дек.

6 минут назад

выполнить 3 задачи

Контрольная, Сопротивление материалов

Срок сдачи к 11 дек.

6 минут назад

Вам необходимо выбрать модель медиастратегии

Другое, Медиапланирование, реклама, маркетинг

Срок сдачи к 7 дек.

7 минут назад

Ответить на задания

Решение задач, Цифровизация процессов управления, информатика, программирование

Срок сдачи к 20 дек.

7 минут назад
8 минут назад

Все на фото

Курсовая, Землеустройство

Срок сдачи к 12 дек.

9 минут назад

Разработка веб-информационной системы для автоматизации складских операций компании Hoff

Диплом, Логистические системы, логистика, информатика, программирование, теория автоматического управления

Срок сдачи к 1 мар.

10 минут назад
11 минут назад

перевод текста, выполнение упражнений

Перевод с ин. языка, Немецкий язык

Срок сдачи к 7 дек.

11 минут назад
planes planes
Закажи индивидуальную работу за 1 минуту!

Размещенные на сайт контрольные, курсовые и иные категории работ (далее — Работы) и их содержимое предназначены исключительно для ознакомления, без целей коммерческого использования. Все права в отношении Работ и их содержимого принадлежат их законным правообладателям. Любое их использование возможно лишь с согласия законных правообладателей. Администрация сайта не несет ответственности за возможный вред и/или убытки, возникшие в связи с использованием Работ и их содержимого.

«Всё сдал!» — безопасный онлайн-сервис с проверенными экспертами

Используя «Свежую базу РГСР», вы принимаете пользовательское соглашение
и политику обработки персональных данных
Сайт работает по московскому времени:

Вход
Регистрация или
Не нашли, что искали?

Заполните форму и узнайте цену на индивидуальную работу!

Файлы (при наличии)

    это быстро и бесплатно