При обучении АНС целесообразно использовать


При обучении АНС целесообразно использовать несколько выбранных случайным образом обучающих множеств и испытывать модель на нескольких множествах тестовых данных (не включающих в себя примеры, использованные для обучения), с большей или меньшей интенсивностью помех, с выбросами или без них. Сопоставление полученных результатов поможет выбрать АНС, наилучшим образом соответствующую поставленной цели. Если оценивать АНС подобным образом, скорей всего, обнаружится, что между количеством, качеством и устойчивостью кластеров, полученных с помощью данной модели, существует множество компромиссных вариантов. Наилучшая комбинация должна определяться исследователем с точки зрениямаксимально полного решения конкретных задач, стоящих перед ним. В некоторых случаях требуемое сжатие данных может быть максимальным (что соответствует минимальному числу кластеров), и соответствующее низкое качество кластеров и слабая устойчивость будут вполне допустимыми. В других случаях может потребоваться создание более тонко настроенной АНС (т.е. плоскости выходных параметров с четкими границами между кластерами) и хорошая устойчивость без значительного сжатия данных. Например, если выходные результаты предназначаются, главным образом, для выработки политики и принятия решений на макроуровне, требуется максимальное сжатие данных. Для других задач, таких как анализ эффективности работы предприятий, потребуется намного более тонкая дифференциация между кластерами. В заключение данного раздела рассмотрим наиболее типичный случай объединения метода АНС с генетическими алгоритмами с точки зрения соответствующих процедур. Полученная в результате этого система сохраняет свойства АНС, позволяя добиться большей гибкости за счет того, что размерность плоскости выходных параметров заранее не фиксируется. Размерности этой плоскости эволюционируют по мере обучения. Используемая при этом процедура состоит из четырех этапов: 1. Инициализация нейронной сети. Исходная плоскость выходных параметров состоит из основных нейронов, организованных в виде плоской решетки небольшой размерности; ее рост в дальнейшем будет зависеть от законов эволюции. 2. При предъявлении нейросети вектора входных данных каждый нейрон исходной структуры оценивается по критерию сходства АНС, в результате чего определяется нейрон-победитель, который является наилучшим приближением вектора входных данных. 3. Производится генерирование новых нейронов и их добавление на плоскость выходных параметров. Число нейронов в каждой последовательной генерации зависит от факторов роста (reco и thresold), определяемых перед началом процедуры, а также пространственной диспозиции нейронов на плоскостивыходных параметров. Свойства новых нейронов частично «наследуются» от нейрона-победителя, а частично берутся из списка случайных величин, лежащих внутри заданных изначально границ, что напоминает биологический процесс скрещивания и мутации. АНС реагирует на внешние стимулы в зависимости от предопределенных критериев. Коэффициент редукции отражает то, каким образом нейрон-победитель создает свое окружение. Чем выше значение данного коэффициента, тем меньше векторное расстояние до соседних нейронов. С математической точки зрения коэффициент редукции действует как весовой коэффициент при вычислении евклидова расстояния от лидера до остальных нейронов. Значения этого коэффициента будут более высокими на первых стадиях, постепенно уменьшаясь по мере выполнения алгоритма. Во многих случаях целесообразно не сохранять значения коэффициента постоянными, а подобрать функцию, которая управляла бы его изменением по ходу обучения АНС. 4. Этот этап представляет собой повторение процесса от этапа 2 до тех пор, пока в АНС не будут введены все входные данные.
Содержание раздела