<<
>>

3.1.1 Формирование обучающей выборки

Вся информация, которую нейронная сеть будет иметь о задаче, содержится в наборе обучающих примеров. Поэтому качество обучения нейронной сети напрямую зависит от количества и качества примеров в обучающей выборке, а также от того, насколько полно эти примеры описывают данную предметную область.

При создании систем выделения сюжетной части изображения на основе нейронных сетей в первую очередь необходимо создание обучающей выборки максимально охватывающей все множество естественных данных.

В качестве учебного набора используется большой набор изображений, полученных из различных источников. В процессе сбора лицевых изображений выполнялась задача обеспечения нейронной сети эффективным набором изображений полученных в различных условиях съемки.

В качестве входного окна большинство нейронных сетей [15,16,76,77] используют окно размером 20x20 пикселей, полагая, что оно является минимальным, которое можно использовать, не теряя критическую информацию об образце лица. Однако такое окно содержит лишь центральную часть лица, исключая границу лица и фон (рисунок 3.1).

Рис 3.1. Окно размером 20x20 пикселей. Для повышения эффективности обучения нами используется окно размером 32x36 пикселей как в работе [62], таким образом к входному окну до-бавляется некоторая вспомогательная информация: граница лица и часть фона

(рисунок 3.2). Отметим, что границы и фон должны варьироваться так, чтобы не вводить помех в обучающую выборку (например, фон не должен быть всегда черным).

Рис. 3.2. Выделение лица.

В процессе извлечения лиц, не выполнялось какой-либо нормализации изображений (выравнивание гистограммы или коррекция яркости).

Кроме того, изображения лиц не нормализовывались так, чтобы глаза, рот и другие части лиц всегда оставались точно на том же самом местоположении. Как отмечено выше, свёрточная нейронная сеть обладает устойчивостью к изменению масштаба и положения, следовательно, для повышения надежности обучения необходимо использовать ненормализованные изображения. На основании этих требований был создан основной набор, состоящий из 1531 изображения, некоторые из них представлены на рисунке 3.3.

Рис 3.3. Изображения из лицевой обучающей выборки.Для создания большего количества примеров и увеличения степени ин-вариантности нейронной сети к небольшим поворотам, к выше упомянутому набору применялся ряд преобразований, включая отражение, вращение до ±20 градусов.

Для увеличения инвариантности нейронной сети к условиям съемки изображений, к исходному набору лицевых изображений применялось размытие и изменение контраста изображения. Некоторые из этих изображений представлены на рисунке 3.4.

Рис 3.4. Изображения из лицевой обучающей выборки.

В итоге был получен набор, эффективно охватывающий разнообразие и богатство естественных данных состоящий из 12000 изображений.

Сбор представительного набора нелицевых образов более труден, так как фактически, любое изображение может принадлежать к классу нелицевых образов. Практическое решение этой проблемы состоит в процедуре самонастройки [78]. Суть данного подхода заключается в том, что система многократно переобучается на ряде изображений, которые не содержат лиц.

Перед началом процедуры самонастройки, был построен начальный нелицевой набор. Большинство из этих изображений содержит части лиц, так как в ранних экспериментах было зафиксировано, что этот вид изображений является серьезным источником ложных обнаружений. В итоге начальная нелицевая обучающая выборка состоит из 9700 изображений. Некоторые из этих изображений показаны на рисунке 3.5.

Рис. 3.5. Изображения из стартовой нелицевой обучающей выборки.

На рисунке 3.6. показана структурная схема алгоритма самонастройки нейронной сети.

Шаг 1:

Создаем начальную обучающую выборку выбрав

случайным образом из нелицевой обучающей выборки 7000 изображений

Шаг 2:

Itertation = 0; FalseThreshold = 0.8;

>

Шаг 3:

Обучаем нейронную сеть Iteration = Iteration +1

I

Шаг 4:

Сканируем изображения пейзажа, и собираем не более 6000 участков в которых отклик нейронной сети больше FalseThreshold,

I

Шаг 5:

Добавляем изображения полученные на шаге 4 к нелицевой обучающей выборке

—Нет

FalseThreshold? 0.2

^ —дГ^

FalseThreshold = FalseThreshold - 0.2

Рис. 3.6. Структурная схема процедуры самонастройки.

Алгоритм самонастройки

Шаг 1. Начальная инициализация нейронной сети, (инициализируются синапсы). Создаются начальные обучающие выборки.

Шаг 2. Происходит начальная инициализация нейронной сети, и ини-циализация управляющих переменных. Iteration - количество итерации процедуры самонастройки нейронной сети. FalseThreshold - порог ложных обнаружений, при сканировании изображений пейзажа, некоторые из изображений показаны на рисунке 3.7.

Рис. 3.7. Некоторые изображения пейзажа.

Шаг 3. Онлайн алгоритм обратного распространения, с алгоритмом подстройки скоростей описанный в разделе 2.3.

Шаг 4. Сканирование изображений, и выявление участков в которых отклик сети больше чем порог FalseThreshold (таким образом выявляются участки, которые потенциально могут стать источниками ложных обнаружений). Количество выявленных участков ограничивается шестью тысячами.

Шаг 5. Полученный на шаге 4 изображения добавляются к нелицевой обучающей выборке. Уменьшение порога FalseThreshold. Этими действиями к классифицирующим способностям нейронной сети предъявляются все более жесткие требования.

Процесс обучения останавливается после пяти итераций, когда замечена сходимость процесса обучения, то есть число ложных обнаружений остается примерно постоянным (на уровне 500 обнаружений). Некоторые из полученных таким образом изображений, показаны рисунке 3.8.

Рис. 3.8. Изображения полученные в процессе процедуры самонастройки.

<< | >>
Источник: Макаренко Алексей Александрович. Алгоритмы и программная система классификации полутоновых изображений на основе нейронных сетей: диссертация... кандидата технических наук: 05.13.18. - Москва: РГБ, 2007. 2007

Еще по теме 3.1.1 Формирование обучающей выборки: