International research journal


Download 5.03 Kb.
Pdf ko'rish
bet57/178
Sana31.01.2024
Hajmi5.03 Kb.
#1819673
1   ...   53   54   55   56   57   58   59   60   ...   178
Bog'liq
1-1-103

Основные результаты 
Эксперименты были проведены, сочетая 
1) выученные с учителем и без учителя фильтры
2) выученные с учителем фильтры и случайные соединения между слоями. 
Эксперименты призваны продемонстрировать важность обучения соединениям. Пусть имеется двухслойная 
нейронная сеть. Первый слой имеет 96 фильтров размерами 
13 13

. Сверточный слой применяется с шагом 4 и 
формируемый результат корректируется ReLU. Между извлечением признаков первого и второго слоев предварительно 
определяются группы как 4 последовательных карты признаков, что в итоге дает результат в виде 24 групп. Из каждой 
группы можно обучиться 64 фильтрам, размер фильтра второго слоя выбран 
4
5
5
 
, это исходит из выбора 


Международный научно-исследовательский журнал  № 1 (103) ▪ Часть 1 ▪Январь 
55 
предопределенной неполной схемы соединений. После свертки с фильтрами применяется операция субдискретизации 
6
6

для снижения размерности. Функция активации ReLU следует за операцией подвыборки. Используется линейный 
классификатор с 2 слоями с 512 скрытыми нейронами и дропаут регуляризацией. 
Для обучения фильтрам без учителя применяется сверточный алгоритм k-средних к немаркированным данным. 
Случайное соединение относится к случаю, когда фильтры первого слоя соединены со вторым по предопределенной 
схеме соединения. Контролируемое соединение относится к случаю, когда обучается матрица контролируемых 
соединений 
96
96

перед заранее определенной схемой соединения. Фильтры второго слоя и матрица соединений 
обучаются вместе, это заставляет матрицу соединений организовать карты признаков таким образом, чтобы каждая 
группа содержала объекты, которые необходимо объединить вместе. Чтобы обучиться фильтрам второго слоя 
неконтролируемым способом с контролируемыми соединениями, необходимо исправить обученную с учителем 
матрицу соединений и обучить локальные фильтры для каждой группы методом сверточных k-средних. 
В таблице 1 представлены результаты этих экспериментов. 
Таблица 1 – Точность классификации на тестовой выборке STL-10 и 2 слоев сети 
Первый слой 
Соединение 
Второй слой 
Точность, % 
С учителем 
С учителем 
С учителем 
60.5 
Без учителя 
Случайное 
С учителем 
63.8 
Без учителя 
Случайное 
Без учителя 
64.3 
Без учителя 
С учителем 
С учителем 
65.9 
Без учителя 
С учителем 
Без учителя 
66.7 
Во-первых, обучение всей сети с помощью обучения с учителем дает более низкую точность, как и ожидалось, так 
как имеет место быть переобучение на ограниченном наборе размеченных данных. Обучение без учителя для первого 
слоя обеспечило значительное повышение производительности по сравнению с сетью, обученной полностью с 
учителем. В экспериментах контролируемое обучение соединениям повышает производительность для каждого случая, 
хотя обучение без учителя все же дает более высокую производительность. Алгоритм обучения K-средних требует 
увеличения количества фильтров для получения сопоставимых результатов в сравнении с контролируемым алгоритмом 
обратного распространения ошибки. Несмотря на то, что контролируемый алгоритм может более эффективно 
представлять данные с меньшим количеством фильтров, он теряет точность и переобучается на обучающем наборе при 
увеличении количества фильтров. Напротив, неконтролируемый алгоритм (сверточный k-средних) плохо работает с 
небольшим количеством фильтров. Эта разница может быть из-за того, что контролируемый алгоритм обучается 
отличительным признакам, тогда как k-средних обучается любым часто встречающимся признакам. 
Наконец, сравним метод с опубликованными современными методами на наборе данных STL-10. В рамках 
сравнения, в основном, обратим внимание на алгоритмы, которые обучаются фильтрам без учителя. Подход с 
использованием нескольких словарей (Coates & Ng, 2011b [6]; Lin & Kung, 2014 [8]) – это объединение представлений, 
которые вычисляются в разных слоях (т. е. выходных значений), в виде вектора признаков изображения. Используются 
те же параметры обучения и предварительная обработка, которые использовались в других экспериментах. 
Для анализа результатов классификации используются двухслойные сети. Однако, увеличивается размер сети, шаг 
в первом слое заменяется на операцию подвыборки 
2 2

, которая увеличивает точность. Дополнительно 
увеличивается точность за счет подхода с несколькими словарями. Так, для двух слоев с мультисловарной сетью 
используется аналогичная сеть из эксперимента с двумя слоями, в котором были получены 64 фильтра из каждых 24 
групп на выходе из первого слоя. Эта сеть объединяется с однослойной сетью с 512 фильтрами. Однослойная сеть также 
включает активацию ReLU и операцию подвыборки для уменьшения размера вывода до 512 × 4 × 4. Как видно из табл. 
2 [9], [10], [11], двухуровневая сеть с несколькими словарями обеспечивает точность 70,5%. Необходимо обратить 
внимание, что это значение значительно выше, чем у всех ранее представленных неконтролируемых методов обучения. 
При этом сеть на порядок меньше (по количеству параметров) чем сети, использованные в (Coates & Ng, 2011b; Lin & 
Kung, 2014). В табл. 3 приведены для сравнения методики контролируемого и частично контролируемого обучения, как 
можно увидеть, предложенный алгоритм обладает достаточно высокой точностью и находится с ними примерно на 
одном уровне по точности.
Таблица 2 – Точность классификации на STL-10 и 2 слоях сети (обучение фильтрам без учителя) 
Алгоритм 
Точность, % 
Coates & Ng (2011) (1 слой) 
61.5 
Hui (2013) (3 слоя) 
65.8 
Lin & Kung (2014) (3 слоя и мультисловарь) 
66.4 
Предложенный метод 
70.5 
Таблица 3 – Точность классификации на STL-10 и 2 слоях сети 
(обучение фильтрам с учителем и с частичным привлечением) 
Алгоритм 
Точность, % 
Swersky (2013) 
69.5 
Zhao (2015) (автокодировщик с частичным контролем) 
73.7 
Dosovitskiy (2014) 
71.9 
 


Международный научно-исследовательский журнал  № 1 (103) ▪ Часть 1 ▪Январь 
56 
Предложенный алгоритм был реализован на языке Python с использованием фреймворка TensorFlow и выполнен на 
персональном компьютере с процессором Intel Core i7-4770, 16 GB RAM и графическим процессором NVIDIA Titan X 
GPU с 12 GB RAM, время выполнения составило около 9 часов, что является приемлемым значением, учитывая размер 
выборки STL-10 (более ста тысяч изображений). Алгоритм возможно запустить на процессорах серии Intel Core i5, 8 
GB RAM и видеокартах с 2 GB памяти, однако время выполнения вырастет в несколько раз. 

Download 5.03 Kb.

Do'stlaringiz bilan baham:
1   ...   53   54   55   56   57   58   59   60   ...   178




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling