Улучшение производительности двухслойного персептрона в классификации 26-ти искаженных поворотами монохромных 60x80-изображений посредством обучения на повернутых изображениях с пиксельными искажениями

Испытывается двухслойный персептрон в классификации объектов, искаженных поворотами, на приемлемом процентном уровне ошибок классификации. Моделью объекта выступает буква английского алфавита, которая представляет собой монохромное изображение формата 60  80. Обучение двухслойного персептрона ни на изображениях с пиксельными искажениями, ни на изображениях, искажен¬ных поворотами, не делает его способным классифици¬ровать на удовлетворительном уровне. Исходя из сего, в классификации изображений, искаженных поворотами, производительность двухслойного персептрона могла бы быть улучшена посредством обучения при модификации искажений. В качестве модифицированных искаженных изображений для обучающего множества предлагается смесь изображений, искаженных поворотами, и изображений с пиксельными искажениями. Соответственно, обучающее множество формируется из повернутых изображений с пиксельными искажениями на основе шаблона 26-ти алфавитных букв. Улучшение производительности обнаруживается тогда, когда через двухслойный персептрон пропускается значительно больше обучающих выборок. Это непременно увеличивает время обучения, но вместе с тем двухслойный персептрон может классифицировать и изображения с пиксельными искажениями, и повернутые изображения с пиксельными искажениями. И вдобавок в классификации объектов рассмотренного среднего формата обученный двухслойный персептрон приблизительно в 35 раз быстрее неокогнитрона.
Ключевые слова: автоматизация, классификация объектов, неокогнитрон, персептрон, монохромные изображения, пик¬сельные искажения, поворот, искажения поворотами, обучающее множество, процентный уровень ошибок классификации.

Год издания: 
2014
Номер: 
5
УДК: 
004.032.26:004.93
С. 55–62., Іл. 10. Бібліогр.: 11 назв.
Литература: 

1. S. Haykin, Neural Networks: A Comprehensive Foundation. New Jersey: Prentice Hall, Inc, 1999.
2. G. Arulampalam and A. Bouzerdoum, “A generalized feedforward neural network architecture for classification and regression”, Neural Networks, vol. 16, no. 5-6, pp. 561— 568, 2003.
3. K. Fukushima, “Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position”, Biological Cybernetics, vol. 36, no. 4, pp. 193—202, 1980.
4. K. Fukushima, “Neocognitron: A hierarchical neural network capable of visual pattern recognition”, Neural Networks, vol. 1, no. 2, pp. 119—130, 1988.
5. K. Hagiwara et al., “Upper bound of the expected training error of neural network regression for a Gaussian noise sequence”, Ibid, vol. 14, no. 10, pp. 1419—1429, 2001.
6. G. Poli and J.H. Saito, Parallel Face Recognition Processing using Neocognitron Neural Network and GPU with CUDA High Performance Architecture, in Face Recognition, M. Oravec, Ed., InTech, 2010.
7. Романюк В.В. Зависимость производительности нейросети с прямой связью с одним скрытым слоем нейронов от гладкости ее обучения на зашумленных копиях алфавита образов // Вісник Хмельницького нац. ун-ту. Технічні науки. — 2013. — № 1. — С. 201— 206.
8. M.Т. Hagan and M.B. Menhaj, “Training feedforward networks with the Marquardt algorithm”, IEEE Trans. Neural Networks, vol. 5, no. 6, pp. 989—993, 1994.
9. A. Nied et al., “On-line neural training algorithm with sliding mode control and adaptive learning rate”, Neurocomputing, vol. 70, no. 16-18, pp. 2687—2691, 2007.
10. K.-S. Oh and K. Jung, “GPU implementation of neural networks”, Pattern Recognition, vol. 37, no. 6, pp. 1311— 1314, 2004.
11. D. Kangin et al., “Further Parameters Estimation of Neocognitron Neural Network Modification with FFT Convolution”, J. Telecomm., Electronic and Comp. Eng., vol. 4, no. 2, pp. 21—26, 2012.

Транслитерированый список литературы: 

1. S. Haykin, Neural Networks: A Comprehensive Foundation. New Jersey: Prentice Hall, Inc, 1999.
2. G. Arulampalam and A. Bouzerdoum, “A generalized feedforward neural network architecture for classification and regression”, Neural Networks, vol. 16, no. 5-6, pp. 561–568, 2003.
3. K. Fukushima, “Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position”, Biological Cybernetics, vol. 36, no. 4, pp. 193–202, 1980.
4. K. Fukushima, “Neocognitron: A hierarchical neural network capable of visual pattern recognition”, Neural Networks, vol. 1, no. 2, pp. 119–130, 1988.
5. K. Hagiwara et al., “Upper bound of the expected training error of neural network regression for a Gaussian noise sequence”, Ibid, vol. 14, no. 10, pp. 1419–1429, 2001.
6. G. Poli and J.H. Saito, Parallel Face Recognition Processing using Neocognitron Neural Network and GPU with CUDA High Performance Architecture, in Face Recognition, M. Oravec, Ed., InTech, 2010.
7. Romani͡uk V.V. Zavisimost' proizvoditel'nosti neĭroseti s pri͡amoĭ svi͡az'i͡u s odnim skrytym sloem neĭronov ot gladkosti eë obuchenii͡a na zashumlennykh kopii͡akh alfavita obrazov // Visnyk Khmel′nyt͡s′koho nat͡s. un-tu. Tekhnichni nauky. – 2013. – # 1. – S. 201–206.
8. M.Т. Hagan and M.B. Menhaj, “Training feedforward networks with the Marquardt algorithm”, IEEE Trans. Neural Networks, vol. 5, no. 6, pp. 989–993, 1994.
9. A. Nied et al., “On-line neural training algorithm with sliding mode control and adaptive learning rate”, Neurocomputing, vol. 70, no. 16-18, pp. 2687–2691, 2007.
10. K.-S. Oh and K. Jung, “GPU implementation of neural networks, Pattern Recognition”, vol. 37, no. 6, pp. 1311–1314, 2004.
11. D. Kangin et al., “Further Parameters Estimation of Neocognitron Neural Network Modification with FFT Convolution”, J. Telecomm., Electronic and Comp. Eng., vol. 4, no. 2, pp. 21–26, 2012.

Полнотекстовый документSize
2014-5-7.pdf217.68 KB