Удосконалення продуктивності двошарового персептрона у класифікації 26-ти спотворених поворотами монохромних 60  80-зображень через навчання на повернутих зображеннях з піксельними спотвореннями

Випробовується двошаровий персептрон у класифікації об’єктів, спотворених поворотами, на прийнятному відсотковому рівні помилок класифікації. Моделлю об’єкта виступає літера англійського алфавіту, що являє собою монохромне зображення формату 60  80. Навчання двошарового персептрона ні на зображеннях з піксельними спотвореннями, ні на зображеннях, спотворених поворотами, не робить його здатним класифікувати на задовільному рівні. Отже, у класифікації зображень, спотворених поворотами, продуктивність двошарового персептрона могла би бути поліпшена через навчання за умови модифікації спотворень. Як модифіковані спотворені зображення для навчальної множини пропонується суміш зображень, спотворених поворотами, та зображень з піксельними спотвореннями. Відповідно, навчальна множина формується з повернутих зображень з піксельними спотвореннями на основі шаблону 26-ти алфавітних літер. Підвищення продуктивності проявляється тоді, коли через двошаровий персептрон пропускається значно більше навчальних вибірок. Це неодмінно збільшує час навчання, але натомість двошаровий персептрон може класифікувати і зображення з піксельними спотвореннями, і повернуті зображення з піксельними спотвореннями. До того ж у класифікації об’єктів розглянутого середнього формату навчений двошаровий персеп¬трон приблизно у 35 разів швидший за неокогнітрон.
Ключові слова: автоматизація, класифікація об’єктів, неокогнітрон, персептрон, монохромні зображення, піксельні спотворення, поворот, спотворення поворотами, навчальна множина, відсотковий рівень помилок класифікації.

Рік видання: 
2014
Номер: 
5
УДК: 
004.032.26:004.93
С. 55–62., Іл. 10. Бібліогр.: 11 назв.
Література: 

1. S. Haykin, Neural Networks: A Comprehensive Foundation. New Jersey: Prentice Hall, Inc, 1999.
2. G. Arulampalam and A. Bouzerdoum, “A generalized feedforward neural network architecture for classification and regression”, Neural Networks, vol. 16, no. 5-6, pp. 561— 568, 2003.
3. K. Fukushima, “Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position”, Biological Cybernetics, vol. 36, no. 4, pp. 193—202, 1980.
4. K. Fukushima, “Neocognitron: A hierarchical neural network capable of visual pattern recognition”, Neural Networks, vol. 1, no. 2, pp. 119—130, 1988.
5. K. Hagiwara et al., “Upper bound of the expected training error of neural network regression for a Gaussian noise sequence”, Ibid, vol. 14, no. 10, pp. 1419—1429, 2001.
6. G. Poli and J.H. Saito, Parallel Face Recognition Processing using Neocognitron Neural Network and GPU with CUDA High Performance Architecture, in Face Recognition, M. Oravec, Ed., InTech, 2010.
7. Романюк В.В. Зависимость производительности нейросети с прямой связью с одним скрытым слоем нейронов от гладкости ее обучения на зашумленных копиях алфавита образов // Вісник Хмельницького нац. ун-ту. Технічні науки. — 2013. — № 1. — С. 201— 206.
8. M.Т. Hagan and M.B. Menhaj, “Training feedforward networks with the Marquardt algorithm”, IEEE Trans. Neural Networks, vol. 5, no. 6, pp. 989—993, 1994.
9. A. Nied et al., “On-line neural training algorithm with sliding mode control and adaptive learning rate”, Neurocomputing, vol. 70, no. 16-18, pp. 2687—2691, 2007.
10. K.-S. Oh and K. Jung, “GPU implementation of neural networks”, Pattern Recognition, vol. 37, no. 6, pp. 1311— 1314, 2004.
11. D. Kangin et al., “Further Parameters Estimation of Neocognitron Neural Network Modification with FFT Convolution”, J. Telecomm., Electronic and Comp. Eng., vol. 4, no. 2, pp. 21—26, 2012.

Список літератури у транслітерації: 

1. S. Haykin, Neural Networks: A Comprehensive Foundation. New Jersey: Prentice Hall, Inc, 1999.
2. G. Arulampalam and A. Bouzerdoum, “A generalized feedforward neural network architecture for classification and regression”, Neural Networks, vol. 16, no. 5-6, pp. 561–568, 2003.
3. K. Fukushima, “Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position”, Biological Cybernetics, vol. 36, no. 4, pp. 193–202, 1980.
4. K. Fukushima, “Neocognitron: A hierarchical neural network capable of visual pattern recognition”, Neural Networks, vol. 1, no. 2, pp. 119–130, 1988.
5. K. Hagiwara et al., “Upper bound of the expected training error of neural network regression for a Gaussian noise sequence”, Ibid, vol. 14, no. 10, pp. 1419–1429, 2001.
6. G. Poli and J.H. Saito, Parallel Face Recognition Processing using Neocognitron Neural Network and GPU with CUDA High Performance Architecture, in Face Recognition, M. Oravec, Ed., InTech, 2010.
7. Romani͡uk V.V. Zavisimost' proizvoditel'nosti neĭroseti s pri͡amoĭ svi͡az'i͡u s odnim skrytym sloem neĭronov ot gladkosti eë obuchenii͡a na zashumlennykh kopii͡akh alfavita obrazov // Visnyk Khmel′nyt͡s′koho nat͡s. un-tu. Tekhnichni nauky. – 2013. – # 1. – S. 201–206.
8. M.Т. Hagan and M.B. Menhaj, “Training feedforward networks with the Marquardt algorithm”, IEEE Trans. Neural Networks, vol. 5, no. 6, pp. 989–993, 1994.
9. A. Nied et al., “On-line neural training algorithm with sliding mode control and adaptive learning rate”, Neurocomputing, vol. 70, no. 16-18, pp. 2687–2691, 2007.
10. K.-S. Oh and K. Jung, “GPU implementation of neural networks, Pattern Recognition”, vol. 37, no. 6, pp. 1311–1314, 2004.
11. D. Kangin et al., “Further Parameters Estimation of Neocognitron Neural Network Modification with FFT Convolution”, J. Telecomm., Electronic and Comp. Eng., vol. 4, no. 2, pp. 21–26, 2012.

Текст статтіРозмір
2014-5-7.pdf217.68 КБ