Sanjay meena


Fig 1.4 Samples of Images from database [18]  1.6 THESIS OUTLINE


Download 1.15 Mb.
Pdf ko'rish
bet8/26
Sana18.06.2023
Hajmi1.15 Mb.
#1571430
1   ...   4   5   6   7   8   9   10   11   ...   26
 
Fig 1.4 Samples of Images from database [18] 
1.6 THESIS OUTLINE
 
In Chapter 2 Preprocessing of gesture recognition system is described. Preprocessing consist 
image acquisition, segmentation and morphological filtering methods. We have taken our 
database from prima database .Otsu algorithm is used for segmentation purpose and gray scale 
images is converted into binary image consisting hand or background .Morphological filtering 
techniques are used to remove noises from images so that we can get a smooth contour. 
In Chapter 3 feature extraction methods is described .We have used Local contour sequence as 
our prime feature. Canny edge detection technique is used to detect the border of hand in image. 


11 
A contour tracking is applied to find the contour and pixel in contour is numbered sequentially. 
Local contour sequence for any arbitrary pixel is calculated as perpendicular distance from the 
chord connecting end points of window size w
In chapter 4 we explained different technique of classification of hand gesture using LCS 
feature linear classifier, Support Vector machine and least square support machine theory 
In chapter 5 we concluded our work and discussed about its future scope. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 


12 
REFERENCES 
 
[1]
Henrik Birk and Thomas Baltzer Moeslund, “Recognizing Gestures From the Hand Alphabet Using Principal 
Component Analysis”, Master’s Thesis, Laboratory of Image Analysis, Aalborg University, Denmark, 1996. 
[2]
Andrew Wilson and Aaron Bobick, “Learning visual behavior for gesture analysis,” In Proceedings of the 
IEEE Symposium on Computer Vision, Coral Gables, Florida, pp. 19-21, November 1995. 
[3]
Thad Starner and Alex Pentland, “Real-time American sign language recognition from video using hidden 
markov models”,Technical Report No. 375, M.I.T Media Laboratory Perceptual Computing Section, 1995. 
[4]
Jennifer Schlenzig, Edward Hunter, and Ramesh Jain, “Recursive spatio-temporal analysis: Understanding 
Gestures”, Technical report, Visual Computing Laboratory, University of San Diego, California, 1995. 
[5]
Arun Katkere, Edward Hunter, Don Kuramura, Jennifer Schlenzig, Saied Moezzi, and Ramesh Jain, 
“Robogest: Telepresence using hand gestures”,Technical report, University of California, San Diego, Visual 
Computing Laboratory, Technical Report No. VCL-94-104, December 1994. 
[6] 
Hank Grant, Chuen-Ki Lai, “simulation modeling with artificial reality technology (smart): an integration of 
virtual reality simulation modeling” , Proceedings of the Winter Simulation Conference, 1998. 
[7] 
Theodore Brun. “Teckensprks Lexikon”. Bokforlaget Spektra AB, Halmstad, 1974 
[8]
http://www.happinesspages.com/baby-sign-language-FAQ.html 
[9]
Christopher Lee and Yangsheng Xu, “Online, interactive learning of gestures for human robot interfaces” 
Carnegie Mellon University, The Robotics Institute, Pittsburgh, Pennsylvania, USA, 1996 
[10] RichardWatson, “Gesture recognition techniques”, Technical report, Trinity College, Department of 
Computer Science, Dublin, July, Technical Report No. TCD-CS-93-11, 1993 
[11] Thomas G. Zimmerman , Jaron Lanier , Chuck Blanchard , Steve Bryson , Young Harvill, “A hand gesture 
interface device”, SIGCHI/GI Proceedings, conference on Human factors in computing systems and graphics 
interface, p.189-192, April 05- 09, , Toronto, Ontario, Canada, 1987 
[12] Hyeon-Kyu Lee and Jin H. Kim,” An HMM-Based Threshold Model Approach for Gesture Recognition” 
IEEE transactions on pattern analysis and machine intelligence, vol. 21, no. 10, october 1999 
[13] Rick Kjeldsen and John Kender,“Finding skin in colour images”, In Proc. IEEE Int. Conf. on autom. Face 
and Gesture Recognition, pages 3 12-3 17, 1996 
[14] Etsuko Ueda, Yoshio Matsumoto, Masakazu Imai, Tsukasa Ogasawara. “Hand Pose Estimation for Vision-
based Human Interface”, IEEE Transactions on Industrial Electronics, Vol. 50, No. 4, pp. 676–684,2003. 


13 
[15] Chan Wah Ng, Surendra Ranganath, “Real-time gesture recognition system and application”, Image Vision 
Comput, 20(13-14): 993-1007 ,2002 
[16] Claudia Nölker and Helge Ritter, “Visual Recognition of Continuous Hand Postures”, IEEE transactions on 
systems, man, and cybernetics—part c: applications and reviews, vol. 31, no. 1, February 2001 
[17] Bowden and Sarhadi, “Building temporal models for gesture recognition” British Machine Vision 
Conference, pages 32-41, 2000. 
[18] Matthew A. Turk and Alex P. Pentland, “ Face recognition using eigenfaces”, IEEE Society Conference on 
Computer Vision and Pattern Recognition, pages 586–591, Lahaina, Maui, Hawaii, June 3-6 1991. 
[19] J. Edward Jackson, “A Users Guide to Principal Components”, Wiley Series in Probability and Mathematical 
Statistics, A Wiley-Interscience Publication, 1st edition, 1991.
[20] http://www-prima.inrialpes.fr/FGnet/data/12-MoeslundGesture/database.html 

Download 1.15 Mb.

Do'stlaringiz bilan baham:
1   ...   4   5   6   7   8   9   10   11   ...   26




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling