كليدواژه :
تصاوير ابرطيفي , استخراج ويژگي , دسته بندي نظارت شده , پديده هيوز , نمونههاي آموزشي محدود
چكيده فارسي :
استخراج ويژگي نقش مهمي در بهبود دسته بندي تصاوير ابرطيفي دارد. روش هاي استخراج ويژگي غيرپارامتريك، نسبت به روش هاي پارامتريك، براي داده هاي با توزيع غير نرمال كارايي بهتري دارند و ميتوانند ويژگيهاي بيشتري را استخراج كنند. روشهاي استخراج ويژگي غيرپارامتريك از ماتريس هاي پراكندگي غيرپارامتريك براي محاسبه ماتريس انتقال استفاده مي كنند. تحليل مميز غيرپارامتريك، يكي از روشهاي غيرپارامتريك در استخراج ويژگي است كه در آن براي تشكيل ماتريس هاي پراكندگي غيرپارامتريك، از ميانگين هاي محلي هر نمونه و تابع وزن استفاده مي شود. ميانگين محلي با استفاده از k نمونه همسايه بهدست مي آيد و تابع وزن، بر روي نمونه هاي مرزي در تشكيل ماتريس پراكندگي بين دسته اي تأكيد مي كند. در اين مقاله، NDA بهبوديافته بهمنظور اصلاح NDA معرفي شده است. در MNDA، تعداد نمونه هاي همسايه در محاسبه ميانگين محلي با توجه به موقعيت نمونه در فضاي ويژگي بهدست مي آيد. روش پيشنهادي از توابع وزن جديد در تشكيل ماتريس هاي پراكندگي استفاده ميكند. توابع وزن پيشنهادي تأكيد روي نمونه هاي مرزي در تشكيل ماتريس پراكندگي بيندسته اي و تأكيد روي نمونه هاي نزديك به ميانگين دسته، در تشكيل ماتريس پراكندگي درون دسته اي دارند. علاوه براين، به منظور اجتناب از تكينشدن ماتريس پراكندگي دروندسته اي ، از تنظيم آن استفاده شده است. نتايج آزمايشها روي تصاوير اينديانا و ساليناس نشان ميدهد كه MNDA كاريي بهتري نسبت به روشهاي استخراج ويژگي پارامتريك و غيرپارامتريك مورد مقايسه داشته است. بيشترين مقدار صحت متوسط دسته بندي براي داده اينديانا %80/34 است كه با 18 نمونه آموزشي، دسته بند ماشين بردار پشتيبان و 10 ويژگي استخراج شده از MNDA بهدست آمده است. براي داده ساليناس، بيشترين مقدار صحت متوسط دسته بندي، %94/31 است كه با 18 نمونه آموزشي، دستهبند ماشين بردار پشتيبان و 9 ويژگي استخراجشده از MNDA بهدست آمده است. آزمايشها نشان ميدهند كه با استفاده از توابع وزن پيشنهادي و ماتريس پراكندگي دروندسته اي تنظيم شده، روش پيشنهادي نتايج بهتري را در دستهبندي تصاوير ابرطيفي با نمونههاي آموزشي محدود بهدست آورده است.
چكيده لاتين :
Feature extraction performs an important role in improving hyperspectral image classification. Compared with parametric methods, nonparametric feature extraction methods have better performance when classes have no normal distribution. Besides, these methods can extract more features than what parametric feature extraction methods do. Nonparametric feature extraction methods use nonparametric scatter matrices to compute transformation matrix. Nonparametric Discriminant Analysis (NDA) is one of the nonparametric feature extraction methods in which, to form nonparametric scatter matrices, local means of samples and weight function are used. Local mean is calculated by k nearest neighbors of each sample and weight function emphasizes on boundary samples in between class scatter matrix formation. In this paper, modified NDA (MNDA) is proposed to improve NDA. In MNDA, the number of neighboring samples, when measuring local mean, are determined considering position of each sample in feature space. MNDA uses new weight functions in scatter matrix formation. Suggested weight functions emphasizes on boundary samples in between class scatter matrix formation and focus on samples close to class mean in within class scatter matrix formation. Moreover, within class scatter matrix is regularized to avoid singularity. Experimental results on Indian Pines and Salinas images show that MNDA has better performance compared to other parametric, nonparametric feature extraction methods. For Indian Pines data set, the maximum average classification accuracy is 80.34%, which is obtained by 18 training samples, support vector machine (SVM) classifier and 10 extracted features achieved by MNDA method. For Salinas data set, the maximum average classification accuracy is 94.31%, which is obtained by 18 training samples, SVM classifier and 9 extracted features achieved by MNDA method. Experiments show that using suggested weight functions and regularized within class scatter matrix, the proposed method obtained better results in hyperspectral image classification with limited training samples.