Mavzu: Chiziqli algebraning asosiy tushunchalari


Download 101.98 Kb.
bet2/2
Sana28.03.2023
Hajmi101.98 Kb.
#1303399
1   2
Bog'liq
OchilovShuxrat2

Av = lambda * v
Bu yerda v (mx 1) xos vektorlar, lambda esa (mxm) xos qiymatlar, A esa kvadrat matritsadir.

Hisoblash va matematika asoslarini xos qiymatlar va xos vektorlar tashkil qiladi. XY diagrammasida chizilgan vektor ma'lum bir yo'nalishga ega. Muayyan vektorlarda chiziqli transformatsiyani qo'llash uning yo'nalishini o'zgartirmaydi, bu ularni Machine Learningda juda qimmatli qiladi.
Ma'lumotlardagi shovqinni kamaytirish uchun o'z qiymatlari ham, o'z vektorlari ham qo'llaniladi. Hisoblash intensiv bo'lgan vazifalarda samaradorlikni ushbu ikkitasi yordamida oshirish mumkin. Xususiy vektorlar va o'z qiymatlari, shuningdek, haddan tashqari moslashishni kamaytirishga yordam berishi mumkin, chunki u o'zaro bog'liq xususiyatlarni yo'q qiladi.
Ham xos vektorlar, ham o'z qiymatlari keng qo'llanish to'plamiga ega. Ko'p funktsiyalar to'plamiga ega bo'lgan tasvir, tovush yoki matn ma'lumotlarini ko'rish odatda qiyin bo'lishi mumkin, chunki ular uchdan ortiq o'lchamlarga ega. Bir martalik kodlash yoki boshqa usullardan foydalangan holda bunday ma'lumotlarni o'zgartirish joydan unchalik samarali emas. Bunday stsenariylarni hal qilish uchun katta matritsada saqlangan ma'lumotlarni qamrab oladigan xos vektorlar va xos qiymatlar qo'llaniladi. O'lchamlarni qisqartirish hisoblash intensiv vazifalarida kalit hisoblanadi. Bu bizga quyida tasvirlab beradigan PCA tushunchasiga imkon beradi.
Yuzni tanib olishda xos vektorlar va xos qiymatlardan foydalaniladi. Chiziqli bo'lmagan harakat dinamikasidagi xos vektorlar va o'z qiymatlari yordamida ma'lumotlarni yaxshiroq tushunish mumkin edi.

  1. Asosiy komponentlar paneli

Mashinani o'rganish muammosi ko'pincha o'lchovlilik la'natidan aziyat chekadi. Bu shuni anglatadiki, ma'lumotlarning xususiyatlari yuqori o'lchamda va yuqori darajada o'zaro bog'liqdir. Buning natijasida yuzaga keladigan muammo shundaki, har bir xususiyat maqsadli o'zgaruvchiga qanday ta'sir qilishini tushunish qiyin bo'ladi, chunki o'zaro bog'liq xususiyatlar maqsadli o'zgaruvchiga bitta emas, balki ikkala xususiyat teng darajada ta'sir qilishini anglatadi. Yuqori o'lchamli ma'lumotlar bilan bog'liq yana bir muammo shundaki, siz uni tasavvur qila olmaysiz, chunki siz ko'pi bilan tekislikda 3 o'lchamli ma'lumotlarni chizishingiz mumkin. Shunday qilib, modelning ishlashini ham izohlab bo'lmaydi.
PCA yoki asosiy komponent tahlili - bu sizning ma'lumotlaringiz hajmini 2 o'lchovli yoki 3 o'lchamli ma'lumotlarga kamaytirishingiz mumkin bo'lgan jarayon. O'lchamning qisqarishi maksimal farqni (95% dan 99% gacha) saqlab, hech qanday ma'lumot yo'qolmasligi uchun amalga oshiriladi. Ma'lumotlar yuqori o'lchamdan ikki yoki uchta mustaqil asosiy komponentga qisqartiriladi.
Endi asosiy komponentlar tahlili ortidagi matematika ortogonallik tushunchasiga amal qiladi. Yuqori o'lchamdagi ma'lumotlar pastki o'lchamli kichik bo'shliqqa prognoz qilinadi va maqsad ma'lumotlar nuqtalari va pastki o'lchamli pastki bo'shliq o'rtasidagi prognoz qilingan xatoni kamaytirishdir. Prognoz qilingan xatoning kamayishi tafovutning oshishini ta'minlaydi.
Asosiy komponentlar soni (aytaylik, ikkita yoki uchta) aniqlangandan so'ng, birinchi asosiy komponent kun davomida maksimal dispersiyaga ega bo'ladi, keyin ikkinchi komponent biroz kamroq dispersiyaga ega bo'ladi va hokazo. PCA - bu xususiyatlar sonini kamaytirish va modelning murakkabligini kamaytirish uchun juda yaxshi usul.
Biroq, asosiy komponent tahlilini ortiqcha moslamani kamaytirish uchun birinchi qadam sifatida ishlatmaslik kerak. Overfitting - bu model murakkab va yuqori dispersiyaga ega bo'lgan holat. Haddan tashqari o'rnatishni kamaytirish uchun avval ma'lumotlar hajmini oshirishga harakat qilishingiz yoki iloji bo'lsa, kamroq xususiyatlarni tanlashingiz kerak. Agar bu ishlamasa, keyingi eng yaxshi variant L1 yoki L2 tartibga solishdan foydalanish bo'lib, u koeffitsientni jazolaydi, modelni kompleks qilish uchun harakat qiladi. Agar yuqorida aytilmagan yechimlardan hech biri ish bermasa, PCA oxirgi usuldan foydalanishi kerak.



  1. Singular qiymat dekompozitsiyasi

Fan, texnologiya va boshqa turli sohalarda qo'llaniladigan matritsalarni faktorizatsiya qilish usuli. So'nggi paytlarda mashinani o'rganish tufayli yagona qiymatning parchalanishi ortib borayotgan ahamiyat kasb etmoqda. Ma'lumotlarni qidirish, ishlanmalar. Matritsani ko'rsatish mahsuloti matritsa faktorizatsiyasi deb nomlanadi.
M=Unitar matritsa * Diagonal matritsa * Unitar matritsaning konjugat transpozi
Har bir element uchun satr va ustun indekslari konjugat transpozitsiyasi natijasida almashinadi.

Yuqori o'lchamli xom ma'lumotlarda ma'lumotni ajratish uchun yagona qiymatning parchalanishidan foydalanish mumkin. Asosiy komponentlar tahlilini hisoblash uchun biz Machine Learning-da Singular Value Decomposition kontseptsiyasidan foydalanamiz. Singular Value Dekompozitsiyasining ba'zi ilovalari tasvirni qayta ishlash, mahsulotlarni tavsiya etish, shuningdek, Tabiiy tilni qayta ishlash yordamida tabiiy ma'lumotlarni qayta ishlashda.
Biroq, Singular qiymatning parchalanishi asosiy komponent tahlilidan farq qiladi, chunki siz SVD bilan matritsaning diagonalini maxsus matritsalarda topishingiz mumkin. Ushbu matritsalarni tahlil qilish mumkin va ularni boshqarish oson. Ma'lumotlar mustaqil komponentlarga ham siqilishi mumkin.
Xulosa
Mashinalarni o'rganish - bu bir nechta mutaxassislarning so'zi, ammo uni o'zlashtirish uchun siz matematikani bilishingiz va har qanday ML yoki Deep Learning loyihasida qo'llaniladigan chiziqli algebra tushunchalarini o'rganishingiz kerak. Dimensionless- da Python va umuman Data Science bilan boshlash uchun bir nechta bloglar va treninglar mavjud.

Foydalanilgan adabiyotlar

  • https://www.javatpoint.com/linear-algebra-for-machine-learning

  • https://machinelearningmastery.com/linear_algebra_for_machine_learning/

  • https://towardsai.net/p/machine-learning/basic-linear-algebra-for-deep-learning-and-machine-learning-ml-python-tutorial-444e23db3e9e

Download 101.98 Kb.

Do'stlaringiz bilan baham:
1   2




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling