Underfitting va Owerfitting
Download 0.75 Mb.
|
Regularization
- Bu sahifa navigatsiya:
- Cost funksiyada Regularization (Mostlashtirsh)
- Chiziqli regressiyada Regularization (Mostlashtirsh)
- Foydalanilgan adabiyotlar
Mashinali o’qitishda Underfitting va Owerfitting muammolari Regularization (moslashtirish,sozlash) Ma’ruza rejasi
Misol: Chiziqli regressiya (Uy narxi) Overfitting: Agar bizda juda ko'p xususiyatlar mavjud bo'lsa, o'rganilgan Model training to'plamiga juda mos kelishi mumkin ( ), ammo yangi misollarni aniqlashda xatolik kata bo’ladi. Narxi Yuzasi Narxi Yuzasi Narxi Yuzasi Misol: Logistik regressiya ( = sigmoid funksiyasi) x1 x2 x1 x2 x1 x2 Misol: Logistik regressiya ( = sigmoid funksiyasi) x1 x2 x1 x2 x1 x2 Bias va Variance tushunchalari. Bias - bu bizning modelimizning o'rtacha bashorati va biz taxmin qilmoqchi bo'lgan to'g'ri qiymat o'rtasidagi farq. Yuqori darajadagi model o'quv ma'lumotlariga juda kam e'tibor beradi va modelni soddalashtiradi. Bu har doim o'qitish va test ma'lumotlarida yuqori xatolarga olib keladi. Variance - bu ma'lumotlarning ma'lum bir nuqtasi yoki qiymati uchun modelni bashorat qilishning o'zgaruvchanligi, bu bizga ma'lumotlarning tarqalishini bildiradi. Yuqori variance model o'quv ma'lumotlariga katta e'tibor beradi va ilgari ko'rmagan ma'lumotlarni umumlashtirmaydi. Natijada, bunday modellar o'quv ma'lumotlarini juda yaxshi bajaradi, ammo test ma'lumotlarida yuqori xato ko'rsatkichlariga ega. Bias va Variance tushunchalari. Haddan tashqari mos keladigan model (Owerfitting) Narxi Yuzasi Uy yuzasi Yotoqxona soni Qavatlar soni Uy yoshi Havlining yuzasi Oshxona yuzasi Haddan tashqari mos keladigan model (Owerfitting) Nima qilish mumkin:
Cost funksiyada Regularization (Mostlashtirsh)Taxmin qilish mumkin: qiymatlarini kichiklashi orqali erishish mumkin Narxi Uy yuzasi Narxi Uy yuzasi Parametrlar uchun kichik qiymatlar
Regularization(Mostlashtirish). Uy-joy bo’yicha:
Regularization (Mostlashtirish). Narxi Uy yuzasi Chiziqli regressiyada, minimum qilish uchun ni tanlash. Agar biz ni yetarlicha kata tanlasak nima sodir bo’ladi? ( bu yerda nazarda tutulmoqda )
Chiziqli regressiyada, minimum qilish uchun ni tanlash Narxi Uy yuzasi Agar biz ni yetarlicha kata tanlasak nima sodir bo’ladi? ( bu yerda deb nazarda tutulmoqda) Chiziqli regressiyada Regularization (Mostlashtirsh)Gradient descent Takrorlash Logistik regressiyada Regularization (Mostlashtirsh)Logistik regressiyada sozlash (Regularization ). Cost funksiyasi: x1 x2 Gradient descent Takrorlash Foydalanilgan adabiyotlarAurelian Geron, Hands on Machine Learning with Scikit-Learn Keras&Tensorflow // Second edition Concepts, Tools, and Techniques to Build Intelligent Systems, 2019, 510 pages https://www.geeksforgeeks.org/ml-types-learning-supervised-learning/ https://www.guru99.com/unsupervised-machine-learning.html https://www.w3schools.com/python/python_ml_linear_regression.asp https://www.w3schools.com/python/python_ml_multiple_regression.asp https://www.w3schools.com/python/python_ml_polynomial_regression.asp https://www.mathworks.com/help/stats/regress.html Download 0.75 Mb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling