Kerasni tasvirlab bering va nima uchun uni TensorFlow o'rniga ishlatishingiz kerak
Download 0.57 Mb. Pdf ko'rish
|
how-to-use-keras-to-solve-classification-problems-with-a-neural-network (1)
- Bu sahifa navigatsiya:
- Keras uchun zarur shartlar Neyron tarmoqlar tushuntirilgan
tarmog'i sifatida ham tanilgan . Bu modelning aniqligini oshirish uchun tarmoq bo'ylab bir nechta o'tishni
amalga oshirishi mumkin bo'lgan xayolparastlarga qarshi. Dengiz tug'ilgan Matplotlib Agar neyron tarmoq faqat bitta qatlamga ega bo'lsa, u logistik regressiya modeli bo'lar edi. NumPy pydot scikit-learn Siz buni hali ham logistik regressiya modeli deb o'ylashingiz mumkin, ammo logistik regressiya hisoblarini bir necha marta bajarish orqali yuqori aniqlik darajasiga ega bo'lgan model. Bu neyron tarmog'ining asosiy g'oyasi: hisoblang, sinab ko'ring, yana hisoblang, yana sinab ko'ring va optimal yechim topilguncha takrorlang. Quyidagi misolni ko'rib chiqish uchun sizda Zeppelin bo'lishi kerak o'rnatilgan, shuningdek, bular Sizga ushbu paket kerak bo'ladi: Ushbu yondashuv qo'l yozuvi, yuzni tanib olish va diabetni bashorat qilish uchun ishlaydi. Python paketlar: sudo apt install install graphviz Keras uchun zarur shartlar Neyron tarmoqlar tushuntirilgan Machine Translated by Google Neyron tarmoq shunchaki katta chiziqli yoki logistik regressiya muammosidir Logistik regressiya chiziqli regressiya bilan chambarchas bog'liq. Yagona farq shundaki, logistik regressiya diskret natijani beradi va chiziqli regressiya haqiqiy sonni chiqaradi. Aslida, agar bizda y = wx + b chiziqli model mavjud bo'lsa va t = y bo'lsa, logistik funktsiya bo'ladi. y = mx + b oddiy chiziqli tenglamada biz faqat x o'zgaruvchisi bilan ishlaymiz. Ushbu muammoni Microsoft Excel yoki Google Sheets yordamida hal qilishingiz mumkin. Buning uchun sizga neyron tarmoq kerak emas. f(x) = (w1* x1 + w2 * x2 + + wm Haqiqiy dunyoda duch keladigan ko'pgina muammolarda biz ko'plab o'zgaruvchilar bilan shug'ullanamiz. U holda m va x matritsalardir. Ammo matematika shunga o'xshash, chunki bizda hali ham mx + b da og'irliklar va tarafkashlik tushunchasi mavjud. Bu 1 dan 0 gacha bo'lgan raqam, shuning uchun u ishlaydi * xm) + b. Quyidagi formulada matritsa quyida mx 1 o'lchamda. Demak, bu vektor, ya'ni bir o'lchovli matritsa. i= 1, 2, 3, , m vaznlarning har biri wi. Va m xususiyat mavjud (x) x1, x2, x3, , xm. x BMI; qandli diabet ma'lumotlarida glyukoza va boshqalar. Og'irliklar w1, w2, , wm va tarafkashlik bu ko'rsatkichlar va odamning diabetga chalinish ehtimoli o'rtasidagi bog'liqlikni eng aniq bashorat qiladigan raqamdir. ehtimollik hisoblari uchun yaxshi. Amaldagi funktsiyalar sigmasimon funktsiya bo'lib, sinus to'lqin kabi ikki ma'lum qiymat orasida o'zgarib turadigan egri chiziqni anglatadi. Logistik sigmasimon funktsiya ushbu misolda yaxshi ishlaydi, chunki biz kimdir diabetga chalingan yoki kasal bo'lishini taxmin qilishga harakat qilmoqdamiz (1) yoki yo'q (0). Har bir perseptron hisob-kitob qiladi va uni keyingi perseptronga topshiradi. Bu hisob haqiqatan ham ehtimollikdir. Tasniflash masalasida t chegarasi o'zboshimchalik bilan o'rnatiladi, agar x hodisaning ehtimolligi > t bo'lsa, natija 1 (to'g'ri), aks holda noto'g'ri (0) bo'ladi. Logistik regressiya uchun bu chegara 50% ni tashkil qiladi. Neyron tarmog'idagi har bir tugun uchun biz w x ning nuqta mahsulotini hisoblaymiz, Bu bizga haqiqiy raqamni beradi. Logistik funktsiya holatida, yuqorida aytganimizdek, u f(x) > %50 bo'lsa, perseptron 1 ni chiqaradi. Aks holda 0. Kengaytirilgan hisoblash quyidagicha ko'rinadi, bunda siz w vektoridan har bir elementni olasiz va uni x vektoridagi tegishli elementiga ko'paytirasiz. bu bizning mashg'ulot to'plamimizdan olingan har bir x xususiyati bo'yicha har bir vaznning w ga ko'paytirilishini anglatadi va keyin hisobni yuqoriga yoki pastga siljitish uchun b ni qo'shing. Machine Translated by Google |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling