Neyron tarmoqni o‘qitish usullari va algoritmlari quvvatali Raximov Ortiqovich
Download 102.8 Kb. Pdf ko'rish
|
Quvvatali Raximov Ortiqovich
- Bu sahifa navigatsiya:
- Tojimamatov Israil Nurmamatovich O`qituvchi, Farg‘ona davlat universiteti Xo’jaqulov Hamidullo Rahimjon o’g’li
- Абстрактный
- Ключевые слова
Международныйнаучныйжурнал №10(100), часть2 « Научный импульс» Мая, 2023 790 NEYRON TARMOQNI O‘QITISH USULLARI VA ALGORITMLARI Quvvatali Raximov Ortiqovich Texnika fanlari bo‘yicha falsafa doktori (PhD) Farg‘ona davlat universiteti Tojimamatov Israil Nurmamatovich O`qituvchi, Farg‘ona davlat universiteti Xo’jaqulov Hamidullo Rahimjon o’g’li Muhammad al-Xorazmiy nomidagi TATU Farg’ona filiali magistri Annotatsiya:Mazkur maqolada neyron tarmoqlarni o’qitishda foydalaniladigan tizimlar ustida olib borilgan izlanishlar haqida ma’lumot berilgan. Kalit so’zlar:Konvolyutsion, takroriy, generativ qarama-qarshi neyron tarmoqlar, transformatorlar, autoencoders. Абстрактный: В данной статье представлена информация о проведенных исследованиях систем, используемых при обучении нейронных сетей. Ключевые слова:Сверточный, рекуррентные, генеративно-состязательные нейронные сети, преобразователи, автоэнкодеры. Abstract:This article provides information on the research conducted on the systems used in the training of neural networks. Keywords: Convolutional, recurrent, generative adversarial neural networks, transformers, autoencoders. Neyron tarmoqlarini chuqur o‘rganishning zamonaviy usullari, asosan, xatoning doimiy funksiyasining minimal miqdorini topishdir. So‘nggi yillarda model parametrlarini yangilash uchun turli xil yondashuvlardan foydalanadigan turli xil optimallashtirish algoritmlari taklif qilindi. Neyron tarmoqlarni o‘qitish vazifalarida qo‘llaniladigan eng keng tarqalgan optimallashtirish usullarini tahlil qilishga va aniqlangan xususiyatlar asosida turli xil ma’lumotlar to‘plamlarida neyron tarmoqlarni sozlash algoritmini tanlash bo‘yicha tavsiyalarni shakllantirishni ko‘rib chiqamiz. Zamonaviy neyron tarmoq usullari amaliy faoliyatning turli sohalarida qo‘llaniladigan eng mashhur va doimiy rivojlanayotgan mashinali o‘qitish algoritmlariga xos usullardir. Neyron tarmoqlarini turli sohalarda qo‘llanilishi tufayli ular asosida hal qilinadigan turli xil vazifalar shakllantirilmoqda, bu masalalar kirish ma’lumotlarining aniqlanishi va turlari bilan ajralib turadi, ya’ni tasvirlarni anglash, matnlarni tahlil qilish, kasalliklarni tashxislash [1] va boshqa masalalarni hal qilishda neyron tarmoqlaridan foydalanilmoqda. Xususiyatlari va amalga oshirish xususiyatlari bilan ajralib turadigan mavjud neyron tarmoq algoritmlarining doimiy takomillashtirilishi munosabati bilan ko‘pincha xato funksiyasini minimallashtirishning eng samarali usulini aniqlash muammosi paydo bo‘ladi, bu ma’lum bir muammoni hal qilishda eng yaxshi natijalarni kafolatlaydi. Международныйнаучныйжурнал №10(100), часть2 « Научный импульс» Мая, 2023 791 Ushbu tadqiqotning maqsadi ushbu algoritmlarning asosiy xususiyatlarini tahlil qilish va mashinali o‘qitishning aniq vazifalarida yanada oqilona tanlov qilish uchun o‘rganilgan natijalarni umumlashtirishdir. Ma’lumki, neyron tarmoqlarni o‘qitishning eng ko‘p qo‘llaniladigan usuli bu xatolarni qaytarish algoritmi bo‘lib, unda maqsadli funksiyani minimallashtirish gradient tushish usuli bilan amalga oshiriladi *2+, ya’ni har bir iteratsiyada og‘irliklarning o‘zgarishi quyidagi formula orqali amalga oshiriladi. bu erda E-parametrlarga bog‘liq bo‘lgan maqsadli xato funktsiyasi: w-neyron tarmog‘ining og‘irlik koeffitsientlari, α-o‘rganish tezligi. Shunday qilib, ushbu usulda neyron tarmog‘ining og‘irliklari o‘rganish tezligi bilan belgilanadigan qadam bilan maqsadli funktsiya gradienti yo‘nalishiga qarama-qarshi yo‘nalishda yangilanadi. Gradient tushish usulining afzalliklari sifatida, birinchi navbatda, amalga oshirishning soddaligi, shuningdek, usul mos ravishda konveks va konveks bo‘lmagan funktsiyalar uchun global yoki mahalliy minimal darajaga yaqinlashishi kafolatlanganligini ta’kidlash mumkin. Biroq, ushbu usulning ko‘plab kamchiliklari mavjud, buning natijasida ushbu usul kamdan- kam hollarda amaliyotda qo‘llaniladi. 1. Gradient tushishi usuli katta ma’lumotlar to‘plamlarida juda sekin bo‘lishi mumkin, chunki har bir iteratsiyada o‘quv namunalari to‘plamining barcha vektorlari uchun gradient hisoblanadi. 2. Modelni tezda yangilashga va o‘quv jarayonida o‘quv namunasining yangi namunalarini qo‘shishga imkon bermaydi, chunki maqsadli funktsiya tarozilari bir vaqtning o‘zida butun asl ma’lumotlar to‘plami uchun yangilanadi. 3. Konveks bo‘lmagan funktsiyalar uchun mahalliy minimal darajaga tushish muammosi mavjud, chunki usul faqat konveks maqsadli xato funktsiyalari uchun aniq echimni kafolatlaydi. 4. Optimal o‘rganish tezligini tanlash qiyin bo‘lishi mumkin. Juda past o‘rganish tezligi juda sekin konvergentsiyaga olib kelishi mumkin, aksincha, yuqori o‘rganish tezligi konvergentsiyaga to‘sqinlik qilishi mumkin va natijada xato funktsiyasi minimal atrofida o‘zgarib turadi va unga etib bormaydi. 5. Barcha parametrlarning bir xil o‘quv tezligida bir xil yangilanishi, agar asl ma’lumotlar to‘plami muvozanatli bo‘lmasa, ya'ni namunada kamroq ob'ektlar bilan ifodalangan sinflar mavjud bo‘lsa, o‘rganish sifatining yomonlashishiga olib keladi. Zamonaviy mashinani o‘rganish paketlari klassik gradient tushish usulining turli xil o‘zgarishlaridan foydalanadi, ular yuqoridagi muammolarni hal qilish mexanizmlari tufayli Real amaliy muammolarda yuqori ishlash va aniqlikka ega. Biroq, ko‘pincha allaqachon amalga oshirilgan neyron tarmoqlarni o‘qitish usullaridan foydalanuvchi " qora quti "rejimida o‘rnatilgan optimallashtirish algoritmlaridan foydalanadi, ya'ni.ko‘rib chiqilayotgan ma’lumotlar to‘plamida foydalanish uchun mavjud bo‘lgan usullarning xatti- harakatlari haqida etarli ma’lumotga ega emas. Международныйнаучныйжурнал №10(100), часть2 « Научный импульс» Мая, 2023 792 Masalan, Python-da mashhur Scikit-learn Machine Learn kutubxonasidagi mlpclassifier klassifikatori foydalanuvchiga bir nechta usullarni tanlashni ta’minlaydi: SGD (stoxastik gradient), Adam (adaptiv momentni baholash usuli), L-BFGS (broyden – Fletcher – Goldfarb – Shanno kvazinyuton algoritmi cheklangan xotiradan foydalanish bilan) [4]. Bugungi kunda neyron tarmoqlarni o‘qitishda Python tilida yozilgan keras kutubxonasi SGD, RMSprop, Adagrad, Adadelta, Adam, Nadam, Adamax algoritmlarini o‘z ichiga oladi [5]. Bundan tashqari, foydalanuvchi nafaqat optimallashtirish algoritmini tanlashi, balki umuman olganda, algoritmning sozlash parametrlarining qiymatlarini sozlashi kerak, bu esa ushbu usullarning xususiyatlarini tushunmasdan qilish qiyin. Ushbu ishda gradient tushish usullari va kvazinyuton usullarining xususiyatlarini o‘rganish va tahlil qilish, shuningdek ularni neyron tarmoqlarni o‘qitishning turli amaliy vazifalarida qo‘llash shartlari shakllantirilgan. Download 102.8 Kb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling