Neyron tarmoqni o‘qitish usullari va algoritmlari quvvatali Raximov Ortiqovich


Download 102.8 Kb.
Pdf ko'rish
bet1/7
Sana27.06.2023
Hajmi102.8 Kb.
#1656622
  1   2   3   4   5   6   7
Bog'liq
Quvvatali Raximov Ortiqovich



Международныйнаучныйжурнал №10(100), часть2 
«
Научный импульс» Мая, 2023 
790 
NEYRON TARMOQNI O‘QITISH USULLARI VA ALGORITMLARI 
 
Quvvatali Raximov Ortiqovich
Texnika fanlari bo‘yicha falsafa doktori (PhD) 
Farg‘ona davlat universiteti 
Tojimamatov Israil Nurmamatovich 
O`qituvchi, Farg‘ona davlat universiteti 
Xo’jaqulov Hamidullo Rahimjon o’g’li
Muhammad al-Xorazmiy nomidagi TATU Farg’ona filiali magistri 
Annotatsiya:Mazkur maqolada neyron tarmoqlarni o’qitishda foydalaniladigan 
tizimlar ustida olib borilgan izlanishlar haqida ma’lumot berilgan.
Kalit so’zlar:Konvolyutsion, takroriy, generativ qarama-qarshi neyron tarmoqlar, 
transformatorlar, autoencoders. 
Абстрактный:
В данной статье представлена информация о проведенных 
исследованиях систем, используемых при обучении нейронных сетей.
 
Ключевые слова:Сверточный, рекуррентные, генеративно-состязательные 
нейронные сети, преобразователи, автоэнкодеры. 
Abstract:This article provides information on the research conducted on the systems 
used in the training of neural networks.
 
Keywords:
Convolutional, recurrent, generative adversarial neural networks, 
transformers, autoencoders. 
 
Neyron tarmoqlarini chuqur o‘rganishning zamonaviy usullari, asosan, xatoning 
doimiy funksiyasining minimal miqdorini topishdir. So‘nggi yillarda model parametrlarini 
yangilash uchun turli xil yondashuvlardan foydalanadigan turli xil optimallashtirish 
algoritmlari taklif qilindi. Neyron tarmoqlarni o‘qitish vazifalarida qo‘llaniladigan eng keng 
tarqalgan optimallashtirish usullarini tahlil qilishga va aniqlangan xususiyatlar asosida turli 
xil ma’lumotlar to‘plamlarida neyron tarmoqlarni sozlash algoritmini tanlash bo‘yicha 
tavsiyalarni shakllantirishni ko‘rib chiqamiz.
Zamonaviy neyron tarmoq usullari amaliy faoliyatning turli sohalarida qo‘llaniladigan 
eng mashhur va doimiy rivojlanayotgan mashinali o‘qitish algoritmlariga xos usullardir. 
Neyron tarmoqlarini turli sohalarda qo‘llanilishi tufayli ular asosida hal qilinadigan turli xil 
vazifalar shakllantirilmoqda, bu masalalar kirish ma’lumotlarining aniqlanishi va turlari 
bilan ajralib turadi, ya’ni tasvirlarni anglash, matnlarni tahlil qilish, kasalliklarni tashxislash 
[1] va boshqa masalalarni hal qilishda neyron tarmoqlaridan foydalanilmoqda. Xususiyatlari 
va amalga oshirish xususiyatlari bilan ajralib turadigan mavjud neyron tarmoq 
algoritmlarining doimiy takomillashtirilishi munosabati bilan ko‘pincha xato funksiyasini 
minimallashtirishning eng samarali usulini aniqlash muammosi paydo bo‘ladi, bu ma’lum 
bir muammoni hal qilishda eng yaxshi natijalarni kafolatlaydi. 


Международныйнаучныйжурнал №10(100), часть2 
«
Научный импульс» Мая, 2023 
791 
Ushbu tadqiqotning maqsadi ushbu algoritmlarning asosiy xususiyatlarini tahlil qilish 
va mashinali o‘qitishning aniq vazifalarida yanada oqilona tanlov qilish uchun o‘rganilgan 
natijalarni umumlashtirishdir. 
Ma’lumki, neyron tarmoqlarni o‘qitishning eng ko‘p qo‘llaniladigan usuli bu xatolarni 
qaytarish algoritmi bo‘lib, unda maqsadli funksiyani minimallashtirish gradient tushish usuli 
bilan amalga oshiriladi *2+, ya’ni har bir iteratsiyada og‘irliklarning o‘zgarishi quyidagi 
formula orqali amalga oshiriladi. 
bu erda E-parametrlarga bog‘liq bo‘lgan maqsadli xato funktsiyasi: w-neyron 
tarmog‘ining og‘irlik koeffitsientlari, α-o‘rganish tezligi. Shunday qilib, ushbu usulda neyron 
tarmog‘ining og‘irliklari o‘rganish tezligi bilan belgilanadigan qadam bilan maqsadli 
funktsiya gradienti yo‘nalishiga qarama-qarshi yo‘nalishda yangilanadi. 
Gradient tushish usulining afzalliklari sifatida, birinchi navbatda, amalga oshirishning 
soddaligi, shuningdek, usul mos ravishda konveks va konveks bo‘lmagan funktsiyalar uchun 
global yoki mahalliy minimal darajaga yaqinlashishi kafolatlanganligini ta’kidlash mumkin. 
Biroq, ushbu usulning ko‘plab kamchiliklari mavjud, buning natijasida ushbu usul kamdan-
kam hollarda amaliyotda qo‘llaniladi. 
1. Gradient tushishi usuli katta ma’lumotlar to‘plamlarida juda sekin bo‘lishi mumkin, 
chunki har bir iteratsiyada o‘quv namunalari to‘plamining barcha vektorlari uchun gradient 
hisoblanadi. 
2. Modelni tezda yangilashga va o‘quv jarayonida o‘quv namunasining yangi 
namunalarini qo‘shishga imkon bermaydi, chunki maqsadli funktsiya tarozilari bir vaqtning 
o‘zida butun asl ma’lumotlar to‘plami uchun yangilanadi. 
3. Konveks bo‘lmagan funktsiyalar uchun mahalliy minimal darajaga tushish 
muammosi mavjud, chunki usul faqat konveks maqsadli xato funktsiyalari uchun aniq 
echimni kafolatlaydi. 
4. Optimal o‘rganish tezligini tanlash qiyin bo‘lishi mumkin. Juda past o‘rganish tezligi 
juda sekin konvergentsiyaga olib kelishi mumkin, aksincha, yuqori o‘rganish tezligi 
konvergentsiyaga to‘sqinlik qilishi mumkin va natijada xato funktsiyasi minimal atrofida 
o‘zgarib turadi va unga etib bormaydi. 
5. Barcha parametrlarning bir xil o‘quv tezligida bir xil yangilanishi, agar asl 
ma’lumotlar to‘plami muvozanatli bo‘lmasa, ya'ni namunada kamroq ob'ektlar bilan 
ifodalangan sinflar mavjud bo‘lsa, o‘rganish sifatining yomonlashishiga olib keladi. 
Zamonaviy mashinani o‘rganish paketlari klassik gradient tushish usulining turli xil 
o‘zgarishlaridan foydalanadi, ular yuqoridagi muammolarni hal qilish mexanizmlari tufayli 
Real amaliy muammolarda yuqori ishlash va aniqlikka ega. Biroq, ko‘pincha allaqachon 
amalga oshirilgan neyron tarmoqlarni o‘qitish usullaridan foydalanuvchi " qora quti 
"rejimida 
o‘rnatilgan 
optimallashtirish 
algoritmlaridan 
foydalanadi, 
ya'ni.ko‘rib 
chiqilayotgan ma’lumotlar to‘plamida foydalanish uchun mavjud bo‘lgan usullarning xatti-
harakatlari haqida etarli ma’lumotga ega emas.


Международныйнаучныйжурнал №10(100), часть2 
«
Научный импульс» Мая, 2023 
792 
Masalan, Python-da mashhur Scikit-learn Machine Learn kutubxonasidagi 
mlpclassifier klassifikatori foydalanuvchiga bir nechta usullarni tanlashni ta’minlaydi: SGD 
(stoxastik gradient), Adam (adaptiv momentni baholash usuli), L-BFGS (broyden – Fletcher 
– Goldfarb – Shanno kvazinyuton algoritmi cheklangan xotiradan foydalanish bilan) [4]. 
Bugungi kunda neyron tarmoqlarni o‘qitishda Python tilida yozilgan keras kutubxonasi 
SGD, RMSprop, Adagrad, Adadelta, Adam, Nadam, Adamax algoritmlarini o‘z ichiga oladi 
[5]. Bundan tashqari, foydalanuvchi nafaqat optimallashtirish algoritmini tanlashi, balki 
umuman olganda, algoritmning sozlash parametrlarining qiymatlarini sozlashi kerak, bu esa 
ushbu usullarning xususiyatlarini tushunmasdan qilish qiyin. 
Ushbu ishda gradient tushish usullari va kvazinyuton usullarining xususiyatlarini 
o‘rganish va tahlil qilish, shuningdek ularni neyron tarmoqlarni o‘qitishning turli amaliy 
vazifalarida qo‘llash shartlari shakllantirilgan. 

Download 102.8 Kb.

Do'stlaringiz bilan baham:
  1   2   3   4   5   6   7




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling