Pytorch mini batch gradient descent implementasyonu nasıl yapabilirim?


#1

Deneme amaçlı yazdığım bir kod bu. Tek bir sayı değerini nn e girerek bir çıktı alıyorum burada. Sorum şu;
Burada for loop ta mini batch yapmadığımı biliyorum ve hatta for loop tek bir veri almak yerine batch size olmasını istediğim 30 veri(sayı) alıyor. Mini batch te doğal olarak tek tek almasını ve 30 veri aldıktan sonra loss,gradient vs hesaplamasını isteriz fakat burada bunu oluştururken loop yapısını nasıl kurmam gerektiğini çözemedim.
Bu konuda yardımcı olabilecek birisi var mı acaba?


#2

Vectorization?

PyTorch’un tutoriallarına baktın mı hiç bu işe dalmadan önce, çünkü basic tutorillarında sorunun cevabı var zaten.


#4

Bu konu son cevaptan 60 dakika sonra otomatik olarak kapatıldı. Yeni cevap girilmesine izin verilmiyor.


#3

Daha önce bakmıştım aslında ama batch size in input dimension da ilk sırada gelmesi gerektiği gözümden kaçmış cevabınız için teşekkürler sorun halloldu şu anda.