سال 2016 در یک نگاه-SqueezeNet-.بخش پنجم

یکی مشکل عمده شبکه های عصبی کانوشنال تعداد پارامتر های زیاد آنها است که این امر باعث افزایش مصرف حافظه میشود. مقاله امروز SqueezeNet نام دارد، معماری که به دقت مشابه معماری AlexNet ،با تعداد 50 برابر پارامتر کمتر دست پیدا کرد.(کمتر از 1 مگابایت)

ادامه...

سال 2016 در یک نگاه- Pixel Recurrent Neural Networks-بخش چهارم

پست امروز به generative models اختصاص دارد به همین منظور ابتدا یه سری مقدمه و تاریخچه را با هم مرور می‌کنیم ، سپس متدهای رایج را به صورت خلاصه بررسی خواهیم کرد و در انتها به بررسی مقاله PixelRNN خواهیم پرداخت که به عنوان بهترین مقاله ICML 2016 انتخاب شد.

ادامه...

سال 2016 در یک نگاه- شبکه های عصبی LSTM و RNN -بخش سوم

قبل از پرداختن به مقالات بعدی مواردی وجود دارد که بایستی مرور کنیم . در این پست به صورت مختصر شبکه های RNN و LSTM را مورد بررسی قرار خواهیم داد. من در این پست به صورت کلی نکات ضروی را بیان میکنم و جزییات بیشتر را به شما واگذار میکنم.

ادامه...

سال 2016 در یک نگاه- شبکه های فرکتال ،RORو DenseNet-بخش دوم

شبکه های Residual امروزه مورد توجه بسیاری از محققین داده قرار گرفته اند به طوری که بعد از معرفی آنها، معماری های مختلفی بر مبنای این شبکه ها ارائه شدند، به طور مثال میتوان به Wide ResNet،ResNet in ResNet،Stochastic Depth ResNet وغیره اشاره کرد وتصور برخی از محققین این است که برای داشتن یک شبکه خیلی عمیق نیاز است که حتما از ساختار Residual استفاده کرد.

ادامه...