#آموزش #نکته #keras
در بلاگ پست انتقال یادگیری Francois chollet مطابق عکس بالا از تقسیم بر 255 برای نرمال کردن و بین 0 و 1 آوردن مقادیر ورودی استفاده شده.
این بلاگ پست قبل از معرفی
توصیه میشود مطابق داکیومنت برای نرمال سازی ورودی حتما از تابع
سوال مرتبط:
https://stackoverflow.com/questions/48677128/what-is-the-right-way-to-preprocess-images-in-keras-while-fine-tuning-pre-traine
#kears #transfer_learning #preprocess
در بلاگ پست انتقال یادگیری Francois chollet مطابق عکس بالا از تقسیم بر 255 برای نرمال کردن و بین 0 و 1 آوردن مقادیر ورودی استفاده شده.
این بلاگ پست قبل از معرفی
keras.applications
نوشته شده است. توصیه میشود مطابق داکیومنت برای نرمال سازی ورودی حتما از تابع
preprocess_input
همان مدل استفاده کنید. ممکن است از نرمال سازی دیگری در مدل از پیشآموزش داده شده استفاده شده باشد.سوال مرتبط:
https://stackoverflow.com/questions/48677128/what-is-the-right-way-to-preprocess-images-in-keras-while-fine-tuning-pre-traine
#kears #transfer_learning #preprocess
#آموزش #سورس_کد
آیا می دانید از #tf2 و #kears و میتوانید برای آموزش تقریبی #SVM استفاده کنید؟
قبلا رایج بود که ویژگی ها را از یکی از لایههای یک شبکه از قبل آموزش داده استخراج میکردیم و مثلا با SVM طبقه بندی میکردیم...
اما الان می توانید از این ویژگی keras برای افزودن یک "لایه SVM" در بالای یک طبقه بندی کننده عمیق استفاده کرده و کل شبکه را به صورت end2end آموزش دهید!
البته خود François Chollet راه قدیمیترو توصیه کرده و نوشته:
In practice, I think this is a bad idea. But it's certainly something you *can* do.
ML pro tip: learning your features is better than leveraging random kernels.
به هر حال این نوتبوک که توسط شوله ایجاد شده را میتونید در کولب اجرا کرده و روی مجموعه داده mnist تست کنید:
https://colab.research.google.com/drive/1rObQto2bWMBPy8W555IYHtZKtniRUNDQ#scrollTo=_ZPU5WGO0FzQ
آیا می دانید از #tf2 و #kears و میتوانید برای آموزش تقریبی #SVM استفاده کنید؟
قبلا رایج بود که ویژگی ها را از یکی از لایههای یک شبکه از قبل آموزش داده استخراج میکردیم و مثلا با SVM طبقه بندی میکردیم...
اما الان می توانید از این ویژگی keras برای افزودن یک "لایه SVM" در بالای یک طبقه بندی کننده عمیق استفاده کرده و کل شبکه را به صورت end2end آموزش دهید!
البته خود François Chollet راه قدیمیترو توصیه کرده و نوشته:
In practice, I think this is a bad idea. But it's certainly something you *can* do.
ML pro tip: learning your features is better than leveraging random kernels.
به هر حال این نوتبوک که توسط شوله ایجاد شده را میتونید در کولب اجرا کرده و روی مجموعه داده mnist تست کنید:
https://colab.research.google.com/drive/1rObQto2bWMBPy8W555IYHtZKtniRUNDQ#scrollTo=_ZPU5WGO0FzQ