Forwarded from Class vision
#آموزش مقدمات GAN - جلسه بیست و دوم کلاس مباحث ویژه مقطع کارشناسی - با موضوع یادگیری عمیق پیشرفته
تولید ارقام دست نوشته فارسی با شبکههای #GAN و فریم ورک #Keras
#ویدیو در آپارات (1 ساعت):
https://www.aparat.com/v/FjRVt
jupyter notebooks (with #keras):
source code 1: Simple GAN
source code 2: DCGAN
————————-
سایر ویدیوها:
http://aparat.com/cvision
سرفصل این ترم:
http://fall97.class.vision/
تولید ارقام دست نوشته فارسی با شبکههای #GAN و فریم ورک #Keras
#ویدیو در آپارات (1 ساعت):
https://www.aparat.com/v/FjRVt
jupyter notebooks (with #keras):
source code 1: Simple GAN
source code 2: DCGAN
————————-
سایر ویدیوها:
http://aparat.com/cvision
سرفصل این ترم:
http://fall97.class.vision/
آپارات - سرویس اشتراک ویدیو
مباحث ویژه 2 - جلسه 22 (شبکه های مولد تخاصمی - GAN)
در این جلسه یک ساعته با شبکه های GAN آشنا شدیم و مفاهیم ابتدایی آن بیان گردید.
ابتدا یک GAN خیلی ساده در Keras روی اعداد دست نوشته فارسی پیاده سازی کرده و به تولید اعداد دست نوشته ی جدید فارسی پرداختیم، سپس در ادامه Transposed convolution مطرح شد و پس از…
ابتدا یک GAN خیلی ساده در Keras روی اعداد دست نوشته فارسی پیاده سازی کرده و به تولید اعداد دست نوشته ی جدید فارسی پرداختیم، سپس در ادامه Transposed convolution مطرح شد و پس از…
#آموزش #منبع #کورس #ویدیو
اسلایدها و ویدیوهای کورس بینایی ماشین و یادگیری عمیق و شبکه های کانولوشنالی دانشگاه MIT
MIT course schedule and slides:
http://introtodeeplearning.com
Lecture Video:
https://www.youtube.com/watch?v=H-HVZJ7kGI0&list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NI&t=0s&index=15
#MIT #slides
اسلایدها و ویدیوهای کورس بینایی ماشین و یادگیری عمیق و شبکه های کانولوشنالی دانشگاه MIT
Intro to DeepLearning lecture on Deep Computer Vision and Convolutional Neural Networks
MIT course schedule and slides:
http://introtodeeplearning.com
Lecture Video:
https://www.youtube.com/watch?v=H-HVZJ7kGI0&list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NI&t=0s&index=15
#MIT #slides
#کورس #منبع #آموزش #ویدیو
ویدیوها و اسلایدهای کورس جدید یادگیری بدون ناظر عمیق دانشگاه برکلی.
اسلایدها و ویدیوها هفتگی اضافه میشود.
CS294-158 Deep Unsupervised Learning Spring 2019
https://sites.google.com/view/berkeley-cs294-158-sp19/home
Tentative Schedule / Syllabus
Week 1 (1/30)
Lecture 1a: Logistics
Lecture 1b: Motivation
Lecture 1c: Likelihood-based Models Part I: Autoregressive Models
Week 2 (2/6)
Lecture 2a: Likelihood-based Models Part I: Autoregressive Models (ctd)
Lecture 2b: Lossless Compression
Lecture 2c: Likelihood-based Models Part II: Flow Models
Week 3 (2/13)
Lecture 3a: Likelihood-based Models Part II: Flow Models (ctd)
Lecture 3b: Latent Variable Models - part 1
Week 4 (2/20)
Lecture 4a: Latent Variable Models - part 2
Lecture 4b: Bits-Back Coding
Week 5 (2/27)
Lecture 5: Implicit Models / Generative Adversarial Networks
Week 6 (3/6)
Lecture 6: Non-Generative Representation Learning
Week 7 (3/13)
Lecture 7a: Non-Generative Representation Learning (ctd)
Lecture 7b: Semi-supervised Learning
Week 8 (3/20)
Lecture 8: Representation Learning + Other Problems
Spring Break Week (3/27)
you are on your own :)
Week 9 (4/3)
Lecture 9a: Unsupervised Distribution Alignment
Lecture 9b: Guest Lecture: Ilya Sutskever
Week 10 (4/10)
Lecture 10a: Unsupervised Distribution Alignment (ctd)
Lecture 10b: Guest Lecture: Durk Kingma
Week 11 (4/17)
Lecture 11: Language Models (Alec Radford)
Week 12 (4/24)
Lecture 12a: Unsupervised RL
Lecture 12b: Guest Lecture Alyosha Efros
Week 13 (5/1)
Lecture 13a: TBD
Lecture 13b: Guest Lecture Aaron van den Oord
Week 14 (5/8)
RRR week: no lecture
Week 15 (5/15)
Final Project Presentations
ویدیوها و اسلایدهای کورس جدید یادگیری بدون ناظر عمیق دانشگاه برکلی.
اسلایدها و ویدیوها هفتگی اضافه میشود.
CS294-158 Deep Unsupervised Learning Spring 2019
https://sites.google.com/view/berkeley-cs294-158-sp19/home
Tentative Schedule / Syllabus
Week 1 (1/30)
Lecture 1a: Logistics
Lecture 1b: Motivation
Lecture 1c: Likelihood-based Models Part I: Autoregressive Models
Week 2 (2/6)
Lecture 2a: Likelihood-based Models Part I: Autoregressive Models (ctd)
Lecture 2b: Lossless Compression
Lecture 2c: Likelihood-based Models Part II: Flow Models
Week 3 (2/13)
Lecture 3a: Likelihood-based Models Part II: Flow Models (ctd)
Lecture 3b: Latent Variable Models - part 1
Week 4 (2/20)
Lecture 4a: Latent Variable Models - part 2
Lecture 4b: Bits-Back Coding
Week 5 (2/27)
Lecture 5: Implicit Models / Generative Adversarial Networks
Week 6 (3/6)
Lecture 6: Non-Generative Representation Learning
Week 7 (3/13)
Lecture 7a: Non-Generative Representation Learning (ctd)
Lecture 7b: Semi-supervised Learning
Week 8 (3/20)
Lecture 8: Representation Learning + Other Problems
Spring Break Week (3/27)
you are on your own :)
Week 9 (4/3)
Lecture 9a: Unsupervised Distribution Alignment
Lecture 9b: Guest Lecture: Ilya Sutskever
Week 10 (4/10)
Lecture 10a: Unsupervised Distribution Alignment (ctd)
Lecture 10b: Guest Lecture: Durk Kingma
Week 11 (4/17)
Lecture 11: Language Models (Alec Radford)
Week 12 (4/24)
Lecture 12a: Unsupervised RL
Lecture 12b: Guest Lecture Alyosha Efros
Week 13 (5/1)
Lecture 13a: TBD
Lecture 13b: Guest Lecture Aaron van den Oord
Week 14 (5/8)
RRR week: no lecture
Week 15 (5/15)
Final Project Presentations
Google
CS294-158-SP19 Deep Unsupervised Learning Spring 2019
About: This course will cover two areas of deep learning in which labeled data is not required: Deep Generative Models and Self-supervised Learning. Recent advances in generative models have made it possible to realistically model high-dimensional raw data…
Tensorflow(@CVision)
تشخیص چهره- بخش اول- علیرضا اخوان پور-1 •one-shot learning: Face Verification & Recognition •Siamese network •facenet triplet loss برای مشاهده این ویدئو به آدرس زیر مراجعه نمایید : https://www.aparat.com/v/xdC7r برای آگاهی از انتشار ویدئو های بعدی به کانال…
#آموزش #ویدیو #سورس_کد
کدهای این ارائه
https://t.me/cvision/1080
در گیت هاب هوش پارت و همچنین آدرس گیت هاب زیر موجود است:
https://github.com/Alireza-Akhavan/deep-face-recognition
#face #face_recognition #verification
کدهای این ارائه
https://t.me/cvision/1080
در گیت هاب هوش پارت و همچنین آدرس گیت هاب زیر موجود است:
https://github.com/Alireza-Akhavan/deep-face-recognition
#face #face_recognition #verification
Telegram
Tensorflow
تشخیص چهره- بخش اول- علیرضا اخوان پور-1
•one-shot learning: Face Verification & Recognition
•Siamese network
•facenet triplet loss
برای مشاهده این ویدئو به آدرس زیر مراجعه نمایید :
https://www.aparat.com/v/xdC7r
برای آگاهی از انتشار ویدئو های بعدی به…
•one-shot learning: Face Verification & Recognition
•Siamese network
•facenet triplet loss
برای مشاهده این ویدئو به آدرس زیر مراجعه نمایید :
https://www.aparat.com/v/xdC7r
برای آگاهی از انتشار ویدئو های بعدی به…
#آموزش #ویدیو #سورس_کد
اسلایدها:
https://www.slideshare.net/Alirezaakhavanpour/deep-face-recognition-oneshot-learning
تشخیص چهره- بخش اول- علیرضا اخوان پور-1
•one-shot learning: Face Verification & Recognition
•Siamese network
•facenet triplet loss
https://www.aparat.com/v/xdC7r
تشخیص چهره - علیرضا اخوان پور - بخش دوم
• one-shot learning: Face Verification & Recognition
• Discriminative Feature
• Center loss
https://www.aparat.com/v/qmo3u
کدهای این ارائه
در گیت هاب هوش پارت و همچنین آدرس گیت هاب زیر موجود است:
https://github.com/Alireza-Akhavan/deep-face-recognition
🙏Thanks to: @partdpai
#face #face_recognition #verification
اسلایدها:
https://www.slideshare.net/Alirezaakhavanpour/deep-face-recognition-oneshot-learning
تشخیص چهره- بخش اول- علیرضا اخوان پور-1
•one-shot learning: Face Verification & Recognition
•Siamese network
•facenet triplet loss
https://www.aparat.com/v/xdC7r
تشخیص چهره - علیرضا اخوان پور - بخش دوم
• one-shot learning: Face Verification & Recognition
• Discriminative Feature
• Center loss
https://www.aparat.com/v/qmo3u
کدهای این ارائه
در گیت هاب هوش پارت و همچنین آدرس گیت هاب زیر موجود است:
https://github.com/Alireza-Akhavan/deep-face-recognition
🙏Thanks to: @partdpai
#face #face_recognition #verification
www.slideshare.net
Deep face recognition & one-shot learning
خرید دوره: http://class.vision/deep-face-recognition/ one-shot learning and Face Verification Recognition Siamese network Discriminative Feature Facenet pape…
#منبع #کورس #ویدیو
فیلمهای کورس CS230: Deep Learning | Autumn 2018 استنفورد با حضور Andrew Ng
youtube playlist:
https://www.youtube.com/watch?v=PySo_6S4ZAg&list=PLoROMvodv4rOABXSygHTsbvUz4G_YQhOb
صفحه استنفورد این کورس:
http://onlinehub.stanford.edu/cs230
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford University
مرتبط با موضوع "کورس نوتهای تمیز و خوب از درس cs230 استنفورد."
فیلمهای کورس CS230: Deep Learning | Autumn 2018 استنفورد با حضور Andrew Ng
youtube playlist:
https://www.youtube.com/watch?v=PySo_6S4ZAg&list=PLoROMvodv4rOABXSygHTsbvUz4G_YQhOb
صفحه استنفورد این کورس:
http://onlinehub.stanford.edu/cs230
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford University
مرتبط با موضوع "کورس نوتهای تمیز و خوب از درس cs230 استنفورد."
YouTube
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 1 - Class Introduction & Logistics, Andrew Ng
For more information about Stanford's Artificial Intelligence professional and graduate programs visit: https://stanford.io/3eJW8yT
Andrew Ng is an Adjunct Professor, Computer Science at Stanford University.
Kian Katanforoosh is a Lecturer, Computer Science…
Andrew Ng is an Adjunct Professor, Computer Science at Stanford University.
Kian Katanforoosh is a Lecturer, Computer Science…
#مقاله #سورس_کد #ویدیو
#morphnet
MorphNet: Towards Faster and Smaller Neural Networks
در واقع میتوان این مقاله را نوعی روش بهینه سازی شبکه فرض کرد.
در این روش با تعریف Regularization روی منابعی مثل تعداد FLOPها در زمان inference شبکه یا حجم نهایی مدل شبکه های موجود با افت حداقلی درصد یا در خیلی از موارد بدون افت دقت شبکه ی بهینه تر خروجی خواهید گرفت.
مثلا ممکنه در شبکه ی resnet این روش تصمیم بگیره فقط skip-connection باقی بماند و بلاک resnet آن قسمت کلا حذف شود (این تصویر گویا است). یا در معماری Inception خیلی از موازی ها را پاک کند.
* The method was first introduced in #CVPR 2018,
* A overview of the approach as well as new device-specific latency regularizers were prestend in #GTC 2019
🔗Blog post:
https://ai.googleblog.com/2019/04/morphnet-towards-faster-and-smaller.html
🔗MorphNet paper :
https://arxiv.org/pdf/1711.06798.pdf
🔗Source code(#tensorflow ):
https://github.com/google-research/morph-net
🔗slides:
https://github.com/google-research/morph-net/blob/master/g3doc/MorphNet_GTC2019.pdf
🔗Recording and #Video:
https://youtu.be/UvTXhTvJ_wM
https://on-demand.gputechconf.com/gtc/2019/video/_/S9645/
#morphnet
MorphNet: Towards Faster and Smaller Neural Networks
در واقع میتوان این مقاله را نوعی روش بهینه سازی شبکه فرض کرد.
در این روش با تعریف Regularization روی منابعی مثل تعداد FLOPها در زمان inference شبکه یا حجم نهایی مدل شبکه های موجود با افت حداقلی درصد یا در خیلی از موارد بدون افت دقت شبکه ی بهینه تر خروجی خواهید گرفت.
مثلا ممکنه در شبکه ی resnet این روش تصمیم بگیره فقط skip-connection باقی بماند و بلاک resnet آن قسمت کلا حذف شود (این تصویر گویا است). یا در معماری Inception خیلی از موازی ها را پاک کند.
* The method was first introduced in #CVPR 2018,
* A overview of the approach as well as new device-specific latency regularizers were prestend in #GTC 2019
🔗Blog post:
https://ai.googleblog.com/2019/04/morphnet-towards-faster-and-smaller.html
🔗MorphNet paper :
https://arxiv.org/pdf/1711.06798.pdf
🔗Source code(#tensorflow ):
https://github.com/google-research/morph-net
🔗slides:
https://github.com/google-research/morph-net/blob/master/g3doc/MorphNet_GTC2019.pdf
🔗Recording and #Video:
https://youtu.be/UvTXhTvJ_wM
https://on-demand.gputechconf.com/gtc/2019/video/_/S9645/
Telegram
Tensorflow
MorphNet: Towards Faster and Smaller Neural Networks
https://t.me/cvision/1223
https://t.me/cvision/1223
#آموزش #ویدیو
اسلایدها و فیلم سخنرانی AAAI امروز
ویدیو:
https://vimeo.com/390347111
اسلاید سخنرانی یان لکان:
https://drive.google.com/file/d/1r-mDL4IX_hzZLDBKp8_e8VZqD7fOzBkF/view
Video of the talks:
- 1:10 in for #Geoff_Hinton,
- 1:44 for #Yann_LeCun,
- 2:18 for #Yoshua_Bengio
- 2:51 for the panel discussion moderated by Leslie Pack Kaelbling
اسلایدها و فیلم سخنرانی AAAI امروز
ویدیو:
https://vimeo.com/390347111
اسلاید سخنرانی یان لکان:
https://drive.google.com/file/d/1r-mDL4IX_hzZLDBKp8_e8VZqD7fOzBkF/view
Video of the talks:
- 1:10 in for #Geoff_Hinton,
- 1:44 for #Yann_LeCun,
- 2:18 for #Yoshua_Bengio
- 2:51 for the panel discussion moderated by Leslie Pack Kaelbling
Vimeo
AAAI-20 Turing Award Winners Event
Sunday, February 9, 5:20 – 7:20 PM This special two-hour event will feature individual talks by each speaker, followed by a panel session. ACM named Yoshua…
#منبع #ویدیو
خیلی ها یادگیری عمیقو از ابتدا با کورس CS231n استنفورد و تدریس جذاب Andrej Karpathy شروع کردند که در سال 2016از مدرسان این کورس بود...
اما این دانشگاه کورسهای مرتبط دیگری را نیز به صورت رایگان منتشر کرده است، فیلم ها، اسلایدها و نکات سه کورس نیز رایگان در دسترس است:
* CS221 Artificial Intelligence
* CS229 Machine Learning
* CS230 Deep Learning
CS221 Artificial Intelligence
* Website: https://stanford-cs221.github.io/autumn2019/ (with exams + solutions)
* Lectures: https://www.youtube.com/playlist?list=PLoROMvodv4rO1NB9TD4iUZ3qghGEGtqNX
* Cheat sheets: https://stanford.edu/~shervine/teaching/cs-221/
CS229 Machine Learning
* Website: http://cs229.stanford.edu
* Lectures: https://see.stanford.edu/Course/CS229
* Cheat sheets: https://stanford.edu/~shervine/teaching/cs-229/
CS230 Deep Learning
* Website: https://cs230.stanford.edu
* Lectures: https://youtube.com/playlist?list=PLoROMvodv4rOABXSygHTsbvUz4G_YQhOb
* Cheat sheets: https://stanford.edu/~shervine/teaching/cs-230/
خیلی ها یادگیری عمیقو از ابتدا با کورس CS231n استنفورد و تدریس جذاب Andrej Karpathy شروع کردند که در سال 2016از مدرسان این کورس بود...
اما این دانشگاه کورسهای مرتبط دیگری را نیز به صورت رایگان منتشر کرده است، فیلم ها، اسلایدها و نکات سه کورس نیز رایگان در دسترس است:
* CS221 Artificial Intelligence
* CS229 Machine Learning
* CS230 Deep Learning
CS221 Artificial Intelligence
* Website: https://stanford-cs221.github.io/autumn2019/ (with exams + solutions)
* Lectures: https://www.youtube.com/playlist?list=PLoROMvodv4rO1NB9TD4iUZ3qghGEGtqNX
* Cheat sheets: https://stanford.edu/~shervine/teaching/cs-221/
CS229 Machine Learning
* Website: http://cs229.stanford.edu
* Lectures: https://see.stanford.edu/Course/CS229
* Cheat sheets: https://stanford.edu/~shervine/teaching/cs-229/
CS230 Deep Learning
* Website: https://cs230.stanford.edu
* Lectures: https://youtube.com/playlist?list=PLoROMvodv4rOABXSygHTsbvUz4G_YQhOb
* Cheat sheets: https://stanford.edu/~shervine/teaching/cs-230/
#منبع #ویدیو
Recurrent Neural Networks | MIT 6.S191
https://www.youtube.com/watch?v=SEnXr6v2ifU
همان طور که قبلا در این پست گفته بودیم، دانشگاه MIT، یک کورس deep learning رو بهصورت رایگان داره منتشر میکنه. جلسه دومش هم 20 ساعت پیش با موضوع شبکههای بازگشتی و RNN ها منتشر شد.
==========
این جلسه مرتبط با فیلم های #فارسی همین موضوع:
https://www.aparat.com/v/zqbc8
https://www.aparat.com/v/WQyuo
https://www.aparat.com/v/4JYTU
https://www.aparat.com/v/DRqG1
https://t.me/cvision/1591
@cvision
Recurrent Neural Networks | MIT 6.S191
https://www.youtube.com/watch?v=SEnXr6v2ifU
همان طور که قبلا در این پست گفته بودیم، دانشگاه MIT، یک کورس deep learning رو بهصورت رایگان داره منتشر میکنه. جلسه دومش هم 20 ساعت پیش با موضوع شبکههای بازگشتی و RNN ها منتشر شد.
==========
این جلسه مرتبط با فیلم های #فارسی همین موضوع:
https://www.aparat.com/v/zqbc8
https://www.aparat.com/v/WQyuo
https://www.aparat.com/v/4JYTU
https://www.aparat.com/v/DRqG1
https://t.me/cvision/1591
@cvision
YouTube
MIT 6.S191 (2020): Recurrent Neural Networks
MIT Introduction to Deep Learning 6.S191: Lecture 2
Recurrent Neural Networks
Lecturer: Ava Soleimany
January 2020
For all lectures, slides, and lab materials: http://introtodeeplearning.com
Lecture Outline
0:00 - Introduction
2:39 - Sequence modeling
9:57…
Recurrent Neural Networks
Lecturer: Ava Soleimany
January 2020
For all lectures, slides, and lab materials: http://introtodeeplearning.com
Lecture Outline
0:00 - Introduction
2:39 - Sequence modeling
9:57…
#خبر #کورس #ویدیو
سایت edx اعلام کرده که دانشگاه مونترال (UdeM) هم به این سایت پیوسته است.
در بین اساتید شناس این دانشگاه، اسم پروفسور Yoshua Bengio میدرخشد.
به خاطر این ویدیو برخی گفتند که مدرس دوره ی دیپ ایشون خواهد بود:
https://www.youtube.com/watch?v=qruEuDB2lyI
اما متاسفانه استاد این دوره ها نیستند و فقط در مورد دوره ها صحبت کردند و ظاهرا در محتوا هم نظارتی داشتند...
اما Rachel Thomas همکار جرمی هاوارد نیز در یکی از کورس های این دانشگاه در این سایت تدریس خواهد کرد
اطلاعیه سایت edx:
https://blog.edx.org/edx-welcomes-universite-de-montreal/
سایت edx اعلام کرده که دانشگاه مونترال (UdeM) هم به این سایت پیوسته است.
در بین اساتید شناس این دانشگاه، اسم پروفسور Yoshua Bengio میدرخشد.
به خاطر این ویدیو برخی گفتند که مدرس دوره ی دیپ ایشون خواهد بود:
https://www.youtube.com/watch?v=qruEuDB2lyI
اما متاسفانه استاد این دوره ها نیستند و فقط در مورد دوره ها صحبت کردند و ظاهرا در محتوا هم نظارتی داشتند...
اما Rachel Thomas همکار جرمی هاوارد نیز در یکی از کورس های این دانشگاه در این سایت تدریس خواهد کرد
اطلاعیه سایت edx:
https://blog.edx.org/edx-welcomes-universite-de-montreal/
#منبع #کورس #ویدیو
CS 330: Deep Multi-Task and Meta Learning
Want to learn about meta-learning? Lecture videos for CS330 are now online!
https://www.youtube.com/playlist?list=PLoROMvodv4rMC6zfYmnD7UG3LVvwaITY5
Topics incl. MTL, few-shot learning, Bayesian meta-learning, lifelong learning, meta-RL & more:
cs330.stanford.edu
CS 330: Deep Multi-Task and Meta Learning
Want to learn about meta-learning? Lecture videos for CS330 are now online!
https://www.youtube.com/playlist?list=PLoROMvodv4rMC6zfYmnD7UG3LVvwaITY5
Topics incl. MTL, few-shot learning, Bayesian meta-learning, lifelong learning, meta-RL & more:
cs330.stanford.edu
#آموزش #ویدیو #وبینار
Build TensorFlow input pipelines with tf.data
⚪️فیلم وبینار فارسی tf.data و راهکارهای افزایش سرعت آموزش - پنجشنبه مورخ ۱۴ فروردین ۱۳۹۹
⚪️سطح: پیشرفته (کد نویسی)
این وبینار به آموزش مراحل ساخت pipeline ورودی TensorFlow2 و keras با tf.data و دلایل استفاده نکردن از پیشپردازشهای keras نظیر ImageDataGenerator و لزوم بهرهگیری از tf.data پرداخته است. بعد از بررسی گامهای مختلف ETL به عنوان مثال عملی، Transfer learning برای طبقه بندی تصویر را با tf.data انجام دادیم. در نیمهی دوم وبینار بیشتر روی افزایش performance سرعت آموزش و تست بحث شد و راهکارهایی نظیر prefetch، Parallelize ، transformation، cache،snapshot، tf.function، XLA و همچنین mixed precision بحث شد.
اسلایدهای وبینار
https://www.slideshare.net/Alirezaakhavanpour/build-tensorflow-input-pipelines-tfdata
فیلم وبینار در آپارات:
https://www.aparat.com/v/HGvC2
کدهای اسلایدها و مثال عملی:
https://github.com/Alireza-Akhavan/class.vision/tree/master/tf2
@cvision @irandeeplearning
#TensorFlow #keras
Build TensorFlow input pipelines with tf.data
⚪️فیلم وبینار فارسی tf.data و راهکارهای افزایش سرعت آموزش - پنجشنبه مورخ ۱۴ فروردین ۱۳۹۹
⚪️سطح: پیشرفته (کد نویسی)
این وبینار به آموزش مراحل ساخت pipeline ورودی TensorFlow2 و keras با tf.data و دلایل استفاده نکردن از پیشپردازشهای keras نظیر ImageDataGenerator و لزوم بهرهگیری از tf.data پرداخته است. بعد از بررسی گامهای مختلف ETL به عنوان مثال عملی، Transfer learning برای طبقه بندی تصویر را با tf.data انجام دادیم. در نیمهی دوم وبینار بیشتر روی افزایش performance سرعت آموزش و تست بحث شد و راهکارهایی نظیر prefetch، Parallelize ، transformation، cache،snapshot، tf.function، XLA و همچنین mixed precision بحث شد.
اسلایدهای وبینار
https://www.slideshare.net/Alirezaakhavanpour/build-tensorflow-input-pipelines-tfdata
فیلم وبینار در آپارات:
https://www.aparat.com/v/HGvC2
کدهای اسلایدها و مثال عملی:
https://github.com/Alireza-Akhavan/class.vision/tree/master/tf2
@cvision @irandeeplearning
#TensorFlow #keras
www.slideshare.net
Build TensorFlow input pipelines tf.data
ETL in tf.data ImageDataGenerator (Keras) VS tf.data tf.function , XLA, mixed precision and snapshot in TF video[Persian]: https://www.aparat.com/v/HGvC2 Code …
#آموزش #keras #tf2
همان طور که میدانید و در وبینار tf.data (که فیلم و کد و اسلاید در اینجا موجود است) بحث شد، استفاده از ImageDataGenerator کراس توصیه نمیشه! چرا که پایتونی و با نامپای نوشته شده و بسیار کند تر از تعریف pipeline ورودی با تنسرفلو است.
اما برای حالتی که ما برای هر کلاس به فولدر داشتیم خیلی راحت تر بود! نبود؟!
خوشبختانه یه تابع جدید تعریف کردند که مثل قبل آسونه، اما سرعت pipeline دیتا با tf.data را قراره داشته باشه!
قبل این که شروع کنیم عرض کنم که هنوز تو تنسرفلو 2.2 اضافه نشده و الان تو نسخه nightly هستش.
پس اگر تو کولب هستید، قبل از این که چیزی را import کنید بزنید:
اگر میخواید داکیومنتشو بخونید،
در سایت تنسرفلو:
https://www.tensorflow.org/api_docs/python/tf/keras/preprocessing/image_dataset_from_directory
و در سایت کراس:
https://keras.io/api/preprocessing/image/#image_dataset_from_directory-function
و اگر میخواید همین الان تستش کنید، تو کولب نوت بوک زیرو ببنید:
https://colab.research.google.com/github/keras-team/keras-io/blob/master/examples/vision/ipynb/image_classification_from_scratch.ipynb#scrollTo=mIjFNal6Eqdn
@cvision
همان طور که میدانید و در وبینار tf.data (که فیلم و کد و اسلاید در اینجا موجود است) بحث شد، استفاده از ImageDataGenerator کراس توصیه نمیشه! چرا که پایتونی و با نامپای نوشته شده و بسیار کند تر از تعریف pipeline ورودی با تنسرفلو است.
اما برای حالتی که ما برای هر کلاس به فولدر داشتیم خیلی راحت تر بود! نبود؟!
خوشبختانه یه تابع جدید تعریف کردند که مثل قبل آسونه، اما سرعت pipeline دیتا با tf.data را قراره داشته باشه!
قبل این که شروع کنیم عرض کنم که هنوز تو تنسرفلو 2.2 اضافه نشده و الان تو نسخه nightly هستش.
پس اگر تو کولب هستید، قبل از این که چیزی را import کنید بزنید:
! pip install -q tf-nightlyتابع اضافه شده
tf.keras.preprocessing.image_dataset_from_directoryاست، که کم و بیش همان ورودی های ImageDataGenerator را داره.
اگر میخواید داکیومنتشو بخونید،
در سایت تنسرفلو:
https://www.tensorflow.org/api_docs/python/tf/keras/preprocessing/image_dataset_from_directory
و در سایت کراس:
https://keras.io/api/preprocessing/image/#image_dataset_from_directory-function
و اگر میخواید همین الان تستش کنید، تو کولب نوت بوک زیرو ببنید:
https://colab.research.google.com/github/keras-team/keras-io/blob/master/examples/vision/ipynb/image_classification_from_scratch.ipynb#scrollTo=mIjFNal6Eqdn
@cvision
Telegram
Tensorflow(@CVision)
#آموزش #ویدیو #وبینار
Build TensorFlow input pipelines with tf.data
⚪️فیلم وبینار فارسی tf.data و راهکارهای افزایش سرعت آموزش - پنجشنبه مورخ ۱۴ فروردین ۱۳۹۹
⚪️سطح: پیشرفته (کد نویسی)
این وبینار به آموزش مراحل ساخت pipeline ورودی TensorFlow2 و keras…
Build TensorFlow input pipelines with tf.data
⚪️فیلم وبینار فارسی tf.data و راهکارهای افزایش سرعت آموزش - پنجشنبه مورخ ۱۴ فروردین ۱۳۹۹
⚪️سطح: پیشرفته (کد نویسی)
این وبینار به آموزش مراحل ساخت pipeline ورودی TensorFlow2 و keras…
#آموزش #ویدیو
یک کانال یوتیوب که ویدیو های آموزشی و توضیح مقاله میزاره...
https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew
اینم ویدیوی اخیرش با موضوع gpt3
https://www.youtube.com/watch?v=SY5PvZrJhLE
یک کانال یوتیوب که ویدیو های آموزشی و توضیح مقاله میزاره...
https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew
اینم ویدیوی اخیرش با موضوع gpt3
https://www.youtube.com/watch?v=SY5PvZrJhLE
#آموزش #ویدیو #grad_cam #cam #explainableAI
Grad-CAM
سلام دوستان. ما قبلا یه ورک شاپ آنلاین یا موضوع کالبک ها در تنسرفلو 2 داشتیم که تو اون مبحث کمی در مورد tf-explain و روش grad-camبه صورت سربسته توضیح دادیم. اما خب وارد جزئیات نشدیم.
در ویدیوی پایین دو مقاله ی پر رفرنس سال های 2016 و 2017 به ترتیب با نام های:
Learning deep features for discriminative localization (2016)
Grad-cam: Visual explanations from deep networks via gradient-based localization(2017)
را بررسی کردیم و یه بار بدون tf-expalin ودستی با خود کراس پیاده سازی کردیم.
این فیلم را به همراه کد از لینک زیر دانلود کنید:
Explainable AI with Grad-CAM (توضیح مقاله به همراه پیاده سازی در کراس)
https://www.aparat.com/v/kHhOB
https://github.com/Alireza-Akhavan/class.vision/blob/master/Grad-CAM.ipynb
——
https://t.me/cvision/1871
مطالب مرتبط:
Grad-CAM
سلام دوستان. ما قبلا یه ورک شاپ آنلاین یا موضوع کالبک ها در تنسرفلو 2 داشتیم که تو اون مبحث کمی در مورد tf-explain و روش grad-camبه صورت سربسته توضیح دادیم. اما خب وارد جزئیات نشدیم.
در ویدیوی پایین دو مقاله ی پر رفرنس سال های 2016 و 2017 به ترتیب با نام های:
Learning deep features for discriminative localization (2016)
Grad-cam: Visual explanations from deep networks via gradient-based localization(2017)
را بررسی کردیم و یه بار بدون tf-expalin ودستی با خود کراس پیاده سازی کردیم.
این فیلم را به همراه کد از لینک زیر دانلود کنید:
Explainable AI with Grad-CAM (توضیح مقاله به همراه پیاده سازی در کراس)
https://www.aparat.com/v/kHhOB
https://github.com/Alireza-Akhavan/class.vision/blob/master/Grad-CAM.ipynb
——
https://t.me/cvision/1871
مطالب مرتبط:
آپارات - سرویس اشتراک ویدیو
Explainable AI with Grad-CAM (توضیح مقاله به همراه پیاده سازی در کراس)
در این ویدیو در راستای تفسیر پذیری مدل های عمیق دو مقاله ی
Learning deep features for discriminative localization (2016)
Grad-cam: Visual explanations from deep networks via gradient-based localization(2017)
مورد بحث قرار گرفتند و در نهایت در فریم ورک کراس…
Learning deep features for discriminative localization (2016)
Grad-cam: Visual explanations from deep networks via gradient-based localization(2017)
مورد بحث قرار گرفتند و در نهایت در فریم ورک کراس…
#آموزش #ویدیو #کورس #رایگان
Machine Learning for Healthcare
https://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-s897-machine-learning-for-healthcare-spring-2019/
Machine Learning for Healthcare
https://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-s897-machine-learning-for-healthcare-spring-2019/
ocw.mit.edu
Machine Learning for Healthcare | Electrical Engineering and Computer Science | MIT OpenCourseWare
This course introduces students to machine learning in healthcare, including the nature of clinical data and the use of machine learning for risk stratification, disease progression modeling, precision medicine, diagnosis, subtype discovery, and improving…
#ویدیو #آموزشی جدید #چهره
کد تخفیف 30 درصدی ویژه عید نوروز تنها تا 20 فرودین
فیلم آموزشی دوره تخصصی بازشناسی چهره در Tensorrflow/Keras
nowruz1400
✌️این دوره در اسفند ماه ضبط و در فرودین 1400 منتشر شده است.
#face_recognition #face #amsoftmax #sphereface #arcface #tripletloss #face
کد تخفیف 30 درصدی ویژه عید نوروز تنها تا 20 فرودین
فیلم آموزشی دوره تخصصی بازشناسی چهره در Tensorrflow/Keras
nowruz1400
✌️این دوره در اسفند ماه ضبط و در فرودین 1400 منتشر شده است.
#face_recognition #face #amsoftmax #sphereface #arcface #tripletloss #face
#آموزش #ویدیو
اگر قبلا ارائه مقاله Group normalization از گروه Facebook AI Research در ECCV2018 را ندیده اید توصیه میکنم حتما ببیند.
*پانوشت: وقتی که نمیتونیم سایز batch را به اندازه کافی بزرگ کنیم روش batch norm افت دقت بالایی را مشاهده میکند، روش هایی نظیر Layer Norm، Instance Norm و GN برای رفع وابستگی نرمالسازی به سایز مینی بچ ارائه شدند.
https://youtu.be/m3TN9FFmqsI
—-
از قدیمی ترین کانالهای یادگیری عمیق و بینایی کامپیوتر
@Cvision
اگر قبلا ارائه مقاله Group normalization از گروه Facebook AI Research در ECCV2018 را ندیده اید توصیه میکنم حتما ببیند.
*پانوشت: وقتی که نمیتونیم سایز batch را به اندازه کافی بزرگ کنیم روش batch norm افت دقت بالایی را مشاهده میکند، روش هایی نظیر Layer Norm، Instance Norm و GN برای رفع وابستگی نرمالسازی به سایز مینی بچ ارائه شدند.
https://youtu.be/m3TN9FFmqsI
—-
از قدیمی ترین کانالهای یادگیری عمیق و بینایی کامپیوتر
@Cvision
#منبع #آموزش #ویدیو
لیست پخش ویدیوهای explainable AI استنفورد
https://youtube.com/playlist?list=PLoROMvodv4rPh6wa6PGcHH6vMG9sEIPxL
لیست پخش ویدیوهای explainable AI استنفورد
https://youtube.com/playlist?list=PLoROMvodv4rPh6wa6PGcHH6vMG9sEIPxL