Tensorflow(@CVision)
12.7K subscribers
1.1K photos
188 videos
67 files
2.08K links
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر

TensorFlow, Keras, Deep Learning, Computer Vision

سایت دوره
http://class.vision

👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support
Download Telegram
#کورس #آموزش #منبع

جدیدترین کورس های آموزش فریم ورک تنسرفلو

این دو کورس به ترتیب در سایت های udacity و coursera توسط گروه تنسرفلو گوگل، و deeplearning.ai زیر نظر andrew ng کمتره چند هفتست که منتشر شدند...
Intro to TensorFlow for Deep Learning byTensorFlow
https://eu.udacity.com/course/intro-to-tensorflow-for-deep-learning--ud187

Introduction to TensorFlow for Artificial Intelligence, Machine Learning, and Deep Learning
https://www.coursera.org/learn/introduction-tensorflow/

#tensorflow #tensorflow2
#coursera #udacity
#سورس_کد #آموزش
A Variational AutoEncoder (VAE) built in TF 2.0 using either a subclassing style or the Functional API.
The #Functional API example reuses the Sampling layer from the subclassing example. You can always mix-and-match these building blocks.

کد در گوگل کولب:
https://www.tensorflow.org/alpha/guide/keras/custom_layers_and_models#putting_it_all_together_an_end-to-end_example

#tensorflow2 #keras #VAE
#آموزش
راهنمای کراس در تنسرفلوی ۲.۰ در سایت تنسرفلو.
https://www.tensorflow.org/alpha/guide/keras/

#keras #tensorflow2
اگر تا الان نخوندید توصیه میکنم ببینید.
سوال و جواب ها پیرامون تغییرات تنسرفلو ۲.۰

https://github.com/tensorflow/community/blob/master/sigs/testing/faq.md

#tensorflow2
#سورس_کد

نوت بوک گوگل کولبی خواندن کپچا با کراس و تنسرفلو ۲

How quickly can we build a #captcha reader using deep learning?

@TensorFlow 2.0 and #Keras

https://colab.research.google.com/drive/16y14HuNd8rl_2WhUZMi33SrKZ1XIc5cy

#colab #tensorflow2 #keras
#سورس_کد
یه پیاده سازی جمع و جور، مختصر و تمیز از Deep Dream در تنسرفلوی 2.0 که میتوانید در گوگل کولب اجرا کنید.

Minimal implementation of Deep Dream in TensorFlow 2.0

https://colab.research.google.com/github/random-forests/applied-dl/blob/master/examples/9-deep-dream-minimal.ipynb
#art #aiart #deeplearning #tensorflow #technology

🙏Thanks to: @AI_Python_EN


#tensorflow2 #DeepDream
#آموزش #سورس_کد

داکیومنت جدید سایت تنسرفلو پیرامون ترنسفورمر
Transformer model for language understanding
new tutorial that shows how to write #Transformer (‘attention’ is all you need) in #TensorFlow 2.0 from scratch
https://www.tensorflow.org/alpha/tutorials/sequences/transformer

#tensorflow2
#آموزش
Create a real #TensorFlow production ML pipeline with this new #TFX step-by-step tutorial!

https://www.tensorflow.org/tfx/tutorials/tfx/workshop

#tensorflow2 #tfx
#آموزش

پارامتر مربوط به regularization وزنها در Keras چیست؟!

#kernel_regularizer vs #activity_regularizer


https://t.me/cvision/1219

#keras #tensorflow2 #regularization
تغییرات تنسرفلو ۲ برای شبکه های بازگشتی
یکی از تغییرات تنسرفلو ۲ حذف API های اضافی بوده است.
مثلا در تنسرفلو قبلا با دو روش مختلف

TF RNN و Keras RNN

میتوانستیم شبکه ها را تعریف کنیم.
در نسخه جدید تنسرفلو روش TF RNN برای تعریف شبکه های بازگشتی منسوخ شده و کاربردهایی که قبلا داشته و در Keras نبوده به Keras پورت شده است.
حالا از این پس صرفا با API هایی که کراس در اختیارمون میگذاره باید شبکه های RNN را تعریف کنیم.

اطلاعات بیشتر را در این مورد میتوانید از اینجا مطالعه کنید:

https://github.com/tensorflow/community/blob/master/rfcs/20180920-unify-rnn-interface.md


tf.nn.rnn_cell.BasicRNNCell -> tf.keras.SimpleRNNCell
tf.nn.rnn_cell.BasicLSTMCell, tf.keras.LSTMCell -> tf.nn.rnn_cell.LSTMCell
tf.nn.rnn_cell.GRUCell -> tf.keras.GRUCell
tf.nn.rnn_cell.MultiRNNCell -> tf.keras.StackedRNNCells

#RNN, #tensorflow2
☑️تغییرات RNN ها در تنسرفلو۲
اگر خاطرتون باشه قبلا برای استفاده از GPU در مدلهای RNN باید شرط مینوشتیم و از لایه معادل CUDNN آن استفاده میکردیم که کد واقعا کثیف میشد!
مثلا برای تولید اشعاری شبیه شاهنامه کد زیر را که در عکس مشخص شده داشتیم

https://nbviewer.jupyter.org/github/Alireza-Akhavan/class.vision/blob/master/48-text-generation-on-shahnameh-tensorflow.ipynb
#tensorflow2 #rnn
در تنسرفلو ۲، به صورت پیش فرض اگر GPU در دسترس باشه و اگر از لایه های RNN ی استفاده کنید، از GPU استفاده خواهد شد.
اگر یادتون باشه قبلا اینطوری نبود که اینجا مثال زدم:

https://t.me/cvision/1446

پس به همین دلیل دیگه دو لایه ی keras.layers.CuDNNLSTM/CuDNNGRU layers
منقضی شدند. و میتونید بدون نگرانی به نوع سخت افزار کد بنویسید.

اما از اونجایی که لایه های rnn در کرنل CUDNN تحت شرایط خاص نوشته شده، نمیتونیم هر پارامتری که میخوایم را بهش پاس بدیم، در غیر این صورت کدمون فقط رو cpu ران میشه!

شرایطی که باعث میشه لایه های RNN ی روی GPU نره و فقط رو CPU اجرا شه!

🔴Changing the activation function from tanh to something else.
🔴Changing the recurrent_activation function from sigmoid to something else.
🔴Using recurrent_dropout > 0.
Setting unroll to True, which forces LSTM/GRU to decompose the inner tf.while_loop into an unrolled for loop.
🔴Setting use_bias to False.
🔴Using masking when the input data is not strictly right padded (if the mask corresponds to strictly right padded data, CuDNN can still be used. This is the most common case).

https://www.tensorflow.org/guide/keras/rnn

@cvision
#tensorflow2 #rnn
#پیاده_سازی #سورس_کد
Tensorflow 2.0 based implementation of EDSR, WDSR and SRGAN for single image super-resolution


https://github.com/krasserm/super-resolution

#super_resolution
#tensorflow2 #keras