#آموزش گام به گام و کامل ایجاد اکانت Azure ماکروسافت و اجرای jupyter notebook پایتون در آن + نصب پکیج های مورد نیاز به زبان #فارسی.
http://blog.class.vision/1397/01/azure-notebook/
#azure #python
🙏Thanks to: @MH_Sattarian
http://blog.class.vision/1397/01/azure-notebook/
#azure #python
🙏Thanks to: @MH_Sattarian
#منبع #ویدیو
Recurrent Neural Networks | MIT 6.S191
https://www.youtube.com/watch?v=SEnXr6v2ifU
همان طور که قبلا در این پست گفته بودیم، دانشگاه MIT، یک کورس deep learning رو بهصورت رایگان داره منتشر میکنه. جلسه دومش هم 20 ساعت پیش با موضوع شبکههای بازگشتی و RNN ها منتشر شد.
==========
این جلسه مرتبط با فیلم های #فارسی همین موضوع:
https://www.aparat.com/v/zqbc8
https://www.aparat.com/v/WQyuo
https://www.aparat.com/v/4JYTU
https://www.aparat.com/v/DRqG1
https://t.me/cvision/1591
@cvision
Recurrent Neural Networks | MIT 6.S191
https://www.youtube.com/watch?v=SEnXr6v2ifU
همان طور که قبلا در این پست گفته بودیم، دانشگاه MIT، یک کورس deep learning رو بهصورت رایگان داره منتشر میکنه. جلسه دومش هم 20 ساعت پیش با موضوع شبکههای بازگشتی و RNN ها منتشر شد.
==========
این جلسه مرتبط با فیلم های #فارسی همین موضوع:
https://www.aparat.com/v/zqbc8
https://www.aparat.com/v/WQyuo
https://www.aparat.com/v/4JYTU
https://www.aparat.com/v/DRqG1
https://t.me/cvision/1591
@cvision
YouTube
MIT 6.S191 (2020): Recurrent Neural Networks
MIT Introduction to Deep Learning 6.S191: Lecture 2Recurrent Neural NetworksLecturer: Ava SoleimanyJanuary 2020For all lectures, slides, and lab materials: h...
#مجموعه_داده شامل متن #فارسی
Wiki-40B: Multilingual Language Model Dataset
https://research.google/pubs/pub49029/
#NLP
Wiki-40B: Multilingual Language Model Dataset
https://research.google/pubs/pub49029/
#NLP
#مجموعه_داده #دیتاست #nlp #فارسی
پیکره متنی ناب.
این پیکره مجموعه پاکسازی شده و قابل استفاده مستقیم برای محققان حوزه پردازش زبان طبیعی در فارسی است. این مجموعه شامل حدود ۱۳۰ گیگابایت دیتا متنی شامل ۲۵۰ میلیون پاراگراف و ۱۵ میلیارد کلمه است.
همچنین نسخه خام ناب به همراه اسکریپت پیش پردازش (استفاده شده برای تمیزسازی داده) در اختیار عموم قرار گرفته تا به کمک آن بتوانید نسخه تمیز شده پیکره خود را بسازید.
از این پیکره میتوان برای fine-tune کردن مدلهای زبانی - که در اصل برای زبان انگلیسی تهیه شدهاند - برای زبان فارسی نیز استفاده کرد. از جمله این مدلهای زبانی میتوان به BERT, BART, T5 و ... اشاره کرد.
+ https://arxiv.org/abs/2208.13486
+ https://huggingface.co/datasets/SLPL/naab
+ https://huggingface.co/datasets/SLPL/naab-raw
@cvision
پیکره متنی ناب.
این پیکره مجموعه پاکسازی شده و قابل استفاده مستقیم برای محققان حوزه پردازش زبان طبیعی در فارسی است. این مجموعه شامل حدود ۱۳۰ گیگابایت دیتا متنی شامل ۲۵۰ میلیون پاراگراف و ۱۵ میلیارد کلمه است.
همچنین نسخه خام ناب به همراه اسکریپت پیش پردازش (استفاده شده برای تمیزسازی داده) در اختیار عموم قرار گرفته تا به کمک آن بتوانید نسخه تمیز شده پیکره خود را بسازید.
از این پیکره میتوان برای fine-tune کردن مدلهای زبانی - که در اصل برای زبان انگلیسی تهیه شدهاند - برای زبان فارسی نیز استفاده کرد. از جمله این مدلهای زبانی میتوان به BERT, BART, T5 و ... اشاره کرد.
+ https://arxiv.org/abs/2208.13486
+ https://huggingface.co/datasets/SLPL/naab
+ https://huggingface.co/datasets/SLPL/naab-raw
@cvision
huggingface.co
SLPL/naab-raw · Datasets at Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.