Tensorflow(@CVision)
13K subscribers
1.1K photos
190 videos
67 files
2.1K links
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر

TensorFlow, Keras, Deep Learning, Computer Vision

سایت دوره
http://class.vision

👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support
Download Telegram
#NVIDIA DGX-1 with #Tesla V100
این باکس پردازشی 960 ترا FLOPS عملیات پشتیبانی میکند؛ و حدود 100 برابر سریعتر از سی پی یو سرور است.
https://www.nvidia.com/en-us/data-center/dgx-1/
Software 2.0
اندره کارپاسی، مدیر هوش مصنوعی تسلا، شبکه های عصبی را نرم افزار 2 نامید...
او معتقد است شبکه های عصبی تنها یک طبقه بند دیگرنیستند، بلکه آنها نشان دهنده آغاز یک تغییر اساسی در نحوه نوشتن نرم افزار می باشد. آنها نرم افزار 2.0 هستند...

https://medium.com/@karpathy/software-2-0-a64152b37c35

#software2 #karpathy #tesla #neural_network
#آموزش

همانطور که میدانید چند وقتیه که گوگل کولب GPUهای Tesla V4 با مشخصات زیر را به صورت رایگان در اختیار محققان قرار داده

16GB of VRAM
160 TFLOPS of GPU power

اما این که چه موقع GPUی K80بهتون بده چه موقع Tesla V4 دست خودتون نیست،
ممکنه به دلایلی مثل استفاده از GPU قوی تر یا مثلا عدم ساپوت K80 از کد شما (مثل دیتابیس Blazing SQL که روی Tesla V4 اجرا میشه ولی روی K80 نه!) میخواهید حتما از تسلا استفاده کنید.
برای اینکار فعلا تنها راهی که من میدونم میشه کرد اینه که کرنلتون را ریست کنید:

Runtime -> Reset all runtimes...

حالا از کجا بفهمیم چه GPUی بهمون داده؟
یه روش ساده که استفاده از دستور
!nvidia-smi

تو نوت بوکه.
روش دیگه اینه که کد زیر را اول نوت بوک یا کد پایتونیتون بزارید که اگر GPU مورد نظرمون را بهمون نداده بود Exception بده!


import pynvml


pynvml.nvmlInit()
handle = pynvml.nvmlDeviceGetHandleByIndex(0)
device_name = pynvml.nvmlDeviceGetName(handle)

if device_name != b'Tesla T4':
raise Exception("""
Unfortunately this instance does not have a T4 GPU.

Please make sure you've configured Colab to request a GPU instance type.

Sometimes Colab allocates a Tesla K80 instead of a T4. Resetting the instance.

If you get a K80 GPU, try Runtime -> Reset all runtimes...
""")
else:
print('Woo! You got the right kind of GPU!')

#colab #tesla #GPU
Tensorflow(@CVision)
#آموزش همانطور که میدانید چند وقتیه که گوگل کولب GPUهای Tesla V4 با مشخصات زیر را به صورت رایگان در اختیار محققان قرار داده 16GB of VRAM 160 TFLOPS of GPU power اما این که چه موقع GPUی K80بهتون بده چه موقع Tesla V4 دست خودتون نیست، ممکنه به دلایلی مثل…
#آموزش #گوگل_کولب
بررسی نسخه گوگل‌گولب:
در حال حاضر گوگل کولب به صورت تصادفی یکی از 4 کارت گرافیک سری تسلای K80, T4, P4 یا P100 را بهمون میده، حالا کافیه با تایپ کامند
!nvidia-smi
بفهمیم توی سشن فعلی چی بهمون داده.

روش دیگه اینه که کد زیر را اول نوت بوک یا کد پایتونیتون بزارید که اگر GPU مورد نظرمون را بهمون نداده بود Exception بده!


import pynvml


pynvml.nvmlInit()
handle = pynvml.nvmlDeviceGetHandleByIndex(0)
device_name = pynvml.nvmlDeviceGetName(handle)

if device_name != b'Tesla T4':
raise Exception("""
Unfortunately this instance does not have a T4 GPU.

Please make sure you've configured Colab to request a GPU instance type.

Sometimes Colab allocates a Tesla K80 instead of a T4. Resetting the instance.

If you get a K80 GPU, try Runtime -> Reset all runtimes...
""")
else:
print('Woo! You got the right kind of GPU!')

#colab #tesla #GPU