00:00 / 00:00
1.8x
1.4x
1.0x
0.7x
HD SD
HD
SD
ثبت‌نام رایگان
  • دسترسی به کل جلسات ویدیویی از دوره
  • دسترسی به کل جلسات ویدیویی از دوره
  • اضافه شدن دوره به پروفایل
00:00 / 00:00
1.8x
1.4x
1.0x
0.7x
HD SD
HD
SD

آموزش رایگان بهبود شبکه‌های عصبی عمیق

دوره‌های رایگان
35 جلسه
100٪ (36 رای)

کاربرد دوره آموزش رایگان بهبود شبکه‌های عصبی عمیق چیست؟

شبکه عصبی عمیق یک شبکه عصبی با سطح مشخصی از پیچیدگی و بیش از دولایه است. این نوع شبکه‌ها از مدل‌سازی سطح بالای ریاضی برای پردازش داده‌ها به روش‌های پیچیده استفاده می‌کنند.

به‌طورکلی شبکه عصبی یک فناوری است که برای شبیه‌سازی فعالیت مغز انسان ساخته شده‌است؛ شناخت الگو و عبور ورودی از طریق لایه‌های اتصالات عصبی شبیه‌سازی شده مختلف از مهم‌ترین این فعالیت‌هاست.

بسیاری از کارشناسان شبکه‌های عصبی عمیق را شبکه‌هایی تعریف می‌کنند که یک‌لایه ورودی، یک‌لایه خروجی و حداقل یک‌لایه پنهان در بین آن‌ها دارند. هر لایه نوع خاصی از مرتب‌سازی و ترتیب را در فرایندها انجام می‌دهند.

یکی از کاربردهای کلیدی شبکه عصبی عمیق سروکار داشتن با داده‌های بدون برچسب یا ساختار نیافته است. عبارت یادگیری عمیق هم برای توصیف این شبکه‌های عصبی عمیق به کار می‌رود؛ چراکه یادگیری عمیق شکل خاصی از یادگیری ماشین را نشان می‌دهد که در آن فناوری‌ها با استفاده از جنبه‌های هوش مصنوعی به دنبال طبقه‌بندی و تنظیم اطلاعات فراتر از پروتکل‌های ساده ورودی و خروجی هستند.

 

هدف از یادگیری دوره آموزش رایگان بهبود شبکه‌های عصبی عمیق چیست؟

آموزش بهبود شبکه عصبی عمیق، دومین دوره از مجموعه تخصص یادگیری عمیق اندرو می‌باشد. هدف از این دوره این است که بتوانید فرایندهایی که منجر به کارایی می‌شوند و به طور سیستماتیک نتایج خوبی به بار می‌آورند، را درک کنید.

در پایان این دوره شما خواهید توانست بهترین روش‌ها را برای آموزش و توسعه مجموعه‌های آزمون و تجزیه و تحلیل بایاس واریانس استفاده کرده و آن‌ها را برای ایجاد برنامه‌های یادگیری عمیق به کار ببرید. 

 

دوره رایگان آموزش بهبود شبکه‌های عصبی عمیق مناسب چه کسانی است؟

  • کسانی که با هوش مصنوعی آشنایی دارند و می‌خواهند مهارت‌های خود را ارتقا دهند.
  • برنامه‌نویسانی که به کار کردن در حوزه بهبود شبکه عصبی عمیق علاقه‌مندند.
  • دانشجویان علوم مهندسی، پزشکی و پایه

 

بعد از فراگیری دوره آموزش رایگان بهبود شبکه‌های عصبی عمیق چه مهارت‌هایی کسب خواهید کرد؟

با گذراندن این دوره مهارت‌های شما در زمینه بهبود شبکه‌های عصبی عمیق ارتقا پیدا خواهد کرد و می‌توانید از تکنیک‌های استاندارد شبکه عصبی عمیق استفاده کنید. این تکنیک‌ها عبارت‌اند از:

  • تنسورفلو (Tensorflow)
  • یادگیری عمیق
  • بهینه‌سازی ریاضی
  • تنظیم هایپر پارامترها
  • مقداردهی اولیه
  • نرمال‌سازی بسته‌ها
  • پیاده‌سازی و به‌کارگیری انواع الگوریتم‌های بهینه‌سازی

 

 

سرفصل‌های دوره آموزش رایگان بهبود شبکه‌های عصبی عمیق

فصل اول: جنبه‎‌های عملیاتی یادگیری عمیق
01:47 ساعت
01:47
Combined Shape Created with Sketch. 14 جلسه
نمایش جلسات فصل  

در این فصل به بیان بررسی داده‌های آموزشی، توسعه و تست پرداخته می‌شود و شما می‌توانید تأثیر و اهمیت مقداردهی اولی را روی نتایج شبکه‌های عصبی درک کنید. دستورالعمل‌های پایه یادگیری ماشین، منظم سازی و روش‌های آن، درک مفهوم Dropout و غیره از دیگر مباحثی است که در فصل اول بررسی می‌شود.

آموزش، توسعه و تست مجموعه داده
"12:14
بایاس و واریانس
"08:56
دستور العمل اصلی برای یادگیری ماشین
"06:31
منظم‌سازی (regularization)
"09:52
چرا منظم‌سازی (regularization)، overfitting را کاهش می‌دهد
"07:19
Dropout Regularization
"09:35
درک dropout
"07:14
دیگر روش‌های regularization
"08:34
نرمال‌سازی ورودی‌ها
"05:40
Vanishing Exploding gradients
"06:17
وزن‌دهی اولیه شبکه‌های عمیق
"06:22
Numerical approximation of gradients
"06:45
Gradient checking
"06:44
نکات پیاده‌سازی Gradient checking
"05:28
فصل دوم: الگوریتم‌های بهینه‌سازی
01:20 ساعت
01:20
Combined Shape Created with Sketch. 10 جلسه
نمایش جلسات فصل  

فصل دوم به بررسی الگوریتم‌های بهینه‌سازی اختصاص دارد. در واقع در این فصل تفاوت‌های الگوریتم‌های مختلف بهینه‌سازی را درک خواهید کرد. اجرای الگوریتم گرادیان نزولی با بسته‌های کوچک داده و همچنین با مومنتوم از مباحث مهم این فصل است که منجر به افزایش سرعت تبدیل و یادگیری می‌شود.

به‌علاوه، در این فصل به میانگین‌ها با وزن نمایی، درک آن‌ها، همبستگی بر مبنای بایاس در میانگین‌های نمایی وزن‌دهی شده پرداخته خواهد شد. در انتها هم با RMSprop و الگوریتم‌های بهینه‌سازی adam آشنا می‌شوید.

Mini-batch gradient descent
"11:38
درک mini-batch gradient descent
"11:28
میانگین‌های وزن‌دهی شده‌ی نمایی
"06:08
درک میانگین وزن‌دهی شده‌ی به صورت نمایی
"09:52
تصحیح بایاس‌ها در میانگین وزن‌دهی شده به صورت نمایی
"04:21
گرادیان نزولی با مومنتوم
"09:30
RMSprop
"07:51
الگوریتم بهینه‌سازی آدام (َAdam)
"07:17
زوال ضریب یادگیری
"06:54
مشکل مینیمم محلی
"05:33
فصل سوم: تنظیم ابرپارامترها، نرمال‌سازی دسته‌ای و چارچوب‌های برنامه‌نویسی
01:46 ساعت
01:46
Combined Shape Created with Sketch. 11 جلسه
نمایش جلسات فصل  

در فصل آخر از آموزش بهبود شبکه‌های عصبی عمیق با تنظیم هایپرپارامترها آشنا خواهید شد. بدین منظور شما باید بتوانید از مقیاس مناسب برای انتخاب متغیرها استفاده کنید و به تنظیم آن‌ها در عمل بپردازید. در این فصل این موارد را گام به گام خواهید آموخت.

دسته‌های داده از دیگر مباحث مطرح در این فصل هستند. با گذراندن مباحث فصل آخر شما یاد می‌گیرید که دسته‌های داده چرا کار می‌کنند و چگونه می‌توان آن‌ها را به یک شبکه عصبی اضافه کرد. فریم‌ورک‌های یادگیری عمیق، تنسور فلو و رگرسیون Softmax از جمله موضوعات مهمی هستند که در این فصل آن‌ها را به‌خوبی فرامی‌گیرید.

فرآیند تنظیم (tuning)
"07:20
استفاده از مقیاس مناسب برای انتخاب ابرپارامترها
"09:00
تنظیم Hyperparameters در عمل با Pandas و Caviar
"07:01
نرمال‌سازی توابع فعال‌ساز در شبکه
"09:05
Fitting Batch Norm into a neural network
"13:05
چرا نرمال‌سازی به صورت Batch کار می‌کند؟
"11:49
نرمال‌سازی به صورت Batch در زمان تست
"05:56
Softmax Regression
"11:57
آموزش یک Softmax Classifier
"10:17
فریم‌ورک‌های یادگیری عمیق
"04:25
Tensorflow
"16:17
استاد دوره
Andrew Ng

اندرو ان جی استاد دانشکده علوم کامپیوتر دانشگاه استنفورد و سرپرست آزمایشگاه هوش مصنوعی استنفورد است. وی هم چنین بنیان‌گذار کورسرا (coursera.org) است و بر اساس گزارش تکنولوژی دانشگاه ام ای تی یکی از 35 مخترع برتر جوان دنیا هست.
او دکتری خود را از دانشگاه کالیفرنیا برکلی گرفته و زمینه‌های پژوهش او هوش مصنوعی و علوم رباتیک است.

اطلاعات بیشتر

پیش‌نیاز‌های دوره آموزش رایگان بهبود شبکه‌های عصبی عمیق

آموزش رایگان شبکه عصبی و یادگیری عمیق (Andrew Ng)
اطلاعات بیشتر
آموزش رایگان یادگیری ماشین (Andrew NG)
اطلاعات بیشتر

نظرات 

تا کنون نظری برای این دوره ثبت نشده است. برای ثبت نظر باید ابتدا در دوره ثبت نام کرده و دانشجوی دوره باشید.

سوالات پرتکرار

آیا ممکن است که درسی ناقص ضبط شده باشد؟
ما همواره تلاش کرده­‌ایم که دروس را به طور کامل ضبط نماییم و در اختیار شما دوستان قرار دهیم. اما گاهی برخی ناهماهنگی ها سبب می شود که یک یا تعدادی از جلسات یک درس ضبط نشود. توضیح این گونه نواقص در توضیح درس­ ها آمده است.
اگر لینک دانلود یا پخش ویدئو مشکل داشت چه باید کرد؟
در صورتی که با هر گونه مشکلی رو به رو شدید می توانید از طریق صفحه ارتباط با ما به ما اطلاع دهید تا ما سریعا مشکل را پیگیری و برطرف نماییم.
آیا امکان دریافت فیلم های یک درس به صورت سی دی یا دی وی دی وجود دارد؟
در حال حاضر امکان ارسال دروس به صورت سی دی یا دی وی دی وجود ندارد.

اطلاعات بیشتر

سرفصل‌های دوره رایگان آموزش بهبود شبکه‌های عصبی عمیق 

دوره آموزش بهبود شبکه‌های عصبی عمیق بیشتر از همه به جنبه‌های عملی این علم می‌پردازد. همچنین شما می‌توانید با الگوریتم‌های بهینه‌سازی و استفاده از آن‌ها در زمان و موقعیت مناسب آشنا شوید. در انتهای دوره هم به مباحث مهمی مانند تنظیم هایپرپارامترها، نرمال‌سازی بسته‌ها و فریم‌ورک‌های برنامه‌نویسی پرداخته می‌شود.

 

پیش‌نیازهای لازم برای فراگیری دوره رایگان آموزش بهبود شبکه‌های عصبی عمیق 

این دوره به آموزش بهبود شبکه عصبی عمیق می‌پردازد؛ بنابراین برای درک کامل موارد ذکرشده در این دوره شما باید با این شبکه‌ها آشنایی داشته باشید. تسلط بر یکی از زبان‌های برنامه‌نویسی و آشنایی با مدل‌سازی و مباحث ریاضیاتی برای شرکت در این دوره ضروری است.

×

ثبت نظر

به این دوره از ۱ تا ۵ چه امتیازی می‌دهید؟

فصل اول: جنبه‎‌های عملیاتی یادگیری عمیق
01:47 ساعت
01:47
Combined Shape Created with Sketch. 14 جلسه
نمایش جلسات فصل  

در این فصل به بیان بررسی داده‌های آموزشی، توسعه و تست پرداخته می‌شود و شما می‌توانید تأثیر و اهمیت مقداردهی اولی را روی نتایج شبکه‌های عصبی درک کنید. دستورالعمل‌های پایه یادگیری ماشین، منظم سازی و روش‌های آن، درک مفهوم Dropout و غیره از دیگر مباحثی است که در فصل اول بررسی می‌شود.

آموزش، توسعه و تست مجموعه داده
"12:14
بایاس و واریانس
"08:56
دستور العمل اصلی برای یادگیری ماشین
"06:31
منظم‌سازی (regularization)
"09:52
چرا منظم‌سازی (regularization)، overfitting را کاهش می‌دهد
"07:19
Dropout Regularization
"09:35
درک dropout
"07:14
دیگر روش‌های regularization
"08:34
نرمال‌سازی ورودی‌ها
"05:40
Vanishing Exploding gradients
"06:17
وزن‌دهی اولیه شبکه‌های عمیق
"06:22
Numerical approximation of gradients
"06:45
Gradient checking
"06:44
نکات پیاده‌سازی Gradient checking
"05:28
فصل دوم: الگوریتم‌های بهینه‌سازی
01:20 ساعت
01:20
Combined Shape Created with Sketch. 10 جلسه
نمایش جلسات فصل  

فصل دوم به بررسی الگوریتم‌های بهینه‌سازی اختصاص دارد. در واقع در این فصل تفاوت‌های الگوریتم‌های مختلف بهینه‌سازی را درک خواهید کرد. اجرای الگوریتم گرادیان نزولی با بسته‌های کوچک داده و همچنین با مومنتوم از مباحث مهم این فصل است که منجر به افزایش سرعت تبدیل و یادگیری می‌شود.

به‌علاوه، در این فصل به میانگین‌ها با وزن نمایی، درک آن‌ها، همبستگی بر مبنای بایاس در میانگین‌های نمایی وزن‌دهی شده پرداخته خواهد شد. در انتها هم با RMSprop و الگوریتم‌های بهینه‌سازی adam آشنا می‌شوید.

Mini-batch gradient descent
"11:38
درک mini-batch gradient descent
"11:28
میانگین‌های وزن‌دهی شده‌ی نمایی
"06:08
درک میانگین وزن‌دهی شده‌ی به صورت نمایی
"09:52
تصحیح بایاس‌ها در میانگین وزن‌دهی شده به صورت نمایی
"04:21
گرادیان نزولی با مومنتوم
"09:30
RMSprop
"07:51
الگوریتم بهینه‌سازی آدام (َAdam)
"07:17
زوال ضریب یادگیری
"06:54
مشکل مینیمم محلی
"05:33
فصل سوم: تنظیم ابرپارامترها، نرمال‌سازی دسته‌ای و چارچوب‌های برنامه‌نویسی
01:46 ساعت
01:46
Combined Shape Created with Sketch. 11 جلسه
نمایش جلسات فصل  

در فصل آخر از آموزش بهبود شبکه‌های عصبی عمیق با تنظیم هایپرپارامترها آشنا خواهید شد. بدین منظور شما باید بتوانید از مقیاس مناسب برای انتخاب متغیرها استفاده کنید و به تنظیم آن‌ها در عمل بپردازید. در این فصل این موارد را گام به گام خواهید آموخت.

دسته‌های داده از دیگر مباحث مطرح در این فصل هستند. با گذراندن مباحث فصل آخر شما یاد می‌گیرید که دسته‌های داده چرا کار می‌کنند و چگونه می‌توان آن‌ها را به یک شبکه عصبی اضافه کرد. فریم‌ورک‌های یادگیری عمیق، تنسور فلو و رگرسیون Softmax از جمله موضوعات مهمی هستند که در این فصل آن‌ها را به‌خوبی فرامی‌گیرید.

فرآیند تنظیم (tuning)
"07:20
استفاده از مقیاس مناسب برای انتخاب ابرپارامترها
"09:00
تنظیم Hyperparameters در عمل با Pandas و Caviar
"07:01
نرمال‌سازی توابع فعال‌ساز در شبکه
"09:05
Fitting Batch Norm into a neural network
"13:05
چرا نرمال‌سازی به صورت Batch کار می‌کند؟
"11:49
نرمال‌سازی به صورت Batch در زمان تست
"05:56
Softmax Regression
"11:57
آموزش یک Softmax Classifier
"10:17
فریم‌ورک‌های یادگیری عمیق
"04:25
Tensorflow
"16:17