00:00 / 00:00
1.8x
1.4x
1.0x
0.7x
HD SD
HD
SD
ثبت‌نام رایگان
  • دسترسی به کل جلسات ویدیویی از دوره
  • دسترسی به کل جلسات ویدیویی از دوره
  • عضویت در تالار گفت‌وگوی دوره
  • اضافه شدن دوره به پروفایل
فقط محتوا
  • دسترسی کامل و نامحدود به محتوای دوره
  • تمام قابلیت‌‌های پلن رایگان
    +
  • دسترسی کامل و نامحدود به محتوا
0 تومان
دوره کامل
  • دسترسی به تمام قابلیت‌های دوره
  • تمام قابلیت‌های پلن محتوا
    +
  • گواهی‌نامه مکتب‌خونه
  • پروژه محور
  • تمرین و آزمون
  • تالار گفتگو
  • تسهیل استخدام
00:00 / 00:00
1.8x
1.4x
1.0x
0.7x
HD SD
HD
SD
مکتب‌خونه مکتب‌خونه

آموزش بهبود شبکه‌های عصبی عمیق

دوره‌های مکتب‌پلاس
12 ساعت
100٪ (42 رای)

کاربرد دوره آموزش بهبود شبکه‌های عصبی عمیق چیست؟

شبکه عصبی عمیق یک شبکه عصبی با سطح مشخصی از پیچیدگی و بیش از دولایه است. این نوع شبکه‌ها از مدل‌سازی سطح بالای ریاضی برای پردازش داده‌ها به روش‌های پیچیده استفاده می‌کنند.

به‌طورکلی شبکه عصبی یک فناوری است که برای شبیه‌سازی فعالیت مغز انسان ساخته شده‌است؛ شناخت الگو و عبور ورودی از طریق لایه‌های اتصالات عصبی شبیه‌سازی شده مختلف از مهم‌ترین این فعالیت‌هاست.

بسیاری از کارشناسان شبکه‌های عصبی عمیق را شبکه‌هایی تعریف می‌کنند که یک‌لایه ورودی، یک‌لایه خروجی و حداقل یک‌لایه پنهان در بین آن‌ها دارند. هر لایه نوع خاصی از مرتب‌سازی و ترتیب را در فرایندها انجام می‌دهند.

یکی از کاربردهای کلیدی شبکه عصبی عمیق سروکار داشتن با داده‌های بدون برچسب یا ساختار نیافته است. عبارت یادگیری عمیق هم برای توصیف این شبکه‌های عصبی عمیق به کار می‌رود؛ چراکه یادگیری عمیق شکل خاصی از یادگیری ماشین را نشان می‌دهد که در آن فناوری‌ها با استفاده از جنبه‌های هوش مصنوعی به دنبال طبقه‌بندی و تنظیم اطلاعات فراتر از پروتکل‌های ساده ورودی و خروجی هستند.

 

هدف از یادگیری دوره آموزش بهبود شبکه‌های عصبی عمیق چیست؟

آموزش بهبود شبکه عصبی عمیق، دومین دوره از مجموعه تخصص یادگیری عمیق اندرو می‌باشد. هدف از این دوره این است که بتوانید فرایندهایی که منجر به کارایی می‌شوند و به طور سیستماتیک نتایج خوبی به بار می‌آورند، را درک کنید.

در پایان این دوره شما خواهید توانست بهترین روش‌ها را برای آموزش و توسعه مجموعه‌های آزمون و تجزیه و تحلیل بایاس واریانس استفاده کرده و آن‌ها را برای ایجاد برنامه‌های یادگیری عمیق به کار ببرید. 

 

دوره آموزش بهبود شبکه‌های عصبی عمیق مناسب چه کسانی است؟

  • کسانی که با هوش مصنوعی آشنایی دارند و می‌خواهند مهارت‌های خود را ارتقا دهند.
  • برنامه‌نویسانی که به کار کردن در حوزه بهبود شبکه عصبی عمیق علاقه‌مندند.
  • دانشجویان علوم مهندسی، پزشکی و پایه

 

بعد از فراگیری دوره آموزش بهبود شبکه‌های عصبی عمیق چه مهارت‌هایی کسب خواهید کرد؟

با گذراندن این دوره مهارت‌های شما در زمینه بهبود شبکه‌های عصبی عمیق ارتقا پیدا خواهد کرد و می‌توانید از تکنیک‌های استاندارد شبکه عصبی عمیق استفاده کنید. این تکنیک‌ها عبارت‌اند از:

  • تنسورفلو (Tensorflow)
  • یادگیری عمیق
  • بهینه‌سازی ریاضی
  • تنظیم هایپر پارامترها
  • مقداردهی اولیه
  • نرمال‌سازی بسته‌ها
  • پیاده‌سازی و به‌کارگیری انواع الگوریتم‌های بهینه‌سازی

 

 

سرفصل‌های دوره آموزش بهبود شبکه‌های عصبی عمیق

فصل اول: جنبه‎‌های عملیاتی یادگیری عمیق
05:23 ساعت
02:13
Combined Shape Created with Sketch. 19 جلسه
بارم:
55%
نمایش جلسات فصل  

در این فصل به بیان بررسی داده‌های آموزشی، توسعه و تست پرداخته می‌شود و شما می‌توانید تأثیر و اهمیت مقداردهی اولی را روی نتایج شبکه‌های عصبی درک کنید. دستورالعمل‌های پایه یادگیری ماشین، منظم سازی و روش‌های آن، درک مفهوم Dropout و غیره از دیگر مباحثی است که در فصل اول بررسی می‌شود.

آموزش، توسعه و تست مجموعه داده
"12:14
بایاس و واریانس
"08:56
دستور العمل اصلی برای یادگیری ماشین
"06:31
منظم‌سازی (regularization)
"09:52
چرا منظم‌سازی (regularization)، overfitting را کاهش می‌دهد
"07:19
Dropout Regularization
"09:35
درک dropout
"07:14
دیگر روش‌های regularization
"08:34
نرمال‌سازی ورودی‌ها
"05:40
Vanishing Exploding gradients
"06:17
وزن‌دهی اولیه شبکه‌های عمیق
"06:22
Numerical approximation of gradients
"06:45
Gradient checking
"06:44
نکات پیاده‌سازی Gradient checking
"05:28
مصاحبه با Yoshua Bengio
"25:58
آزمون فصل اول
18.2%
     
"10:00
پروژه اول – مقدار دهی اولیه

 (الزامی)

27.3%
     
'01:00
پروژه دوم – رگولاریزاسیون

 (الزامی)

27.3%
     
'01:00
پروژه سوم – بررسی گرادیان

 (الزامی)

27.3%
     
'01:00
فصل دوم: الگوریتم‌های بهینه‌سازی
02:14 ساعت
01:34
Combined Shape Created with Sketch. 13 جلسه
بارم:
20%
نمایش جلسات فصل  

فصل دوم به بررسی الگوریتم‌های بهینه‌سازی اختصاص دارد. در واقع در این فصل تفاوت‌های الگوریتم‌های مختلف بهینه‌سازی را درک خواهید کرد. اجرای الگوریتم گرادیان نزولی با بسته‌های کوچک داده و همچنین با مومنتوم از مباحث مهم این فصل است که منجر به افزایش سرعت تبدیل و یادگیری می‌شود.

به‌علاوه، در این فصل به میانگین‌ها با وزن نمایی، درک آن‌ها، همبستگی بر مبنای بایاس در میانگین‌های نمایی وزن‌دهی شده پرداخته خواهد شد. در انتها هم با RMSprop و الگوریتم‌های بهینه‌سازی adam آشنا می‌شوید.

Mini-batch gradient descent
"11:38
درک mini-batch gradient descent
"11:28
میانگین‌های وزن‌دهی شده‌ی نمایی
"06:08
درک میانگین وزن‌دهی شده‌ی به صورت نمایی
"09:52
تصحیح بایاس‌ها در میانگین وزن‌دهی شده به صورت نمایی
"04:21
گرادیان نزولی با مومنتوم
"09:30
RMSprop
"07:51
الگوریتم بهینه‌سازی آدام (َAdam)
"07:17
زوال ضریب یادگیری
"06:54
مشکل مینیمم محلی
"05:33
مصاحبه با Yuanqing Lin
"13:46
آزمون فصل دوم
50.0%
     
"10:00
پروژه چهارم – بهینه‌سازی

 (الزامی)

50.0%
     
'00:30
فصل سوم: تنظیم ابرپارامترها، نرمال‌سازی دسته‌ای و چارچوب‌های برنامه‌نویسی
03:56 ساعت
01:46
Combined Shape Created with Sketch. 13 جلسه
بارم:
25%
نمایش جلسات فصل  

در فصل آخر از آموزش بهبود شبکه‌های عصبی عمیق با تنظیم هایپرپارامترها آشنا خواهید شد. بدین منظور شما باید بتوانید از مقیاس مناسب برای انتخاب متغیرها استفاده کنید و به تنظیم آن‌ها در عمل بپردازید. در این فصل این موارد را گام به گام خواهید آموخت.

دسته‌های داده از دیگر مباحث مطرح در این فصل هستند. با گذراندن مباحث فصل آخر شما یاد می‌گیرید که دسته‌های داده چرا کار می‌کنند و چگونه می‌توان آن‌ها را به یک شبکه عصبی اضافه کرد. فریم‌ورک‌های یادگیری عمیق، تنسور فلو و رگرسیون Softmax از جمله موضوعات مهمی هستند که در این فصل آن‌ها را به‌خوبی فرامی‌گیرید.

فرآیند تنظیم (tuning)
"07:20
استفاده از مقیاس مناسب برای انتخاب ابرپارامترها
"09:00
تنظیم Hyperparameters در عمل با Pandas و Caviar
"07:01
نرمال‌سازی توابع فعال‌ساز در شبکه
"09:05
Fitting Batch Norm into a neural network
"13:05
چرا نرمال‌سازی به صورت Batch کار می‌کند؟
"11:49
نرمال‌سازی به صورت Batch در زمان تست
"05:56
Softmax Regression
"11:57
آموزش یک Softmax Classifier
"10:17
فریم‌ورک‌های یادگیری عمیق
"04:25
Tensorflow
"16:17
آزمون فصل سوم
40.0%
     
"10:00
پروژه پنجم – شروع کار با Tensorflow

 (الزامی)

60.0%
     
'02:00

تالار گفت‌وگو

استاد دوره
Andrew Ng Andrew Ng

اندرو ان جی استاد دانشکده علوم کامپیوتر دانشگاه استنفورد و سرپرست آزمایشگاه هوش مصنوعی استنفورد است. وی هم چنین بنیان‌گذار کورسرا (coursera.org) است و بر اساس گزارش تکنولوژی دانشگاه ام ای تی یکی از 35 مخترع برتر جوان دنیا هست.
او دکتری خود را از دانشگاه کالیفرنیا برکلی گرفته و زمینه‌های پژوهش او هوش مصنوعی و علوم رباتیک است.

اطلاعات بیشتر
درباره گواهینامه
مکتب‌خونه مکتب‌خونه
حد نصاب قبولی در دوره:
75.0 نمره
فارغ‌التحصیل شدن در این دوره نیاز به ارسال تمرین‌ها و پروژه‌های الزامی دارد.

پیش‌نیاز‌های دوره آموزش بهبود شبکه‌های عصبی عمیق

این آموزش دومین دوره از مجموعه تخصص یادگیری عمیق اندرو بوده به آموزش بهبود شبکه عصبی عمیق می‌پردازد؛ بنابراین برای درک کامل موارد ذکرشده در این دوره شما باید با این شبکه‌ها آشنایی داشته باشید. تسلط بر یکی از زبان‌های برنامه‌نویسی و آشنایی با مدل‌سازی و مباحث ریاضیاتی برای شرکت در این دوره ضروری است.

آموزش شبکه عصبی و یادگیری عمیق (Andrew Ng)
اطلاعات بیشتر

ویژگی‌های دوره آموزش بهبود شبکه‌های عصبی عمیق

Combined Shape1 Created with Sketch. گواهی‌نامه مکتب‌خونه

در صورت قبولی در دوره، گواهی نامه رسمی پایان دوره توسط مکتب‌خونه به اسم شما صادر شده و در اختیار شما قرار می گیرد.

 

مشاهده نمونه گواهینامه

خدمات منتورینگ

خدمات منتورینگ به معنای برخورداری دانشجو از راهنما یا پشتیبان علمی در طول گذراندن دوره می‌باشد. این خدمات شامل پاسخگویی به سوالات آموزشی(در قالب تیکتینگ)، تصحیح آزمون یا پروژه های دوره و ارائه باز خورد موثر به دانشجو می‌باشد.

پروژه محور

این دوره طوری طراحی شده است که محتوای آموزشی دوره حول چند پروژه واقعی و کاربردی هستند تا یادگیری دانشجو در طول دوره به کاربردهای عملی تبدیل شود و به این ترتیب بالاترین سطح یادگیری را فراهم نمایند.

تمرین و آزمون

با قرار گرفتن تمرین ها و آزمون های مختلف در طول دوره، محیطی تعاملی فراهم شده است تا بهره گیری از محتوا و یادگیری بهتر و عمیق تر شود.

تالار گفتگو

شما می توانید از طریق تالار گفتگو با دیگر دانشجویان دوره در ارتباط باشید، شبکه روابط حرفه ای خود را تقویت کنید یا سوالات مرتبط با دوره خود را از دیگر دانشجویان بپرسید.

تسهیل استخدام

در صورت قبولی در دوره، شما می‌توانید با وارد کردن اطلاعات آن در بخش دوره‌های آموزشی رزومه‌ساز «جاب ویژن»، تایید مهارت خود را در قالب اضافه شدن «مدال مهارت» به روزمه آنلاین خود دریافت نمایید. این مدال علاوه بر ایجاد تمایز در نمایش رزومه شما، باعث بالاتر قرار گرفتن آن در لیست انبوه رزومه‌های ارسالی به کارفرما شده و بدین ترتیب شانس شما را برای استخدام در سازمانهای موفق و پر متقاضی افزایش می‌دهد. 

 

مشاهده اطلاعات بیشتر

نظرات 

تا کنون نظری برای این دوره ثبت نشده است. برای ثبت نظر باید ابتدا در دوره ثبت نام کرده و دانشجوی دوره باشید.

سوالات پرتکرار

آیا ممکن است که درسی ناقص ضبط شده باشد؟
ما همواره تلاش کرده­‌ایم که دروس را به طور کامل ضبط نماییم و در اختیار شما دوستان قرار دهیم. اما گاهی برخی ناهماهنگی ها سبب می شود که یک یا تعدادی از جلسات یک درس ضبط نشود. توضیح این گونه نواقص در توضیح درس­ ها آمده است.
اگر لینک دانلود یا پخش ویدئو مشکل داشت چه باید کرد؟
در صورتی که با هر گونه مشکلی رو به رو شدید می توانید از طریق صفحه ارتباط با ما به ما اطلاع دهید تا ما سریعا مشکل را پیگیری و برطرف نماییم.
آیا امکان دریافت فیلم های یک درس به صورت سی دی یا دی وی دی وجود دارد؟
در حال حاضر امکان ارسال دروس به صورت سی دی یا دی وی دی وجود ندارد.

اطلاعات بیشتر

سرفصل‌های دوره آموزش بهبود شبکه‌های عصبی عمیق 

دوره آموزش بهبود شبکه‌های عصبی عمیق بیشتر از همه به جنبه‌های عملی این علم می‌پردازد. همچنین شما می‌توانید با الگوریتم‌های بهینه‌سازی و استفاده از آن‌ها در زمان و موقعیت مناسب آشنا شوید. در انتهای دوره هم به مباحث مهمی مانند تنظیم هایپرپارامترها، نرمال‌سازی بسته‌ها و فریم‌ورک‌های برنامه‌نویسی پرداخته می‌شود.

×

ثبت نظر

به این دوره از ۱ تا ۵ چه امتیازی می‌دهید؟

فصل اول: جنبه‎‌های عملیاتی یادگیری عمیق
05:23 ساعت
02:13
Combined Shape Created with Sketch. 19 جلسه
بارم:
55%
نمایش جلسات فصل  

در این فصل به بیان بررسی داده‌های آموزشی، توسعه و تست پرداخته می‌شود و شما می‌توانید تأثیر و اهمیت مقداردهی اولی را روی نتایج شبکه‌های عصبی درک کنید. دستورالعمل‌های پایه یادگیری ماشین، منظم سازی و روش‌های آن، درک مفهوم Dropout و غیره از دیگر مباحثی است که در فصل اول بررسی می‌شود.

آموزش، توسعه و تست مجموعه داده
"12:14
بایاس و واریانس
"08:56
دستور العمل اصلی برای یادگیری ماشین
"06:31
منظم‌سازی (regularization)
"09:52
چرا منظم‌سازی (regularization)، overfitting را کاهش می‌دهد
"07:19
Dropout Regularization
"09:35
درک dropout
"07:14
دیگر روش‌های regularization
"08:34
نرمال‌سازی ورودی‌ها
"05:40
Vanishing Exploding gradients
"06:17
وزن‌دهی اولیه شبکه‌های عمیق
"06:22
Numerical approximation of gradients
"06:45
Gradient checking
"06:44
نکات پیاده‌سازی Gradient checking
"05:28
مصاحبه با Yoshua Bengio
"25:58
آزمون فصل اول
18.2%
     
"10:00
پروژه اول – مقدار دهی اولیه

 (الزامی)

27.3%
     
'01:00
پروژه دوم – رگولاریزاسیون

 (الزامی)

27.3%
     
'01:00
پروژه سوم – بررسی گرادیان

 (الزامی)

27.3%
     
'01:00
فصل دوم: الگوریتم‌های بهینه‌سازی
02:14 ساعت
01:34
Combined Shape Created with Sketch. 13 جلسه
بارم:
20%
نمایش جلسات فصل  

فصل دوم به بررسی الگوریتم‌های بهینه‌سازی اختصاص دارد. در واقع در این فصل تفاوت‌های الگوریتم‌های مختلف بهینه‌سازی را درک خواهید کرد. اجرای الگوریتم گرادیان نزولی با بسته‌های کوچک داده و همچنین با مومنتوم از مباحث مهم این فصل است که منجر به افزایش سرعت تبدیل و یادگیری می‌شود.

به‌علاوه، در این فصل به میانگین‌ها با وزن نمایی، درک آن‌ها، همبستگی بر مبنای بایاس در میانگین‌های نمایی وزن‌دهی شده پرداخته خواهد شد. در انتها هم با RMSprop و الگوریتم‌های بهینه‌سازی adam آشنا می‌شوید.

Mini-batch gradient descent
"11:38
درک mini-batch gradient descent
"11:28
میانگین‌های وزن‌دهی شده‌ی نمایی
"06:08
درک میانگین وزن‌دهی شده‌ی به صورت نمایی
"09:52
تصحیح بایاس‌ها در میانگین وزن‌دهی شده به صورت نمایی
"04:21
گرادیان نزولی با مومنتوم
"09:30
RMSprop
"07:51
الگوریتم بهینه‌سازی آدام (َAdam)
"07:17
زوال ضریب یادگیری
"06:54
مشکل مینیمم محلی
"05:33
مصاحبه با Yuanqing Lin
"13:46
آزمون فصل دوم
50.0%
     
"10:00
پروژه چهارم – بهینه‌سازی

 (الزامی)

50.0%
     
'00:30
فصل سوم: تنظیم ابرپارامترها، نرمال‌سازی دسته‌ای و چارچوب‌های برنامه‌نویسی
03:56 ساعت
01:46
Combined Shape Created with Sketch. 13 جلسه
بارم:
25%
نمایش جلسات فصل  

در فصل آخر از آموزش بهبود شبکه‌های عصبی عمیق با تنظیم هایپرپارامترها آشنا خواهید شد. بدین منظور شما باید بتوانید از مقیاس مناسب برای انتخاب متغیرها استفاده کنید و به تنظیم آن‌ها در عمل بپردازید. در این فصل این موارد را گام به گام خواهید آموخت.

دسته‌های داده از دیگر مباحث مطرح در این فصل هستند. با گذراندن مباحث فصل آخر شما یاد می‌گیرید که دسته‌های داده چرا کار می‌کنند و چگونه می‌توان آن‌ها را به یک شبکه عصبی اضافه کرد. فریم‌ورک‌های یادگیری عمیق، تنسور فلو و رگرسیون Softmax از جمله موضوعات مهمی هستند که در این فصل آن‌ها را به‌خوبی فرامی‌گیرید.

فرآیند تنظیم (tuning)
"07:20
استفاده از مقیاس مناسب برای انتخاب ابرپارامترها
"09:00
تنظیم Hyperparameters در عمل با Pandas و Caviar
"07:01
نرمال‌سازی توابع فعال‌ساز در شبکه
"09:05
Fitting Batch Norm into a neural network
"13:05
چرا نرمال‌سازی به صورت Batch کار می‌کند؟
"11:49
نرمال‌سازی به صورت Batch در زمان تست
"05:56
Softmax Regression
"11:57
آموزش یک Softmax Classifier
"10:17
فریم‌ورک‌های یادگیری عمیق
"04:25
Tensorflow
"16:17
آزمون فصل سوم
40.0%
     
"10:00
پروژه پنجم – شروع کار با Tensorflow

 (الزامی)

60.0%
     
'02:00