✅ Курсы с задачами: ► Нейронные сети с задачами: https://clck.ru/3QMA9q ► Pytorch с задачами: https://clck.ru/3QKioT ► Numpy с задачами: https://clck.ru/3QKipY ► Object Detection с задачами: https://clck.ru/3QKiq5 ► Pandas с задачами: https://clck.ru/3QKipC ✅ Мой Telegram канал: https://t.me/dubinin_ser ✅ Telegram группы:
► Pytorch: https://t.me/PyTorch_for_you
► Pandas: https://t.me/pandas_for_you
► Numpy: https://t.me/numpy_for_you ================================================= Этот курс познакомит вас с ключевыми концепциями нейронных сетей — от простых перцептронов до методов глубокого обучения. Мы разберём основные архитектуры (MLP, CNN и трансформеры), принципы обучения, оптимизации и регуляризации. В каждом видео будут понятные визуализации и пошаговые объяснения, чтобы вы быстро могли применять полученные знания. Курс подойдёт разработчикам, студентам и всем, кто хочет решать задачи компьютерного зрения, обработки текста и прогнозирования. По итогам вы сможете строить, обучать и оценивать собственные нейросети и интегрировать их в проекты. ================================================= В прошлых видео мы подробно разобрали алгоритм стохастического градиентного спуска.
Научились представлять математические формулы в виде графов вычисления.
То есть большие формулы научились представлять в виде набора упорядоченных элементарных операций.
И чтобы быть полностью готовыми к нейронным сетям, нам осталось понять, как вычислять градиенты для параметров любой модели.
Аналитически мы это сделать не сможем, поэтому нужен какой-нибудь метод, который упростит задачу нахождения градиентов.
И такие методы есть, они носят общее название – автоматическое дифференцирование. Тайм-коды:
00:00 — Введение.
00:14 — Считаем градиенты — 1.
05:54 — Проверяем в PyTorch — 1.
08:09 — Считаем градиенты — 2.
11:09 — Проверяем в PyTorch — 2. Теги:






































