SlideShare une entreprise Scribd logo
1  sur  67
Télécharger pour lire hors ligne
Введение в
архитектуры
нейронных сетей
Григорий Сапунов / CTO, Intento
gs@inten.to
План доклада
1. Recap:
a. Нейрон, нейросеть, глубокая нейросеть.
b. Важные тренды.
2. Архитектуры нейросетей
a. Нейросети прямого распространения.
b. Свёрточные нейросети.
c. Рекуррентные нейросети.
3. Мультимодальное обучение.
4. Sequence Learning и парадигма seq2seq.
5. Фреймворки и библиотеки для работы с нейросетями.
Recap: Нейрон, нейросеть,
глубокая нейросеть
Краткое напоминание
Искусственный нейрон
Искусственный нейрон — отдалённое подобие биологического. Базовый
элемент искусственной нейронной сети
В реальности всё посложнее...
Искусственная нейросеть
Существует многообразие архитектур
http://www.asimovinstitute.org/neural-network-zoo/
Обучение нейросети: backpropagation
Recap: Важные тренды
Что сейчас происходит с качеством и сложностью моделей
#1. Точность сетей растёт
● Blue: Traditional CV
● Purple: Deep Learning
● Red: Human
#2. Сложность сетей растёт
#2. Сложность сетей растёт
Реальная нейросеть: GoogLeNet (2014)
http://cs.unc.edu/~wliu/papers/GoogLeNet.pdf
#2. Сложность сетей растёт
https://culurciello.github.io/tech/2016/06/04/nets.html
#3. Объёмы данных растут
#4. Вычислительные мощности растут
● NVIDIA DGX-1 ($129,000)
○ 170 TFLOPS (FP16)
○ 85 TFLOPS (FP32)
● NVIDIA GTX Titan X Pascal
($1000)
○ 11 TFLOPS (FP32)
● NVIDIA GTX 1080
○ 8 TFLOPS (FP32)
● NVIDIA GTX Titan X Old
○ 6.1 TFLOPS (FP32)
● NVIDIA Drive PX-2
○ 8.0 TFLOPS
● NVIDIA Drive PX
○ 2.3 TFLOPS
● Intel Core i7-6700K
○ ~0.1-0.2 TFLOPS
Нейросети прямого
распространения
Fully Connected Feed-Forward Neural Networks, FNN
Multilayer Perceptron (MLP)
Классика FNN. Хорошо работают для классификации, но есть
трудности:
• Много параметров
• Для сети, у которой на входе картинка 100x100, три скрытых слоя
по 100 нейронов каждый, и выходом на 10 классов, число
параметров будет примерно 1M
(10000*100 + 100*100 + 100*100 + 100*10)
• Затухающие градиенты (если слоёв много)
Как следствие — трудно обучать.
Вариации FNN: Автоэнкодер (AE)
Учится создавать компактное описание
входных данных.
Используется для уменьшения размерности и
получения новых высокоуровневых признаков.
Может быть глубоким (многослойным).
Вариации FNN: RBM
Restricted Boltzmann Machine (RBM)
Неглубокая генеративная модель, которая учится
генерировать данные с заданными характеристиками. По
факту очень похожа на автоэнкодер, но в отличие от
автоэнкодера стохастическая.
Вариации FNN: DBN
Deep Belief Networks (DBN) — фактически способ обучения
глубоких сетей, при котором каждый уровень сети учится как
отдельная RBM.
Свёрточные нейросети
Convolutional Neural Networks, CNN
Классические задачи для CNN
https://research.facebook.com/blog/learning-to-segment/
Свёрточная нейросеть: общий вид
Свёрточная нейросеть (CNN) — это Feed-Forward сеть специального
вида:
Состав CNN
• Свёрточные слои: каждая плоскость в свёрточном слое
— это один нейрон, реализующий операцию свёртки
(convolution) и являющийся матричным фильтром
небольшого размера (например, 5x5).
• Слои субдискретизации (subsampling, spatial pooling):
уменьшают размер изображения (например, в 2 раза).
• Полносвязные слои (MLP) на выходе модели
(используются для классификации).
Визуализация операции свёртки
input kernel output
http://intellabs.github.io/RiverTrail/tutorial/
Знакомые по фотошопу фильтры blur, emboss, sharpen и другие —
это именно матричные фильтры.
Визуализация операции свёртки
http://intellabs.github.io/RiverTrail/tutorial/
CNN: Свёрточный слой (5 нейронов)
http://cs231n.github.io/convolutional-networks/
Веса нейронов — это коэффициенты ядра свёртки. Каждая
“обучаемая” свёртка выделяет одинаковые локальные признаки
во всех частях изображения.
Операция pooling (max pool, avg pool)
http://vaaaaaanquish.hatenablog.com/entry/2015/01/26/060622
CNN: Pooling слой (downsampling)
http://cs231n.github.io/convolutional-networks/
У CNN меньше параметров, чем у FNN
• вход картинка 100x100
• два свёрточных слоя по 100
плоскостей каждый (conv 5x5 и
subsampling 2)
• полносвязный слой на 100
нейронов
• выход: 10 классов
• число параметров примерно
70K (25*100 + 25*100 +
25*25*100 + 100*10)
FNN
• вход: картинка 100x100
• три скрытых слоя по 100
нейронов каждый
• выход: 10 классов
• число параметров примерно
1M
(10000*100 + 100*100 + 100*100
+ 100*10)
CNN
Свёрточные слои учат иерархические признаки для изображений,
а spatial pooling даёт некоторую инвариантность к перемещениям.
Свёрточная нейросеть
Современные архитектуры
Inception, ResNet и другие современные архитектуры содержат
специальные блоки слоёв.
Обычная свёрточная сеть, но без MLP сверху (нет полносвязных
слоёв).
Позволяет работать с изображениями произвольного размера и
выдавать на выходе тепловую карту классификации.
Fully-convolutional networks (FCN)
https://arxiv.org/abs/1411.4038
Правильнее называть это Transposed convolution, а не Deconvolution
(это слово уже занято в цифровой обработке сигналов для
обратной операции).
По сути, реализован обучаемый upsampling.
Deconvolution networks
http://cvlab.postech.ac.kr/research/deconvnet/
Генерация изображений
https://arxiv.org/abs/1411.5928
Неклассические задачи: перенос стиля
https://arxiv.org/abs/1508.06576
Перенос стиля: оригинальный алгоритм
https://arxiv.org/abs/1508.06576
Перенос стиля: быстрый алгоритм
https://arxiv.org/abs/1603.03417
Рекуррентные нейросети
Recurrent Neural Networks, RNN
Главное отличие RNN от FNN в наличии циклических связей
(Whh
на рисунке)
RNN
Свойства нейросетей
Feedforward NN (FNN):
● FFN — это универсальный аппроксиматор: однослойная нейросеть с конечным
числом нейронов может аппроксимировать непрерывную функцию на компактных
подмножествах Rn
(Теорема Цыбенко, универсальная теорема аппроксимации).
● FFN не имеют естественной возможности учесть порядок во времени.
● FFN не обладают памятью, кроме полученной во время обучения.
Recurrent NN (RNN):
● RNN Тьюринг-полны: можно реализовать любую вычислимую функцию.
● RNN обладают определённым видом памяти и гораздо лучше подходят для
работы с последовательностями, моделированием контекста и временными
зависимостями.
Для обучения RNN используется специальный вариант backpropagation:
(backpropagation through time, BPTT) и “разворачивание” нейросети.
Из-за этого есть проблема с затуханием градиентов при большой глубине. Для
её решения вместо простых нейронов используют более сложные ячейки
памяти — LSTM или GRU.
Backpropagation through time (BPTT)
http://colah.github.io/posts/2015-08-Understanding-LSTMs/
Ячейка LSTM (Long Short-Term Memory)
https://deeplearning4j.org/lstm
Ячейки LSTM и GRU
http://kvitajakub.github.io/2016/04/14/rnn-diagrams
Bidirectional RNN
(BRNN/BLSTM)
Часто
последовательность
доступна сразу целиком,
так что её можно
сканировать в обоих
направлениях.
Multidimensional and
Multidirectional RNNs
RNN могут также быть
многомерными и
многонаправленными.
Это более естественно
для многомерных данных,
например, изображений.
ReNet (2015)
PyraMiD-LSTM (2015)
Grid LSTM (2016)
Интересное многомерное обобщение LSTM: Grid LSTM
https://arxiv.org/abs/1507.01526
Мультимодальное обучение
(Multimodal Learning)
Смешивание различных модальностей в одной нейросети, например,
изображения и текст
Генерация описаний картинок
http://arxiv.org/abs/1411.4555 “Show and Tell: A Neural Image Caption Generator”
Мультимодальное обучение
https://www.cs.utexas.edu/~vsub/
Мультимодальное обучение
http://arxiv.org/abs/1411.2539 Unifying Visual-Semantic Embeddings with Multimodal Neural Language Models
Sequence Learning и
парадигма seq2seq
Когда надо работать с последовательностями произвольной длины на
входе и/или выходе
Sequence to Sequence Learning (seq2seq)
http://karpathy.github.io/2015/05/21/rnn-effectiveness/
CTC (Connectionist Temporal Classification)
Есть много задач, где точное расположение меток неважно, а важна только их
последовательность. Например, в распознавании речи, рукописного текста,
автомобильных номеров.
Специальный выходной слой CTC (Graves, Fernández, Gomez, Schmidhuber,
2006) был создан для временной классификации, когда выравнивание
входных данных и выходных меток неизвестно и не требуется.
CTC (Connectionist Temporal Classification)
https://github.com/baidu-research/warp-ctc
Encoder-Decoder architecture
https://github.com/farizrahman4u/seq2seq
Encoder-Decoder with Attention
https://research.googleblog.com/2016/09/a-neural-network-for-machine.html
CNN+RNN with Attention
http://kelvinxu.github.io/projects/capgen.html
CNN+RNN with Attention
http://kelvinxu.github.io/projects/capgen.html
Фреймворки и библиотеки
для работы с нейросетями
Очень краткий обзор
Библиотеки и фреймворки
Подробный список: http://deeplearning.net/software_links/
Универсальные библиотеки и сервисы
● Torch7 (http://torch.ch/) [Lua]
● TensorFlow (https://www.tensorflow.org/) [Python, C++]
● Theano (http://deeplearning.net/software/theano/) [Python]
○ Keras (http://keras.io/)
○ Lasagne (https://github.com/Lasagne/Lasagne)
○ blocks (https://github.com/mila-udem/blocks)
○ pylearn2 (https://github.com/lisa-lab/pylearn2)
● Microsoft Cognitive Toolkit (CNTK) (http://www.cntk.ai/) [Python, C++, C#,
BrainScript]
● Neon (http://neon.nervanasys.com/) [Python]
● Deeplearning4j (http://deeplearning4j.org/) [Java]
● MXNet (http://mxnet.io/) [C++, Python, R, Scala, Julia, Matlab, Javascript]
● …
Обработка изображений и видео
● OpenCV (http://opencv.org/) [C, C++, Python]
● Caffe (http://caffe.berkeleyvision.org/) [C++, Python, Matlab]
● Torch7 (http://torch.ch/) [Lua]
● clarifai (https://www.clarifai.com/)
● Google Vision API (https://cloud.google.com/vision/)
● …
Распознавание речи
● Microsoft Cognitive Toolkit (CNTK) (http://www.cntk.ai/) [Python, C++, C#,
BrainScript]
● KALDI (http://kaldi-asr.org/) [C++]
● Google Speech API (https://cloud.google.com/)
● Yandex SpeechKit (https://tech.yandex.ru/speechkit/)
● Baidu Speech API (http://www.baidu.com/)
● wit.ai (https://wit.ai/)
● …
Обработка текстов
● Torch7 (http://torch.ch/) [Lua]
● Theano/Keras/… [Python]
● TensorFlow (https://www.tensorflow.org/) [C++, Python]
● Google Translate API (https://cloud.google.com/translate/)
● …
Спасибо!

Contenu connexe

Tendances

6-Practice Problems - LL(1) parser-16-05-2023.pptx
6-Practice Problems - LL(1) parser-16-05-2023.pptx6-Practice Problems - LL(1) parser-16-05-2023.pptx
6-Practice Problems - LL(1) parser-16-05-2023.pptx
venkatapranaykumarGa
 
Stuart russell and peter norvig artificial intelligence - a modern approach...
Stuart russell and peter norvig   artificial intelligence - a modern approach...Stuart russell and peter norvig   artificial intelligence - a modern approach...
Stuart russell and peter norvig artificial intelligence - a modern approach...
Lê Anh Đạt
 
Transfer Learning and Fine-tuning Deep Neural Networks
 Transfer Learning and Fine-tuning Deep Neural Networks Transfer Learning and Fine-tuning Deep Neural Networks
Transfer Learning and Fine-tuning Deep Neural Networks
PyData
 

Tendances (20)

Unit three Advanced State Modelling
Unit three Advanced State ModellingUnit three Advanced State Modelling
Unit three Advanced State Modelling
 
Design pattern and their application
Design pattern and their applicationDesign pattern and their application
Design pattern and their application
 
Introduction to Spiking Neural Networks: From a Computational Neuroscience pe...
Introduction to Spiking Neural Networks: From a Computational Neuroscience pe...Introduction to Spiking Neural Networks: From a Computational Neuroscience pe...
Introduction to Spiking Neural Networks: From a Computational Neuroscience pe...
 
Hierarchical Object Oriented Design
Hierarchical Object Oriented DesignHierarchical Object Oriented Design
Hierarchical Object Oriented Design
 
Implementation of queue using singly and doubly linked list.
Implementation of queue using singly and doubly linked list.Implementation of queue using singly and doubly linked list.
Implementation of queue using singly and doubly linked list.
 
Data structure power point presentation
Data structure power point presentation Data structure power point presentation
Data structure power point presentation
 
인간의 이해: 뇌과학, 인지(신경)과학 그리고 미래
인간의 이해: 뇌과학, 인지(신경)과학 그리고 미래인간의 이해: 뇌과학, 인지(신경)과학 그리고 미래
인간의 이해: 뇌과학, 인지(신경)과학 그리고 미래
 
Radial Basis Function
Radial Basis FunctionRadial Basis Function
Radial Basis Function
 
Introduction to Spiking Neural Networks: From a Computational Neuroscience pe...
Introduction to Spiking Neural Networks: From a Computational Neuroscience pe...Introduction to Spiking Neural Networks: From a Computational Neuroscience pe...
Introduction to Spiking Neural Networks: From a Computational Neuroscience pe...
 
6-Practice Problems - LL(1) parser-16-05-2023.pptx
6-Practice Problems - LL(1) parser-16-05-2023.pptx6-Practice Problems - LL(1) parser-16-05-2023.pptx
6-Practice Problems - LL(1) parser-16-05-2023.pptx
 
Interactive Proof Systems and An Introduction to PCP
Interactive Proof Systems and An Introduction to PCPInteractive Proof Systems and An Introduction to PCP
Interactive Proof Systems and An Introduction to PCP
 
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
 
Ooad ch 2
Ooad ch 2Ooad ch 2
Ooad ch 2
 
Slides 6 design of sw arch using add
Slides 6 design of sw arch using addSlides 6 design of sw arch using add
Slides 6 design of sw arch using add
 
Data Structure -List Stack Queue
Data Structure -List Stack QueueData Structure -List Stack Queue
Data Structure -List Stack Queue
 
Stuart russell and peter norvig artificial intelligence - a modern approach...
Stuart russell and peter norvig   artificial intelligence - a modern approach...Stuart russell and peter norvig   artificial intelligence - a modern approach...
Stuart russell and peter norvig artificial intelligence - a modern approach...
 
Unit 3 dsa LINKED LIST
Unit 3 dsa LINKED LISTUnit 3 dsa LINKED LIST
Unit 3 dsa LINKED LIST
 
Transfer Learning and Fine-tuning Deep Neural Networks
 Transfer Learning and Fine-tuning Deep Neural Networks Transfer Learning and Fine-tuning Deep Neural Networks
Transfer Learning and Fine-tuning Deep Neural Networks
 
PS향유회 세미나 - PS는 개발자 취업에 도움이 될까?
PS향유회 세미나 - PS는 개발자 취업에 도움이 될까? PS향유회 세미나 - PS는 개발자 취업에 도움이 될까?
PS향유회 세미나 - PS는 개발자 취업에 도움이 될까?
 
Graph neural networks overview
Graph neural networks overviewGraph neural networks overview
Graph neural networks overview
 

En vedette

Eric bieschke slides
Eric bieschke slidesEric bieschke slides
Eric bieschke slides
MLconf
 

En vedette (20)

Artificial Intelligence - Past, Present and Future
Artificial Intelligence - Past, Present and FutureArtificial Intelligence - Past, Present and Future
Artificial Intelligence - Past, Present and Future
 
Введение в архитектуры нейронных сетей / Григорий Сапунов (Intento)
Введение в архитектуры нейронных сетей / Григорий Сапунов (Intento)Введение в архитектуры нейронных сетей / Григорий Сапунов (Intento)
Введение в архитектуры нейронных сетей / Григорий Сапунов (Intento)
 
Deep Learning and the state of AI / 2016
Deep Learning and the state of AI / 2016Deep Learning and the state of AI / 2016
Deep Learning and the state of AI / 2016
 
Deep Learning - The Past, Present and Future of Artificial Intelligence
Deep Learning - The Past, Present and Future of Artificial IntelligenceDeep Learning - The Past, Present and Future of Artificial Intelligence
Deep Learning - The Past, Present and Future of Artificial Intelligence
 
Mooc'и для биологов — Обзор полезных онлайн-курсов / Future Biotech 27.01.2014
Mooc'и для биологов — Обзор полезных онлайн-курсов / Future Biotech 27.01.2014Mooc'и для биологов — Обзор полезных онлайн-курсов / Future Biotech 27.01.2014
Mooc'и для биологов — Обзор полезных онлайн-курсов / Future Biotech 27.01.2014
 
Devil in the Details: Analysing the Performance of ConvNet Features
Devil in the Details: Analysing the Performance of ConvNet FeaturesDevil in the Details: Analysing the Performance of ConvNet Features
Devil in the Details: Analysing the Performance of ConvNet Features
 
Challenges in Physical Modeling for Adaptation of Cyber-Physical Systems
Challenges in Physical Modeling for Adaptation of Cyber-Physical SystemsChallenges in Physical Modeling for Adaptation of Cyber-Physical Systems
Challenges in Physical Modeling for Adaptation of Cyber-Physical Systems
 
DeepFix: a fully convolutional neural network for predicting human fixations...
DeepFix:  a fully convolutional neural network for predicting human fixations...DeepFix:  a fully convolutional neural network for predicting human fixations...
DeepFix: a fully convolutional neural network for predicting human fixations...
 
Mastering the game of Go with deep neural networks and tree search (article o...
Mastering the game of Go with deep neural networks and tree search (article o...Mastering the game of Go with deep neural networks and tree search (article o...
Mastering the game of Go with deep neural networks and tree search (article o...
 
Михаил Бурцев (DeepHackLab)
Михаил Бурцев (DeepHackLab)Михаил Бурцев (DeepHackLab)
Михаил Бурцев (DeepHackLab)
 
Михаил Бурцев. Развитие технологий искусственного интеллекта: от перцептрона ...
Михаил Бурцев. Развитие технологий искусственного интеллекта: от перцептрона ...Михаил Бурцев. Развитие технологий искусственного интеллекта: от перцептрона ...
Михаил Бурцев. Развитие технологий искусственного интеллекта: от перцептрона ...
 
Portfolio
PortfolioPortfolio
Portfolio
 
In-Stream Processing Service Blueprint, Reference architecture for real-time ...
In-Stream Processing Service Blueprint, Reference architecture for real-time ...In-Stream Processing Service Blueprint, Reference architecture for real-time ...
In-Stream Processing Service Blueprint, Reference architecture for real-time ...
 
Skymind Open Power Summit ISV Round Table
Skymind Open Power Summit ISV Round TableSkymind Open Power Summit ISV Round Table
Skymind Open Power Summit ISV Round Table
 
Apache Spark & MLlib
Apache Spark & MLlibApache Spark & MLlib
Apache Spark & MLlib
 
The evolution of data analytics
The evolution of data analyticsThe evolution of data analytics
The evolution of data analytics
 
Introduction to Machine Learning @ Mooncascade ML Camp
Introduction to Machine Learning @ Mooncascade ML CampIntroduction to Machine Learning @ Mooncascade ML Camp
Introduction to Machine Learning @ Mooncascade ML Camp
 
Sri Ambati – CEO, 0xdata at MLconf ATL
Sri Ambati – CEO, 0xdata at MLconf ATLSri Ambati – CEO, 0xdata at MLconf ATL
Sri Ambati – CEO, 0xdata at MLconf ATL
 
Machine Learning and Data Mining: 03 Data Representation
Machine Learning and Data Mining: 03 Data RepresentationMachine Learning and Data Mining: 03 Data Representation
Machine Learning and Data Mining: 03 Data Representation
 
Eric bieschke slides
Eric bieschke slidesEric bieschke slides
Eric bieschke slides
 

Similaire à Введение в архитектуры нейронных сетей / HighLoad++ 2016

Дмитрий Кручинин - Сравнительный анализ библиотек глубинного обучения
Дмитрий Кручинин - Сравнительный анализ библиотек глубинного обученияДмитрий Кручинин - Сравнительный анализ библиотек глубинного обучения
Дмитрий Кручинин - Сравнительный анализ библиотек глубинного обучения
AIST
 
Лекция №9 Организация ЭВМ и систем
Лекция №9 Организация ЭВМ и системЛекция №9 Организация ЭВМ и систем
Лекция №9 Организация ЭВМ и систем
pianist2317
 

Similaire à Введение в архитектуры нейронных сетей / HighLoad++ 2016 (20)

Deep Learning and Convolutional Networks
Deep Learning and Convolutional NetworksDeep Learning and Convolutional Networks
Deep Learning and Convolutional Networks
 
Sequence prediction with TensorFlow
Sequence prediction with TensorFlowSequence prediction with TensorFlow
Sequence prediction with TensorFlow
 
Deep convolution networks with caffe
Deep convolution networks with caffeDeep convolution networks with caffe
Deep convolution networks with caffe
 
Нейроморфный чип “Алтай” ориентированный на использование в РТК (ПСиЗУ 2016)
Нейроморфный чип “Алтай” ориентированный на использование в РТК (ПСиЗУ 2016)Нейроморфный чип “Алтай” ориентированный на использование в РТК (ПСиЗУ 2016)
Нейроморфный чип “Алтай” ориентированный на использование в РТК (ПСиЗУ 2016)
 
Нейроморфный чип
Нейроморфный чипНейроморфный чип
Нейроморфный чип
 
нанороботы б ю_8_б
нанороботы б ю_8_бнанороботы б ю_8_б
нанороботы б ю_8_б
 
Hейронные сети на практике — R&D, Azoft
Hейронные сети на практике — R&D, AzoftHейронные сети на практике — R&D, Azoft
Hейронные сети на практике — R&D, Azoft
 
Лекция 1
Лекция 1Лекция 1
Лекция 1
 
Нейросети
НейросетиНейросети
Нейросети
 
Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...
Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...
Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...
 
Андрей Фильченков - Погружение в глубокие нейронные сети за 20 минут - Muzis ...
Андрей Фильченков - Погружение в глубокие нейронные сети за 20 минут - Muzis ...Андрей Фильченков - Погружение в глубокие нейронные сети за 20 минут - Muzis ...
Андрей Фильченков - Погружение в глубокие нейронные сети за 20 минут - Muzis ...
 
Denis Perevalov -- Computer Vision with OpenCV 2
Denis Perevalov -- Computer Vision with OpenCV 2Denis Perevalov -- Computer Vision with OpenCV 2
Denis Perevalov -- Computer Vision with OpenCV 2
 
Дмитрий Кручинин - Сравнительный анализ библиотек глубинного обучения
Дмитрий Кручинин - Сравнительный анализ библиотек глубинного обученияДмитрий Кручинин - Сравнительный анализ библиотек глубинного обучения
Дмитрий Кручинин - Сравнительный анализ библиотек глубинного обучения
 
Modern neural net architectures - Year 2019 version
Modern neural net architectures - Year 2019 versionModern neural net architectures - Year 2019 version
Modern neural net architectures - Year 2019 version
 
Deep Learning Course Introduction
Deep Learning Course IntroductionDeep Learning Course Introduction
Deep Learning Course Introduction
 
CUDA & CAFFE
CUDA & CAFFE CUDA & CAFFE
CUDA & CAFFE
 
Сверточные нейронные сети
Сверточные нейронные сетиСверточные нейронные сети
Сверточные нейронные сети
 
Лекция №9 Организация ЭВМ и систем
Лекция №9 Организация ЭВМ и системЛекция №9 Организация ЭВМ и систем
Лекция №9 Организация ЭВМ и систем
 
0907.0229
0907.02290907.0229
0907.0229
 
Нейронные сети в высокопроизводительных вычислениях
Нейронные сети в высокопроизводительных вычисленияхНейронные сети в высокопроизводительных вычислениях
Нейронные сети в высокопроизводительных вычислениях
 

Plus de Grigory Sapunov

Практический подход к выбору доменно-адаптивного NMT​
Практический подход к выбору доменно-адаптивного NMT​Практический подход к выбору доменно-адаптивного NMT​
Практический подход к выбору доменно-адаптивного NMT​
Grigory Sapunov
 

Plus de Grigory Sapunov (20)

Transformers in 2021
Transformers in 2021Transformers in 2021
Transformers in 2021
 
AI Hardware Landscape 2021
AI Hardware Landscape 2021AI Hardware Landscape 2021
AI Hardware Landscape 2021
 
NLP in 2020
NLP in 2020NLP in 2020
NLP in 2020
 
What's new in AI in 2020 (very short)
What's new in AI in 2020 (very short)What's new in AI in 2020 (very short)
What's new in AI in 2020 (very short)
 
Artificial Intelligence (lecture for schoolchildren) [rus]
Artificial Intelligence (lecture for schoolchildren) [rus]Artificial Intelligence (lecture for schoolchildren) [rus]
Artificial Intelligence (lecture for schoolchildren) [rus]
 
Transformer Zoo (a deeper dive)
Transformer Zoo (a deeper dive)Transformer Zoo (a deeper dive)
Transformer Zoo (a deeper dive)
 
Transformer Zoo
Transformer ZooTransformer Zoo
Transformer Zoo
 
BERTology meets Biology
BERTology meets BiologyBERTology meets Biology
BERTology meets Biology
 
Deep learning: Hardware Landscape
Deep learning: Hardware LandscapeDeep learning: Hardware Landscape
Deep learning: Hardware Landscape
 
AI - Last Year Progress (2018-2019)
AI - Last Year Progress (2018-2019)AI - Last Year Progress (2018-2019)
AI - Last Year Progress (2018-2019)
 
Практический подход к выбору доменно-адаптивного NMT​
Практический подход к выбору доменно-адаптивного NMT​Практический подход к выбору доменно-адаптивного NMT​
Практический подход к выбору доменно-адаптивного NMT​
 
Deep Learning: Application Landscape - March 2018
Deep Learning: Application Landscape - March 2018Deep Learning: Application Landscape - March 2018
Deep Learning: Application Landscape - March 2018
 
Sequence learning and modern RNNs
Sequence learning and modern RNNsSequence learning and modern RNNs
Sequence learning and modern RNNs
 
Введение в Deep Learning
Введение в Deep LearningВведение в Deep Learning
Введение в Deep Learning
 
Введение в машинное обучение
Введение в машинное обучениеВведение в машинное обучение
Введение в машинное обучение
 
Multidimensional RNN
Multidimensional RNNMultidimensional RNN
Multidimensional RNN
 
Deep Learning Cases: Text and Image Processing
Deep Learning Cases: Text and Image ProcessingDeep Learning Cases: Text and Image Processing
Deep Learning Cases: Text and Image Processing
 
Computer Vision and Deep Learning
Computer Vision and Deep LearningComputer Vision and Deep Learning
Computer Vision and Deep Learning
 
Международная научно-практическая конференция учителей / Яндекс, МФТИ / 05.12...
Международная научно-практическая конференция учителей / Яндекс, МФТИ / 05.12...Международная научно-практическая конференция учителей / Яндекс, МФТИ / 05.12...
Международная научно-практическая конференция учителей / Яндекс, МФТИ / 05.12...
 
EdCrunch
EdCrunchEdCrunch
EdCrunch
 

Введение в архитектуры нейронных сетей / HighLoad++ 2016