Submit Search
Upload
20170419PFNオープンハウス リサーチャーの仕事_公開用
•
1 like
•
2,339 views
Preferred Networks
Follow
4月19日に開催したPFNオープンハウスの講演資料(秋葉:リサーチャーの仕事)です。
Read less
Read more
Career
Report
Share
Report
Share
1 of 19
Download now
Download to read offline
Recommended
The community of Deep Learning Lab (DLL) kicked off on June 19, 2017.
Deep Learning Lab: DIMo & Chainer
Deep Learning Lab: DIMo & Chainer
Preferred Networks
2018年2月27日開催のNTTコミュニケーションズ主催セミナーで講演した、Preferred Networks(PFN)土井裕介の講演資料を公開します。 PFNの研究開発概要と、それを支えるプライベート・スパコン「MN-1」についてご紹介しています。
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
Preferred Networks
「エッジ・ヘビー・コンピューティングを実現するソフトウェア」 INTEROP 2016 Tokyoで発表した資料です。
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
Shohei Hido
株式会社UEI 代表取締役社長兼CEO 清水亮
実用としての深層学習 ~深層学習の利用事例と展望~
実用としての深層学習 ~深層学習の利用事例と展望~
Hirono Jumpei
【再掲】2018年1月15日の東京大学医学部機能生物学セミナーでの岡野原大輔の講演資料です。(最後の参考文献を追加しました)
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
Preferred Networks
PFI PFNセミナー 2016/07/14 結果報告とシステム構成の説明
Amazon Picking Challenge 結果報告
Amazon Picking Challenge 結果報告
Preferred Networks
2020年7月29日-30日開催のCloud Operator Days Tokyo 2020の講演資料です。 PFNの太田と佐藤が、Kubernetesによるインフラ構築やCI/CDについて説明します。
Cloud operator days tokyo 2020講演資料_少人数チームでの機械学習製品の効率的な開発と運用
Cloud operator days tokyo 2020講演資料_少人数チームでの機械学習製品の効率的な開発と運用
Preferred Networks
株式会社Preferred Networks エンジニア 渡部創史
PFN 深層学習事例紹介、PFN/MSアライアンス テクノロジーアップデート
PFN 深層学習事例紹介、PFN/MSアライアンス テクノロジーアップデート
Hirono Jumpei
Recommended
The community of Deep Learning Lab (DLL) kicked off on June 19, 2017.
Deep Learning Lab: DIMo & Chainer
Deep Learning Lab: DIMo & Chainer
Preferred Networks
2018年2月27日開催のNTTコミュニケーションズ主催セミナーで講演した、Preferred Networks(PFN)土井裕介の講演資料を公開します。 PFNの研究開発概要と、それを支えるプライベート・スパコン「MN-1」についてご紹介しています。
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
Preferred Networks
「エッジ・ヘビー・コンピューティングを実現するソフトウェア」 INTEROP 2016 Tokyoで発表した資料です。
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
Shohei Hido
株式会社UEI 代表取締役社長兼CEO 清水亮
実用としての深層学習 ~深層学習の利用事例と展望~
実用としての深層学習 ~深層学習の利用事例と展望~
Hirono Jumpei
【再掲】2018年1月15日の東京大学医学部機能生物学セミナーでの岡野原大輔の講演資料です。(最後の参考文献を追加しました)
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
Preferred Networks
PFI PFNセミナー 2016/07/14 結果報告とシステム構成の説明
Amazon Picking Challenge 結果報告
Amazon Picking Challenge 結果報告
Preferred Networks
2020年7月29日-30日開催のCloud Operator Days Tokyo 2020の講演資料です。 PFNの太田と佐藤が、Kubernetesによるインフラ構築やCI/CDについて説明します。
Cloud operator days tokyo 2020講演資料_少人数チームでの機械学習製品の効率的な開発と運用
Cloud operator days tokyo 2020講演資料_少人数チームでの機械学習製品の効率的な開発と運用
Preferred Networks
株式会社Preferred Networks エンジニア 渡部創史
PFN 深層学習事例紹介、PFN/MSアライアンス テクノロジーアップデート
PFN 深層学習事例紹介、PFN/MSアライアンス テクノロジーアップデート
Hirono Jumpei
IBIS2017ワークショップで使用した講演スライド 企画セッション:実社会への機械学習の応用 タイトル:実社会・実環境におけるロボットの機械学習 講演者:髙橋城志(Kuniyuki Takahashi) https://sites.google.com/site/kuniyukitakahashi/ 所属:Preferred Networks, Inc. https://www.preferred-networks.jp/ja/ 概要:本講演では実社会・実環境で動作しているロボットに機械学習がどのように利用されているのかを紹介する.従来のロボットの制御方法での課題に対する現在の産業界での取り組み,さらに,今後どのようなタスクが求められ,それに対して最先端の機械学習研究をどのように応用していくのか,について具体的な事例を交えながら解説する. http://ibisml.org/ibis2017/session2/
実社会・実環境におけるロボットの機械学習
実社会・実環境におけるロボットの機械学習
Kuniyuki Takahashi
2014年12月9日開催の「第21回 先端的データベースとWeb技術動向講演会 (ACM SIGMOD 日本支部第58回支部大会)」での講演資料を修正・加筆した http://www.sigmodj.org/regist/conference_informations/11
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Kenta Oono
2016/01/20 NIPS2015読み会の冒頭で会議全体の特徴と傾向を紹介した資料です。 http://connpass.com/event/24620/
NIPS2015概要資料
NIPS2015概要資料
Shohei Hido
2017/05/24にMicrosoftとPFNとのイベントでお話したChainerに関する発表の資料です
進化するChainer
進化するChainer
Yuya Unno
2015年1月15日(金)開催のNVIDIA Deep Learning Day 2016 の講演資料です。 ディープラーニングという言葉を聞かない日がないほど、ディープラーニングは注目を集めています。このセッションでは、ディープラーニングとは何か、なぜ注目されるのか、GPUが必要とされる理由を基礎から分かり易くご紹介します。またエヌビディアがディープラーニングのために提供しているGPUおよびソフトウェア製品、ソリューションについてもご紹介します。
ディープラーニング最新動向と技術情報
ディープラーニング最新動向と技術情報
NVIDIA Japan
日本化学会第101春季大会(2021) [S04-3pm-01] T1C. インフォマティクスで変わる化学合成でのPFNエンジニア中郷孝祐の講演資料です。 Deep learning分野でのさまざまなNeural Netoworkの発展と、これらのNeural Networkがどのように化学反応の分野へ応用されているかを紹介しています。
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Preferred Networks
動画の苦しみ
Chainer meetup2016 03-19pub
Chainer meetup2016 03-19pub
Yuta Kashino
2016年4月27日のNVIDIA Deep Learning Day 2016 Springの講演資料です。 エヌビディア合同会社 プラットフォームビジネス本部 部長 林 憲一 [概要] GTC 2016の基調講演で発表されたTesla P100、DGX-1、NVIDIA Deep Learning SDKなどをご紹介します。
GTC 2016 基調講演からディープラーニング関連情報のご紹介
GTC 2016 基調講演からディープラーニング関連情報のご紹介
NVIDIA Japan
2018/02/08 DeNA TechCon 2018 Casual Talk での発表資料です。
DeepLearningフレームワークChainerの学習済みモデルをスマートフォンにDeployする
DeepLearningフレームワークChainerの学習済みモデルをスマートフォンにDeployする
tomohiro kato
このスライドは 2017 年 1 月 17 日 (火)、ベルサール高田馬場で開催された「NVIDIA Deep Learning Institute 2017」の最初のセッション、「これから始める人の為のディープラーニング基礎講座」にて、エヌビディア合同会社 ディープラーニング部 村上 真奈が講演しました。 このセッションでは、ディープラーニングをこれから始める方を対象に、必要な基本知識について説明します。ディープラーニングではニューラル ネットワークに大量のデータを学習させる事で画像認識や物体検出など様々な認識を行う事が可能です。セッション前半は、画像認識問題で使われる畳み込みニューラル ネットワーク (CNN) を理解する為の基礎概念について説明します。ニューラル ネットワークの基本となる多層パーセプトロン、誤差逆伝播法、確率的勾配降下法やミニバッチ学習などディープラーニングの学習過程を理解するで必要な数学的な基礎概念を解説します。 当該イベントにて、午後に開催されるハンズオンで用いられる基礎的な概念を、参加者の皆様に前もってご理解いただき、ハンズオンをより有意義に受講いただくためのセッションとなります。
これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座
NVIDIA Japan
2016年1月15日に行われたNVIDIA Deep Learning Day 2016での講演資料です。 エヌビディア合同会社 プラットフォームビジネス本部 部長 林 憲一 エヌビディアのディープラーニングへの取り組み、なぜGPUがディープラーニングに向いているのか、エヌビディアがディープラーニングのために提供している製品Tesla M40、cuDNN、DIGITS、DRIVE PXの最新情報をデモを交えてご紹介します。 またエヌビディアと協業するPreferred NetworksからChainerの最新情報もご紹介します。さらにdocomo Developer supportにおける画像認識APIのご紹介や、MATLABからの簡単なディープラーニングシステム開発などをデモでご覧頂きます。
エヌビディアのディープラーニング戦略
エヌビディアのディープラーニング戦略
NVIDIA Japan
「MLOpsとはなにか?」という質問に対し、「データサイエンティストが、システム開発において、やらないことすべて」と定義した上で、MLOpsの説明、海外事例、「JapanTaxi」アプリでの事例を説明します
先駆者に学ぶ MLOpsの実際
先駆者に学ぶ MLOpsの実際
Tetsutaro Watanabe
NVIDIA Deep Learning Institute 2016年4月27日のNVIDIA Deep Learning Day 2016 Springの資料です。 エヌビディア合同会社 プラットフォームビジネス本部 ディープラーニングソリューションアーキテクト 兼 CUDA エンジニア 村上 真奈 [概要] ディープラーニングは近年、画像認識の分野で、その高い認識精度から大変注目を集めている技術です。音声認識や自動運転など画像認識の分野以外への応用が進んでおり大変期待されています。本セッションは、日々新しい構造のモデルが提案され進化しているディープラーニングの概要とGPUが必要とされている理由について簡単に説明します。 その後に、実際にディープラーニングの開発のイメージを持って戴けるように、いくつかの代表的なディープラーニングのフレームワークを使い、デモしながら各フレームワークの特徴を解説します。ディープラーニングの最新の状況が知りたい、実際の開発の際にどのフレームワークを使うべきか知りたい、開発を始める前に開発のイメージを持ちたいという方に最適です。
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
NVIDIA Japan
Caffe,Caffe2,TensorFlow,Keras,Torch,PyTorch,Chainer,MatConvNetの各ディープラーニングフレームワークについて,実際の使用感を比較しました.
【2017年】ディープラーニングのフレームワーク比較
【2017年】ディープラーニングのフレームワーク比較
Ryota Suzuki
Deep Learning Lab コミュニティ 企画概要
Deep Learning Lab コミュニティ 企画概要
Deep Learning Lab コミュニティ 企画概要
Hirono Jumpei
2018年11月17日開催のRubyData Tokyo Meetupでの講演資料です。 三好 邦彦「Menoh-Rubyで始めるお手軽簡単なDNN推論アプリ」
Menoh-Rubyで始めるお手軽簡単なDNN推論アプリ
Menoh-Rubyで始めるお手軽簡単なDNN推論アプリ
Preferred Networks
GTC 2017 で行われるディープラーニング関連セッションの情報を集約してご紹介します。
GTC 2017 ディープラーニング最新情報
GTC 2017 ディープラーニング最新情報
NVIDIA Japan
2019年6月28日の明治大学での講義資料です。 できるだけ数式を使わずに『機械学習のおさらい』『自動ハイパーパラメタ最適化』『Optuna の使い方』『ベイズ最適化の応用事例』について説明しています。 ●Optuna : https://github.com/pfnet/optuna
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks
2017年12月21日開催「TFUG KANSAI ハード部 #1」講演資料 LeapMind株式会社 HW開発チーム コンパイラ&合成ユニット リーダー 今井 健男 <資料概要> 2017年12月に大阪で行われたイベント「TFUG KANSAI ハード部 #1」にて使用した弊社今井の講演資料です。私たちの会社LeapMindの紹介と共に、私たちが現在開発している組込み向けDeep Learningコンパイラ「JUIZ-DLK」についてお話しさせていただきました。 ▶︎「TFUG KANSAI ハード部 #1」 https://leapmind.connpass.com/event/74156/ TFUG(TensorFlow User Group)の名前を冠していますが、TensorFlowに限らず、ハードウェアや組込みソフトウェア、Deep Learning に興味のある方みんなで集まって交流しよう、というイベントです。
JUIZ DLK 組込み向けDeep Learningコンパイラ
JUIZ DLK 組込み向けDeep Learningコンパイラ
LeapMind Inc
2016年4月27日のNVIDIA Deep Learning Day 2016 Springの講演資料です。 エヌビディア合同会社 エンタープライズビジネス事業部 DLビジネスデベロップメント シニアマネージャー 井﨑 武士 [概要] GTC 2016で行われたディープラーニング関連セッションを90分に凝縮してご紹介します。
GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報
NVIDIA Japan
AI in real worldAutomobile, Robotics, Bio/Healthcare and Art Creation
Gatsby kaken-2017-pfn okanohara
Gatsby kaken-2017-pfn okanohara
Preferred Networks
言語処理学会第20回年次大会(2014/3)のチュートリアル講義資料です。 - 要旨 - 文法圧縮とは,入力テキストをよりコンパクトな文脈自由文法(CFG)に変換する圧縮法の総称である. 文法圧縮の強みは圧縮テキストを展開すること無く,検索等のテキスト処理を効率よく行える点にある. 驚くべきことにその処理速度は,元テキスト上での同じ処理を理論的に,時には実際にも凌駕する. また近年,ウェブアーカイブやログ,ゲノム配列等の大規模実データを高効率に圧縮できることで注目を集めている. しかしながら,文法圧縮についての初学者向けの解説資料はまだまだ少ない. そこで本チュートリアルでは,文法圧縮の歴史的背景から最新動向までを幅広く紹介する. 具体的には文法変換アルゴリズム,圧縮テキスト上での文字列パターン検索,文法圧縮に基づく省メモリデータ構造等の解説を行う.
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
Shirou Maruyama
More Related Content
What's hot
IBIS2017ワークショップで使用した講演スライド 企画セッション:実社会への機械学習の応用 タイトル:実社会・実環境におけるロボットの機械学習 講演者:髙橋城志(Kuniyuki Takahashi) https://sites.google.com/site/kuniyukitakahashi/ 所属:Preferred Networks, Inc. https://www.preferred-networks.jp/ja/ 概要:本講演では実社会・実環境で動作しているロボットに機械学習がどのように利用されているのかを紹介する.従来のロボットの制御方法での課題に対する現在の産業界での取り組み,さらに,今後どのようなタスクが求められ,それに対して最先端の機械学習研究をどのように応用していくのか,について具体的な事例を交えながら解説する. http://ibisml.org/ibis2017/session2/
実社会・実環境におけるロボットの機械学習
実社会・実環境におけるロボットの機械学習
Kuniyuki Takahashi
2014年12月9日開催の「第21回 先端的データベースとWeb技術動向講演会 (ACM SIGMOD 日本支部第58回支部大会)」での講演資料を修正・加筆した http://www.sigmodj.org/regist/conference_informations/11
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Kenta Oono
2016/01/20 NIPS2015読み会の冒頭で会議全体の特徴と傾向を紹介した資料です。 http://connpass.com/event/24620/
NIPS2015概要資料
NIPS2015概要資料
Shohei Hido
2017/05/24にMicrosoftとPFNとのイベントでお話したChainerに関する発表の資料です
進化するChainer
進化するChainer
Yuya Unno
2015年1月15日(金)開催のNVIDIA Deep Learning Day 2016 の講演資料です。 ディープラーニングという言葉を聞かない日がないほど、ディープラーニングは注目を集めています。このセッションでは、ディープラーニングとは何か、なぜ注目されるのか、GPUが必要とされる理由を基礎から分かり易くご紹介します。またエヌビディアがディープラーニングのために提供しているGPUおよびソフトウェア製品、ソリューションについてもご紹介します。
ディープラーニング最新動向と技術情報
ディープラーニング最新動向と技術情報
NVIDIA Japan
日本化学会第101春季大会(2021) [S04-3pm-01] T1C. インフォマティクスで変わる化学合成でのPFNエンジニア中郷孝祐の講演資料です。 Deep learning分野でのさまざまなNeural Netoworkの発展と、これらのNeural Networkがどのように化学反応の分野へ応用されているかを紹介しています。
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Preferred Networks
動画の苦しみ
Chainer meetup2016 03-19pub
Chainer meetup2016 03-19pub
Yuta Kashino
2016年4月27日のNVIDIA Deep Learning Day 2016 Springの講演資料です。 エヌビディア合同会社 プラットフォームビジネス本部 部長 林 憲一 [概要] GTC 2016の基調講演で発表されたTesla P100、DGX-1、NVIDIA Deep Learning SDKなどをご紹介します。
GTC 2016 基調講演からディープラーニング関連情報のご紹介
GTC 2016 基調講演からディープラーニング関連情報のご紹介
NVIDIA Japan
2018/02/08 DeNA TechCon 2018 Casual Talk での発表資料です。
DeepLearningフレームワークChainerの学習済みモデルをスマートフォンにDeployする
DeepLearningフレームワークChainerの学習済みモデルをスマートフォンにDeployする
tomohiro kato
このスライドは 2017 年 1 月 17 日 (火)、ベルサール高田馬場で開催された「NVIDIA Deep Learning Institute 2017」の最初のセッション、「これから始める人の為のディープラーニング基礎講座」にて、エヌビディア合同会社 ディープラーニング部 村上 真奈が講演しました。 このセッションでは、ディープラーニングをこれから始める方を対象に、必要な基本知識について説明します。ディープラーニングではニューラル ネットワークに大量のデータを学習させる事で画像認識や物体検出など様々な認識を行う事が可能です。セッション前半は、画像認識問題で使われる畳み込みニューラル ネットワーク (CNN) を理解する為の基礎概念について説明します。ニューラル ネットワークの基本となる多層パーセプトロン、誤差逆伝播法、確率的勾配降下法やミニバッチ学習などディープラーニングの学習過程を理解するで必要な数学的な基礎概念を解説します。 当該イベントにて、午後に開催されるハンズオンで用いられる基礎的な概念を、参加者の皆様に前もってご理解いただき、ハンズオンをより有意義に受講いただくためのセッションとなります。
これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座
NVIDIA Japan
2016年1月15日に行われたNVIDIA Deep Learning Day 2016での講演資料です。 エヌビディア合同会社 プラットフォームビジネス本部 部長 林 憲一 エヌビディアのディープラーニングへの取り組み、なぜGPUがディープラーニングに向いているのか、エヌビディアがディープラーニングのために提供している製品Tesla M40、cuDNN、DIGITS、DRIVE PXの最新情報をデモを交えてご紹介します。 またエヌビディアと協業するPreferred NetworksからChainerの最新情報もご紹介します。さらにdocomo Developer supportにおける画像認識APIのご紹介や、MATLABからの簡単なディープラーニングシステム開発などをデモでご覧頂きます。
エヌビディアのディープラーニング戦略
エヌビディアのディープラーニング戦略
NVIDIA Japan
「MLOpsとはなにか?」という質問に対し、「データサイエンティストが、システム開発において、やらないことすべて」と定義した上で、MLOpsの説明、海外事例、「JapanTaxi」アプリでの事例を説明します
先駆者に学ぶ MLOpsの実際
先駆者に学ぶ MLOpsの実際
Tetsutaro Watanabe
NVIDIA Deep Learning Institute 2016年4月27日のNVIDIA Deep Learning Day 2016 Springの資料です。 エヌビディア合同会社 プラットフォームビジネス本部 ディープラーニングソリューションアーキテクト 兼 CUDA エンジニア 村上 真奈 [概要] ディープラーニングは近年、画像認識の分野で、その高い認識精度から大変注目を集めている技術です。音声認識や自動運転など画像認識の分野以外への応用が進んでおり大変期待されています。本セッションは、日々新しい構造のモデルが提案され進化しているディープラーニングの概要とGPUが必要とされている理由について簡単に説明します。 その後に、実際にディープラーニングの開発のイメージを持って戴けるように、いくつかの代表的なディープラーニングのフレームワークを使い、デモしながら各フレームワークの特徴を解説します。ディープラーニングの最新の状況が知りたい、実際の開発の際にどのフレームワークを使うべきか知りたい、開発を始める前に開発のイメージを持ちたいという方に最適です。
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
NVIDIA Japan
Caffe,Caffe2,TensorFlow,Keras,Torch,PyTorch,Chainer,MatConvNetの各ディープラーニングフレームワークについて,実際の使用感を比較しました.
【2017年】ディープラーニングのフレームワーク比較
【2017年】ディープラーニングのフレームワーク比較
Ryota Suzuki
Deep Learning Lab コミュニティ 企画概要
Deep Learning Lab コミュニティ 企画概要
Deep Learning Lab コミュニティ 企画概要
Hirono Jumpei
2018年11月17日開催のRubyData Tokyo Meetupでの講演資料です。 三好 邦彦「Menoh-Rubyで始めるお手軽簡単なDNN推論アプリ」
Menoh-Rubyで始めるお手軽簡単なDNN推論アプリ
Menoh-Rubyで始めるお手軽簡単なDNN推論アプリ
Preferred Networks
GTC 2017 で行われるディープラーニング関連セッションの情報を集約してご紹介します。
GTC 2017 ディープラーニング最新情報
GTC 2017 ディープラーニング最新情報
NVIDIA Japan
2019年6月28日の明治大学での講義資料です。 できるだけ数式を使わずに『機械学習のおさらい』『自動ハイパーパラメタ最適化』『Optuna の使い方』『ベイズ最適化の応用事例』について説明しています。 ●Optuna : https://github.com/pfnet/optuna
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks
2017年12月21日開催「TFUG KANSAI ハード部 #1」講演資料 LeapMind株式会社 HW開発チーム コンパイラ&合成ユニット リーダー 今井 健男 <資料概要> 2017年12月に大阪で行われたイベント「TFUG KANSAI ハード部 #1」にて使用した弊社今井の講演資料です。私たちの会社LeapMindの紹介と共に、私たちが現在開発している組込み向けDeep Learningコンパイラ「JUIZ-DLK」についてお話しさせていただきました。 ▶︎「TFUG KANSAI ハード部 #1」 https://leapmind.connpass.com/event/74156/ TFUG(TensorFlow User Group)の名前を冠していますが、TensorFlowに限らず、ハードウェアや組込みソフトウェア、Deep Learning に興味のある方みんなで集まって交流しよう、というイベントです。
JUIZ DLK 組込み向けDeep Learningコンパイラ
JUIZ DLK 組込み向けDeep Learningコンパイラ
LeapMind Inc
2016年4月27日のNVIDIA Deep Learning Day 2016 Springの講演資料です。 エヌビディア合同会社 エンタープライズビジネス事業部 DLビジネスデベロップメント シニアマネージャー 井﨑 武士 [概要] GTC 2016で行われたディープラーニング関連セッションを90分に凝縮してご紹介します。
GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報
NVIDIA Japan
What's hot
(20)
実社会・実環境におけるロボットの機械学習
実社会・実環境におけるロボットの機械学習
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組み
NIPS2015概要資料
NIPS2015概要資料
進化するChainer
進化するChainer
ディープラーニング最新動向と技術情報
ディープラーニング最新動向と技術情報
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Chainer meetup2016 03-19pub
Chainer meetup2016 03-19pub
GTC 2016 基調講演からディープラーニング関連情報のご紹介
GTC 2016 基調講演からディープラーニング関連情報のご紹介
DeepLearningフレームワークChainerの学習済みモデルをスマートフォンにDeployする
DeepLearningフレームワークChainerの学習済みモデルをスマートフォンにDeployする
これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座
エヌビディアのディープラーニング戦略
エヌビディアのディープラーニング戦略
先駆者に学ぶ MLOpsの実際
先駆者に学ぶ MLOpsの実際
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
【2017年】ディープラーニングのフレームワーク比較
【2017年】ディープラーニングのフレームワーク比較
Deep Learning Lab コミュニティ 企画概要
Deep Learning Lab コミュニティ 企画概要
Menoh-Rubyで始めるお手軽簡単なDNN推論アプリ
Menoh-Rubyで始めるお手軽簡単なDNN推論アプリ
GTC 2017 ディープラーニング最新情報
GTC 2017 ディープラーニング最新情報
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
JUIZ DLK 組込み向けDeep Learningコンパイラ
JUIZ DLK 組込み向けDeep Learningコンパイラ
GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報
Viewers also liked
AI in real worldAutomobile, Robotics, Bio/Healthcare and Art Creation
Gatsby kaken-2017-pfn okanohara
Gatsby kaken-2017-pfn okanohara
Preferred Networks
言語処理学会第20回年次大会(2014/3)のチュートリアル講義資料です。 - 要旨 - 文法圧縮とは,入力テキストをよりコンパクトな文脈自由文法(CFG)に変換する圧縮法の総称である. 文法圧縮の強みは圧縮テキストを展開すること無く,検索等のテキスト処理を効率よく行える点にある. 驚くべきことにその処理速度は,元テキスト上での同じ処理を理論的に,時には実際にも凌駕する. また近年,ウェブアーカイブやログ,ゲノム配列等の大規模実データを高効率に圧縮できることで注目を集めている. しかしながら,文法圧縮についての初学者向けの解説資料はまだまだ少ない. そこで本チュートリアルでは,文法圧縮の歴史的背景から最新動向までを幅広く紹介する. 具体的には文法変換アルゴリズム,圧縮テキスト上での文字列パターン検索,文法圧縮に基づく省メモリデータ構造等の解説を行う.
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
Shirou Maruyama
2012/6/21のPFI全体セミナー, 「文字列データ圧縮ことはじめ」の内容です。データ圧縮の話とそれに纏わる歴史と最近の話を紹介しています。
comp_pfiseminar
comp_pfiseminar
Preferred Networks
Chainer Hands ON at the OpenPOWER developer congress
Chainer OpenPOWER developer congress HandsON 20170522_ota
Chainer OpenPOWER developer congress HandsON 20170522_ota
Preferred Networks
4月19日に開催したPFNオープンハウスの講演資料(大野:インターンと採用について)です。
20170419PFNオープンハウス インターンと採用 公開用
20170419PFNオープンハウス インターンと採用 公開用
Preferred Networks
Chainer is a deep learning framework which is flexible, intuitive, and powerful. This slide introduces some unique features of Chainer and its additional packages such as ChainerMN (distributed learning), ChainerCV (computer vision), ChainerRL (reinforcement learning)
Introduction to Chainer
Introduction to Chainer
Preferred Networks
IPAB 2017(並列生物情報処理イニシアティブ)での講演資料です
IPAB2017 深層学習を使った新薬の探索から創造へ
IPAB2017 深層学習を使った新薬の探索から創造へ
Preferred Networks
Lecture at the Univ. of Tokyo, 2017.
Lecture univ.tokyo 2017_okanohara
Lecture univ.tokyo 2017_okanohara
Preferred Networks
Deep Learning Lab #04 PFN session material
20171024 DLLab#04_PFN_Hiroshi Maruyama
20171024 DLLab#04_PFN_Hiroshi Maruyama
Preferred Networks
Viewers also liked
(9)
Gatsby kaken-2017-pfn okanohara
Gatsby kaken-2017-pfn okanohara
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
comp_pfiseminar
comp_pfiseminar
Chainer OpenPOWER developer congress HandsON 20170522_ota
Chainer OpenPOWER developer congress HandsON 20170522_ota
20170419PFNオープンハウス インターンと採用 公開用
20170419PFNオープンハウス インターンと採用 公開用
Introduction to Chainer
Introduction to Chainer
IPAB2017 深層学習を使った新薬の探索から創造へ
IPAB2017 深層学習を使った新薬の探索から創造へ
Lecture univ.tokyo 2017_okanohara
Lecture univ.tokyo 2017_okanohara
20171024 DLLab#04_PFN_Hiroshi Maruyama
20171024 DLLab#04_PFN_Hiroshi Maruyama
Similar to 20170419PFNオープンハウス リサーチャーの仕事_公開用
パケット処理に求められるニーズの多様化や変化のスピードに呼応し、プログラマブルかつ高速処理が可能なスイッチやスマートNIC等のデータプレーン・ハードウェアが登場しました。それにともない、データプレーン・プログラム言語であるP4に対応したプラットフォームが広がりつつあります。これらの技術動向を紹介すると共に、多様なデータプレーンが利用される時代に求められるネットワーク・オペレーション・スタックの実装例として「PontOS/Zebra2」を紹介します。
ONIC2017 プログラマブル・データプレーン時代に向けた ネットワーク・オペレーションスタック
ONIC2017 プログラマブル・データプレーン時代に向けた ネットワーク・オペレーションスタック
Kentaro Ebisawa
12月3日 木曜日にGMO Yoursで開催された勉強会の発表資料です。GMOインターネット 次世代システム研究室の紹介もあります http://doda.jp/promo/seminar/geekrealvol2_tokyo.html
GEEK ACADEMY REAL Vol.2. 「最先端のデータ解析/Apache Sparkを利用したレコメンドエンジン開発」
GEEK ACADEMY REAL Vol.2. 「最先端のデータ解析/Apache Sparkを利用したレコメンドエンジン開発」
Junichi Noda
Kubernetes Meetup Tokyo #17にて自身も開発に参加しているArgo Eventsを紹介しました。
Reactive Workflow Argo Eventsの紹介
Reactive Workflow Argo Eventsの紹介
Daisuke Taniwaki
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会のスライド
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
Hitoshi Sato
2016年10月11に開催したRescale Night での資料です。
Deep Learning on Rescale - Oct/11/2016 at Rescale night
Deep Learning on Rescale - Oct/11/2016 at Rescale night
Rescale Japan株式会社
【第2回】全脳アーキテクチャ研究会オフ会 発表資料
Pred net使ってみた
Pred net使ってみた
koji ochiai
2019 年 3 月 30 日 (土) に Preferred Networks のオフィスにて開催した Chainer Meetup #09 にて、エヌビディア 山崎が発表した「Chainer でのプロファイリングをちょっと楽にする話」のスライドです。 https://chainer.connpass.com/event/120796/
Chainer でのプロファイリングをちょっと楽にする話
Chainer でのプロファイリングをちょっと楽にする話
NVIDIA Japan
運用中のゲームタイトルにおいては、継続的にプレイヤーに楽しんでいただくために新しいコンテンツを開発するといった、運営施策を効率的に作っていけることが重要です。『逆転オセロニア』の運用チームをサポートするために、私達AI開発チームはAIでどういったことができるのかを考え、研究・開発を行っています。 ただ、AI開発はデータや技術が用意できればそれだけで上手くいくものではありません。AIモデルを作るだけではなく、ビジネス価値を生み出す施策を設計したり、AIモデルを動かすためのシステムを構築したり、継続的な運営負荷を減らすための取り組みも必要になってきます。このように、プロジェクトとして考えるとAIの導入には様々な課題が待ち受けています。 本講演では、私達が開発しているAI技術に触れながら、プロジェクト推進・システム開発といった観点で、実際の経験に基づいたノウハウを提供したいと思います。
運用中のゲームにAIを導入するには〜プロジェクト推進・ユースケース・運用〜 [DeNA TechCon 2019]
運用中のゲームにAIを導入するには〜プロジェクト推進・ユースケース・運用〜 [DeNA TechCon 2019]
DeNA
2016年7月22日(金)名古屋にて開催の、NVIDIA のイベント Deep Learning Day #NVDLD 2016 Summer の資料です。 以下4つのことについて述べます。 ●ディープラーニングの現在 ●ディープラーニングSDK ●NVIDIA DIGITS ●ディープラーニング・フレームワーク / ディープラーニングの基礎
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
NVIDIA Japan
2009/01/24 Shibuya.trac 2009新年会 http://sourceforge.jp/projects/shibuya-trac/wiki/meeting%2F03
初めてのプラグイン開発
初めてのプラグイン開発
ikikko
・最近ますます面白くなっている、FPGA開発技法など動向の紹介 ・FPGAをつかったディープラーニングGANの実証実験 ・エッジコンピューティングの考え方と、FPGAの活用について
FPGA, AI, エッジコンピューティング
FPGA, AI, エッジコンピューティング
Hideo Terada
第4回 SoftLayer勉強会 資料
第4回 SoftLayer勉強会 資料
Naoki Shibata
財布にやさしいRを使ったデータマイニング
財布にやさしいRを使ったデータマイニング
Ryoji Yanashima
2016 sep13 gdlc01 pfn
2016 sep13 gdlc01 pfn
2016 sep13 gdlc01 pfn
Tomokazu Kanazawa
アドテク×Scala meetup 2014-11-20 http://connpass.com/event/8384/
アドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニング
Yosuke Mizutani
JaSST'16 Tokai(2016年12月2日)の講演資料
テスト自動化クロニクル (JaSST 東海 2016)
テスト自動化クロニクル (JaSST 東海 2016)
Keizo Tatsumi
各機能ごとに開発チームを分け、それらをAPIなどで疎結合させるMicroservicesな開発体制の問題点の一つとして、各チームごとのノウハウが共有されず、チームごとのリリースや更新までのスピードにばらつきがあります。また、サービスが複数にまたがり複雑化することで、サービス間の挙動が分かりづらく問題が見つけにくいといったこともあります。 現在NTTコミュニケーションズではこうした問題を解決し、高速かつ継続的にデプロイを行うために、Continuous deliveryのプラットフォームであるSpinnakerと、分散したサービス間の情報をトレースするための分散トレーシングツール、そしてサービスの新しいバージョンを一部先行してリリースをすることで動作検証を行うカナリアリリースを行うためのKayentaを導入した、開発チームが共通して利用するためのサービスデプロイ基盤の検証を行っております。 本資料ではSpinnaker, 分散トレーサー, カナリアリリース(Kayenta)などについてお話します。
SpinnakerとKayentaで 高速・安全なデプロイ!
SpinnakerとKayentaで 高速・安全なデプロイ!
NTT Communications Technology Development
PacSec2016
Villegas first pacsec_2016-jp
Villegas first pacsec_2016-jp
PacSecJP
近年のIT環境の移り変わりと新しいサービスの登場によりますますソフトウェアの重要性が増し、ソフトウェア開発もスピーディーに品質の高いものを継続してリリースすることが望まれています。限られた開発期間の中で品質を担保するには、効率的なテストを実施する環境を整備することが欠かせません。今回、そのような需要に対して「データの仮想化と自動化」がどのように貢献するのか、事例やデモを交えて紹介します。
20180124_ソフトウェアテストを効率的に実施するためのデータの仮想化と自動化とは? by 株式会社インサイトテクノロジー 益秀樹
20180124_ソフトウェアテストを効率的に実施するためのデータの仮想化と自動化とは? by 株式会社インサイトテクノロジー 益秀樹
Insight Technology, Inc.
第1回 4月8日 プログラム高速化の基礎 プログラム高速化の基礎知識、並列化プログラミング(MPI、OpenMP)の基礎知識、およびプログラム高速化の応用事例の座学を通して、計算科学で必要な高性能計算技術の基礎の習得を目指す。 https://www.r-ccs.riken.jp/outreach/schools/tokurona-2021/
第1回 配信講義 計算科学技術特論A (2021)
第1回 配信講義 計算科学技術特論A (2021)
RCCSRENKEI
Similar to 20170419PFNオープンハウス リサーチャーの仕事_公開用
(20)
ONIC2017 プログラマブル・データプレーン時代に向けた ネットワーク・オペレーションスタック
ONIC2017 プログラマブル・データプレーン時代に向けた ネットワーク・オペレーションスタック
GEEK ACADEMY REAL Vol.2. 「最先端のデータ解析/Apache Sparkを利用したレコメンドエンジン開発」
GEEK ACADEMY REAL Vol.2. 「最先端のデータ解析/Apache Sparkを利用したレコメンドエンジン開発」
Reactive Workflow Argo Eventsの紹介
Reactive Workflow Argo Eventsの紹介
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
Deep Learning on Rescale - Oct/11/2016 at Rescale night
Deep Learning on Rescale - Oct/11/2016 at Rescale night
Pred net使ってみた
Pred net使ってみた
Chainer でのプロファイリングをちょっと楽にする話
Chainer でのプロファイリングをちょっと楽にする話
運用中のゲームにAIを導入するには〜プロジェクト推進・ユースケース・運用〜 [DeNA TechCon 2019]
運用中のゲームにAIを導入するには〜プロジェクト推進・ユースケース・運用〜 [DeNA TechCon 2019]
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
初めてのプラグイン開発
初めてのプラグイン開発
FPGA, AI, エッジコンピューティング
FPGA, AI, エッジコンピューティング
第4回 SoftLayer勉強会 資料
第4回 SoftLayer勉強会 資料
財布にやさしいRを使ったデータマイニング
財布にやさしいRを使ったデータマイニング
2016 sep13 gdlc01 pfn
2016 sep13 gdlc01 pfn
アドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニング
テスト自動化クロニクル (JaSST 東海 2016)
テスト自動化クロニクル (JaSST 東海 2016)
SpinnakerとKayentaで 高速・安全なデプロイ!
SpinnakerとKayentaで 高速・安全なデプロイ!
Villegas first pacsec_2016-jp
Villegas first pacsec_2016-jp
20180124_ソフトウェアテストを効率的に実施するためのデータの仮想化と自動化とは? by 株式会社インサイトテクノロジー 益秀樹
20180124_ソフトウェアテストを効率的に実施するためのデータの仮想化と自動化とは? by 株式会社インサイトテクノロジー 益秀樹
第1回 配信講義 計算科学技術特論A (2021)
第1回 配信講義 計算科学技術特論A (2021)
More from Preferred Networks
Description: Kubernetes Meetup Tokyo #57 での発表資料です。イベントサイト:https://k8sjp.connpass.com/event/278224/
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
Preferred Networks
Optuna v3.2に向けて開発中の最新機能Human-in-the-loop最適化について解説します。 イベントサイト: https://wandb.connpass.com/event/280477/
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Preferred Networks
Kubernetes 1.25 で GA した cgroup v2 に移行すると、containerd を使用している場合にエラーが発生するようになる可能性があります。この LT ではその原因と対策について紹介します。 イベントサイト: https://k8sjp.connpass.com/event/275280/
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
Preferred Networks
Preferred Networks代表取締役最高経営責任者 西川徹による2022年12月14日のSEMICON Japan 2022キーノートのスライドです。(一部Slideshare用に加工しています)
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
Preferred Networks
Kubernetes Meetup Tokyo #55 での発表資料です。 https://k8sjp.connpass.com/event/267620/
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Preferred Networks
2022年4月に行われたKaggle Happywhaleコンペの優勝解法におけるOptunaの使用事例について紹介します。 イベントサイト: https://optuna.connpass.com/event/260301/
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
2022年8月にリリースしたOptunaの最新メジャーバージョンV3の開発の様子、アップデート内容等をご紹介します。 イベントサイト: https://optuna.connpass.com/event/260301/
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Preferred Networks
Optuna Dashboardの基本的な使い方や最近入った新機能の紹介、設計や内部実装に関する解説を行います。 イベントサイト: https://optuna.connpass.com/event/260301/
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Preferred Networks
QPARCでの講演資料です。 https://www.qparc.qunasys.com/ 2030年の材料開発に向けて、長期的な目線でどういう研究が活きるかをコンピュータサイエンスの事例から紹介。 また、10年を振り返り、Deep learningのトレンドの紹介。 最後に上記を踏まえたMatlantisの可能性の紹介を行っています。
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
Preferred Networks
PFN金子紘也による東大大学院「融合情報学特別講義Ⅲ」(2022年10月19日)の講義資料です。 ・PFNにとっての計算能力の位置付け ・代表的なDeep Learningの高速化手法 ・なぜ今プロセッサ開発なのか? ・MN-Coreの概要 ・開発チームの働き方 ・最近の成果
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Preferred Networks
PFN福田圭祐による東大大学院「融合情報学特別講義Ⅲ」(2022年10月19日)の講義資料です。 ・Introduction to Preferred Networks ・Our developments to date ・Our research & platform ・Simulation ✕ AI
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
Preferred Networks
PFNの海野裕也が2022/10/25に東大大学院情報理工学系研究科「自然言語処理応用」でゲスト講師として登壇した際の講義資料です。
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
Preferred Networks
2022年11月以降にリリースされる Kubernetes バージョンに入るかもしれない機能のなかで私が注目するものを紹介します。 イベントサイト: https://techfeed.io/events/techfeed-experts-night-7
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Preferred Networks
汎用原子レベルシミュレータMatlantis™ (https://matlantis.com)のコア技術に相当するニューラルネットワークポテンシャル「PFP」について、開発段階からバージョン3までの発展の過程を紹介します。 本資料は2022年9月に行われた第83回応用物理学会秋季学術講演会で発表した資料を一部差し替えたものです(https://meeting.jsap.or.jp/)。
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Preferred Networks
第55回情報科学若手の会(2022年9月24日開催)でのPFNの講演資料を公開しました。 PFNエンジニアの薮内が、クラスタを使いやすく、効率的かつ公平に使い、信頼性高く運用するためのノウハウや、PFNのクラスタ開発・運用のおもしろさについてご紹介しました。 PFNでは計算基盤関連のポジション採用を行っています(2022年9月現在) https://apply.workable.com/preferred-networks/j/D85B7B005E/ https://apply.workable.com/preferred-networks/j/6CDF8CA1A8/ こんな環境にワクワクする方、ぜひご応募ください! ○ 日進月歩で進化している機械学習にフォーカスした計算技術を低レイヤーから高レイヤーまでトータルに吸収できる ○ 大規模な機械学習クラスタの開発・運用が経験できる ○ Kubernetes を始めとする OSS コミュニティでも活躍できるチャンスがある ○ HPC と Cloud Native の境界領域というますます重要になる分野の経験ができる ○ 多様な要求・ユーザーリテラシをサポートするプラットフォーム設計を経験できる
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
Preferred Networks
PFN は、「現実世界を計算可能にする」を Vision として,膨大な計算量を必要とするシミュレーションや深層学習などの計算ワークロードを実行するためのオンプレ ML 基盤を持っています。 この発表では、「オンプレクラスタの概要」と最近のトピックとして「新しく構築した「MN-2b」」、「Pod のリソース要求量の最適化を助けるしくみ」、「Kubernetes クラスタのアップグレード」についてお話します。 本イベント「オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜」では、オンプレミスの Kubernetes クラスタ上に構築された機械学習基盤を持つ PFN とヤフーのエンジニアが自社での取り組みについて語り尽くします! イベントサイト: https://ml-kubernetes.connpass.com/event/255797/
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
Preferred Networks
Cloud Native Security Conference 2022での発表資料です。 https://event.cloudnativedays.jp/cnsec2022/talks/1439
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Preferred Networks
KubeCon + CloudNativeCon Europe 2022 で発表されたいくつかの興味深いセッションを振り返りながら関連する PFN での取り組みを共有します。
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
Preferred Networks
KubeCon + CloudNativeCon Europe 2022 で発表された最新のHPC/Batchの潮流、及び、Scheduler拡張事例を共有します。
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
Preferred Networks
5/3 にリリース予定の Kubernetes 1.24 の注目機能を紹介します。 また、残念ながらリリースに間に間に合わず入らなかった機能も紹介します。今後の Kubernetes の姿を想像して楽しみましょう。 イベントサイト: https://k8sjp.connpass.com/event/244591/
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
Preferred Networks
More from Preferred Networks
(20)
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
20170419PFNオープンハウス リサーチャーの仕事_公開用
1.
リサーチャーの仕事紹介 秋葉 拓哉 |
Preferred Networks, Inc.
2.
エンジニアとリサーチャー 明確な住み分けなし、どのプロジェクトでも協力 論文執筆に参加するエンジニアも居る
製品に近いコードを担当するリサーチャーも居る 2 リサーチャー エンジニア 先 端 研 究 産 業 応 用
3.
リサーチャーの仕事 事例紹介
4.
ピッキングロボット (APC’16, CEATEC’16) Amazon
Picking Challenge 2016 部門準優勝 4 デモ
5.
深層強化学習によるドローン制御 (CEATEC’16) 5 デモ
6.
大規模分散深層学習 (DLSummit’17, GTC’17) 6 デモ
7.
Ponanza Chainer (コンピュータ世界将棋選手権’17) 7
将棋ソフト Ponanza + 深層学習 ガチな将棋ソフトでは初の試み デモ
8.
Chainer 8 ソフトウェア
9.
ChainerRL 9 ソフトウェア
10.
ChainerMN 10 ソフトウェア
11.
Virtual Forward-Backward Networks 論文
12.
Temporal Generative Adversarial
Nets 12 論文
13.
Information Maximizing Self
Augmented Training 13 論文
14.
なんで、私が PFN に!?
15.
① 技術力が本当に必要とされる! 深層学習関連分野でリードしていく
フレームワーク開発から産業応用までやる 関連するあらゆることを知り、的確に判断し、 実装・実験をする 例えば:深層学習の論文だけでも 毎日新しい論文が出て来る その一部は本当に問題を解決し価値に直結する 15
16.
② 各分野の超エキスパートが集まっている! 機械学習、深層学習、強化学習
コンピュータビジョン 自然言語処理 バイオインフォマティクス 高性能計算・分散システム・ネットワーク ロボティクス・シミュレーション データ解析・最適化・異常検知 16
17.
③ 適度に共通部分がある! 機械学習、深層学習、強化学習
コンピュータビジョン 自然言語処理 バイオインフォマティクス 高性能計算・分散システム・ネットワーク ロボティクス・シミュレーション データ解析・最適化・異常検知 17 深層学習 強化学習 Chainer
18.
PFN に居る一番の意義 技術力が本当に必要とされる
各分野の超エキスパートが集まっている 共通の課題で密な連携・情報交換 18
19.
PFN に居る一番の意義 技術力が本当に必要とされる
各分野の超エキスパートが集まっている 共通の課題で密な連携・情報交換 自分が継続して 成長している実感がある!! 19
Download now