サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ノーベル賞
speakerdeck.com/pfn
初心者にもわかりやすく、ChatGPTをはじめとした近年話題のLLM (Large Language Model)の中身について解説します。また、LLMを大規模に学習するだけではなく、LLMを動かして利用すること(推論)が重要になりつつあることを踏まえ、LLMの推論システムのサービングが難しい理由と、そ...
本セッションでは GA が近づいている Kubernetes の新機能の「User Namespace」について説明します。本機能は 2016 年から要望のあったコミュニティ待望の機能です。また、「User Namespace」 を用いた Pod は過去にあったコンテナランタイムの脆弱性の多くに対して有...
PFNの海野裕也が2024年10月15日に東大大学院「自然言語処理応用」にゲスト講師として登壇した際の講義資料です。
Cloud Operator Days 2024 クロージングイベントでの発表資料です。 PFN では PLaMo という生成AI基盤モデルを開発しており、100B規模のモデルを運用する際の課題について話しました。
Cloud Native Days Summer 2024での発表のスライドです。 概要 LLMを含む生成AIモデル学習の競争が激化しており、高い計算能力を持つクラスタを早く構築し使い勝手よく提供することがより重要になっています。生成AIのモデル学習向けにさらな...
東京大学大学院 情報理工学系研究科の授業『知能情報論』2024年第10回『三次元再構成』の講義資料です。 1. 三次元再構成とは 2. 3D表現,特にニューラル場 3. ニューラル場の最適化 4. 三次元再構成の学習 5. 発展的な話題 6. まとめ リンク一覧 - p5. [M...
2024年5月8日のHPC研究会で使用したスライドです。 https://www.ipsj.or.jp/kenkyukai/event/hpc194.html
2024年4月にリリースされた最新の Kubernetes v1.30 や直近実装される機能のなかで私が注目するものを紹介します。 イベントサイト: https://techfeed.io/events/techfeed-experts-night-28
今のLLMを取り巻く状況について紹介します。
大規模言語モデル (LLM) をはじめとする巨大なDNNモデルでは、計算量の削減のためsparseなアーキテクチャが使われることがあります。本講演では、このようなsparseなDNNモデルに対する分散学習の手法について解説します。12/20の
2023年6月14日にみんなのコードが開催した「第2回情報教育の未来を考える"若手"勉強会」でPreferred Networksの西澤勇輝が講演に使用した資料です。
このページを最初にブックマークしてみませんか?
『Preferred Networks (@pfn) on Speaker Deck』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く
AltStyle によって変換されたページ (->オリジナル) / アドレス: モード: デフォルト 音声ブラウザ ルビ付き 配色反転 文字拡大 モバイル