[フレーム]
はてなブックマークアプリ

サクサク読めて、
アプリ限定の機能も多数!

アプリで開く

気に入った記事をブックマーク

  • 気に入った記事を保存できます
    保存した記事の一覧は、はてなブックマークで確認・編集ができます
  • 記事を読んだ感想やメモを書き残せます
  • 非公開でブックマークすることもできます
適切な情報に変更

エントリーの編集

loading...

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。

タイトルガイドライン

このページのオーナーなので以下のアクションを実行できます

タイトル、本文などの情報を
再取得することができます
コメントを非表示にできます コメント表示の設定

ブックマークしました

ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください

Twitterで共有

ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します

36users がブックマーク コメント 4

ガイドラインをご確認の上、良識あるコメントにご協力ください

0 / 0
入力したタグを追加

現在プライベートモードです 設定を変更する

おすすめタグタグについて

よく使うタグ

GitHub - google-research/bert: TensorFlow code and pre-trained models for BERT

ガイドラインをご確認の上、良識あるコメントにご協力ください

0 / 0
入力したタグを追加

現在プライベートモードです 設定を変更する

おすすめタグタグについて

よく使うタグ

はてなブックマーク

はてなブックマークで
関心をシェアしよう

みんなの興味と感想が集まることで
新しい発見や、深堀りがもっと楽しく

ユーザー登録

アカウントをお持ちの方はログインページ

記事へのコメント4

  • 注目コメント
  • 新着コメント
stealthinu
言語系で色々と驚異的に性能があがったBERTのコードと学習済みデータが公開。Fine-tuningは64G積んだTPUで可能とのこと。24-layer, 1024-hidden, 16-heads, 340M parametersとかの規模

その他
jsstudy
Googleがここ数年で最大の検索アルゴリズム更新、ニューラルネットのBERTテクノロジー投入 | TechCrunch Japan https://jp.techcrunch.com/2019/10/26/2019-10-25-google-brings-in-bert-to-improve-its-search-results/

その他
showyou
>自然言語処理における転移学習で高い性能を記録した、BERTのモデルが公開。Colabで使えるサンプルも提供されている。Out of Memoryが出る場合の対策についてもIssueで取り上げられている。

その他
RabbitBit
NLP周りで高スコアを叩き込んでいたあれか。

その他
stealthinu
stealthinu 言語系で色々と驚異的に性能があがったBERTのコードと学習済みデータが公開。Fine-tuningは64G積んだTPUで可能とのこと。24-layer, 1024-hidden, 16-heads, 340M parametersとかの規模

2018年11月01日 リンク

その他

注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

リンクを埋め込む

以下のコードをコピーしてサイトに埋め込むことができます

プレビュー
アプリのスクリーンショット
いまの話題をアプリでチェック!
  • バナー広告なし
  • ミュート機能あり
  • ダークモード搭載
アプリをダウンロード

関連記事

usersに達しました!

さんが1番目にブックマークした記事「GitHub - google-r...」が注目されています。

気持ちをシェアしよう

ツイートする

GitHub - google-research/bert: TensorFlow code and pre-trained models for BERT

***** New March 11th, 2020: Smaller BERT Models ***** This is a release of 24 smaller BERT models... ***** New March 11th, 2020: Smaller BERT Models ***** This is a release of 24 smaller BERT models (English only, uncased, trained with WordPiece masking) referenced in Well-Read Students Learn Better: On the Importance of Pre-training Compact Models. We have shown that the standard BERT recipe (including model architecture and training objective) is effective on a wide range of model sizes, beyond

ブックマークしたユーザー

  • ayaniimi2132024年08月22日 ayaniimi213
  • miguchi2022年03月08日 miguchi
  • ZAORIKU2020年06月29日 ZAORIKU
  • canaki-17n2020年02月19日 canaki-17n
  • CLSmooth2019年12月14日 CLSmooth
  • jsstudy2019年10月26日 jsstudy
  • Tarouxx72019年08月08日 Tarouxx7
  • yuma_02112019年02月26日 yuma_0211
  • nabinno2019年01月01日 nabinno
  • katz19552018年11月22日 katz1955
  • showyou2018年11月09日 showyou
  • masahiko_of_joytoy2018年11月09日 masahiko_of_joytoy
  • suireN2018年11月08日 suireN
  • sakidatsumono2018年11月07日 sakidatsumono
  • yad-EL2018年11月06日 yad-EL
  • NuL2018年11月06日 NuL
  • npcomp2018年11月06日 npcomp
  • en302018年11月02日 en30
すべてのユーザーの
詳細を表示します

ブックマークしたすべてのユーザー

同じサイトの新着

同じサイトの新着をもっと読む

いま人気の記事

いま人気の記事をもっと読む

いま人気の記事 - テクノロジー

いま人気の記事 - テクノロジーをもっと読む

新着記事 - テクノロジー

新着記事 - テクノロジーをもっと読む

同時期にブックマークされた記事

いま人気の記事 - 企業メディア

企業メディアをもっと読む

はてなブックマーク

公式Twitter

はてなのサービス

Copyright © 2005-2025 Hatena. All Rights Reserved.
設定を変更しましたx

AltStyle によって変換されたページ (->オリジナル) /