[フレーム]
はてなブックマークアプリ

サクサク読めて、
アプリ限定の機能も多数!

アプリで開く

気に入った記事をブックマーク

  • 気に入った記事を保存できます
    保存した記事の一覧は、はてなブックマークで確認・編集ができます
  • 記事を読んだ感想やメモを書き残せます
  • 非公開でブックマークすることもできます
適切な情報に変更

エントリーの編集

loading...

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。

タイトルガイドライン

このページのオーナーなので以下のアクションを実行できます

タイトル、本文などの情報を
再取得することができます
コメントを非表示にできます コメント表示の設定

ブックマークしました

ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください

Twitterで共有

ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します

97users がブックマーク コメント 7

ガイドラインをご確認の上、良識あるコメントにご協力ください

0 / 0
入力したタグを追加

現在プライベートモードです 設定を変更する

おすすめタグタグについて

よく使うタグ

rinna、日本語に特化した「GPT-2」「BERT」事前学習モデルを無償公開 75ギガバイトのデータを最大45日間で学習 | Ledge.ai

97 users ledge.ai

ガイドラインをご確認の上、良識あるコメントにご協力ください

0 / 0
入力したタグを追加

現在プライベートモードです 設定を変更する

おすすめタグタグについて

よく使うタグ

はてなブックマーク

はてなブックマークで
関心をシェアしよう

みんなの興味と感想が集まることで
新しい発見や、深堀りがもっと楽しく

ユーザー登録

アカウントをお持ちの方はログインページ

記事へのコメント7

  • 注目コメント
  • 新着コメント
kachine
「ほかのオープンソースのモデルでは学習データは多くて20ギガバイトほどです。(rinnaによる学習データは)その3倍」英語圏と比較するとUTF8の日本語マルチバイト文字ってだけで概ね3倍になるのでは?

その他
knok
コーパスは日本語CommonCrawlとWikipediaか

その他
aox
過学習そう ʕ•̫͡•ʕ•̫͡•ʔ•̫͡•ʔ•̫͡•ʕ•̫͡•ʔ•̫͡•ʕ•̫͡•ʕ•̫͡•ʔ•̫͡•ʕ•̫͡•ʕ•̫͡•ʔ

その他
misshiki
"日本語に特化した「GPT-2」と「BERT」の事前学習モデル...、開発した事前学習モデルとその学習を再現するためのソースコードを、GitHubおよびNLPモデルライブラリHuggingFaceにMITライセンスのオープンソースとして公開"

その他
naggg
おお!

その他
k_oshima
日本語コーパスは何だろう

その他
knok
knok コーパスは日本語CommonCrawlとWikipediaか

2021年08月26日 リンク

その他
mysql8
GPT-3は?

その他
aox
aox 過学習そう ʕ•̫͡•ʕ•̫͡•ʔ•̫͡•ʔ•̫͡•ʕ•̫͡•ʔ•̫͡•ʕ•̫͡•ʕ•̫͡•ʔ•̫͡•ʕ•̫͡•ʕ•̫͡•ʔ

2021年08月26日 リンク

その他
kachine
kachine 「ほかのオープンソースのモデルでは学習データは多くて20ギガバイトほどです。(rinnaによる学習データは)その3倍」英語圏と比較するとUTF8の日本語マルチバイト文字ってだけで概ね3倍になるのでは?

2021年08月26日 リンク

その他

注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

リンクを埋め込む

以下のコードをコピーしてサイトに埋め込むことができます

プレビュー
アプリのスクリーンショット
いまの話題をアプリでチェック!
  • バナー広告なし
  • ミュート機能あり
  • ダークモード搭載
アプリをダウンロード

関連記事

usersに達しました!

さんが1番目にブックマークした記事「rinna、日本語に特...」が注目されています。

気持ちをシェアしよう

ツイートする

rinna、日本語に特化した「GPT-2」「BERT」事前学習モデルを無償公開 75ギガバイトのデータを最大45日間で学習 | Ledge.ai

Top > 学術&研究 > rinna、日語に特化した「GPT-2」「BERT」事前学習モデルを無償公開 75ギガバイト... Top > 学術&研究 > rinna、日語に特化した「GPT-2」「BERT」事前学習モデルを無償公開 75ギガバイトのデータを最大45日間で学習

ブックマークしたユーザー

  • tyosuke20112023年05月22日 tyosuke2011
  • potorisu2021年11月10日 potorisu
  • cutc-mt2021年10月21日 cutc-mt
  • hippopopark2021年09月07日 hippopopark
  • yahihi2021年09月01日 yahihi
  • erya2021年08月30日 erya
  • misshiki2021年08月27日 misshiki
  • takuya04112021年08月26日 takuya0411
  • endor2021年08月26日 endor
  • betabassist2021年08月26日 betabassist
  • summer4an2021年08月26日 summer4an
  • paul_oguri2021年08月26日 paul_oguri
  • l080842021年08月26日 l08084
  • naggg2021年08月26日 naggg
  • Pole00002021年08月26日 Pole0000
  • oilfish2021年08月26日 oilfish
  • daitom2021年08月26日 daitom
  • kesakonya2021年08月26日 kesakonya
すべてのユーザーの
詳細を表示します

ブックマークしたすべてのユーザー

同じサイトの新着

同じサイトの新着をもっと読む

いま人気の記事

いま人気の記事をもっと読む

いま人気の記事 - テクノロジー

いま人気の記事 - テクノロジーをもっと読む

新着記事 - テクノロジー

新着記事 - テクノロジーをもっと読む

同時期にブックマークされた記事

いま人気の記事 - 企業メディア

企業メディアをもっと読む

はてなブックマーク

公式Twitter

はてなのサービス

Copyright © 2005-2025 Hatena. All Rights Reserved.
設定を変更しましたx

AltStyle によって変換されたページ (->オリジナル) /