エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください
Twitterで共有ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
こんにちは!AIチームの戸田です! 本記事では私がKaggleのコンペティションに参加して得た、Transf orme... こんにちは!AIチームの戸田です! 本記事では私がKaggleのコンペティションに参加して得た、Transf ormerをベースとした事前学習モデルのfine-tuningのTipsを共有させていただきます。 以前も何件か同じテーマで記事を書かせていただきました。 Kaggleで学んだBERTをfine-tuningする際のTips1〜学習効率化編 Kaggleで学んだBERTをfine-tuningする際のTips2〜精度改善編〜 Kaggleで学んだBERTをfine-tuningする際のTips3〜過学習抑制編〜 Kaggleで学んだBERTをfine-tuningする際のTips4〜Adversarial Training編〜 今回はラベルなしデータの活用について書かせていただきます。 世の中の様々な問題を、蓄積された大量のデータを使った教師あり学習で解こうとする試みは多くなされてい