エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください
Twitterで共有ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
単語を整数(とか1-of-Kベクトル)に写像する自然言語処理では単語の間の関係性を考えることができない。... 単語を整数(とか1-of-Kベクトル)に写像する自然言語処理では単語の間の関係性を考えることができない。単語を密な実ベクトルに写像したら色々捗るという提案がある。しかし既存の方法は計算が重い。もっと軽い方法でやってみてどの程度の精度が出るか試してみたら意外といい精度が出た。これでいいんじゃね。という話 モデルは2つあるけど結論から言えばSkip-gramがよいってこと。 CBOW: フィードフォワードのニューラルネットから、エイヤッと中間層を取り除いてみる。入力層には複数の単語を入れるのだけど、この単語ごとの入力から出力層への重みは共有する。(これは画像処理系のニューラルネットでよく知られた手法) Skip-gram: CBOWをエイヤッとひっくり返してみたもの。ちなみに"same sentence"と書いているとおり、文の区切りの情報を使っている。 モデルについての詳しいことはあんまり書