[フレーム]
はてなブックマークアプリ

サクサク読めて、
アプリ限定の機能も多数!

アプリで開く

気に入った記事をブックマーク

  • 気に入った記事を保存できます
    保存した記事の一覧は、はてなブックマークで確認・編集ができます
  • 記事を読んだ感想やメモを書き残せます
  • 非公開でブックマークすることもできます
適切な情報に変更

エントリーの編集

loading...

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。

タイトルガイドライン

このページのオーナーなので以下のアクションを実行できます

タイトル、本文などの情報を
再取得することができます
コメントを非表示にできます コメント表示の設定

ブックマークしました

ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください

Twitterで共有

ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します

266users がブックマーク コメント 30

ガイドラインをご確認の上、良識あるコメントにご協力ください

0 / 0
入力したタグを追加

現在プライベートモードです 設定を変更する

おすすめタグタグについて

よく使うタグ

RAGで「無関係な」文書をいれると性能が向上する理由を解明

ガイドラインをご確認の上、良識あるコメントにご協力ください

0 / 0
入力したタグを追加

現在プライベートモードです 設定を変更する

おすすめタグタグについて

よく使うタグ

はてなブックマーク

はてなブックマークで
関心をシェアしよう

みんなの興味と感想が集まることで
新しい発見や、深堀りがもっと楽しく

ユーザー登録

アカウントをお持ちの方はログインページ

記事へのコメント30

  • 注目コメント
  • 新着コメント
pixmap
美味しいもんしか食べたことなかったら、与えられた料理が美味しいか不味いか判断できないしな。

その他
monacal
人間だって「ランチどこの店にするー?」「思いつかない適当でー」「じゃあマックね!」「いやいや蕎麦とかにしようよ」みたいにアレな選択肢入れるとスッと考えが立ち上がったりするよねえ(無関係な文章)

その他
otoan52
『知らない』ということを知覚するのって意外なほど難しいんだよな。AIのハルシネーションほど明確じゃないけど、人間も勘違いとか平気でする。

その他
tk_musik
同じ色を見続けると色がわからなくなる、的な話か。物事は往々にして相対的であると。

その他
yoiIT
このロジックだと、「曖昧な情報」と「正しくない情報」を入れておくと、曖昧な情報をさも正しい情報のように出力しそう。実際に使っていてそんな肌感はある。>"正しい文章に対するLLMの注目度がより高くなります"

その他
uehaj
矛盾があると生成AIの出力が全体がぶっ壊れることは画像生成で体験しているのでなんとなく納得がいく

その他
jintrick
"無関係な文書が混ざると、中間層が「正しい文書」をより強く認識する。" らしい。1.md〜100.md まであったら、10〜30個くらいは「ちくわ大明神」に関するmdにしておけばいいってことかな。

その他
medihen
"ハルシネーションを引き起こしてしまうのは、中間層では正しい回答を見つけられるものの、深い層で内部の知識と混同して正しい回答ができなくなってしまうため" ゲシュタルト崩壊みたいなものということか?

その他
suquiya0
教師あり学習ってそういうものでは...?(機械学習の基礎から頭が進んでいない古い人間)

その他
lenore
向上するの...

その他
star_123
ちくわ大明神草。って建設的コメントAPIは大喜利に対応した?

その他
irh_nishi
元の論文読んでないけど、こんなの場合によるとしか言えないのでは?精度向上する場合もあるだろうけど、むしろ無関係な文章を入れた方が性能低下する場合もあるだろうし。LLMのモデル構築にフィードバックすべき話。

その他
shoh8
外れ値は、叡智の北極星⭐︎

その他
monacal
monacal 人間だって「ランチどこの店にするー?」「思いつかない適当でー」「じゃあマックね!」「いやいや蕎麦とかにしようよ」みたいにアレな選択肢入れるとスッと考えが立ち上がったりするよねえ(無関係な文章)

2025年09月03日 リンク

その他
FreeCatWork
RAGに無関係な文書入れると性能UP!?ボクにはさっぱり分からんけど、まあいっか!にゃ😸

その他
medihen
medihen "ハルシネーションを引き起こしてしまうのは、中間層では正しい回答を見つけられるものの、深い層で内部の知識と混同して正しい回答ができなくなってしまうため" ゲシュタルト崩壊みたいなものということか?

2025年09月03日 リンク

その他
dekaino
AIにも「無知の知」が必要だった。これがないと野狐禅とか天狗禅になる。

その他
misshiki
"RAGの認知の階層を分析して、ハルシネーションを防ぐ手法「LFD」について紹介"

その他
otoan52
otoan52 『知らない』ということを知覚するのって意外なほど難しいんだよな。AIのハルシネーションほど明確じゃないけど、人間も勘違いとか平気でする。

2025年09月03日 リンク

その他
strawberryhunter
浅い層、中間層、深い層というのはもしかして論文を書いた人の想像なんだろうか。

その他
suquiya0
suquiya0 教師あり学習ってそういうものでは...?(機械学習の基礎から頭が進んでいない古い人間)

2025年09月03日 リンク

その他
uehaj
uehaj 矛盾があると生成AIの出力が全体がぶっ壊れることは画像生成で体験しているのでなんとなく納得がいく

2025年09月03日 リンク

その他
lets_skeptic
attentionメカニズムの影響?

その他
srgy
ちくわ大明神

その他
narukami
ニャーン

その他
peketamin
"無関係な文書が含まれると、正しい文章のみの場合と比較して、正しい文章に対するLLMの注目度がより高く"

その他
mayumayu_nimolove
こんなんだからまだ発展途上だな

その他
jintrick
jintrick "無関係な文書が混ざると、中間層が「正しい文書」をより強く認識する。" らしい。1.md〜100.md まであったら、10〜30個くらいは「ちくわ大明神」に関するmdにしておけばいいってことかな。

2025年09月03日 リンク

その他
kojikoji75
"無関係な文書が含まれると、正しい文章のみの場合と比較して、正しい文章に対するLLMの注目度がより高くなります。"

その他
yoiIT
yoiIT このロジックだと、「曖昧な情報」と「正しくない情報」を入れておくと、曖昧な情報をさも正しい情報のように出力しそう。実際に使っていてそんな肌感はある。>"正しい文章に対するLLMの注目度がより高くなります"

2025年09月03日 リンク

その他
hiroomi
"無関係な文書が含まれると、正しい文章のみの場合と比較して、正しい文章に対するLLMの注目度がより高くなります。"スイカに塩でもないか。

その他
rosiro
補集合っぽい

その他
pixmap
pixmap 美味しいもんしか食べたことなかったら、与えられた料理が美味しいか不味いか判断できないしな。

2025年09月03日 リンク

その他
tk_musik
tk_musik 同じ色を見続けると色がわからなくなる、的な話か。物事は往々にして相対的であると。

2025年09月03日 リンク

その他
yarumato
"RAGの認知の階層を分析して、ハルシネーションを防ぐ手法LFD。無関係な文書を渡すことでRAGの性能が向上する原因(正解の文章に対する注目度が高くなる)を突き止め、無関係な文書を渡すことなく、同等の性能"

その他
theatrical
全図正解だと正解の特徴が把握しにくいから、関係ないものいれることで特徴が際立つって感じかしら

その他
kei_1010
寿司とか食って性能上がるのは見てて微笑ましいけど、コーディングエージェントが昼寝した上でトンチンカンな実装してきたらイラっとしそう、なので、まぁ。。。

その他
eroyama
興味深い

その他
islecape
(SF創作的な観点でも、いかにもありそうなことだとは思う)

その他

注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

リンクを埋め込む

以下のコードをコピーしてサイトに埋め込むことができます

プレビュー
アプリのスクリーンショット
いまの話題をアプリでチェック!
  • バナー広告なし
  • ミュート機能あり
  • ダークモード搭載
アプリをダウンロード

関連記事

usersに達しました!

さんが1番目にブックマークした記事「RAGで「無関係な」...」が注目されています。

気持ちをシェアしよう

ツイートする

RAGで「無関係な」文書をいれると性能が向上する理由を解明

導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。 今回は、RAGの認知の階層を分析して、ハルシ... 導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。 今回は、RAGの認知の階層を分析して、ハルシネーションを防ぐ手法「LFD」について紹介します。 サマリー 以前の我々のブログでLLMに無関係な文書を渡すことでRAGの性能が向上する、という突拍子もない論文を紹介したことがありました。 今回紹介する論文では、その無関係な文書がLLM内部でどのような役割を担っているのかを分析し、原因を突き止めました。さらにそこから一歩踏み込み、無関係な文書を渡すことなく、同等の性能を向上させる手法「LFD」を発見しました。 課題意識 RAGのハルシネーション RAGはユーザーの知りたい情報を検索して、検索結果をLLMに渡すことで、LLMの知らない情報も回答できるようにする為の技術です。しかし、LLMは自身の知る知識と検索結果を明確に区別できないために、たとえ正確に情報を検索できたとしても、正しい情報を回

ブックマークしたユーザー

  • naggg2025年10月07日 naggg
  • TakayukiN6272025年10月05日 TakayukiN627
  • masayoshinym2025年09月09日 masayoshinym
  • akiyoko2025年09月07日 akiyoko
  • marushiva2025年09月07日 marushiva
  • saicologic2025年09月04日 saicologic
  • yuki_next2025年09月04日 yuki_next
  • YaSuYuKi2025年09月04日 YaSuYuKi
  • susieq2025年09月04日 susieq
  • y-teraoka2025年09月04日 y-teraoka
  • venalessEX2025年09月04日 venalessEX
  • tsutomu_yasui2025年09月04日 tsutomu_yasui
  • John_Kawanishi2025年09月04日 John_Kawanishi
  • satoshie2025年09月04日 satoshie
  • BuchuntaGo2025年09月03日 BuchuntaGo
  • motefu2025年09月03日 motefu
  • donotthinkfeel2025年09月03日 donotthinkfeel
  • ainews2025年09月03日 ainews
すべてのユーザーの
詳細を表示します

ブックマークしたすべてのユーザー

同じサイトの新着

同じサイトの新着をもっと読む

いま人気の記事

いま人気の記事をもっと読む

いま人気の記事 - テクノロジー

いま人気の記事 - テクノロジーをもっと読む

新着記事 - テクノロジー

新着記事 - テクノロジーをもっと読む

同時期にブックマークされた記事

いま人気の記事 - 企業メディア

企業メディアをもっと読む

はてなブックマーク

公式Twitter

はてなのサービス

Copyright © 2005-2025 Hatena. All Rights Reserved.
設定を変更しましたx

AltStyle によって変換されたページ (->オリジナル) /