エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください
Twitterで共有ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
はじめに 線形回帰は解釈性も高く、パラメータ推定も容易なので非常に協力な手法です。 また、一般化線... はじめに 線形回帰は解釈性も高く、パラメータ推定も容易なので非常に協力な手法です。 また、一般化線形回帰へ拡張することで、より多様なデータにも適用することができるため、現在でも様々な場面で利用されています。 一方で、線形回帰を使っていると、以下の様な疑問に直面することはないでしょうか? パラメータ(回帰係数)はどの程度、信頼できるのか? 予測結果はどの程度信頼できるのか? より精度をあげるために追加データの取得を考えているが、どの範囲で追加取得するのがいいのか? 線形回帰を行う主なモチベーションの一つにパラメータ(回帰係数)の解釈があるかと思います(予測精度だけを追及するならブラックボックスMLで良い)。 しかし、点推定だけの解釈は危険あり、その背後にある分布も捉えることでより正しい理解につながります (例えば、目的変数に対して大きな値を示していても、非常に分散が大きい場合は信頼できなかっ