エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください
Twitterで共有ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
ローカルLLMの準備と使用 Ollamaのライブラリから好みのモデルを選びます。 ここではgemma2:9bモデルを... ローカルLLMの準備と使用 Ollamaのライブラリから好みのモデルを選びます。 ここではgemma2:9bモデルを例に説明します。 モデルのダウンロードと起動: 対話を終了するには、Ctrl + dか/byeコマンドを入力。 よく使うコマンド モデル一覧表示:ollama list モデルのダウンロードと起動:ollama run モデル名 モデルのダウンロードのみ:ollama pull モデル名 モデルの削除:ollama rm モデル名 VSCodeの準備 まだVSCodeを持っていない場合は、公式サイトからダウンロード。 VSCode 拡張機能「Continue」の追加 VSCodeを開き、拡張機能タブへ。 「Continue」を検索。 Continue拡張機能をインストール。 VSCodeとOllamaの連携 VSCodeで「Select model」を選択。 「Add Mode