2. llama-vscode のインストールllama-vscode は、ggml.ai なる企業によってv0.0.1が2025年1月21日にリリースされたVSCode拡張で、llama.cpp を経由してローカルLLMによるコード補完を行います。 VSCodeを起動したら、左のタブの拡張機能/Extensions (□しろいしかくが4個あるやつ) から拡張機能を検索します。llama vscode と検索してインストールします。 llama-vscode利用するためにはモデルが必要なので、モデルをダウンロードします。 3. モデルのダウンロードw64webkit.exe を起動し、モデルをダウンロードしたいディレクトリに移動します。 第1回・第2回は執筆時最新のモデルであるDeepSeek R1を利用してきましたが、こいつはコード補完機能に対応していないので使えません(注1)。 今回はQwen2.