サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ノーベル賞
zenn.dev/headwaters
docker run -d -p 8000:8000 -p 9000:9000 --name portainer --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce:lts ※(注記)今回はHTTPSを使わないので9443ではなく9000を使います。 初期設定 http://localhost:9000にブラウザでアクセスします 画面に沿って管理者ユーザーを設定 ※(注記)初期設定を済ませず一定時間経過してからPortainerにアクセスすると、再起動しろとメッセージが出ます。 初期設定を済ませると管理者でログインして下記のセットアップページに移動します。 トップページに移動したら、画面真ん中あたりの"Get Started"をクリックすると
Hugging Faceを開いたら、Microsoftから登場したVibe Voice 1.5Bモデルがトレンドに上がってました。 気になって調べてみたところめっちゃすごかったので紹介 Vibe Voice 1.5Bの特徴 1. 長尺生成 最大90分、4人の異なる話者による自然な会話が可能とのこと 2. モデルの軽さ 1.5Bとのことで軽そーとは思いましたが、GPU積んだPCで全然動くようです。 VRAMが8GBあれば十分動かせそうです。(RTX3060以上であればOK) ベースモデルはQwen2.5 1.5bモデルです。 3. オープンソース MITライセンスでHugging Faceから無料で自由に利用可能! 4. 出力音声の品質 めちゃくちゃ自然で感情のこもった音声を出力してくれます。 従来のTTSモデルにありがちな棒読みではありません。 動かしてみる GitHubに動かすためのコー
IPAの資格って使える? 先日、応用情報技術者試験に合格しました。嬉しいです。 ところで、IPAの資格の話になるとこんな声を聞くことがあります。 「実務で使わなくない?実務のほうが大事じゃない?」 「エンジニア以外必要ないじゃん?」 「基本情報とか応用情報って取る意味ある?」 確かに応用情報はじめ、IPA資格には実務に直結しづらい内容も含まれています。 ただし、資格を取得した方・取得しようとしている方の中で、 「使えるか使えないか」といった単一的な視点で考えている方も少ないと思います。 私もそんなふうには考えていませんので、 今回は上にあるような声に応えられるよう、IPA資格の価値を考えてみます。 そもそも「情報処理技術者試験」とは? 唯一のIT特化型国家資格* IPAは、日本の "経済産業省が所管している独立行政法人" で、 主にIT人材の育成や情報セキュリティの推進などを行っています。
きっかけ 公開されてから1か月たちますが、WindowsのローカルPCでカンタンにエッジAIを動かせられるとのことで、興味がでたのでさわってみました。 インストール方法 PowerShellで以下を実行するだけ アーキテクチャ Foundry Local サービスの特徴として、推論エンジンを操作するための標準インターフェイスを提供する OpenAI 互換の REST サーバーが含まれており、 Foundry Local SDKを使用してアプリケーションと連携させたり、HTTP経由でモデルを実行することが可能です。 またONNXランタイムが入っており、複数のハードウェア プロバイダー (NVIDIA、AMD、Intel、Qualcomm) とデバイスの種類 (NPU、CPU、GPU) と連携が可能です。 使用可能なモデル一覧 以下でモデルカタログを確認できます。 このモデルカタログ上では、量
zenn.dev/hellorusk
フォワードデプロイドエンジニアとは? フォワードデプロイドエンジニア(Forward Deployed Engineer、FDE)は、顧客と直接連携し、既存のソフトウェアプラットフォームを顧客固有の複雑な課題解決のために設定、カスタマイズ、展開するソフトウェアエンジニアの職種です。 フォワードデプロイドエンジニアの役割・仕事内容 1. 顧客との直接的な連携 顧客のチームに直接組み込まれ、彼ら彼女らのニーズや課題を深く理解します。 (例) Palantir の FDE は、米国国防総省の顧客と協力してデータ統合ソリューションを提供しています。 Toma の FDE は、顧客と話し、サードパーティのプラットフォームとの統合を構築し、カスタムのユースケースを設計する経験が求められます。 2. ソリューションの設計と実装 お客様の具体的なニーズに対応するため、既存のプラットフォームを設定したり、新
zenn.dev/helloworld
Claude Code ×ばつ Cursor で超高速アプリ開発!たった1つの指示でWebアプリ完成 はじめに 前回はClineを試したのですが、今回はAnthropic社のClaude CodeをCursor上で動かしてみます。Claude Codeは、ターミナル上で動作するAIエージェントで、コードの生成・修正・レビューを幅広くサポート。特に/initコマンドを使えば、現在のディレクトリや実装内容をもとに、プロジェクトの基本指示書を自動生成してくれる便利な機能もあります。 実際に試してみると、この一文をClaude Codeに伝えるだけで—— 「画像をアップロードするとプレビューを表示し、AIが自動でキャプションを生成するアプリを作成してください。」 バックエンドのAPI、フロントエンドのUI、画像処理の仕組み、さらにはPlaywrightによるE2Eテストまで、完全に動作するWebアプリ
プランについての詳細は公式サイトをご確認ください。 Copilotに対して多分みんなが思っていること ここからが本題です。 前職を含め、私は約1年ほどCopilotを職場の業務で使い続けてきました。 その中で多くの同僚から、同じような声を耳にしてきました。 きっと「こう考えているの私だけでは?」という方も一定いると思うため、 今回は私がみなさんに代わってZennで叫びます。 (そんなこと思ってないわ!という方はスミマセン) 「結局、何に使える?」 EdgeやMSツールでよくCopilotの文字は見かけはするけど、 結局あれで何がどれくらい便利になるのかわからない...。 何か補助してくれるらしいけど、現状の業務にそこまで不自由していないから、 結局一度も使ったことがない...。 「費用対効効果、低くない?」 ×ばつライセンス数(Copilot for Microsoft 365)払っ
7月にMicrosoftからGraph RAGが登場したものの、ナレッジグラフはどうやって可視化するのだろうと思ってました。 ドキュメントの中ではGephiを使うことを勧められてますが、できれば違う方法で実現したいです。 GraphRAGのGitHubのリポジトリを見たら可視化できるサンプルコードが含まれてました。 neo4jを使う方法とyfiles-jupyter-graphsを使う方法の2つあります。 今回は後者のyfiles-jupyter-graphsを使って試してみます。 データの用意 使用するデータ いい感じのナレッジグラフが作成されそうな、Wikipediaの「スター・ウォーズの登場人物一覧」画面のテキストを使います。 データの取り込み import wikipediaapi def get_wiki_page(search_word: str): wiki = wikipe
Browser Useから新しいブラウザ操作系エージェントが登場しました めちゃくちゃ魅力的だったので紹介します。 従来のブラウザ操作系エージェント browser-useに限らず、従来のブラウザ操作系エージェントはユーザーからの自然言語な指令をもとにブラウザを操作します。 AIエージェントは画面キャプチャ + DOMの取得 → キャプチャを解析 → クリックすべき要素を推論 → playwrightで操作をループしてタスクを行います。 現在僕もよく使っているのですが、何点か課題があります。 どうしてもアクションに揺らぎがある 自然言語での指示である以上仕方ないのですが、「〇〇をクリックして〇〇をしてほしい」と言った細かい指示はプロンプトのチューニングが不可欠であり使用モデルの賢さにも依存します。 処理に時間がかかる 画面キャプチャ + DOMの取得 → キャプチャを解析 → クリックすべ
はじめに この記事では、AIアシスタント付きのエディタ CursorとGitHub Actionsを組み合わせて、「ZennとQiitaに効率よく・綺麗にアウトプットする方法」を紹介します。 「せっかく学んだのに、記憶に残らない...」 「いつかまとめようと思ってそのまま...」 そんな"もったいない"を解消するには、手間を最小限にしてアウトプットを習慣化する環境がカギです。 CursorとGitHub ×ばつ Zenn/Qiitaの自動投稿を組み合わせれば、インプット直後の熱量で文章を書き、また公開するにあたって満足いく文章が公開できると思います。 この記事で得られること ✅ Cursorを使って効率的かつ綺麗にアウトプットを残す方法 「学んだことをアウトプットしたいけど、書くのが苦手......」 そんな方におすすめのワークフローです。 なぜCursorを使うのか? Cursorは、VSCodeにそっくり
非エンジニアの私が技術ブログを書く理由 ヘッドウォータースのグループ会社ヘッドウォータースコンサルティングにて、 コンサル職をやっていますせとうと申します。 普段は業務整理だったり要件定義だったりいわゆるビジネスサイドの上流工程に携わっていますが、やれることは何でもやりたいと思っています。 今日はZenn初投稿として、タイトルのテーマで記事を書きます。 これはきっと多くの日系企業で見られる話だと思うのですが、 「社内エンジニアの言ってることがよくわからないけど、自分はビジネスサイドなので仕方ない。」 「技術のことはエンジニアや委託先に聞けばいい」 「自分も色々インプットはしているけど、まだアウトプットするレベルではない」 そう思われている非エンジニアの方は多い気がします。 私自身も以前はそうでした。 でも、この1年間で50本以上の技術ブログを書いてきた今確信を持って言えるのですが、 ビジネ
Agent2Agent Protocol 2025年04月09日にGoogleからAIエージェントの通信プロトコルについて発表がありました。 A2Aプロトコルにより、AIエージェントは相互に通信し、安全に情報を交換し、様々なエンタープライズプラットフォームやアプリケーション上でアクションを調整できるようになります。 これだけ見ると、MCPと競合?と思いましたが、下記のようにも書かれています。 A2Aは、エージェントに役立つツールとコンテキストを提供するAnthropicのModel Context Protocol(MCP)を補完するオープンプロトコルです。 そこで、どう共存するのか調べます。 共存するのか? まず、A2AのGitHubリポジトリからのリンクで、下記のドキュメントがあります。 エージェントアプリケーションにはA2AとMCPの両方が必要です。ツールにはMCP、エージェントにはA
zenn.dev/heavenosk
はじめに 今回の実装は mastra というフレームワークの初期化時に追加できる MCP のドキュメントサーバーがめちゃくちゃ便利だったので、それに影響を受けて手元の Vitepress 製のドキュメントを MCP (Model Context Protocol) 化した際の記録です。 今回は自分の手元の Vitepress 製のドキュメントを MCP 経由で取得できるようにしてみました。 環境情報 今回使用した環境は以下の通りです。 Node.js: v20.17.1 pnpm: 9.11.5 VitePress: 1.6.3 準備 パッケージのインストール Vitepress プロジェクトにパッケージを追加します。 fastmcp というパッケージを使うと MCP サーバーを簡単に作れて便利でした。 # MCP関連 pnpm add fastmcp node-html-markdown
Model Context ProtocolについてのMicrosoftのブログ ここにMCPのデモアプリがあったので試してみました。 MicrosoftのMCPのデモ Microsoft Copilot プラグイン (MCP) をサポートする Azure OpenAI API に接続する Chainlit ベースのチャット インターフェイス。 まず、READMEにこう書かれていて、ん?MCPってMicrosoft Copilot Pluginの略でModel Context Protocolとは違うものなの?というよくわからない気持ちになりました。 ダブルミーニングなのかなーと思いつつ、Azure Open AI のAPI設定(GPT-4o mini)をして、アプリを起動しました。 一応、requirements.txtにはmcpのライブラリが入っているので、MCP対応していそうです。
寄稿のきっかけ AIエージェント系の業務で、ある程度実戦向けのノウハウがたまってきたので、一度備忘録としてまとめておこうと思い、記事を執筆してみました では早速ご紹介していきます。 プロンプトを書く前に業務の理解を深める 時として、数十ページにもわたる複雑な業務フロー図が含まれたマニュアル資料を元に、AIエージェントに代替遂行させたいという要望を受けることがあります。 しかし、そのプロンプトを書く前に一旦立ち止まって考えてみてください。 AIエージェントにも出来ないこと・任せられないことがたくさんあります。闇雲にAIエージェントに業務を全て任せるのではなく、業務を理解し、分解してみてどの部分がリスクなく任せられるのかを検討しましょう。 業務が理解できれば、いくつかの作業はまとめられたり、不要であることに気づいたりでき、結果としてAIエージェントに与える指示(プロンプト)の整理整頓につながり
TL;DR Cline の Memory Bank は複数ファイルの読み込みが必要で、毎チャット5回程度のチャットのラリーが発生する MCP で簡単なツールを作り、一回のやり取りで前ファイルの読み込みが可能になった。 MCP は一種の Custom Instructions のようにも使える 課題 Cline で Memory Bank という、Cline にプロジェクトの知識を外部化して持たせるプラクティスがあるが、これをやっていると毎回チャットの初めにファイルの読み込みためのラリーが発生してしまいます。 これは Cline が使える read_file というツールが単一のファイル読み込みで、かつ、Cline は一回のチャットのラリーで一つのツールを一回しか使えないからです。 解決策 そこで今回は MCP で Memory Bank の一括読み込み用のツールを作ることで、このやりとりが
zenn.dev/herp_inc
2024年11月26日に、AnthropicはModel Context Protocol(MCP)という新たなオープンソースプロジェクトを発表した。 これは、生成AIを活用する上で不可欠な「生成AIと外部のデータやツールを繋ぐ部分」を共通化し、再利用可能にするためのものだ。 概要 MCPは、JSON-RPCに基づいたプロトコルであり、AI本体側がクライアント、外部ツール側がサーバーになる。 2024/12現在、デスクトップ版ClaudeがMCPに対応している。 以下のように、OpenAPI、Slack、Git、BigQuery、Puppeteerなど、様々なサービスやソフトウェアへのバインディングが試験的に開発されている。 特にopenapi-mcp-serverはOpenAPI準拠のWebサービスなら何でも呼び出せるので、高いポテンシャルを感じる。mitmproxy2swaggerのよう
TL;DR Plan Modeを活用しよう: Plan Mode を使って要件を固めて手戻りを防ぐ Cline はタスクランナー: Cline は自然言語スクリプトを実行するタスクランナーとして捉えると分かりやすい。Plan Mode は dry-run の役割 はじめに ここ最近話題になっている Cline ですが、触れた方の中には「これはパラダイムが変わる」と感じた人も多いのではないでしょうか。 私も2024年11月中頃に初めて Cline を使い、その新しい体験と馬力の高さに驚きました。 しかし、いざ Cline を使ってみると、Cline に実装を任せても意図通りの成果物ができず、大量の手戻りが発生しがちです。 そこで重要になってくるのが、 「Plan Mode」 という動作モードです。 Cline は「Plan Mode」と「Act Mode」という二つの動作モードに分かれていて
zenn.dev/hellohazime
Not蒸留物、本物のDeepSeek-R1(671B)を1.58bit量子化したモデルを動かす(1500円/時) 皆に本物のDeepSeek-R1を見せてあげますよ お疲れ様です、波浪です。 DeepSeek R1をローカルPCで動かしました!ドヤっっってしてる記事がたくさんありますがその人たちが動かしているブツの大半はR1の蒸留物でサイズが13Bとかせいぜい70Bくらいなんですよね。 そんな中ガチのDeepseek-R1(model size 671B)の1.58bit量子化版がHFに登録されました。 まあタイトルにあるような「本物」かと言われたら量子化はしてますけどね それでも蒸留モデルよりは本物ですわ。 といっても、さすがに動かすためには最低でも24GBのVRAMと128GぐらいのRAMが必要です。(理論上は64Gでも動きそう?) ま、逆に言えば、それが家にある人はこれをローカルPC
はじめに みなさん、Dataverse使っていますか? 私は使っていません! ただ、たまに開発することがあり、そこで盛大に引っ掛かったので共有します。 Dataverseとは Dataverseは、Microsoft Power Platform上で利用できるデータ管理基盤の一つです。 Power Apps、Power Automate、Power BIなどから容易にアクセスできるため、Power Appsをメインで使用する場合はこちらを使うことになるかと思います。 外部からAPIでアクセスすることもでき、結構便利に使う事が出来ます。 (Entra IDなどでアプリ登録する必要があったりしますが) エンティティセットとは Dataverseではテーブルでデータを管理しますが、テーブルに対しAPIでアクセスする際は「エンティティセット名」を使用してアクセスします。 「エンティティセット名」は
zenn.dev/he
ローカル環境で手軽に大規模言語モデル (LLM) を試せる Ollama と phi-4 モデル、そして VS Code の拡張機能である Cool Cline を組み合わせて、コード生成を行うメモです。WSL2でもできると思います。 環境 Ubuntu 24.04 Docker GeForce RTX 4060Ti(VRAM 16GB) VS Code Cool Cline 拡張機能 手順 DockerのインストールとNVIDIA Container Toolkitの設定 DockerでGPUを使えるようにします。以下の記事を参考にしました。 Ollamaの起動とphi-4モデルのダウンロード Ollamaのコンテナを起動します。モデルはコンテナの/root/.ollamaにダウンロードされるのでローカルの適当なフォルダをマウントします。ポートの11434はllamaからとってきてるみた
お疲れ様です、おみくじが大吉だったので嬉しいなーと思ってる波浪です。 さて、Clineでdeepseekが使えるようになったと聞いたので試してみました。 業務ではCursor pro も使っていますが今回は個人的なプロジェクトに使いたいので 業務はCursor、個人的な作業はVSCode+Clineでやってみる2025年にしてみようと思います。 ちなみにClineに頼みたい作業は複数ファイルのyamlの編集で Difyのymlを編集したいなぁというお気持ちです。 こういうDifyのワークフローからエクスポートしたymlがあって、そこから positionとかzindexを消すんですが ファイル数がまあまああるので、まとめてやりたいなぁというお気持ちです。 以前なら使い捨てのプログラム書いたんですがそういう仕草はお気持ちごと不燃ごみに捨てていきます。 Cline VS CodeにClineを
使いたんですけれど、細かーいところで引っかかったのでメモ。 なんでこの記事を書くに至ったか。 Raspberry Pi Pico 無印 / Wでは、搭載マイコンのRP2040に対して直接アクセスが可能なAPIを提供しています。 そのAPIの1つを用いて、RP2040を経由してFlashへアクセスが可能です。これを用いると、Flashの空き領域を利用することで電源を切ってもデータを保持することができます。USBフラッシュメモリと同じですね。 さて、公式のサンプルコードをみていきましょう。 最も単純なサンプル"program"では、flash_range_eraseでセクタ削除とflash_range_programでページ書き込みを行っています。 書込み単位と削除単位が異なり、書込み単位のほうが小さいという点に注意が必要です。 Flash Memory (フラッシュメモリ全体) └── Bl
TL;DR Cline: 「タスク」を軸に自律的に行動する AI エージェントの VSCode 拡張 Human In the Loop: AIの行動に対して人間が Approve / Reject / Reject & Feedback で介入できる設計により、AIとの協働がスムーズになる 応用可能性: このアプローチは開発以外の領域にも応用できる可能性がある はじめに 最近、GitHub Copilot や Cursor などエディタ上で AI アシスタントを使ってコードを書いたり修正したりするシーンが増えています。 そんな中、VSCode 拡張として動作する「Cline」というAI開発エージェントを触ってみたところ、「タスク」を中心に据えた設計や、人間が常に介入できる "ヒューマンインザループ" (HITL) の仕組みが目を引きました。 今回は、この Cline を通じて感じた、タス
いつの間にか、VSCode extensionを入れるだけで環境構築ができるようになっていました! 特にWindowsについては No dependencies needed とあり、本当にこのextensionのみで環境構築が可能です。(手元のWindows環境でも確認できました!) Linuxについては、以下の依存を事前インストールする必要があります。 環境構築後はGUIをポチポチするだけでプロジェクトを作成できました。 プロジェクト内の.vcodeフォルダにlaunch.jsonなどの設定用ファイルも入っており、F5デバッグもそのままできました。 具体的な流れは公式ドキュメントをご覧ください。 さて、 Raspberry Pi PicoがPoCで最も使い勝手の良いマイコンになったと言えるのではないでしょうか? 価格・環境構築難易度・ペリフェラルの充実度など。 難点を挙げるならピンヘッ
zenn.dev/herumi
初めに 今月初め (2024年11月9日) のKernel/VM探検隊@北陸 Part 7で、satoru_takeuchiさんによる「利きプロセススケジューラ」という発表がありました。そこで二番煎じではありますが「利きx64アセンブラ」というネタを紹介します(ネタ自体は前から構想はあったけど形にはしてなかった - 言い訳)。 アセンブラ アセンブラとはアセンブリ言語で書かれたプログラムを機械語のバイト列に変換するツールで、ここではx86-64アーキテクチャ用アセンブラを対象とします。 アセンブラなんてCPUの仕様書にしたがってバイト列を生成するだけなのでアセンブラごとの違いなんてあるの?と思われるかもしれませんが、よく探してみると意外と個性が出ることがあります。 筆者は長年JITアセンブラXbyakというものを開発していたので、アセンブラが生成したバイト列を眺めることが多く、その違いにはま
You may not use our Services for any illegal, harmful, or abusive activity. For example, you may not: (中略) - Use Output to develop models that compete with OpenAI.
次のページ
このページを最初にブックマークしてみませんか?
『zenn.dev』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く
AltStyle によって変換されたページ (->オリジナル) / アドレス: モード: デフォルト 音声ブラウザ ルビ付き 配色反転 文字拡大 モバイル