[フレーム]
1 - 40 件 / 122件
東京大学がちょっとびっくりするくらいの超良質な教材を無料公開していたので、まとめました Python入門講座 東大のPython入門が無料公開されています。scikit-learnといった機械学習関連についても説明されています。ホントいいです Pythonプログラミング入門 東京大学 数理・情報教育研究センター: utokyo-ipp.github.io 東大のPython本も非常にオススメです Pythonによるプログラミング入門 東京大学教養学部テキスト: アルゴリズムと情報科学の基礎を学ぶ https://amzn.to/2oSw4ws Pythonプログラミング入門 - 東京大学 数理・情報教育研究センター Google Colabで学習出来るようになっています。練習問題も豊富です https://colab.research.google.com/github/utokyo-ip
序文 私の仕事は、DBエンジニアです。といっても別に望んでデータベースの世界へきたわけではなく、当初、私はこの分野が面白くありませんでした。「Web系は花形、データベースは日陰」という言葉も囁かれていました。今でも囁かれているかもしれません。 ですが、しばらくデータベースを触っているうちに、私はこの世界にとても興味深いテーマが多くあることを知りました。なぜもっと早く気づかなかったのか、後悔することしきりです。 もちろん、自分の不明が最大の原因ですが、この世界に足を踏み入れた当時、先生も、導きの書となる入門書もなかったことも事実です。 今でこそバイブルと仰ぐ『プログラマのためのSQL 第2版』も新入社員には敷居が高すぎました (2015年2月追記:その後、自分で第4版を訳出できたのだから、 人生は何があるか分からないものです)。 そこで、です。このサイトの目的は、データベースの世界に足を踏み
その誕生を地元新聞も経済新聞も記事にしなかった。2年後、『コードの情報を白黒の点の組み合わせに置き換える』と最下段のベタ記事で初めて紹介された時、その形を思い浮かべることができる読者はいなかった。いま、説明の必要すらない。QRコードはなぜ開発され、どう動くのだろうか。 QRコードは、自動車生産ラインの切実な要請と非自動車部門の技術者の「世界標準の発明をしたい」という野心の微妙な混交の下、1990年代前半の日本電装(現デンソー)で開発された。 トヨタグループの生産現場では、部品名と数量の記された物理的なカンバンが発注書、納品書として行き来することで在庫を管理する。そのデータ入力を自動化するバーコード(NDコード)を開発したのがデンソーだ。 バブル全盛の1990年ごろ、空前の生産台数、多様な車種・オプションに応えるため、部品も納入業者も急激に増え、NDコードが限界を迎えていた。63桁の数字しか
お知らせ: 2022年9月1日 CS50 を活用した非営利/協賛企業による「コロナ学生支援」プロジェクトを実施中 ▼ 学生の方へ:CS50 の学習(履修証明書の取得)を一緒に取り組むプロジェクト CS50日本語版の翻訳コントリビューターである CODEGYM が主催する、非営利/無償のプロジェクト「CODEGYM Academy (外部リンク)」は、昨年に続き2022年度(春/秋)も、キャリア選択を控えた学生に対し、以下の企業の協賛により無償で17週間のプログラミング教育カリキュラムを提供します。 CODEGYM Academy 協賛企業(2022年) https://codegym.jp/academy/ 今年度のエントリーは締め切りました — ようこそ! このページは、ハーバード大学 CS50 の日本語版翻訳プロジェクトのページです。当サイトのドメインに掲載されているコンテンツは、Cre
架空の営業管理システムを作ってもらう前提で、ChatGPTに要件定義をお願いしてみました。 実験として軽く試すレベルで始めてみたのですが、予想を超えるクオリティでしたので、一部始終を皆様にもご紹介します。 ChatGPTとのやりとり まず、ざっくりと必要な機能の洗い出しをお願いしてみました。 あっという間に必要な機能を網羅的にリストアップしてくれまた。私自身、SFA/CRMをいくつか触った経験がありますが、適切な内容だと思います。 中には、「データのインポート・エクスポート機能」のように、検討初期段階ではつい忘れそうな機能も含まれています。さらに頼んでもいないのにオススメの検討プロセスまで教えてくれました。気が利いてます。 機能ベースだと要件の妥当性が判断しにくく思ったので、画面ベースで要件定義してもらことにしました。 「図で教えて」とできないことをお願いしたところ、やんわり断りつつ、意図
世界のルールが根本的に変わってしまう... そういう展開は、マンガや映画ではよく起こる。それが現実でも起きそうだ。 あと数日(から数週間)で「トップレベルの画像生成AI」が、世界中にフリーで配布される。 イラスト、マンガはおろか3D CGや建築、動画、映像...果てはフェイクニュースからポルノまで...あらゆる創作に携わる全ての人を巻き込む、歴史的な転換点が訪れようとしている。 凄さ的には、悪魔の実がメルカリで買えるようになる。念能力トレーニング動画がYoutubeにアップされる。それぐらいヤバい。 メルカリで悪魔の実が買える世界では、誰もが能力者(一流とは限らない)になれる。そんな、漫画やゲームのラスボスが語るようなユートピアが、あと数日で現実になってしまうかもしれない。 Stable Diffusionで出力したドワーフの王様Stable Diffusionで出力したホビットのスタディ Stabl
GPT4が登場してChatGPTが盛り上がってますね。 本記事は、GPT(を支えるTransformerという仕組み)をChatGPTユーザにとって分かりやすく説明し、その能力と限界についての見通しをよくしよう、という趣旨になります。 少し長くなりそうなので、全部で記事を3回に分けようと思います。 (1)大まかな背景と概要:本記事 (2)GPTの能力と可能性:実際の使用例とTransformerの仕組みを踏まえて説明 (3)GPTの限界と未来展望:Transformerの仕組みが持つ限界と研究の進展を予想 GPT3と4の違い: トークン長とは何か? まずここから話を始めます。GPT-3は、パラメータ数が750億個(850GBの容量を食う)でトークン長が4097(GPT-3.5)でした。GPT-4は、パラメータ数は非公開でトークン長は32768ですので、ちょうど8倍になります。 さて、トーク
いつものようにヘロヘロと仕事をしていると、突如担当編集の松尾氏からMessengerで「これに対するちゃんとした回答を書けるのは大原さんだなということで、また歴史物をお願いしたく」という依頼が飛び込んできた。 いやちゃんとした回答も何も、上のTreeで出題されたSEライダー氏が正解を出されているわけですが、歴史的経緯というか、ここに至るまでの話というのが長い訳で、その辺りを少し説明してみたいと思う。 ちなみに出題に少しだけ違和感がある(なぜ10bitがキリがいいと思うのか?)のは、筆者もこっち側の人間だからかもしれない。 回答の前に、その根底にある2進数採用の経緯 そもそも非コンピュータ業界の方からすれば、2進数がベースという辺りから違和感を覚えるのではないかと思う。実際、世界最初の計算機(≠電子計算機)とされる「バベッジの階差機関」(写真1)にしても、世界最初の電子計算機(※(注記)1)であるE
はじめに NFT って何ですか? ブロックチェーン上に記録された一意なトークン識別子をその保有者のアドレスと紐付ける情報、およびそれを状態変数として保持するスマートコントラクトのこと。 以上。 え、それだけ? はい。 「デジタル資産に唯一無二性を付与するインターネット以来の革命」なんじゃないの? これを読んでください: speakerdeck.com なるほど。ところで、この記事は何? いま話題の NFT について、NFT の標準仕様である EIP-721 の仕様書と、それを実装しているスマートコントラクトのソースコードから読み解けることを解説する。一般向けの解説とは異なる視点から光を当てることで、ソフトウェアエンジニアに「あ、NFT って単にそういうことだったのか」と理解してもらえるようにすることを狙っている。 また、NFT がソフトウェアとして具体的にどう実装されているかを知ることは、
大規模言語モデル(LLM)は、流暢な会話をこなし、専門的な質問にも答える。その驚くべき能力に、私たちは「AIは本当に理解しているのではないか」という期待を抱きがちだ。しかし、その知性は本物なのだろうか? こうした我々の抱く最もな疑問に対し、2025年6月26日に発表された一つの研究論文が1つの答えを与えてくれるかもしれない。 ハーバード大学、MIT、シカゴ大学の世界トップクラスの研究者たちが共同で発表した論文は、LLMが概念を「理解しているフリ」をするという、根源的な欠陥を白日の下に晒した。本稿では、この「ポチョムキン理解」と名付けられた現象の核心に迫り、それが私たちのAIに対する見方、そして人工知能の未来に何を意味するのかを解説する。 賢いフリをするAI──「ポチョムキン理解」という新たな弱点 今回発表された論文「Potemkin Understanding in Large Langu
計算量についてのお話です。対象は、プログラミング経験はあるが計算量のことを知らない初心者から、計算量のことを知っているつもりになっている中級者くらいです。 数式を見たくない人にとっては読むのが大変かもですが、深呼吸しつつ落ちついて読んでくれるとうれしいです。 それから、この記事が自分には合わないな〜と思ったときは、(別の記事を Qiita とかで検索するよりも)この記事の一番下の 参考文献 にある本を読むことをおすすめします。Amazon の試し読みで無料で読めます*1。 TL; DR 関数の増加度合いのことをオーダーと呼ぶよ 計算量は、入力サイズ(など)を受け取ってアルゴリズムの計算回数(など)を返す関数だよ その関数のオーダーについての議論がよく行われるよ オーダーを上から抑えるときは \(O\)、下から抑えるときは \(\Omega\) を使うよ オーダーを上下両方から抑えたいときは
先日、博士(情報学)になりました。学部と大学院をあわせた 9 年間で読んだ情報科学関連の教科書・専門書を思い出を振り返りつつここにまとめます。私は授業はあまり聞かずに独学するタイプだったので、ここに挙げた書籍を通読すれば、大学に通わなくてもおおよそ情報学博士ほどの知識は身につくものと思われます。ただし、特に大学院で重要となる論文を読み書きすることについては本稿には含めておりません。それらについては論文読みの日課についてや論文の書き方などを参考にしてください。 joisino.hatenablog.com 凡例:(半端)とは、数章だけ読んだ場合か、最後まで読んだものの理解が浅く、今となっては薄ぼんやりとしか覚えていないことを指します。☆は特におすすめなことを表します。 学部一年 寺田 文行『線形代数 増訂版』 黒田 成俊『微分積分』 河野 敬雄『確率概論』 東京大学教養学部統計学教室『統計学
対数のlogを勉強するときにまず最初に習得するのは常用対数です。 【LOG・LOG10関数】Excelで10の累乗と常用対数が使えたら数値の桁数が計算できます 常用対数を習得したら次に習得するのが2の累乗と2を底とする対数です。学生の時に、2,4,8,16,32・・・と2の累乗を覚えた人もいるのではないでしょうか? 大人であれば、2を10回かけたら1024(=約1000)になることを知っておいても損はないでしょう。携帯電話の「ギガ」はもともと2を30回かけると約10億=1ギガの情報量になるところからきています。2の累乗と2を底とする対数を理解することは情報処理を理解する第一歩と言っても過言ではありません。 そこで、今回は、Excelで2の累乗と2を底とする対数を求める方法とその応用について解説します(2進数については深入りしません)。 目次 1.まずはExcelで2の累乗の性質を考えてみよ
この記事は社会人学生 Advent Calendar 2020 7日目の記事です。 米国のオンライン大学University of the People(以下、UoPeople)に入って約1年経った振り返り記事となります。 これまでのUoPeople関連の記事はこちら 自分について University of the Peopleとは 動機 入学するには 授業について 卒業までの所要期間 Computer Science専攻はどんなコースが受けられるのか これまでの進捗 これまでにかかった金額 課題がめっちゃ出る どうやって勉強時間を確保しているか よかったところ 学習内容への満足度は高い 英語のライティングスキルは多分あがった 日英両方でインプットするメリット 毎日強制的にアウトプットできる。 GPAのためなら頑張れる よくなかったところ National Accreditationなの
米AppleのAI研究者らは10月7日(現地時間)、「GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models」(LLMにおける数学的推論の限界を理解する)という論文を発表した。 この論文は、LLM(大規模言語モデル)が、本当に人間のように論理的に考えて問題を解けるのか、という疑問を検証している。結論としては、LLMは今のところ、表面的なパターンを真似て答えを出しているだけで、真の推論能力は持っていないと主張している。 研究者らは、これらの問題点を検証するために、「GSM-Symbolic」という新しいテスト方法を開発した。これは、LLMの数学的推論能力を評価するためのベンチマークデータセット「GSM8K」を改良し、問題の表現や数字を柔軟に変えられるようにした
当ニュースレターは2023年を「SaaSがオワコン化した年」と位置づけたが、2024年は早くもAIが終わった一年であった。少なくとも大規模言語モデル(LLM)そのものの発展を、物珍しそうに追いかける時期は過ぎた。生成AIが今後どこまで賢くなるかはもちろん未知数である。しかし、既に業務で十分に役立つレベルにある現行モデルのコストが今後も下がっていくことは確実だ。 The cost of GPT-4 APIs at launch in Mar 2023 was roughly ~30ドル per 1m tokens. Seeing Deepseek V-3 APIs at ~1ドル per 1m tokens today. For AI application companies, cost of "intelligence" is falling significantly faster tha
各技術系メディアでは既に報じられていますが、今年のAAAI*1で会長名によってリリースされた"AAAI 2025 Presidential Panel on The Future of AI Research"の内容が非常に示唆に富んでいたので、改めてやや仔細に読み解いてみようかと思います。 なお、元のレポートは結構なボリュームがありいきなり精読しようとするとしんどいので、NotebookLMにまとめさせたサマリーと論点に対応した原文の箇所を適宜読み返して自分で補いながら*2、つらつらと論じていくこととします。ということで、hallucinationsなどあればご遠慮なくご指摘くだされば幸いです。 レポートの全体構成について(特にAI研究者へのアンケート) 個人的に注目した論点 現在のAIの延長上にAGIは実現しない(76%) LLMの事実性・信頼性の問題はすぐには解決できない(60%)
なぜ人々は、ChatGPTという"トリック"に振り回されるのか? Google「Bard」参戦、チャットAI戦争の行方:清水亮の「世界を変えるAI」(1/8 ページ) OpenAIが2022年に発表した対話型AI「ChatGPT」の衝撃は、米国ビッグテック最強の一角であるGoogleを動揺させた。Googleは急ぎ「Bard」と名付けたAIチャットボットを投入し、巻き返しを図る。 側から見ていると急展開に心が躍る一方、果たしてこの戦いは本当に意味のあるものになっているのか。チャットボットを長年ウォッチしてきた筆者としてはハラハラする気持ちも少なくない。 まずは現状のAIチャットボット関連をまとめ、それからチャットボットの歴史を振り返り、現状、そして未来を予想してみたい。 深層学習チャットボット百花繚乱の2023年 最近になって深層学習をベースとしたチャットボットが注目を集めている。Open
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 目次 はじめに 個人を特定する情報が個人情報じゃない デジタル署名は暗号化しない TLS(SSL) は共通鍵を公開鍵で暗号化しない TLS(SSL) が使われていれば安全じゃない 変数は箱じゃない Python 等は「ソースコードを 1 行ずつ実行するインタプリタ方式」じゃない 日本語 1 文字は 2 バイトじゃない 動画が動いて見えるのは残像によるものじゃない 標本化定理は「2 倍以上の周波数」じゃない その他いろいろ はじめに 2022 年から高等学校で、プログラミング等を学ぶ「情報I」が 必修 必履修科目になりました。1 さらには
This is The Entire Computer Science Curriculum in 1000 YouTube Videos In this article, we are going to create an entire Computer Science curriculum using only YouTube videos. The Computer Science curriculum is going to cover every skill essential for a Computer Science Engineer that has expertise in Artificial Intelligence and its subfields, like: Machine Learning, Deep Learning, Computer Vision,
/^[a-zA-Z0-9.!#$%&'*+\/=?^_`{|}~-]+@[a-zA-Z0-9](?:[a-zA-Z0-9-]{0,61}[a-zA-Z0-9])?(?:\.[a-zA-Z0-9](?:[a-zA-Z0-9-]{0,61}[a-zA-Z0-9])?)*$/ だ。いいね? なぜこの正規表現がいいのか ちなみにこれの何がいいかというと 「HTMLの標準仕様を定めるWHATWGの正規表現をそのまま使っている」ところ。 つまり、各ブラウザのデフォルトの<input type="email" />のバリデーションと一致するという大きなメリットを得られる。 これはMDNにも載っている列記とした「実用的な」正規表現だ。 ちなみにRFCオタクがRFC準拠のおおよそ実用に耐えないであろうメールアドレスの正規表現を推してくるかもしれないが無視して良い。 例えば、RFCに準拠している以下のようなメ
floodgateという将棋AIの対局サイトでTuyouraOuというソフトが2週間レーティングで1位となった。 これは、私が放流しているソフトで、337万局面の大規模定跡を搭載している。dlshogiがWCSC35の時点で330万局面収録されているらしいので、(局面数においては)それを上回った形である。 どれくらいの精度の定跡が収録されているかについては、YouTuberのそらさんの動画がわかりやすい。 【前代未聞】世界1位のAIが「674兆局面調べて作られた定跡」を搭載している件 https://www.youtube.com/watch?v=IZ5-5yXwME0 実のところ、どの程度の精度の定跡になっているのか、私自身はあまり把握していない。各局面は、水匠10で1t(1スレッド) 2億ノードで掘っている。それをペタショック化(定跡ツリーをminimax化)して、使っている。 WCS
宇宙から降り注ぐ放射線(宇宙線)によって電子機器が一時的に誤作動する「ソフトエラー」と呼ばれる現象が、NTTの国内ネットワーク通信装置で少なくとも年間約3万〜4万件起きていると推定されることが21日、同社などへの取材で分かった。大半は機器の安全装置などで自動修正されるが、専門家は通信障害につながった可能性もあると指摘している。 国内の情報インフラを支える通信装置でのソフトエラー発生規模が明らかになるのは初めて。 宇宙線が大気圏の酸素や窒素に衝突すると中性子が発生する。ソフトエラーはこの中性子が電子機器の半導体にぶつかり、誤作動を起こす。
内閣府が公開している資料「AIと著作権の関係等について」がTwitterで話題になっている。文化庁が制作した資料で、5月15日に開催した内閣府のAI戦略チームの会議で使用されたもので、AIと著作権に関する現行法での見解などをまとめている。6月3日頃からTwitter上で話題になっており、AIに詳しい弁護士も「かなり踏み込んだ内容」と見解を述べている。 同資料では、著作権の役割は「『思想又は感情を創作的に表現した』著作物を保護するもの」と指摘。データ(事実)やアイデア(作風や画風)は著作物に含まれないという。 この上で、AIと著作権の関係は「生成・利用段階」と「AI開発・学習段階」を分けて考えるべきと説明している。AIが生成した画像などを公開したり、そのイラスト集を販売したりする場合は、通常の著作権侵害と同様の法が適当される。AI画像と既存の著作物との類似性や依拠性(既存の著作物を基に創作し
5. まとめ ― Prompt Engineering は"死"ではなく"吸収合併" Prompt Engineer = 職種 は消滅傾向。 Prompt Engineering = スキル は "AI と協働する全職種の共通知識" へ統合。 今後は「AI を使う力」より「AI に任せて監督する力」がキャリアの差別化要因となる。 感想 前回の記事の締めにも書きましたが、「●くろまる●くろまる式」のようなoneプロンプトの技であったり、キーワードを駆使する等の技の部分を指す意味での「プロンプトエンジニアリング」は今後不要になっていくと思います。 ただ、生成AIと対話するアプローチに関しては、(エージェントによるサポートの進化はあれど)依然必要かと思います。 以下なども対話アプローチに関するTipsが多いです。 https://qiita.com/hokutoh/items/4a5447833721fe839
絶対に勝てない6x6リバーシを作りました。あなたは黒番、AIが白番です。 絶対に勝てない6x6リバーシを作りました! ぜひ挑戦してみてくださいhttps://t.co/Ul5n3q9jMp— Yusuke Endoh (@mametter) December 30, 2021 これは何? 6x6の盤面のリバーシは後手必勝 *1 であることが知られています。 このAIは白番(後手)で完璧にプレイします。つまり黒番のあなたは絶対に勝てません。無力感を楽しんでください。 技術的な話 このAIはWebAssemblyになっているので、全部あなたのブラウザの上で動いてます。真のサーバーレスです。 AIのソースコードはRustで書きました。わりと堅実なゲーム木探索になってます。UIは普通にTypeScriptとthree.jsで実装しました。 github.com 作った順に説明します。 盤面の表現
米OpenAIは9月5日(現地時間)、LLMのいわゆる「幻覚」(ハルシネーション)についての論文を公開した。この論文は、ChatGPTやGPT-4oといったLLMが、なぜもっともらしく聞こえるけれども間違った情報を自信満々に生成してしまうのか、その根本的な理由を解き明かそうとするものだ。 例えば、論文の著者であるアダム・タウマン・カライ氏の誕生日をある最先端のオープンソース言語モデルに尋ねたところ、「03-07」「15-06」「01-01」といった3つの異なる、いずれも間違った日付を自信満々に回答したことが示されている。 OpenAIは、最新モデル(GPT-5を指すとみられる)では幻覚の発生率は大幅に減少しているとしながらも、依然としてこの問題が残っていることを認めており、さらに削減していくために努力を続けているとしている。 論文では、言語モデルの幻覚は大きく分けて2つの段階で発生し、改善
1週間、人力でのコーディングを禁止してみた──AIスタートアップ企業のエクスプラザ(東京都港区)は3月上旬、こんな実験を実施した。大胆な取り組みだが、その結果は「通常時の仕事の成果から半減した」と同社の松本和高CTOは話す。では実験は失敗だったかというと、そうではなく「成功だった」と答える。それはなぜか。 この実験のルールは主に2つで「期間中のコードは全部AIに書かせる」「基本的に例外なし(緊急対応時は除く)」というもの。AIが出力したコードの修正も原則禁止で、デバッグ用の簡単なコードを書くのも認めない。しかし、どうしても手入力をしたい場合は、社内Slack内に設けた「懺悔チャンネル」で何がダメだったか書き込むことで、人力での入力を"こっそり許可"するなど逃げ道も用意した。 参加者は同社所属の3人のエンジニアで、エディターは指定せず「Cursor」「Windsurf」「Visual Stu
人工知能(AI)モデルが、人間の感情理解力を測るテストで人間並み、時に上回る成績を収めたことが分かった。ただ、訓練データにそうしたタスクが含まれていた可能性も否定できず、大規模言語モデルが「人のように」考えているわけではない。 by Rhiannon Williams2024.05.22 275 23 人間は複雑な存在だ。私たちのコミュニケーションの方法は多層的であり、心理学者たちは対話から意味や理解を推測する能力を測るためのテストを数多く考案してきた。 人工知能(AI)モデルは、こうしたテストでますます優れた結果を出している。ネイチャー・ヒューマン・ビヘイビア(Nature Human Behavior)に5月20日に掲載された新たな研究によると、一部の大規模言語モデル(LLM)は人の心理状態を追跡する能力(いわゆる「心の理論」と呼ばれる)を測るために設計されたタスクを与えられた場合、人
「ごみ出し案内」業務にはChatGPTを"活用しない"と決断した──生成AIを使った業務効率化を検証してきた、香川県三豊市がそんな発表をした。ChatGPT登場から1年がたち、今や職場に導入する企業・自治体も増え、中にはすでに一定の成果を出した事例もある。三豊市でも、ごみ出し案内業務の効率化を図ろうとしたが、思うようにはいかなかった。 今回の事例では、日本のAI研究の権威である松尾豊教授の「東京大学大学院工学系研究科松尾研究室」(松尾研)も協力。約半年間、実証実験に取り組んできた。なぜ、三豊市ではChatGPTを使って業務効率化できなかったのか。三豊市に話を聞いた。 なぜ、ごみ出し案内をChatGPTに託したのか? 三豊市が実証実験を始めたのは6月1日。サービス内容は「市民からのごみの分別や収集日に関する問い合わせに対して、三豊市のごみに関する学習をしたAIが24時間自動応答する」というも
「ChatGPTは何回もテレビにも新聞にも雑誌にも出ているのに、それを自分自身で毎日活用してないと。もうそれは電気を否定するとか自動車を否定する人と同じ」――10月4日に東京都港区で開催された「SoftBank World」の基調講演で登壇したソフトバンクグループ代表取締役会長兼社長の孫正義氏は、"孫節"を効かせながら生成AIの威力と、AGI(汎用人工知能)が登場する未来について語った。 10年以内に来るぞ「AGI」 「Stable Diffusion」や「ChatGPT」の登場以降、生成AI周りの進化が著しいが、孫氏も生成AIにのめり込んでいるようだ。ディベート相手として毎日GPT-4版のChatGPTと議論を重ね、そこで生まれたアイデアを特許として申請。「今月中に1000件を突破する。集中した日は1日30件申請している」という。今はそれぞれキャラクターを設定しChatGPT内でもディス
はじめに @dyoshikawaです。 私の2025年6月ごろからの取り組みとして、Claude CodeによるVibe CodingでRulesyncというOSSツールを公開しました。 そこでかなり自由にClaude Codeでいろんな手法を試すことができましたので、AIコーディング全般のTipsをお伝えできればと思います。 一方で(人間の介入が少なすぎる)Vibe Codingの弊害としてコードベースやドキュメントが崩壊し、途中で開発がストップした場面もありました。ここのプロセスの反省と、どのように開発可能に復帰させたかという点も紹介します。 最後に人間の役割、AIの役割、ソフトウェア開発の未来といったトピックに触れたいと思います。 Rulesync: 主要なAIコーディングツールの設定ファイルを一括管理 まず、私が開発・公開したツール Rulesync について簡単に紹介します。 こ
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く