[フレーム]
はてなブックマークアプリ

サクサク読めて、
アプリ限定の機能も多数!

アプリで開く

気に入った記事をブックマーク

  • 気に入った記事を保存できます
    保存した記事の一覧は、はてなブックマークで確認・編集ができます
  • 記事を読んだ感想やメモを書き残せます
  • 非公開でブックマークすることもできます
適切な情報に変更

エントリーの編集

loading...

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。

タイトルガイドライン

このページのオーナーなので以下のアクションを実行できます

タイトル、本文などの情報を
再取得することができます
コメントを非表示にできます コメント表示の設定

ブックマークしました

ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください

Twitterで共有

ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します

595users がブックマーク コメント 19

ガイドラインをご確認の上、良識あるコメントにご協力ください

0 / 0
入力したタグを追加

現在プライベートモードです 設定を変更する

おすすめタグタグについて

よく使うタグ

ChatGPTの仕組みを理解する - AI時代のスキル面接ならHireRoo

595 users hireroo.io

ガイドラインをご確認の上、良識あるコメントにご協力ください

0 / 0
入力したタグを追加

現在プライベートモードです 設定を変更する

おすすめタグタグについて

よく使うタグ

はてなブックマーク

はてなブックマークで
関心をシェアしよう

みんなの興味と感想が集まることで
新しい発見や、深堀りがもっと楽しく

ユーザー登録

アカウントをお持ちの方はログインページ

記事へのコメント19

  • 注目コメント
  • 新着コメント
shunkeen
ヘビーユーザーが頑張ってRMやって、自身の価値観を反映したPPOが作れれば、自分だけのInstructGPT作れそう。なんなら、シナリオライターがひたすら調教すれば、一貫したキャラを保った無限にセリフを出すAIが作れそう。

その他
kiririmode
モデルを大きくするよりもfine tuningの方が良質な回答を作る際の寄与が大きい

その他
tick2tack
人間らしい回答をする仕組み。Supervised Fine Tuning: 人の手によるデータでの再学習 Reward Modeling: 複数出力に対する評価順位付け Proximal Policy Optimization: 報酬が最大になるよう自律的な変化

その他
sotet
"セクション"

その他
yarumato
"自らが意志を持つような返答は、言語モデルが学習の中で自然と自我を持ったのでしょうか? 違います。こう答えてほしいと思うデータセットを「人手で」大量に作り、学習させている。fine tuning、報酬モデル"

その他
stealthinu
ChatGPTの元となっているInstructGPTでの学習の改善手法について。会話用学習セットと良い回答の点数作って強化学習させる。

その他
misshiki
"ChatGPTそのものがどのような枠組みの上で成り立っているのかをざっくりと理解できることが本記事のゴール"

その他
satosssi
HireRooはエンジニアの技術評価のサービスなので、評価をハックできるGPTの出現はかなりの脅威だろうなあ。GPTある世界での技術力の評価手法はどんなのがいいんでしょね(真剣)

その他
webnoshiori
ふむ

その他
monochrome_K2
現状の優秀なチャットAIは人が教え方を工夫することでもたらされているという認識で合っているのかなと思う

その他
T-norf
OpenAIはGPT3ベースだったと思うけどトークン従量課金でファインチューニング可能なモデル4種類をクラウド提供してるよ。あまり使った報告なくて、どれぐらいの課金でどれぐらいの精度だせるかは、私も知りたいんだけど

その他
qinmu
InstructGPT。

その他
natu3kan
学習のさせ方にもコツがいるんだな。そう考えると人力も重要ってことよな。最良の回答になるためのケースの類型をコツコツ教えていくのって。手間をかけるとよくなるのオープンワールドのゲームみある。

その他
mayumayu_nimolove
日本人は作るよりも作られたものの分析が得意なのかもな

その他
spaciba8443
]

その他
qpci32siekqd
OpenAIのドキュメンタリーに書かれている以外に、実際作る場合を考えるとどうやって学習させてるとか、モデルいくつに分割してるのかとか、そんな強化学習上手く制御出来るのかとか、色々気になってくる

その他
sisicom
手順というか組み立てというか

その他
shunkeen
shunkeen ヘビーユーザーが頑張ってRMやって、自身の価値観を反映したPPOが作れれば、自分だけのInstructGPT作れそう。なんなら、シナリオライターがひたすら調教すれば、一貫したキャラを保った無限にセリフを出すAIが作れそう。

2023年03月28日 リンク

その他
tick2tack
tick2tack 人間らしい回答をする仕組み。Supervised Fine Tuning: 人の手によるデータでの再学習 Reward Modeling: 複数出力に対する評価順位付け Proximal Policy Optimization: 報酬が最大になるよう自律的な変化

2023年03月28日 リンク

その他
ussiik1
Step1. Supervised Fine Tuning (SFT) Step2. Reward Modeling (RM) Step3. Proximal Policy Optimization (PPO)

その他
odakaho
"GPTが自動的に自我を学習の中で獲得したわけではなく、"こう答えてほしいな"と思うようなデータセットを人手で大量に作り、それを言語モデルに学習させている"

その他
kiririmode
kiririmode モデルを大きくするよりもfine tuningの方が良質な回答を作る際の寄与が大きい

2023年03月27日 リンク

その他

注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

リンクを埋め込む

以下のコードをコピーしてサイトに埋め込むことができます

プレビュー
アプリのスクリーンショット
いまの話題をアプリでチェック!
  • バナー広告なし
  • ミュート機能あり
  • ダークモード搭載
アプリをダウンロード

関連記事

usersに達しました!

さんが1番目にブックマークした記事「ChatGPTの仕組みを...」が注目されています。

気持ちをシェアしよう

ツイートする

ChatGPTの仕組みを理解する - AI時代のスキル面接ならHireRoo

ブックマークしたユーザー

  • mapk0y2023年09月19日 mapk0y
  • thaturn2023年06月20日 thaturn
  • hatebunbun2023年06月11日 hatebunbun
  • ChillOut2023年05月26日 ChillOut
  • kionat2023年05月02日 kionat
  • shion2142023年05月01日 shion214
  • heatman2023年04月27日 heatman
  • chidakiyo2023年04月19日 chidakiyo
  • shiba_yu362023年04月18日 shiba_yu36
  • mtrock2023年04月13日 mtrock
  • komekome092023年04月02日 komekome09
  • kasahi2023年04月02日 kasahi
  • mega102023年04月01日 mega10
  • ite2023年04月01日 ite
  • yug12242023年04月01日 yug1224
  • hiroyadoraemon2023年03月30日 hiroyadoraemon
  • comb_81072023年03月30日 comb_8107
  • gabill2023年03月30日 gabill
すべてのユーザーの
詳細を表示します

ブックマークしたすべてのユーザー

同じサイトの新着

同じサイトの新着をもっと読む

いま人気の記事

いま人気の記事をもっと読む

いま人気の記事 - テクノロジー

いま人気の記事 - テクノロジーをもっと読む

新着記事 - テクノロジー

新着記事 - テクノロジーをもっと読む

同時期にブックマークされた記事

いま人気の記事 - 企業メディア

企業メディアをもっと読む

はてなブックマーク

公式Twitter

はてなのサービス

Copyright © 2005-2025 Hatena. All Rights Reserved.
設定を変更しましたx

AltStyle によって変換されたページ (->オリジナル) /