弁護士がチャットGPTで作成した裁判書類にミス、実在しない判例6件 米ニューヨーク
[画像:1685544285452]
記事によると
・米ニューヨークの連邦裁判所で審理中の民事訴訟で、弁護士が対話型AI「チャットGPT」を使って作成した準備書面に、実在しない6件の判例が含まれていた。弁護士は「チャットGPTが虚偽内容を示す可能性に気づいていなかった」とし、「信頼性が完全に検証されるまで二度と頼らない」と述べた。
・弁護士は、2019年にニューヨーク行き航空機内で配膳カートがひざに当たって負傷したとして南米の航空会社を訴える男性の代理人。
・航空会社側の弁護団や裁判所が「判例データベースで確認できない」として問い合わせたところ、弁護士が書面の作成にチャットGPTを使ったと分かった。
・弁護士は実務歴30年のベテランで、チャットGPTを法的調査に利用したのは「初めて」という。裁判所や航空会社を欺く意図はなかったとし、「非常に後悔している」と述べた。
・裁判所は「前代未聞」と指摘、弁護士の処分の可否などを検討するための審理を開く予定。
以下、全文を読む
この記事への反応
・事前にチェックもしないのか。
・まだまだAIは人間には代わらないね。でも、実務家ならちゃんと確かめないと...
・使い方間違えてるだけじゃん笑
・嘘をつく機能は4.0でもなくなっていないのかな。
・実際使ってみれば分かるが、この手のAIはウソつきだよ。
・ChatGPTを信用して存在しない会計処理を容認して訂正報告行きになる監査人はまだですか?
・ChatGPTなんて、著名人の経歴でさえデタラメ言ってくるって実例が山ほどあるのに、なんで弁護の実務に使えるとおもったのか。まだ全然実用レベルでもないし、運用に関する法律もない。
・ほんとに使ったらこんなことになるという例。
AIは息を吐くようにウソをつくからね・・・
なぜ信用してしまったのか
なぜ信用してしまったのか
コメント(129件)
1.はちまき名無しさん投稿日:2023年06月01日 01:01▼返信
🍖
もう弁護できないねえ
AIは弁護士を無能に変える
まさかこの弁護士って日本の姫さまの旦那じゃないだろなw
KKじゃないんか?
なぜ検証をしないのか
心象最悪の自爆行為じゃん
心象最悪の自爆行為じゃん
過去の判例に基づくだけなら裁判官も弁護士も検察官もいらんよなあ
警察が都度犯人をAIにかけて処せばいい
税金の無駄時間の無駄が省けていいぞ
警察が都度犯人をAIにかけて処せばいい
税金の無駄時間の無駄が省けていいぞ
ひろゆきはAI推しだよな、なんかひっかきまわしたいだけなのか、自分が面白ければ
今すぐ辞めてほしいレベル
chatGPTって嘘つく確率は相当高いぞ
普通に使ってれば書類制作中に気づくだろ
普通に使ってれば書類制作中に気づくだろ
ChatGPTは自分で思考したものではなく、他人の答えを丸暗記したものしか吐き出さない
1+1の答えをChatGPTに求めるとすると、1+1=2という計算を自身で行うのではなく、1+1=2という計算式を丸暗記してそのまま吐き出すようにできてる。したがって、類題に乏しい問いや複雑な計算を求めると、間違いだらけの答えっぽい結果しか寄越さない。数学が苦手な学生が、途中式や公式の仕組みを一切理解せず、ただ丸暗記した回答になぞって計算しても不正解の回答にしかならないのと同じ。
1+1の答えをChatGPTに求めるとすると、1+1=2という計算を自身で行うのではなく、1+1=2という計算式を丸暗記してそのまま吐き出すようにできてる。したがって、類題に乏しい問いや複雑な計算を求めると、間違いだらけの答えっぽい結果しか寄越さない。数学が苦手な学生が、途中式や公式の仕組みを一切理解せず、ただ丸暗記した回答になぞって計算しても不正解の回答にしかならないのと同じ。
うそはうそであると見抜ける人でないと(AIを使うのは)難しい
無能が讃えるだけあるなw
間違った情報をソースにして提示してくるならまだしも検索して1件も出てこないような完全に捏造レベルの回答してくるからな
そこに正しい情報も織り交ぜてくるから余計たちが悪い
そこに正しい情報も織り交ぜてくるから余計たちが悪い
chatGPTって架空の話出してくるからなぁ
×ばつで行われたジャイアント馬場との試合は見物でした』とか長文で説明されたわ
×ばつで行われたジャイアント馬場との試合は見物でした』とか長文で説明されたわ
>>11
その点は絵の出力方式と同じだね
その点は絵の出力方式と同じだね
AI信頼度いきなりMAXはやべえ
この手の件はbingのほうが精度は高い
bardも嘘ばっかつくしゴミ
bardも嘘ばっかつくしゴミ
ぷぷぷ
GPT-4でも余裕で嘘をつく
結局ChatGPTを使った部分にヒューマンチェックを入れる必要があるから意味ないわな
使うとしたら直接的な勉学なんかに全く関係ない提出させるだけが目的のどうでもいい読書感想文くらいが
関の山だけど、そういうのも結局皆が使い出すと文章構成が似通ってバレるんだろうな
使うとしたら直接的な勉学なんかに全く関係ない提出させるだけが目的のどうでもいい読書感想文くらいが
関の山だけど、そういうのも結局皆が使い出すと文章構成が似通ってバレるんだろうな
chatGPTが嘘をつくって言葉なんだか違和感なんよな
意思を持って虚偽を伝えている訳じゃないし
意思を持って虚偽を伝えている訳じゃないし
AIのくせにクリエイティブやな
チャットGPTの情報精度はガバガバだぞ。日本語のことわざ聞いてるのに、普通に中国語混ぜてきたりする
人間もミスるけどね
今のところ学習して会話を成立させるもので正解を出してくれるものではないからAIを嘘つきと罵ったところで意味ないんだよね
使う人間がアホだったいい例だな
それよりもしょうもない事で裁判しとるやん
単純作業ならともかくこんなんさせんなよ...
ChatGPTに因数分解の問題だしたら展開しても元の式にならない答えを平気で返してきた
何回誤りを指摘しても同じ答えの繰り返し
ダメだこりゃ
何回誤りを指摘しても同じ答えの繰り返し
ダメだこりゃ
AI利用者がみんな馬鹿に見える行為は止めよう
>>14
話題の正否をAIが担保していない
彼らがしているのは回答ではなくあくまで対話
今のところ正否を判断するのは質問した側の仕事というだけ
話題の正否をAIが担保していない
彼らがしているのは回答ではなくあくまで対話
今のところ正否を判断するのは質問した側の仕事というだけ
>>20
そうなんか
そっちならいけそうな気もしたけど
そうなんか
そっちならいけそうな気もしたけど
嘘ではない。
だた収集した情報から出した回答が結果間違っていただけ
回答した時点では真実なのだ
だた収集した情報から出した回答が結果間違っていただけ
回答した時点では真実なのだ
過去の判例を教え込んでいないAIに何を期待してんだ
育ててなきゃアホのままだぞw
育ててなきゃアホのままだぞw
>>29
それなら人件費削減出来たりでいいと思うがこういうのに使うべきじゃないわな
使うならそれこそ単純作業にAI導入して成功した実例何個も無いと
普通こんなんせんわ
それなら人件費削減出来たりでいいと思うがこういうのに使うべきじゃないわな
使うならそれこそ単純作業にAI導入して成功した実例何個も無いと
普通こんなんせんわ
こいついつも嘘ついてんな
普段使ってるけど、無差別に情報収集してるから、レポート作った後に精査しないと使い物にならないぞ
ドラフト版を作ると言う意味でならとっても役に立つけど
ドラフト版を作ると言う意味でならとっても役に立つけど
AIはある程度時短にはなるけど最後のステップまでショートカット出来る物ではないだろ。知識のある人ならデタラメが混じってるって気付くもんだけどな。
AIが危険なのはいかにもそれっぽい回答作ってくるから、知識の無い人が使う事で間違いに気付かず、デマを広めてしまう事だと思う
AIが危険なのはいかにもそれっぽい回答作ってくるから、知識の無い人が使う事で間違いに気付かず、デマを広めてしまう事だと思う
英語なら優秀とは何だったのか
AIの最悪の例をよりによって弁護士が作った
もうAI推奨の擁護、弁護出来んなこれはw
もうAI推奨の擁護、弁護出来んなこれはw
おいおい、嘘つくなよ
この弁護士はちゃんと「この事例は実際にあったものですか?」ってちゃんと問い合わせてたから
ChatGPTに。
この弁護士はちゃんと「この事例は実際にあったものですか?」ってちゃんと問い合わせてたから
ChatGPTに。
CHATGPTって、デタラメだよね👎
>>25
だから?
だから?
ネットで集めた情報だから真偽は保証されないでしょ
確認作業しないこいつがアホなだけ
確認作業しないこいつがアホなだけ
レポートをchatGPTで書いたやつー
震えて眠れ👊
震えて眠れ👊
>>39
フェイクニュースみたいなもんか
フェイクニュースみたいなもんか
>>42
AIは判例データベースにアクセスできないから
ネット情報をソースにしてるだけ
手間を惜しんだ馬鹿ってだけやん
AIは判例データベースにアクセスできないから
ネット情報をソースにしてるだけ
手間を惜しんだ馬鹿ってだけやん
こんなもんを諸手を挙げて積極的に使おうとするアホな国があるらしいな
>>49
もしかして、政府ってバカなの?
もしかして、政府ってバカなの?
軽く目を通すとかしてチェックもせんかったんか
AIはネットをググってるだけだから
ネットで偽情報をつかまされてら
そりゃこうなるだろうよ
ネットで偽情報をつかまされてら
そりゃこうなるだろうよ
デタラメだし、内容薄いよね...
この弁護士はベテランではあるが経歴が長いだけで無能だったって事か
使ったのが悪いんじゃなくて、その後確認しなかったのが悪い
???「ググればええねん!!」
↑
みたいな感じ?
↑
みたいな感じ?
現在のChatGPTの弱点のひとつとされている「たまに事実ではない間違った回答をしてしまう」
たまに間違った回答をするんだから事実かどうかは確認しないやつが悪い
たまに間違った回答をするんだから事実かどうかは確認しないやつが悪い
>>55
確認しないと駄目なの!?
使えねー
確認しないと駄目なの!?
使えねー
ソースが不確かならこうもなるわ
極限定的な専門分野の知識のみを与えたAIでもまだ信用おけるか怪しくなってきたね
極限定的な専門分野の知識のみを与えたAIでもまだ信用おけるか怪しくなってきたね
>>58
AIはネットでググってるだけで
情報データベースがある訳じゃないから
真偽は確認するのは当然
AIはネットでググってるだけで
情報データベースがある訳じゃないから
真偽は確認するのは当然
知らないのに確認しようがないじゃん
>>56
そいつもAI以下かもな
ってかこの弁護士みたいに大失敗すると思う(反省はしなさそう)
そいつもAI以下かもな
ってかこの弁護士みたいに大失敗すると思う(反省はしなさそう)
AI「ネットで見た」
>>61
判決データベースで確認できる
弁護士がその手間を惜しんだのが原因
判決データベースで確認できる
弁護士がその手間を惜しんだのが原因
ちゃんと理解せずちょっと使って便利でいいじゃん!と飛びついたんだろうな
ChatGPTはそれらしい文章を返すシステムであって、正確さは保証してないでしょ。
定型文とか何かの例文みたいなを作るのは得意でも、正しい計算をしてくれるわけじゃない。
定型文とか何かの例文みたいなを作るのは得意でも、正しい計算をしてくれるわけじゃない。
出てきたものを検証せずにそのまま出すのが相当のバカ。弁護士資格を剥奪しとけ。
AIがもっともらしく嘘ばっか言うのは公然なのにアホやな
おじいちゃんだったんだろ?
な?人間ってAI以下だろ?
GPT3.5だと平気で嘘をつくけど4の有料版だとネット接続して最新の情報引っ張ってこれるけどな
うわあ最悪の事態だ一体何人しぬん?
>>71
ネットの情報が100%正確な訳じゃないからなぁ
判例の場合だと判例データベースにアクセスしないで
ネットソースで探すと誤情報が紛れ込む
ネットの情報が100%正確な訳じゃないからなぁ
判例の場合だと判例データベースにアクセスしないで
ネットソースで探すと誤情報が紛れ込む
>>71
ネットの最新の情報が正しいと思ってそう
ネットの最新の情報が正しいと思ってそう
AIに真偽を判断する力は無いからね。イラストもそうだけど機械的にこなしているだけだから
FCドラクエ4のボスにザキを連発して学習してザラキを使ってた頃と変わらん
FCドラクエ4のボスにザキを連発して学習してザラキを使ってた頃と変わらん
電話が発明されたときに荷物を送ろうとする人間が続出したという話を思い出した
つーかどんなにAIが進歩したとしても
基礎の書類作りにAI利用はしても
最後の確認は自分がしなくちゃいけないんじゃないの?
この人はそれを怠ったんだろ
基礎の書類作りにAI利用はしても
最後の確認は自分がしなくちゃいけないんじゃないの?
この人はそれを怠ったんだろ
AIが感情を持つレベルまでに発達しないと本当の意味でのAIとは言えない
マイクソが関わってるものを信用するとか正気か
良く気づいた!
AIで捏造制作する前にググればいいだけでは?
>>1
Chat GPTで近所のおすすめの店でも聞いてみ
電話番号付きで架空の店をリストアップしてくれるから
Chat GPTで近所のおすすめの店でも聞いてみ
電話番号付きで架空の店をリストアップしてくれるから
本当にChatGPTで調べたら出てくるのかな?捏造の言い訳にしてるだけな気がする。
まともな回答が得られるなら弁護士は不要になり、どっちにしても自己否定だが。
まともな回答が得られるなら弁護士は不要になり、どっちにしても自己否定だが。
息を吐くようにウソをつくぶーちゃんってAIなん?
本当の判例だけ取り込むようにカスタムするしかない
ネット上にある無数の嘘をかき集めて
創作するのは得意なAIってだけなのを忘れてない
創作するのは得意なAIってだけなのを忘れてない
なんでそのまま引用するんだよ
せめて裏取ってからにしろや
せめて裏取ってからにしろや
日進月歩世に出てたったの1年でどんどん進化してるしこんなのもすぐどうにかなるだろうね
もっともらしく嘘を吐く集合知なんだから創作や文章構成以外に使うなよ
別に使ってもええと思うが
せめて出力された情報の裏取りする労力くらいは払えよ
せめて出力された情報の裏取りする労力くらいは払えよ
判例検索システムくらい簡単に作れるよね
>>91
日本にはあるよ。
日本にはあるよ。
GPTは嘘つくくらい分かってから使え
チャットGP使って診療する医師とかも出てきそうだな
「信頼性が完全に検証されるまで」←その検証をすんのがお前の仕事だろボケ
ひろゆきが「うそはうそであると見抜ける人でないと(掲示板を使うのは)難しい」って言ってたけど、掲示板に限らずネット上には嘘や間違いが溢れていて、その中から事実を見つける能力がメディアリテラシー。
chatGPTもAIがメディアリテラシーを身に着けない限りは、検索エンジンに代替することは出来ないよ。
chatGPTもAIがメディアリテラシーを身に着けない限りは、検索エンジンに代替することは出来ないよ。
引用範囲を限定しないのが問題だな。
個人アカで勝つgpt4使わないで作成したんか?w
個人アカで勝つgpt4使わないで作成したんか?w
使う側がアホだったら何の意味もない
たらこAIを真に受けてしまったのか
嘘をつく機能をなくすのは不可能な気が
教科書で覚えさせられた日本の歴史すらあちこち嘘なんだし
後で「アレ嘘やったわw」とか散々やってる
教科書で覚えさせられた日本の歴史すらあちこち嘘なんだし
後で「アレ嘘やったわw」とか散々やってる
>>71
最新の情報を嘘工作したらすぐに嘘を反映しそう
最新の情報を嘘工作したらすぐに嘘を反映しそう
>>1
普通は「へぇ、そんな判例あるんだ」って思いながら調べるよね
なんで一切調べずにそのまま提出しているんだよ
普通は「へぇ、そんな判例あるんだ」って思いながら調べるよね
なんで一切調べずにそのまま提出しているんだよ
>>44
お前を不幸にしてやろうか?って話だよ
お前を不幸にしてやろうか?って話だよ
>AIは息を吐くようにウソをつくからね・・・
ニシおじやチカおじはAIだった?
ニシおじやチカおじはAIだった?
弁護士なのにネットに対する知能はスカスカなのか
AIすごいって騒がれてたのに、実際に色々とやらせてみるとミスだらけで、
やっぱりAIダメだわってなってきてるな。
やっぱりAIダメだわってなってきてるな。
この前もニュースで学生がchatGPTのことについて学んで、すぐ回答が出てきて凄い!って言ってたけど、平気でchatGPTの回答捏造してくるから、それが正しいのかどうかの判断が必要なのよね
前に検索エンジンオワタ!みたいな記事もあったけど
マジでこういう使い方してる馬鹿いるんだな
マジでこういう使い方してる馬鹿いるんだな
テキストベースAIなんだから正誤判定しないよ〜
ナチュラルに嘘つくからなぁAIは
aiの嘘を見極めるために専門職はまだ必要
他国の判例とかも出力しそう
AIが判例データベースをハックして判例でっちあげるとこまでやったら面白いのに
文章の体裁を整えるには有用だけど、中身の情報は全部自分で考えなきゃダメよ
>>110
嘘はつかない
ネットのデマ情報がソースだったりするだけ
嘘はつかない
ネットのデマ情報がソースだったりするだけ
提出書類を自分でチェックしなかったこの弁護士がマヌケ
その界隈に詳しければ誰でもわかるレベルの嘘を
それっぽく語るからたちが悪いな〜と思ってた
それっぽく語るからたちが悪いな〜と思ってた
メタルギアはバンナムが制作していますとか平気で語りだすからなw
例えば人間の助手に調査を任せたとしてもミスする場合があるんだから、AIだろうが人間だろうがダブルチェックすべき。
AI関係なく不注意すぎる。
AI関係なく不注意すぎる。
別に使えないわけではなくて使い方が間違ってるだけだろ
調べてもらった後に裏付け取ればよかっただけよ
調べてもらった後に裏付け取ればよかっただけよ
調べさせるまではまぁいいとしてなんでちゃんとあってるかを調べないんだよって誰もが思うよ
「正しい文章」を書くだけで内容そのものの真偽性について特に何か検証している感じは全く無いからな
ダークソウルのラスボスはナイトメア・ドラゴンだぞ
AI先生からの回答だから間違いない
AI先生からの回答だから間違いない
倫理観が欠片もないFallout4の戦前企業GAI社も自社ロボット(AI)の医療アドバイスは鵜呑みにしないで!!と
注意書きにデカデカと記す程度にはAIは嘘をつくと知られてるからね
ある意味では無茶苦茶に人間らしいよAI(人工知能)って・・・悪い意味で
注意書きにデカデカと記す程度にはAIは嘘をつくと知られてるからね
ある意味では無茶苦茶に人間らしいよAI(人工知能)って・・・悪い意味で
検証してから出せよ
そりゃパッチワークして出してくる可能性すらあるのにチェックしない方が悪い
AIに探してもらうまでは良いけど、裏取りくらい自分でしろよw
弁護士が言う内容までAIでまかなったら、素人が自分でAI使って、弁護士不要になるねw
弁護士が言う内容までAIでまかなったら、素人が自分でAI使って、弁護士不要になるねw
ちょっと調べたら利点と欠点ぐらいでてくるというのにピュアすぎんか?
西宮市を調べてみたら姫路城があると紹介されて感心した