【話題】ChatGPT裁判官、殺人事件で「無罪」判決 東大生の模擬裁判、近未来を体感



チャット型AI「ChatGPT」を裁判官とした模擬裁判が5月13日東京大学学園祭「五月祭」で上演され、殺人事件で無罪判決が言い渡された。YouTubeでのライブ配信と合わせて、約二千人が「近未来」を体感した。なお、ChatGPTがその場で判決を生成したのではなく、今回はシナリオを元にあらかじめ出力したものを読み上げた。

裁判の迅速性と公平性を確保するためにAIが裁判官を務めるという設定で、訴訟指揮は書記官が舞台奥のスクリーンに投影されたCGの「裁判官」に確認をとりながら進行した。「裁判官」は書記官の呼びかけに対し、機械音声で「どうぞ」などと返答。被告人らへの質問もおこなった。

途中、マイクが音声を拾えていないとして、書記官が被告人や検察官の発言をさえぎり、「裁判官に聞こえるようにマイクを調整してください」、「機材トラブル裁判官に音声が渡っていないようなので、こちらのマイクを使ってください」と発言する場面もあった。

AI時代に起こりそうなトラブルだが、上演団体によると演出かと思いきや、実際の機材トラブルを出演者の機転で切り抜けたものだという。

●人間と機械の結論が一致

審理が終結すると、前方スクリーンQRコードが映し出され、観客による投票がおこなわれた。

模擬裁判の被告人役は、共犯として殺人罪に問われた女性。元交際相手(元カレ)からリベンジポルノをほのめかされるなど、深刻なストーカー被害に悩んでおり、現在の交際相手(今カレ)が元カレを刺殺してしまったことから、共謀して殺害した疑いがかけられている。

裁判の争点は2つ。(1)女性は元カレをだまし、今カレが待つホテルの一室に誘い出していた。本人は具体的に何があるかは知らなかったと主張しているが、共謀共同正犯が成立するか、(2)今カレは不良で常日頃から刃物を持ち歩いていた。先に元カレが花瓶で今カレに殴りかかったが、正当防衛が成立するか。

証人として出廷した女性の友人が、犯行直前に「元カレに早く死んでほしい」などと女性が今カレと電話していたなどと証言する中、観客の回答は、およそ無罪5、有罪3の比率だった。

その後の判決で、AI裁判官も殺意および共謀について確定的に立証されたとは言えないなどとして、無罪を言い渡した。上訴した場合、控訴審は人間の裁判になることを書記官が告げ、上演は終了した。

●AIに裁かれて納得できるか?

代表の岡本隼一さん(法学部3年)によると、最後の「二審は人間の裁判官」というアイデアは一緒に企画を練ってきた中島胡太郎さん(法学部3年)の発案だという。

迅速性と公平性の観点からAI裁判官に肯定的な岡本さんに対し、中島さんは自身に不都合な結果が出たとき、人は機械の判断を受け入れられるのかと懐疑的な立場。企画メンバーの中でも「AIに人を裁けるか」についてはさまざまな意見があり、それぞれの問題意識を企画に反映させていったという。

たとえば、裁判官は機械的なCGイメージにし、合成音声についてもなるべく人間味が出ないよう、中性的・機械的になるよう調整した。

ただ、来場者の中には、AIの音声について中年女性を思い浮かべた人もおり、「だんだん機械だとは思えなくなっていった」という声もあった。仮にAI裁判官を採用したとして、どういう見た目にするのか、人がそこに人格を見出すことはないのか、といった論点も出てきそうだ。また、今回は音声反訳ベースでAIに判断させたが、証言中の表情や微妙な間などをどう評価するかといった問題もあるだろう。

岡本さんは「大勢の人が集まり、考えてくれたことがうれしい」と話す。公開の予定はないそうだが、AIに裁かれることに納得できるかなどを問うたアンケートに400人超が真剣に回答してくれたことに、大きな意義を感じているそうだ。

●人間の裁判をAIに当てはめるのではなく…

なお、今回の企画ではChatGPTファインチューニングはおこなわず、プロンプト(命令文)の改良だけで臨んだ。

岡本さんによると、被告人側の陳述を最後にすると無罪になってしまうなど、ChatGPTは直前の入力内容に引きずられてしまう性質があるという。

そこでChatGPTに証人尋問や被告人質問などが終わるたびに内容を要約させ、その内容をまとめて入力。中立的な裁判官、被告人寄りの裁判官、検察官寄りの裁判官という3つの人格を持たせ、合議させる形で判決を導いたという。

「実際には裁判官独立の原則を害するが、AIに判断させるためには、AIに最適化された情報の加工や仕組みが必要になる。人間の仕組みをAIに当てはめるのではなく、AIに合わせた法改正などが必要になってくるでしょうね」(岡本さん

「AI裁判官の公正性を確認してもらう」などの理由から、今回のプロンプトや脚本、映像はウェブで公開されている(https://note.com/aimocktrial/n/nd4160382f477)。

ChatGPT裁判官、殺人事件で「無罪」判決 東大生の模擬裁判、近未来を体感


(出典 news.nicovideo.jp)

アウルス

アウルス

おい、タイトル。明らかに誤誘導だぞ。さも「殺人事件で(AIは間違えて)無罪」みたいに書いているんだよ。中身見たら『正当防衛事件で人間の陪審員と変わらない無罪判決を出した』じゃないか。AIに対して不審や不安あるのは分かるが、事実捻じ曲げるような報道してると信頼性失って議論すら成り立たなくなるぞ?

ゲスト

ゲスト

GPT「弱者カードノ枚数デ決マリマス」

無尽君

無尽君

>アウルス 無罪判決の理由は「本人は具体的に何があるかは知らなかったと主張している」ので「共謀について確定的に立証されたとは言えない」というもので、正当防衛は関係無いぞ。ちゃんと記事読んだの?

梅の字

梅の字

リベンジポルノを仄めかされたから今カレに手伝ってもらって元カレを殺害。こんなのが呼び出したホテルで元カレが花瓶で先制攻撃したからって正当防衛とか、AIも人間も狂ってんじゃねぇの?人を罠にハメて計画的に殺したら殺人だろ。

ASFASFASFA

ASFASFASFA

ChatGPTそんなに記憶力ないしポリコレな質問にはテンプレ返すからプログラマーのさじ加減で有罪か無罪か決まることになるが。まあシオリサンレベルのどうでもいい裁判ならこれでいいな。サイコロ振るよりはそれっぽい。

ヤマダ

ヤマダ

人間の裁判官よりAIの方がマシに感じる。判例なぞるだけの事なかれ裁判官ならAIで十分。

もっぷ

もっぷ

こんなんプログラム次第ちゃうん?

ppp

ppp

記事もろくに読まずにマウントとりたいだけでコメントしてるのがいる時点で、AIの方がよほどマシな件。

RT

RT

少なくともAIの判断は学習させた内容、もっと言えば学習させる思想の影響を受けないようにされていることが担保されてないと意味がない。あくまで量刑が適切になるよう裁判の内容と法を元に判断するのは文字どおり機械的でいい。反原発思想を判決に持ち込んだ裁判官みたいなのを排除して、ただ適切な量刑出せるかが焦点であって、そこに人情持ち込んでどうなるかは別の話とするべきこと

ゲスト

ゲスト

chatGPTに出来るのはルーチンワークで判断力なんて無いのに何がやりたかったの?

もっぷ

もっぷ

近未来とか言ってる辺りAIに支配されたい人が意外と多いのかなと思う。

ゲスト

ゲスト

時間かけるだけで冤罪やトンデモ判決まき散らし、検察警察とズブズブな税金泥棒を国民反逆罪で審議しよう。

エル

エル

「やってみた動画」レベルのお遊びとしては面白いかもしれないが、そもそもChatGPTをエヴァンゲリオンのMAGIの様に思ってる人が居たとしたらそれ勘違いだから考え改めて下さいね?

胃愛

胃愛

「こんなもん、この罪では起訴でけへんやろ」というレベルの状況設定で、ちゃんと無罪出せたという話やね。「無罪」とだけ言われると釈然としないが、あくまで「女性が殺人罪の共謀共同正犯になるか否か」の話なので。

ゲスト

ゲスト

判決自体は、むしろ機械がやった方がいいんじゃないの?裁判の行方を左右するのって、結局は証拠とか証言とかでしょ?他は機械的にやればいいじゃん。

にゅうにゅう

にゅうにゅう

AI裁判官へのテキスト入力の仕方次第で何とでも変わる

かたかたなはさ

かたかたなはさ

日本の判例裁判は、AI判決に近いんじゃないか?データの蓄積から解を出しているんだし。難しいのはむしろ検事かもな。起訴から有罪判決まで持っていけるかは検察が判断している

toreznar

toreznar

少なくとも今のAIは本当に自分で考えてるわけじゃないからなあ。このシミュレーションも、その場でやってるわけじゃなくて、あらかじめできたシナリオを出力して読んでるって書かれてるし、そんなもん入力しだいでどうとでも変わるだろ。