本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]
民事裁判の現場で生成AI(人工知能)をどう扱うべきか。最高裁が2026年1月に研究会を設け、争点の判断は裁判官が担う前提を崩さずに、証拠の整理など「周辺業務」で生成AIを補助的に使えるかを検討する。2026年度以降、効果だけでなく弊害も確かめ、実務に入れるかどうかを決める方針だ。
裁判官の判断は守りつつ、どこまで“手作業”を減らせるか
研究会は、民事裁判の経験がある中堅裁判官6人でつくる方向とされる。対象は、裁判の結論そのものではなく、書面の要約や証拠の整理といった作業だ。書類が積み上がりやすい民事事件では、争点の見落としを防ぎつつ準備の手間を減らせるかが焦点になる。
一方で、裁判所には個人情報保護の観点から、裁判記録を生成AIに読み込ませることを内規で禁じる運用があるという。つまり現状は「使わない」前提だ。だからこそ今回の検証は、業務効率の期待と、情報管理や手続の公正さをどう両立させるかの試金石になる。
便利さの裏側にあるリスク、検証でどこまで減らせるか
生成AIの弱点は、もっともらしい誤りを出す点(いわゆる幻覚)や、学習・入力データの扱い、偏りの入り方などにある。海外では、生成AIが作った実在しない判例を引用して問題になった例も報じられている。裁判の補助であっても、誤りが混ざれば当事者の主張整理や証拠評価の段取りに影響しかねない。
論点は単純な「導入か否か」ではない。入力できる情報をどこまで絞るか、出力の根拠を後から追える形にするか、誤りを見つける二重チェックをどう組むか。政府側でも、AI利活用に伴う民事責任の議論が進んでいる。最高裁の検証は、裁判のデジタル化が進む時代に、効率と説明責任を同時に満たす運用設計を作れるかが問われる。
