AIが間違えたとき、誰が責任を取るのか。この問いに対し、日本の法律は長らく明確な答えを持っていなかった。2026年4月9日、経済産業省がその「読み方ガイド」を初めて公式に示した。
経産省、AI事故の責任ルールを初めて体系化
経済産業省が公表したのは「AI利活用における民事責任の解釈適用に関する手引き〔第1.0版〕」だ。新しい法律を作ったわけではない。民法(他人に損害を与えた場合の賠償責任などを定めた法律)や製造物責任法(欠陥のある製品が損害を引き起こした場合の責任を問う法律)など、今ある法律をAIトラブルにどう当てはめるかを整理した文書である。配送ルートAI、弁護士業務支援AI、自律走行ロボット、AIエージェント(人間の指示なしに自律的に行動するAI)、アパレル向け画像生成AIなど、6つの具体的な想定事例を用意し、それぞれの事例でどこに責任の境界線が引かれるかを示している。
日本企業のAI利用率は約5割強。米国・中国・ドイツがいずれも9割を超える水準にある中、日本の遅れは際立っている。背景にある理由の一つが「何か起きたとき、誰が責任を取るか分からない」という不安だ。手引きはこの不安に対し、現行法の枠内で「こう読む」という答えを初めて公式に示した。法改正なしに、事実上のルールが生まれた。
なぜ今、この手引きが必要だったのか
AIが業務に入り込むスピードに比べて、トラブル時の責任ルールの整理はまったく追いついていなかった。
IPAが発表した「情報セキュリティ10大脅威 2026」では、「AIの利用をめぐるサイバーリスク」が組織向け脅威の第3位に初めてランクインした。AI絡みのトラブルがもはや想定リスクではなく現実のリスクとして認識されている証左だ。調査会社ガートナーはAIの安全管理不備による法的請求が2026年末までに世界で2000件を超えると予測している。リスクの現実化は急速に進んでいる。
ルールがないまま普及だけが先行する——この状況に対し、手引きは責任ルールを明確にすることでAI導入を後押しするという役割を担っている。ただし、推進と規律は表裏一体でもある。ルールが明確になれば、事業者が負う責任も具体化する。企業が「安心してAIを使える」土台は、同時に「責任から逃げられない」土台でもある。
AIの「使い方」で責任の性質が変わる——手引きの核心
手引きが示した枠組みの核心は、AIの「使い方」によって問われる責任の性質が変わるという点だ。同じAIシステムを使っていても、それを「参考」にするのか「任せきり」にするのかで、事故が起きたときに誰の何が問われるかが根本的に異なる。
補助・支援型:個々の判断の適否が問われる
AIが「提案」し、人間が「決める」——これが補助・支援型だ。
手引きが示す典型例が配送・物流事業者のケースだ。AIが「このルートが最適」と提案し、ドライバーがそれを参考にしながら最終的に走るルートを自分で判断する。このとき、事故が起きても「AIがそう言ったから」は免責の理由にならない。最終判断を下したのは人間であり、その判断が適切だったかどうかが問われる。運転中に危険を察知できたか、ルートの安全性を確認する義務を果たしていたか——責任の焦点は、その「一つひとつの判断」に当てられる。
この考え方は、弁護士業務支援AIにも当てはまる。AIが法的な調査結果や文書案を提示し、弁護士がそれを参考に判断を下す形態であれば補助・支援型だ。この場合、弁護士が出力内容を十分に精査したか、依頼人への説明義務を果たしたかという「個々の判断の適否」が問われる。AIに詳しくなくても、法律の専門家としての注意義務(専門家として当然払うべき注意)の水準は下がらない。
依拠・代替型:体制構築そのものが問われる
一方、AIの出力にそのまま従う、あるいはAIが人間の代わりにほぼ自律的に動くケースは「依拠・代替型」として扱われる。ここで問われるのは、個々の判断の是非ではなく、「そういう体制を作ったこと自体」だ。
手引きが例として示す自律走行ロボットを考えてほしい。人間の運転操作が介在しない分、個々の走行判断を「人間が誤った」とは言いにくい。そのため責任の焦点は、開発者・提供者の側に移りやすい。AIが誤った判断をするリスクをあらかじめ利用者に伝えていたか。想定されるリスクに見合った設計やテストを行っていたか。手引きはこうした問いを、開発者・提供者に課される注意義務の基準として示している。
AIエージェント——人間の指示なしに自律的にタスクをこなすAI——はこの構図がさらに鮮明になる事例だ。人間が途中で判断を挟まないからこそ、「どういうAIを、どういう設計で走らせたか」という体制の妥当性そのものが問われる。手引きは、AIエージェントが自律的に引き起こしたトラブルについて、その自律性の設計者・提供者が責任の主体になりうると整理している。
ここで避けて通れないのが製造物責任法の問題だ。製造物責任法とは、欠陥のある「製品(モノ)」が損害を引き起こした場合に製造者が責任を負う法律だが、AIはソフトウェアであり「モノ」ではないというのが従来の通説的な解釈だ。手引きはこの点を正面から取り上げ、現行の製造物責任法はAIソフトウェア単体には直接適用されにくい可能性があると認めつつ、民法上の「不法行為責任」——故意や過失で他人に損害を与えた場合の賠償責任——として開発者・提供者を問う枠組みを示した。法律の空白を埋めるための実務的な読み替えである。
アパレル事業者の画像生成AIの事例は、利用者側にもこの「過失」の論理が及ぶことを示している。広告用の素材を画像生成AIで作ったところ、有名人に酷似した画像が出力されてしまったとする。手引きは、事業者が出力内容を確認・調査すれば問題を回避できた可能性がある場合、その怠りが過失と判断されうると整理した。「AIが自動生成したから自分には関係ない」というロジックは成り立たない。確認できたのにしなかった——その一点が責任を生む。
補助・支援型か依拠・代替型か、という分類は、現場の担当者が意識することを求めている。同じAIツールを導入しても、最終確認を人間が行う運用にするか、AIの出力をそのまま流す運用にするかで、事故が起きたときの責任の所在と性質が変わる。手引きはその違いを、初めて法的な文脈で明示した。
開発者・提供者・利用者、それぞれに問われること
AIトラブルの責任は、「作った人」「売った人」「使った人」の三者に分散する。手引きはこの三者それぞれに対し、問われる注意義務の中身を整理している。立場によって焦点がまるで異なるため、自分がどこに位置するかを意識しながら読む必要がある。
開発者・提供者:リスク開示の範囲が責任の境界線
AIを作り、世に出す側にとって、責任の境界線になるのは「このAIにはこういうリスクがある」と利用者にきちんと伝えていたかどうかだ。
伝えていれば、利用者はそのリスクを知った上で使う判断をしたことになる。伝えていなければ、利用者は知るすべがなかった。この非対称性が、開発者・提供者の注意義務の核心にある。
手引きが具体的な事例として示す自律走行ロボットで考えてほしい。人間の操作が介在しない分、走行中の個々の判断を「人間が誤った」とは言いにくい。責任の焦点は必然的に開発者・提供者へ向かう。想定されるリスクに見合った設計やテストを行っていたか。誤作動が起きうる状況をあらかじめ利用者に伝えていたか。手引きはこうした問いを、開発者・提供者が果たすべき注意義務の基準として示している。
弁護士業務支援AIも、開発者側の責任論点が浮かびやすい事例だ。法的調査や文書作成を支援するAIが誤った情報を出力し、それが弁護士業務に影響した場合、開発者はそのAIの精度の限界や誤出力が起きやすい条件を利用者(弁護士事務所)に開示していたかが問われる。「高精度」とうたいながらリスクを伝えていなかったとすれば、利用者の判断を誤った前提の上に乗せたことになる。
現行の製造物責任法がAIソフトウェア単体には直接適用されにくい以上、「リスクを伝えなかった」「設計が不十分だった」という過失の認定によって開発者側を問うというのが、手引きが示す実務的な枠組みだ。
AIエージェント——人間の指示なしに自律的にタスクをこなすAI——はこの構図がさらに鮮明になる。人間が途中で判断を挟まない設計である以上、「どういうAIを、どういう設計で動かしたか」という体制の妥当性そのものが問われる。手引きは、AIエージェントが自律的に引き起こしたトラブルについて、その自律性の設計者・提供者が責任の主体になりうると整理している。
利用者:AIの出力を検証する体制を整えていたか
「使う側」の企業にとって、責任の焦点はシンプルだ。AIの出力結果をそのまま使わず、確認・検証する体制を整えていたか——この一点に尽きる。
手引きが示すアパレル事業者の事例は、このロジックを鮮明に示している。広告用の素材を画像生成AIで制作したところ、有名人に酷似した画像が出力されてしまったとする。「AIが自動的に生成したのだから自分には関係ない」——そう考えたくなるのは理解できる。しかし手引きはそうは読まない。事業者が出力内容を確認・調査すれば問題を回避できた可能性がある場合、その怠りが「過失あり」と判断されうると整理している。確認できたのにしなかった——その一点が責任を生む。
これは画像生成AIだけの話ではない。補助・支援型として使っているつもりのシステムでも、出力内容を検証せずにそのまま業務に使っていれば、実質的には「任せきり」と変わらない。配送ルートのAIを使うドライバーが、提案ルートの安全性を確認する余裕も習慣もない運用になっていれば、事故が起きたとき「AIの提案に従っただけ」は通らない。
手引きが利用者に求めているのは、AIを導入したことではなく、AIを「適切に管理する体制」を作ることだ。出力内容を人間が確認するプロセスを業務フローに組み込む、AIが苦手とする状況や誤りやすいパターンを社内で把握しておく——そうした運用上の設計が問われる。
三者の責任は独立しているが、連動もする。開発者がリスクを伝えず、利用者が確認もしなければ、両方に責任が生じうる。反対に、開発者がリスクを適切に伝え、利用者がそれを踏まえた検証体制を整えていれば、それぞれが果たすべき注意義務を尽くしたとして、過失が否定される方向に働く可能性がある。「作った人が悪い」「使った人が悪い」という単純な二項対立ではなく、それぞれが自分の領域で何をすべきだったかが問われる構造だ。
法律ではないが、裁判の判断基準になりうる
この手引きに法的拘束力はない。守らなくても、罰則が科されることはない。経産省が公表したのはあくまで「解釈の整理」であり、新たな義務を法律として課したわけではない。
しかし、だからといって「ガイドラインだから関係ない」と片付けられるかというと、話はそう単純ではない。
日本の裁判では、判決を書く際に裁判官が「この業界では、どの程度の注意を払うことが世の中の常識(社会通念)か」を判断する場面がある。そのとき、政府が整理した指針は「当時の社会通念を示す資料」として参照されることがある。手引きを知っていながら何も対応していなかった事業者が、裁判でその点を問われる場面が生じうる。法的拘束力はないが、事実上の基準になりうる——これがこの手引きのパラドックスだ。
AIを業務に使う企業にとって意味するところは明確だ。手引きが示す枠組みに沿った体制を整えているかどうかが、トラブルが起きたときの責任の軽重に影響する可能性がある。補助・支援型として使うのであれば、人間が最終確認するプロセスを業務フローに組み込んでいたか。依拠・代替型に近い運用をしているのであれば、そのリスクを把握し、相応の管理体制を作っていたか。裁判官がそこを見る可能性がある以上、「手引きの存在を知らなかった」は通りにくくなる。
国際的な文脈で見ると、この手引きの位置づけはさらに際立つ。EUは法的拘束力を持つAI責任の枠組みの法制化を目指している。これに対し日本の手引きは、現行の民法と製造物責任法の解釈の範囲にとどまり、新たな規制を課さない。イノベーションの余地を残しながら責任の輪郭を示すという、EUとは異なるアプローチをとっている。ただし、拘束力がない分だけ実際の裁判でどこまで機能するかは、まだ誰にも分からない。判例が積み上がって初めて、この手引きが実際にどれだけ「効いた」かが分かる。
日本企業のAI利用率は約5割強にとどまり、米国・中国・ドイツの9割超と比べて大きく水をあけられている。責任ルールが不明確なまま何か起きたときの不安が、導入の足を引っ張ってきた側面は否定できない。今回の手引きはその不安に対し、現行法の枠内で「こう読む」という答えを初めて公式に示した。法改正なしに、事実上のルールが生まれた。
それが実際の裁判で「社会通念」として参照されるのか。手引き通りの体制を整えていれば本当に免責されるのか。その答えは判例が出るまで分からない。しかし、AIを業務で使い始めた企業にとって、「知らなかった」では済まない時代が始まったという事実は変わらない。この手引きは、日本のAI社会実装が本格化していく過程で参照され続ける最初の試金石になる。
