# 責任のスポンジ

日経新聞の経済教室にて、慶大の山本龍彦教授が生成AI時代における責任の所在について、**責任スポンジ** という考え方を紹介していた。

> ここでの人間は、事故の責任をAI（開発者）から転嫁されるためだけに存在する、「責任スポンジ」だといえるだろう。... 同じ状況は、AIを意思決定に用いる限り、医療、人事、行政・政治などあらゆる領域で起こりうる。
>
> _[AIにおける「スポンジ人間」化を回避せよ　山本龍彦氏 - 日本経済新聞](https://www.nikkei.com/article/DGXZQOCD1331N0T10C26A4000000/)_

このスポンジ人間という言い方が面白かったので、上記記事で言及されていたマーゴット・カミンスキー教授の論文を確認してみた。

### [Humans in the Loop](https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4066781)

Human in the Loop(HITL)のような「AIに人間を入れておけば安全」という発想自体が誤りだと論じ、単純に人を差し込む規制発想を"MABA-MABA trap"[^1]として批判している。記事内で明確な言及はないが、山本氏が引用していたのはこれだろうか。

論文では、人間が果たし得る役割を、訂正・レジリエンス・正当化・尊厳・説明責任など複数に分けて整理している。その上で、実態には（MABA-MABA trapに陥ると）その人間が結果を左右する権限をほとんど持たないまま、事故や失敗の法的・道義的非難だけを吸収する「責任のスポンジ（liability sponge）」として置かれる場合があると指摘する。

HITLは解決策にはならず、その人がなんのためにいるのかを明示し、人間と機械を合わせたシステム全体を規制対象として設計すべきと提案している。

### [Regulating the Risks of AI](https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4195066)

カミンスキー教授は上記論文の半年後には、そもそも、リスクの大きさに応じて責任を考えるという手法そのものに疑問を呈した論文を公開していた。

論文ではアメリカやEUのAI規制が「責任追求」よりも、将来起こり得る被害を事前に管理するリスク規制へと収斂しつつあると整理したうえで、その前提や限界について批判的に検討している。その上で、AI被害を「リスク」として捉えること自体が中立ではなく、定量化しやすい問題を優先し、政策判断を技術判断のように見せやすく、被害者救済や不法行為法のようなフィードバックを弱める、と批判的に分析する。

AIリスク規制には少なくとも複数のモデルがあり、それぞれ説明責任の置き方が異なることを示し、必要に応じて条件付きライセンス・責任法・設計義務のような別の法的ツールも組み合わせて考えるべき、と論じている。

### AIの過失責任は？

AIの過失責任はLLMが台頭する以前より議論されてきた。例えば以下は2019年の記事。

{{< embed
  url="https://www.technologyreview.com/2019/05/28/65748/ai-algorithms-liability-human-blame/"
  og_title="When algorithms mess up, the nearest human gets the blame"
  og_description="A look at historical case studies shows us how we handle the liability of automated systems."
  og_image="https://wp.technologyreview.com/wp-content/uploads/2019/05/ap17086829798347-10.jpg?resize=1200,600" >}}

ロボットトレーダーに対する訴訟[^2]やUberの自動運転事故などを紹介しつつ、システム全体における監視だけじゃない人の役割を見直すべき、と書いている。これらは今年2月の記事。

アメリカのAI安全性分野の弁護士も、責任スポンジという言い方はしていないが、似たような主張をしている。

{{< embed url="https://jolt.law.harvard.edu/digest/redefining-the-standard-of-human-oversight-for-ai-negligence" og_image="https://jolt.law.harvard.edu/assets/digestImages/2026-02-09/_digestHeader/12854/Screenshot-2026-02-09-at-1.05.54-PM.jpg" >}}

簡単にまとめると

1. 多くの規制や実務は人間が関与していれば十分とする前提に立っているが、AIが複雑化している現在、それ（HITL）のみでは不十分である
2. 人間はAIを過信しがちであり、かつ長時間の監視で注意力は低下するため、人間による監督は期待されるほど機能しない

この説明責任のギャップに対し、以下のような方向性が示されている。

* AIに対する受動的な監視ではなく、意味のある形での人間の関与を設計する
* 事後的な過失責任だけでなく、開発段階での安全設計（ex ante）を重視する
* モデル開発者と提供者の双方に責任を分配し、事後のモニタリングや情報共有の仕組みを整備する


[^1]: MABA-MABAとは、Men Are Better At, Machines Are Better Atの略で、人間の得意なことと機械の得意なことを整理するフレームワーク。1960年代からの人間工学の概念。MABA-MABA trapとは、人間と機械の役割分担を間違えることで起きる設計上の罠、のような解釈
[^2]: [Who to Sue When a Robot Loses Your Fortune - Bloomberg](https://www.bloomberg.com/news/articles/2019-05-06/who-to-sue-when-a-robot-loses-your-fortune?embedded-checkout=true)
[^3]: [自動運転ショック走る　米ウーバー事故「想定外」なお - 日本経済新聞](https://www.nikkei.com/article/DGXMZO28388910Q8A320C1TI1000/)

