AIの安全性基準について、ASLをよく見かけるようになったが、もっと大きな話としては、EUのAI法(AI Act)がある。2024年5月21日に成立し、同年8月1日に発行した。

The AI Act sets out a clear set of risk-based rules for AI developers and deployers regarding specific uses of AI.

AI Act1

AI Actのサイトに書かれているリスクベースについての引用メモ

The AI Act defines 4 levels of risk for AI systems

The AI Act defines 4 levels of risk for AI systems

リスク概要事例
Unacceptable risk(許容できないリスク)人々の安全、生活基盤、権利に明確な脅威を及ぼすすべてのAIシステムは禁止AIによる操作や偽装、脆弱性の悪用など
High risk健康、安全、基本的人権に重大なリスクを及ぼすAIの活用は高リスクに分類交通などのインフラにおけるAI活用は生命や健康の脅威となり得る。教育機関でのAI活用は個人の教育アクセスや進路の決定への影響し得る
Transparency risk(特定の特定の透明性リスク)透明性確保の必要に関連するリスクチャットでは機会とやり取りしていることが認識できること、AIが生成したコンテンツであることが識別可能であること、など
Minimal or no risk最小限のリスクまたはリスクがないとみなされるもの。AI規則を導入しないAIを活用したゲームやスパムフィルターなど

このリスクベース基準に従うなら、シヴュラシステムは真っ黒である。一橋ビジネスレビュー72巻3号の寺田氏のコラムに、AI Act、過渡期の橋渡しとなるAIPact、DSAとDMAなとといった関連性がわかりやすくまとまっていた。

一方で、日本の強みも忘れてはならない。日本のAI戦略は、釈迦課題の解決を産業競争力の向上を両立させることをめざしており、この点はEUのアプローチよりも柔軟性があると言うことができる。

AI活用の推進とデジタル化(p88)

このために非常に多くの有識者が尽力されていることに感謝。

一橋ビジネスレビュー 2024年WIN.72巻3号: ソーシャル・データサイエンス 一橋大学イノベーション研究センター