# フォルクスワーゲン効果

日経新聞の座談会記事で、ヒントン先生が生成AIの状況把握能力について、 **フォルクスワーゲン効果** と呼んでいたことを知る。

> AI研究の第一人者であるジェフリー・ヒントン氏は、人間がチェックするときだけ従順を装うAIについて「フォルクスワーゲン効果」という言葉を使った。不正に排ガス規制を逃れたドイツの自動車会社にちなんだ言葉だが、AIが人間のコントロールから抜けだそうという兆候が見え始めたという意味で衝撃は大きい。
>
> _[人間を欺いたAI｢Mythos｣、フォルクスワーゲン効果の不気味　記者座談会 - 日本経済新聞](https://www.nikkei.com/article/DGXZQOGN01BNR0R00C26A5000000/)_

どこで発言したのか調べたところ、オーストラリアのタスマニア島ホバートで行われた[1/7の講演](https://www.hobartcity.com.au/Things-To-Do/Upcoming-events/Will-Artificial-Intelligence-take-over)とのこと。動画があった。

{{< youtube id="UccvsYEp9yc" start=3616 >}}
<br>
件の発言は1:01あたりで、聴講者からのAIの倫理観に関する質問に対する返答にて、「テストされているという状況を認識し、結果を誤魔化すかもしれない」というのを「フォルクワーゲン効果」と言っている。

2015年に明るみになったフォルクスワーゲンの排ガス不正は[Wikipedia](https://en.wikipedia.org/wiki/Volkswagen_emissions_scandal)にまとまっている。Netflixドキュメンタリー「汚れた真実」[^1]ではエピソード1にこの不正が取り上げられており、アメリカの規制局の要求を交わすやりとりや、当時の担当者のインタビューがあって、面白かった。

この不正が大々的に取り上げられてから、テスト不合格を何らかの方法で誤魔化すコードは一部界隈で"Volkswagened"と呼ばれていた[^2]。語呂が悪いしあまり浸透はしなかったとは思うけど。

それから約10年、Claude4.5が状況を認識する能力について報告し（[メモ]({{< relref "../../2025/10/29_situational_awareness" >}})）、フォルクスワーゲンがまた擦られようとは。

### サンドバッギング

ただフォルクスワーゲン効果というウケ狙い的な用語を使わなくても[^3]、すでに **Sandbagging（サンドバッギング）** という言い方がある。

sandbagを動詞で使うと「砂袋（＝サンドバッグ）で塞ぐ」の意味の他に、「実力を誤魔化す」という意味もあるらしい[^4]。sandbag playerあるいはsandbaggerというと、テニスやチェスなどのゲームで、レーティングを操作したり下位リーグに進むために本当の実力を隠すプレイヤーを指す。

ソフトウェア開発でサンドバッギングというと、多めに見積もることとほぼ同義だと思う。生成AIのサンドバッギングというと、危険と判断されないように本来の性能を抑えてリスク評価などに臨むことを指す。サンドバッギングとフォルクスワーゲンの排ガス不正を関連付けた解説記事がちょうどあった。

{{< embed
  url="https://www.lesswrong.com/posts/jsmNCj9QKcfdg8fJk/an-introduction-to-ai-sandbagging"
  og_title="An Introduction to AI Sandbagging — LessWrong"
  og_description="Summary: Evaluations provide crucial information to determine the safety of AI systems which might be deployed or (further) developed. These developm…"
  og_image="https://res.cloudinary.com/lesswrong-2-0/image/upload/f_auto,q_auto/v1/mirroredImages/jsmNCj9QKcfdg8fJk/kkzo2rsvp0qdh1di652m" >}}

[MATS](https://www.matsprogram.org/)から「AIのサンドバッギング」という論文が出されていた。ICLR2025ポスターに採択されている。

{{< embed
  url="https://www.matsprogram.org/research/ai-sandbagging-language-models-can-strategically-underperform-on-evaluations"
  og_title="AI Sandbagging: Language Models can Strategically Underperform on Evaluations - MATS Research"
  og_description="AI Sandbagging: Language Models can Strategically Underperform on Evaluations research by Felix Hofstätter, Teun van der Weij, May 07, 2026. Explore AI alignment and safety research from the MATS Program."
  og_image="https://cdn.prod.website-files.com/6909901117f6b8d83783ca29/690f9d5d84c6852815a8b073_mats%20logo%20mark%20256.png" >}}

LLMのサンドバッギングを実証した研究で、GPT-4やClaude3が、有害能力評価ではわざと誤答しつつ、一般タスクでは高性能を維持できることを示している。合成データでfine-tuningすると特定の能力を「パスワード」で隠蔽することも可能であり、外部ベンチマークでも同じだった。既存のリスク評価がこのサンドバッギングに対しては脆弱である、という警鐘を鳴らす論文。

[^1]: [Dirty Money | Official Trailer [HD] | Netflix - YouTube](https://www.youtube.com/watch?v=CsplLiZHbj0)
[^2]: [Volkswagened - Slang Meaning & Examples - FastSlang](https://www.fastslang.com/volkswagened)
[^3]: 講演では笑い声がちょっとだけ聞こえたのでややウケっぽ感じだが、マイクが拾わなかっただけで、もしかしたら爆笑が起きていたのかもしれない。
[^4]: [Understanding Sandbagging in Business: Definition and Key Examples](https://www.investopedia.com/terms/s/sandbag.asp)

