大規模顔認証システムの瓦解と求められる法整備

“This is not me,” Robert Julian-Borchak Williams told investigators. “You think all Black men look alike?”Credit…Sylvia Jarrus for The New York Times

IT 大手が顔認証から手を引き始めた

「大規模顔認証システム」とは「強い顔認証」の事です。
2020 年前後にマイクロソフト、アマゾン、IBM が大規模顔認証システムから離れる動きがありました。
なぜ IT 大手が手を引き始めたのか…。話が長くなるので最初に結論だけ書きます。

  • 強い顔認証(大規模顔認証システム)にはとにかくカネがかかる
  • 1 件間違えただけで訴えられる可能性がある
  • 顔認証システムについてきちんと丁寧に「100% の信頼性はないこと」を伝えてこなかったことによるリスクの増加が著しい
  • 大規模顔認証システムまわりがきな臭くなって来た

本当はもっとたくさんあるのですが、大まかには上のような感じです。「カネがかかる」はその通りなのですが 2 番め以降の理由は本当にため息が出ます。ただ単にきちんとした営業をしてこなかったツケがまわってきているだけです。

信用問題

強い顔認証システム(大規模顔認証システム)の信用が揺らいでいます。先日の顔認証コラム「顔認証技術はどこが一番優れているか」で触れたとおりです。

生体認証はパスワードやカードなどの本人認証技術と異なり、画像処理などにより特徴量空間における類似度でもって本人性を「統計的に」判別するため、その精度は100%ではない。これは全世界共通の大原則です。このため誤認識の発生を前提にシステム構築する必要があります。

バイオメトリクスとしての顔

この大原則を大手 IT 含め生体認証を扱っている企業が営業時にきちんと顧客に伝えていなかったことが大きいです。
勿論開発サイドは分かっているのでマルチモーダルなり 2 段階認証なりを取り入れるべきだと主張してその結果カメレオンコードや社員証の IC チップなどが開発されているのですが、恐らく営業サイドの説明はこのようなものだったのだと思います。

うちの顔認証システムは国際検証機関 ( NIST とか ) の上位なんです。精度は他社と一線を画します!さらにこのカメレオンコードを併用すると精度がもっと上がりますよ!

生体認証の精度についてきちんと説明するところから始めなければならないところを、「物凄く精度が良い」と言い切ってしまっています。
顧客サイドでは「絶対に間違わない生体認証」を求めていますので、まず「そんなものはない」と釘を刺さなければなりません。

でもそんな事を話していたら他の会社に案件をとられてしまいます。だから「精度が良い」「国際機関で認められている」と営業サイドで顧客に伝えてしまうわけです。それは単に営業だけではなく、色々なニュースサイトの提灯記事にも現れています。一見そのような記事を見ると「信用度が上がる」のですがお金を払って記事を書いてもらっている以上販売しているシステムについて良いことしか書きません。

現在の顔認証技術はあまり大きな夢を描けるような技術をベースにしているのではなく、一時期のAI(もしかしたら今も)のような「真面目な研究者は面白いことをいわないので金を集める為にホラを吹く人間が得をして、結局業界全体が信用を失う」状態のようだ。
(中略)
一端資本が投入されたとなればメディアを連れてきて一緒に騒ぎ立てることが必要で、そうでなければコストを回収することなど出来ない。

翻訳:顔認証、どの会社が最も優れている?

そして事件は起きた

AIによる顔認識システムで万引き犯に間違われ、妻や幼い娘たちの見ている前で誤認逮捕されてしまった――そんな事件が波紋を広げている。
AIによる顔認識は、白人と黒人やアジア系では最大100倍と言われる精度のばらつきがあり「AIのバイアス(偏見)問題」として知られている。
だが米デトロイト在住の42歳の黒人男性は、別人と間違われるだけでなく、実際に万引きの容疑者として誤認逮捕されてしまったのだという。
顔認識の誤判定による誤認逮捕が捜査当局も認める形で表面化するのは、米国では初めてと見られている。

「コンピューターが間違ったんだな」AIの顔認識で誤認逮捕される
平和博 | 桜美林大学教授 ジャーナリスト 2020/6/26(金) 8:02

上記引用の
「AIによる顔認識は、白人と黒人やアジア系では最大100倍と言われる精度のばらつきがあり「AIのバイアス(偏見)問題」として知られている。」
半分本当で半分ウソです。
大手 IT 企業が「精度バッチリ!」と謳って販売している姿勢がまずいのであって、技術や知見の責任ではありません

ニューヨーク・タイムズによれば、ミシガン州警察顔認識システム「SNAP」は、サウスカロライナ州の企業「データワークス・プラス」が550万ドル(約5億9,000万円)で受託。顔認識については、NECとコロラド州の企業「ランクワン・コンピューティング」のテクノロジーを採用しているという。

「コンピューターが間違ったんだな」AIの顔認識で誤認逮捕される
平和博 | 桜美林大学教授 ジャーナリスト 2020/6/26(金) 8:02

この事件について、システムとしての顔認証の責任は全くありません。顔認証システム自体は与えられたデータに基づいて「似てるよ」と出力しただけであり、それを精査するのは使用者の責任です。

“This is not me,” Robert Julian-Borchak Williams told investigators. “You think all Black men look alike?”Credit…Sylvia Jarrus for The New York Times

「“This document is not a positive identification,” the file says in bold capital letters at the top. 」だとのこと。この報告書にはきちんと警告が書いてあったようです。ところが、

“This is not me,” Robert Julian-Borchak Williams told investigators. “You think all Black men look alike?”Credit…Sylvia Jarrus for The New York Times

だそうです。警察からしてみれば州警察に鳴り物入りで導入された 5 億 9000 万円の大規模顔認証システムに疑いはあまりなさそうです。加えて警備員に写真を見せた時に「この人です」と言われれば確証を得たと思うでしょう。

「逮捕は顔認識のみに基づいて行われたものではない。捜査官は映像を検証し、目撃者を聴取し、顔写真の面通しを行っている。」
デトロイト市警は声明でこう述べている、という。
(中略)
ブランドショップとして知られるデトロイト中心部の高級店「シャイノラ」で、時計5点、計3,800ドル(約40万円)分が万引きされた。監視カメラに写っていたのは、米大リーグのセントルイス・カージナルスの赤い野球帽をかぶった大柄で黒い服をきた黒人男性だった。

地元のデトロイト市警察は事件発生から5カ月後の2019年3月、この監視カメラ映像の鑑定を、ミシガン州警察に依頼する。州警察では、4900万枚の顔画像で構築した顔認識システム「SNAP」を使って、映像の人物の鑑定を行った。その結果、「SNAP」が映像の人物と“合致する”顔画像の一つとして判定したのが、ウィリアムズ氏の免許証の顔写真だった。

さらに4カ月後の2019年7月、この判定をもとに、ウィリアムズ氏の顔写真を含む6人の”面通し用顔写真”を作成。「シャイノラ」の警備員に見せたところ、この警備員がウィリアムズ氏を特定したという。その半年後、事件発生から数えて1年3カ月後となる2020年1月9日、デトロイト市警がウィリアムズ氏を逮捕した。

ウィリアムズ氏を含む6人の”面通し用顔写真”を見せられた「シャイノラ」の警備員は、監視カメラの映像は確認していたものの、万引きの発生時に容疑者本人を目撃したわけではないこと、容疑者を目撃した別の店員は”面通し用顔写真”を確認していないことなどから、起訴しないことを決めた、と説明する。

つまり、顔認識システムが別人の容疑者の顔をウィリアムズ氏と誤判定した上で、さらに万引きの現場を見ていない警備員が、ウィリアムズ氏を”容疑者”と特定した、ということになる。

「コンピューターが間違ったんだな」AIの顔認識で誤認逮捕される
平和博 | 桜美林大学教授 ジャーナリスト 2020/6/26(金) 8:02

いろいろとツッコミどころがありすぎて頭がクラクラしそうです。

何度も書きますが、顔認証システム自体に否はありません。(というか問題がある。後述)

強い顔認証(大規模顔認証システム)の要件定義をもう一度おさらいしましょう。
まず FAR と FRR からです。

要件定義を満たしていない

前提知識

生体認証ゆえの本人拒否率と他人受入率

FAR と FRR の相関図
FAR と FRR の相関図

上の図は FAR と FRR の相関関係図です。
生体認証の1つである顔認証は FAR ( 他人受入率 ) と FRR ( 本人拒否率 ) の相関関係から逃れることは出来ません。これはシステムが大規模であろうと小規模であろうと変わらない事実です。つまり「限りなく他人ではない、その人そのものだと言い切ったとすると本当にそれが本人なのか不明確になってしまう」というパラドックスです。(用語の正確性に欠けますがそういうことです)

20 万人の壁(他人の空似の出現率)

一般的に証明写真のようなマグショットでも 20 万人を越したあたりで他人の空似が高確率で出現してきます。

「他人の空似」とはよく言ったものです。顔認証システムの場合、特に強い顔認証を使う場合には膨大な計算量と計算時間が問題となりますが「ある値」で妥協しなくては待ち行列が出来てしまいます。ですので空港や駅改札の顔認証システムは完璧を求めない代わりに「保険」をかけておくのです。それがパスポート内の IC チップであったり上の引用例で言うとスマホだったりします。

生体認証の正確性を求めて

精度の問題

生体認証、とりわけ顔認証は原理的に 100% の精度など出せないことがよく分かります。双子、兄弟、他人の空似。他の生体認証と比べてもとりわけ本人を選び出すのが困難な技術が顔認証です。

大規模顔認証システムの要件定義

FRVT ( 2018 年版 )

強い顔認証(大規模顔認証システム)は NIST (National Institute of Standards and Technology)FRVT の基準である以下の条件

  • 異なる民族の 10 年経年変化した顔を正確に区別することが出来る
  • 2660 万枚のデータベースの中から一瞬で探し当てる(または居ないと判断できる)
  • 別々の人物の顔を同じ人物と誤って判別してしまう確率が 0.25% 以下

を満たしていなければなりません。(この条件は年ごとに変わっていきます。上記は 2018 年のもの)

要件定義からの剥離

さてアメリカの人口って何人なんでしょうか。2019 年におけるアメリカの人口は 3.282 億人だそうです。
いかに FRVT の基準が厳しいと言っても 2660 万人が基準では全くお話になりません。12 倍以上の開きがあります。
そしてニューヨークタイムズの以下の記事、

Wrongfully Accused by an Algorithm, Sylvia Jarrus for The New York Times

要約すると「while the technology works relatively well on white men, the results are less accurate for other demographics, in part because of a lack of diversity in the images used to develop the underlying databases」ということです。「食わせているデータに多様性がないんだから白人男性みたいにうまく顔認証できないよね」ってことです。

もう何度指摘されているんでしょう、この問題。何度も何度も見たのは私の気のせいでしょうか…。

AIによる顔認識は、白人よりも黒人やアジア系などの有色人種、男性よりも女性で誤認識率が高い傾向にあることが知られている。
米国立標準技術研究所(NIST)が2019年12月に発表した、100社の顔認識システムを検証した報告書では、白人に比べて、黒人やアジア系などの誤認識率は10倍から100倍に上ったとしている。

「コンピューターが間違ったんだな」AIの顔認識で誤認逮捕される
平和博 | 桜美林大学教授 ジャーナリスト 2020/6/26(金) 8:02

「異なる民族の〜」が全く出来ていません。

この事実をもって AI による顔認識全体の信用をガタ落ちさせているのです。

またまた何度も書きますが、顔認証システム自体に否はありません。システムに食わせているデータの偏りが悪なのです。そして営業サイドがそれを隠しつつ大風呂敷を広げているのが悪なのです。
この事は大規模顔認証システム(強い顔認証)にとって致命的です。要件定義を満たしていません。

余談ですが欧米の企業が用意する顔データに偏りがあるのなら東洋人の顔データセットを調達すれば良い、という方法もあります。

ところがこれもあまりうまい方法ではありません。よく使われる方法として中国製の顔認証システムや顔データセットを使う場合、顔データセットだけに絞って言及すると「人権侵害」がセットになってついてきます。米中の対立が深まる昨今、人権侵害をしている中国と関わりがあるとして日本の 11 社がアメリカに名指しで非難を受けました。こうなるとそのシステムはもう使えないことになります。これから作る製品に対してだけ使えないのではなく今まで販売提供していたシステムも使用ができなくなるかも知れません。

杜撰な捜査…

ウィリアムズ氏を含む6人の”面通し用顔写真”を見せられた

「シャイノラ」の警備員は、監視カメラの映像は確認していたものの、万引きの発生時に容疑者本人を目撃したわけではないこと、
容疑者を目撃した別の店員は”面通し用顔写真”を確認していない

ことなどから、起訴しないことを決めた、と説明する。

つまり、顔認識システムが別人の容疑者の顔をウィリアムズ氏と誤判定した上で、さらに万引きの現場を見ていない警備員が、ウィリアムズ氏を”容疑者”と特定した、ということになる。

「コンピューターが間違ったんだな」AIの顔認識で誤認逮捕される
平和博 | 桜美林大学教授 ジャーナリスト 2020/6/26(金) 8:02

現行犯でもないのによく逮捕してやろうと思ったものですが「お巡りさん!こいつが犯人です!」と言った警備員は本人を直接見ていないそうです。さらに 2018 年 10 月に事件が起こってから 4 ヶ月後のことです。

そして顔認証システムが「悪」に仕立てられる

個人的には「ほ〜ら見たことか!」という感情を拭えません。
詳しくは「顔認証技術はどこが一番優れているか」に書きました。是非ご覧になってください。昔から「あぶないぞ!」と言われているのにやらかしてしまってる状況がお分かりになるかと思います。

現在の顔認証技術はあまり大きな夢を描けるような技術をベースにしているのではなく、一時期のAI(もしかしたら今も)のような「真面目な研究者は面白いことをいわないので金を集める為にホラを吹く人間が得をして、結局業界全体が信用を失う」状態のようだ。

翻訳:顔認証、どの会社が最も優れている?

今さっきまで「ウチの顔認証システムが一番性能がいいですよ!」と大風呂敷を広げていた事をさらっと後ろに隠して、「元々顔認証システムというテクノロジーは人類の敵なんですよ!」と言っているんです。

IBMのアルビンド・クリシュナCEOは「IBMは、大規模な監視やレイシャル・プロファイリング、基本的人権および自由の侵害、あるいは当社の価値観および信頼と透明性の原則に合致しない目的のために、他のベンダーの提供する顔認識技術を含めてあらゆる技術を使用することを断固として反対し、これを容認しません」と宣言しました。

IBMが顔認識市場から撤退を表明、「テクノロジーが差別と不平等を助長することを懸念」
IBM gets out of facial recognition business, calls on Congress to advance policies tackling racial injustice

最初に言い出したのは AMAZON が議員の顔を犯罪者と誤判定した時くらいからでしょうか。
今までいったいいくらの開発費を投じてきたのでしょうか。どれほどのエンジニアや研究者が汗水たらして開発してきたのでしょうか。
以前には他国の警察機関にも売り出していたのにも関わらず、です。

最終的には「大規模顔認証システム自体が悪なのだ」「大規模顔認証システムは民主主義に反する」というところに落とし所を決めたようです。
いまさら儲けられそうにないと判断したのでしょうか。アマゾンはまだ頑張っているかも知れません。マイクロソフトと IBM は逃げ出しました。

結論

今現在 ( 2020/06 ) 、アメリカで大規模な人権運動が起こっています。いわゆる「 Black lives matter 」です。

ふつうに生きていたらシャイノラの冤罪事件も人種問題に絡んだ大規模顔認証システムの使用停止を求めるニュースなんだなぁと受け取ると思います。

Wrongfully Accused by an Algorithm, Sylvia Jarrus for The New York Times

「これ、俺じゃないだろ? あんたには黒人がみんな同じに見えるのか?」
警察からすると州で導入してる大規模顔認証システム様が「こいつだ」と言っているのですから強気にもなるのでしょう。報告書に「コレだけで判断しないでくださいね」と書いてあるにも関わらず、です。被害を受けたお店の警備員に「この人です」って言われれば確信するはずです。(この警備員は直接犯人を見たことがないにも関わらず。)

Wrongfully Accused by an Algorithm, Sylvia Jarrus for The New York Times

「椅子にもたれかかってお互いに顔を見合わせ、悔しそうに「コンピュータの誤動作じゃないかな」と言っていたそうです」。
どうしてこんなぼんやりした低画質画像が「犯人はこいつです!」って結論を出すのか末端の警察官は専門家でもないのですから分からないですよね。これは販売した会社の営業サイドがキチンと徹頭徹尾「生体認証とはどういうものか」を説明してこなかった事の弊害です。

Wrongfully Accused by an Algorithm, Sylvia Jarrus for The New York Times

「a racist threat」(人種差別の脅威)って言っているのですね。
そう、今や大規模顔認証システムが人種差別の脅威だと受け止められているんです。だからこそマイクロソフトや IBM は地雷のあるエリアから一目散に逃げ出したのですね。これがこのニュースの一般的な解釈なんだと思います。

私の感想としては、先の冤罪事件は

  • 大規模顔認証システムでは前提条件となっている民族多様性識別が実装不十分である
  • 顔認証という生体認証について営業サイドからしっかりとした説明があれば低解像度の写真をシステムに評価させるなどということは防げた
  • 州から大規模顔認証システムの結果を渡された末端の警察官がその判定結果をどれくらい信用してしまうのか未知数であった
  • 警察末端での杜撰な捜査体制

が重なって起きた悲劇だと思います。人種差別的な「お前には黒人がみんな同じ顔に見えるのか!?」と言うことも起こらなかったでしょう。

この様に「大規模顔認証システム自体に問題がある!」と言われる場合にはそれを扱う大手 IT 企業は反論をしても良いと思います。それを何故しないか。それは

  • 大規模顔認証システムは 100% の結果を出さないことを
  • 営業サイドが口酸っぱく上記を顧客に伝えてこなかったこと

が大きな要因ではないでしょうか。
しかも大規模顔認証システムは使用したデータセットそのものに人種的な偏りが昔から存在し未だに是正されていないということも問題です。マイクロソフトと IBM はその中でもデータセットを公開して公平性を訴えようとしていますが。

「身から出た錆」であるはずなのに、それを人種問題や民主主義などの思想に絡ませて「大規模顔認証システムは悪でした」と開発会社が公言してしまうのは実にモヤモヤ感が拭えません。

将来的に顔認証システムについての法整備が進み、「コレくらいの性能があればコレくらいの規模で使って良い」と技術的背景も含めてフィルターすると良いのにな…と思います。

この記事では強い顔認証(大規模顔認証システム)について語りましたが、小規模顔認証システム(弱い顔認証)についてはあまり当てはまりません。「あまり」というのは使用しているデータセットにばらつきがあるからです。そして大規模顔認証システムの営業さんたちがプッシュしていたように大風呂敷を広げれば小規模顔認証システムであろうと同じ過ちを繰り返すことになります。

東海顔認証では「顔認証コラム」でこのあたりの背景など含めて説明しているつもりです。デモ動画もなるべく沢山用意してお客様に「どのくらいの性能なのか」を判断していただけるようにしています。これは東海顔認証のコンセプトでもあります。

先の冤罪事件のような事があるのならいっそのこと全て法律で使用禁止にしてしまえ!というのは極論だと思っています。ただその反対に大規模顔認証システム業界全体が抱えた闇をひとつづつ解消していかなくてはならないことこそが重要であるとも考えます。
「生体認証、特に顔認証技術に 100% 絶対などはありえない」
販売する会社側、購入する顧客側双方がこの大原則を忘れてはいけません。

以上です。最後までお読み頂きありがとうございました。

Follow me!