
AIを用いて犯罪を捜査し、抑止する「予測型警察活動」への取組みが進んでいる。しかし一方で、差別や偏見につながりかねない危険性など、注意すべき点も多い。「予測型警察活動」を正しくコントロールするためになすべきことは何か、筑波大学ビジネスサイエンス系の尾崎愛美准教授による論考。
予測型警察活動とは何か~神奈川での先進的な取組み~
近年、AIによるデータ分析を手がかりに、過去に起きた犯罪の解決や、将来発生し得る犯罪の予防を目指す警察活動が広がっている。こうした取組みは一般に「予測型警察活動」と呼ばれている(注1)。
日本における代表的な事例として知られているのが、神奈川県警の取組みである。神奈川県警では2018年からAIを活用して、(1)犯罪や交通事故の発生場所の予測、(2)犯罪が発生する要因の分析の支援を目的とした実証実験が行われた(注2)。
この実証を経て、2021年4月からは本格的な予測業務が開始されている(注3)。過去5年間の犯罪データに加え、気象情報や株価、地価、ガソリン価格といった各種ビッグデータを県警職員が毎朝入力する。
AIはそれらをもとに翌日の犯罪発生予測を算出し、その結果が県内すべての警察署に配信される仕組みだ。警察官はこの予測結果を参考に、犯罪が起こりやすいと見込まれる地域を重点的にパトロールすることができる。なお、こうした予測結果は警察関係者以外には公開されていない。
アメリカでは「差別につながる可能性がある」との批判も
一方アメリカでは、犯罪予測にとどまらず、過去に発生した犯罪への対応にもAIを活用する動きが積極的に進められてきた。その代表例が、音響センサー型の銃声検出システム「ショットスポッター(ShotSpotter)」である。
街灯や公共施設、集合住宅などに設置されたセンサーが異常音を検知すると、まず専門スタッフが音声データを確認し、それが実際に銃声であるかどうかを判断する。銃撃と判定された場合にのみアラートが送信され、発生から約60秒以内に場所が特定され、警察官が30~45秒ほどで現場に到着できる仕組みとなっている。誤検知を抑えつつ迅速な初動対応が可能になるとして、ショットスポッターは注目を集めてきた。
しかし、このシステムは同時に深刻な批判にもさらされてきた。とりわけ象徴的なのが、シカゴで提起された集団訴訟である。
訴訟を主導したマッカーサー・ジャスティス・センターは、ショットスポッターについて、不透明な運用、不十分な精度、誤用、高額な財政負担という四つの問題を指摘した。なかでも問題視されたのは、センサーが主にマイノリティ住民の多い地域に集中的に配備され、その結果、警察の介入が特定の地域や人々に偏っていたという点である。
原告側によれば、わずか6か月の間に、少なくとも82人の市民に対して、ショットスポッターのアラートをきっかけとする有形力の行使が行われたとされ、その多くは非武装のアフリカ系アメリカ人男性やヒスパニック系男性であったという。
最終的にシカゴ市はショットスポッターとの契約を解除し、2024年9月に運用を停止した。訴訟自体も2025年8月に和解が成立している。
この一連の経緯は、予測や検知を担う技術が、十分な透明性や説明責任を欠いたまま導入されると、差別や偏見といった深刻な歪みをもたらし得ることを示している。
予測型警察活動には「監視」が必要~専門家が指摘する9つの視点~
アメリカでは、先進的な予測型警察システムが実装される一方で、その副作用やリスクが事後的に顕在化してきた。こうした状況を体系的に分析しているのが、『監視大国アメリカ(注4)』の著者としても知られるジョージ・ワシントン大学ロースクール教授、アンドリュー・ガスリー・ファーガソンである。
ファーガソン教授は、予測型警察活動を単なる業務効率化のための技術ではなく、社会のあり方を変え得る存在として捉え、「監視(oversight)」の対象として位置づけ直す必要があると指摘したうえで、予測型警察活動を評価・統制するための視点として、(1)データ、(2)方法論、(3)社会科学、(4)透明性、(5)説明責任、(6)実務への導入、(7)組織の管理・運営、(8)将来的な方向性、(9)セキュリティという九つの観点を提示している(注5)。以下では、予測型警察活動について検討するうえでの一つの指針として、ファーガソン教授の提示する視点を詳しく見ていく。
(1)データ
AIは大量のデータを前提とするが、そのデータは必ずしも正確でも中立でもない。犯罪はそもそもすべてが記録されるわけではなく、通報されにくい犯罪や犯罪類型ごとの情報不足といった問題も避けられない。
さらに重要なのは、AIに基づいた活動自体がデータに影響を与える点である。特定の地域や集団への接触が増えれば、その結果が「リスクが高い」という評価として再びデータに反映されてしまい、負のフィードバックループが生まれる危険を孕んでいる。
こうした問題に対しては、データに誤りや偏りが避けられないことを前提とし、監査や検証、現場での訓練、技術的工夫によって影響を最小化する姿勢が求められる。ただし、完全な是正には限界があることも認識しておく必要がある。
(2)方法論
AIが示すのは多くの場合「相関関係」にすぎない。とりわけ個人を対象とする予測では、統計的な相関を因果と誤認したまま警察権力が行使される危険性が大きい。個別の具体的な疑念がないにもかかわらず、「予測で特定された」という理由だけで捜査を正当化すべきではない。
そのため、導入地域ごとに独自の検証を行い、成功例を安易に一般化しないこと、長期的な視点で有用性を評価すること、個人に対する予測については追加的なチェック体制を設けることが不可欠となる。
(3)社会科学
予測型警察活動は犯罪学理論に支えられてきたが、実証研究の蓄積を上回るスピードで導入が進んできた。科学的根拠が十分に整わないまま普及してきたという側面がある。今後は、技術の効果を比較・検証するための研究資金を確保し、エビデンスに基づく検証を積み重ねていくことが求められる。
(4)透明性
データがどのように収集され、どのように使われ、どのような効果が測定されているのかが見えなければ、技術の妥当性を検証することはできない。とりわけ、アルゴリズムがブラックボックス化し、民間企業のソフトウェアに依存している場合、外部からの検証は著しく制限される。
専門家によるレビューや独立監査の導入、評価指標の公開、組織内研修やコンプライアンス体制の整備が、透明性確保の前提となる。
(5)説明責任
予測型警察活動では、誰がどの判断に責任を負うのかが曖昧になりがちである。技術が常に更新され続けることも、責任の所在を不明確にする要因となる。もっとも、データの公開や評価プロセスを制度化すれば、警察活動の意思決定を記録し、検証可能な形で残すことができる。AIは、使い方次第で説明責任を弱めることも、強化することもあり得る。
(6)実務への導入
AIの出力は、警察官の行動を意図せず方向づける。特定地域への警察資源の集中は、当該地域を過度に危険視する認識を生み、他の地域への注意を弱める可能性がある。
こうした影響を抑えるには、導入後の現場運用を検証する管理・監督の仕組みと、警察官への適切な訓練が欠かせない。適切に運用されれば、AIは警察と地域社会の信頼関係を補完する役割を果たし得る。
(7)組織の管理・運営
逮捕数や犯罪率といった数値が評価基準になると、警察活動はそれらを達成する方向に引き寄せられる。そこに自動化バイアスが加わると、警察資源の配分が固定化し、全体として犯罪抑止の効率を損なうおそれがある。
データを単なる評価基準ではなく、状況把握のための戦略的インテリジェンスとして用い、予測型警察活動と他の警察活動と柔軟に組み合わせることで、AIへの過度な依存を防ぐことができる。
(8)将来的な方向性
予測型警察活動が犯罪件数などの「見えやすい結果」に偏ると、犯罪の背景にある社会的要因を見失いかねない。一方でAIの設計次第では、支援を必要とする人を早期に把握し、社会サービスにつなげるといった活用も考えられる。予測型警察活動の将来は、警察活動そのものを点検し、組み替えるための道具として構想できるかどうかにかかっている。
(9)セキュリティ
予測型警察活動は、個人情報を含む大規模データベースを前提とするため、情報漏洩や不正利用のリスクに常に晒されている。とりわけ、民間事業者のデータやシステムと連携する場合にはプライバシー侵害のリスクが拡大しやすい。
設計段階から安全性を組み込む「セキュリティ・バイ・デザイン」の発想のもと、アクセス管理、暗号化、監査、職員教育、不要データの最小化を徹底すべきである。
AIを活用した犯罪捜査・抑止のこれから
本稿では、AIを活用した犯罪捜査・抑止の動きとして予測型警察活動に注目し、日本の神奈川県警の取組みと、アメリカにおける先進事例とその問題点をたどってきた。あわせて、こうした警察活動をどのように捉え、どのように統制すべきかについて、ファーガソン教授の提示する「監視(oversight)」の視点を紹介した。
神奈川県警の取組みは、犯罪予測の対象を特定の個人に広げず、地域単位での犯罪予防に限定してAIを活用している点に特徴がある。予測結果の公開にあたっても、個別の事件や関係者が推測されないよう配慮がなされており、プライバシー保護への意識が高い。こうした姿勢は、予測型警察活動に内在するリスクを強く意識した、慎重な運用として評価できる。
一方、今後、日本においてAIを活用した犯罪捜査・抑止がさらに高度化し、活用の幅が広がれば、個別の運用上の工夫だけでは対応しきれない課題が生じる可能性がある。アメリカの事例が示すように、予測型警察活動は、透明性や説明責任の不足、さらには差別や偏見といった問題を後から顕在化させてきた。技術が高度になるほど、その影響は見えにくくなり、社会的なチェックが及びにくくなる。
こうした点を踏まえると、ファーガソン教授が示した多角的な「監視」の枠組みは、日本における今後の議論にとって重要な手がかりとなる。
日本でより先進的なAIを活用した犯罪捜査・抑止を実装していくためには、あらかじめファーガソン教授が示したような管理体制を整え、議論を重ねながら運用していくことが求められるように思われる。AIは、適切な統制のもとに置かれてこそ、治安の向上と市民の信頼を両立させる手段となり得るのである。
注1 守山正編著『犯罪予測 AIによる分析』(成文堂、2022年)
注2 神奈川県警「調査報告書:産学官連携による人工知能を活用した犯罪・交通事故発生予測技法の調査研究」(平成31年3月)
注3 守山正「講演 AIの利活用による警察活動の将来 : 犯罪予測を中心に」警察政策研究27号(2023年)
注4 アンドリュー・ガスリー・ファーガソン著、大槻敦子翻訳『監視大国アメリカ』(原書房、2018年)
注5 Andrew Guthrie Ferguson, Policing Predictive Policing, 94 WASH. U. L. REV. 1109
(2017年)
<執筆者略歴>
尾崎 愛美(おざき・あいみ)
筑波大学ビジネスサイエンス系准教授。
慶應義塾大学大学院法学研究科後期博士課程単位取得退学。博士(法学)。
株式会社KDDI総合研究所アナリスト、慶應義塾大学大学院法学研究科助教、杏林大学総合政策学部総合政策学科専任講師を経て現職。
主な著書に、「犯罪捜査における情報技術の利用とその規律」(慶應義塾大学出版会、2023年)、山本龍彦・小川有希子・尾崎愛美・徳島大介・山本健人編著「個人データ保護のグローバル・マップ」(共著:弘文堂、2024年)ほか。
【調査情報デジタル】
1958年創刊のTBSの情報誌「調査情報」を引き継いだデジタル版のWebマガジン(TBSメディア総研発行)。テレビ、メディア等に関する多彩な論考と情報を掲載。原則、毎週土曜日午前中に2本程度の記事を公開・配信している。
・「インフルにかかる人・かからない人の違いは?」「医師はどう予防?」インフルエンザの疑問を専門家に聞く【ひるおび】
・【裁判詳細】女子大生2人焼死事故 両親「怒りでどうにかなってしまいそう」「遺体と対面し本当の絶望を知った」追突トラック運転の男「ぼーっとしていた」起訴内容認める 山口
・「あんな微罪で死ぬことはないだろう…」逮捕直前にホテルで命を絶った新井将敬 衆院議員「この場に帰って来れないかもしれないけども、最後の言葉に嘘はありませんから」【平成事件史の舞台裏(28)】
