プライバシー保護の運用を考える

データプライバシーやデータ保護、責任あるAIなど、幅広くプライバシー保護の運用を考えるブログです。

『AI・データ倫理の教科書』は、具体例で AI倫理 / 責任あるAI の概観を掴める入門書

(作成 2022/09/10、更新 2022/09/10)

www.amazon.co.jp

 

「AI倫理(AI Ethics)」や「責任あるAI(Responsible AI)」について、原則を定める企業が、海外だけでなく国内でも増えてきました。

分野として興味は持っていたものの、なかなか体系的に理解を深められるコンテンツに出会えなかったのですが、本書は「教科書」という名前の通り、具体例が豊富で、概観を掴むのにぴったりの一冊だと思います。

 

とても良い本でしたので、参考になった点を書評としてまとめました。

おかしな記述などありましたら、コメント欄でお知らせいただけると幸いです。

 

 

本書の内容

第1章 倫理の判断枠組み

  • Ⅰ はじめに
  • Ⅱ 倫理とは何か
  • Ⅲ 倫理についての判断枠組み

 

最初に「倫理とは」という用語の定義があり、著者の福岡氏は以下のような整理をしています。

・「倫理」は社会規範、「道徳」は内心の規範

・同じ社会規範である「法律」との違いは、違反した時の国家による制裁の有無

・「倫理」に反する行為は、国家による刑罰や損害賠償請求はないものの、社会的な批判を受ける場合がある

 

そして次に、倫理の判断枠組みとして、倫理学の流派といいますか、系統を紹介しながら、功利主義」「義務論」「徳倫理学」という主要な3つの考え方について解説しています。

どの考え方が最上ということではなく、ケースや文脈によって使い分けたり、組み合わせながら、倫理的な判断をしていく必要があるのだと理解しました。

 

第2章 各国のAI倫理原則

  • Ⅰ はじめに
  • Ⅱ AI倫理原則の世界的動向
  • Ⅲ AI倫理原則に見られる共通点

 

国内でいえば、

人工知能学会倫理指針

・国際的な議論のためのAI開発ガイドライン

・人間中心のAI社会原則

・AI利活用ガイドライン

 

海外では、

OECD Principles on Artificial Intelligence

・信頼できるAIの責任あるスチュワードシップのための原則

 

など、政府や民間団体によるAI倫理原則が、多数公表されています。

 

この第2章では、国内・海外における主要なAI倫理原則を紹介し、最終的に9つのテーマに集約しています。

  1. 人間の尊重
  2. 多様性・包摂性の確保
  3. サスティナビリティ
  4. 人間の判断の関与・制御可能性
  5. 安全性・セキュリティ
  6. プライバシーの尊重
  7. 公平性
  8. アカウンタビリティ
  9. 透明性

 

多くのAI倫理原則から共通項が抜き出されているので、視点のフレームワークとして参考になりますし、自社の取り組みを点検する際のチェックリストとしても活用できると思います。

 

第3章 AI・データ倫理が問題となった事例

  • Ⅰ はじめに
  • Ⅱ 人間の尊重
  • Ⅲ 公平性
  • Ⅳ プライバシーの尊重
  • Ⅴ アカウンタビリティ
  • Ⅵ 透明性
  • Ⅶ 人間の判断の関与
  • Ⅷ 安全性・セキュリティ
  • Ⅸ 多様性・包摂性の確保
  • Ⅹ サスティナビリティ(持続可能性)
  • ⅩⅠ まとめ

 

本書で、一番多くページが割かれているのが、この第3章です。

 

先の第2章で集約した9つのテーマごとに、社会問題となった事例を紹介し、何が論点だったのか、どうすれば防げたのかを考察しています。

個人的には、「Ⅲ 公平性」のパートが興味深く、AIが人間の持つバイアスを取り込んだり、社会の差別を再現してしまう可能性はニュースで指摘されることも多く、参考になりました。

事例としては、Amazonの人事採用AI、アップルカード事件、再犯リスクを評価するCOMPAS、滞納予測AIなどが紹介されています。

 

「何をもって公平か」の判断は悩ましく、(AIではありませんが)たとえば女性の管理職比率を例にとっても、

・50:50にする

・日本の人口性比に合わせる

・その企業内の性比に合わせる

など、様々な基準が考えられます。

 

一律の正解があるわけではありませんので、もし自社で基準を定めるとしたら、どのような背景で、何を考えてその基準を選択したかを対外的に説明できるよう、それこそ多様なメンバーで、外部の方々とも議論を重ねなくてはと思いました。

 

第4章 AI倫理に対する企業の取組み

  • Ⅰ AI倫理に関するソニーの取組み
    • ソニーグループ株式会社 法務部 法務グループ 有坂陽子)
  • Ⅱ マイクロソフトの責任あるAIの取組み
  • Ⅲ メルカリの取組み
    • (株式会社メルカリ 会長室 政策企画 松橋智美)
  • Ⅳ 富士通におけるAIガバナンス
    • 富士通株式会社 AI倫理ガバナンス室長 荒堀淳一)

 

インタビュー形式で各社の取り組みを紹介しています。

この4社の中ですと、実践という観点で、Microsoftが一段進んでいる印象を持ちました。

 

同社は6年前の2016年に、CEOのサティア・ナデラ氏が責任あるAIのコンセプトを発表し、取り組みを開始しています。

本書でも、ガバナンス体制のハブ&スポーク、開発現場で運用しているガイドラインやチェックシートなどを紹介していて、実務者としては非常に参考になりました。

 

また補足にも書きましたが、MicrosoftGoogleと並んで、サイトコンテンツが充実していますので、本書を読んだ上で同社のサイトを眺めていただくと、より一層理解が深まるものと思います。

 

個人的な感想

最後に、本書の良い点を改めて整理したいと思います。

  • 倫理学の枠組みがあり、倫理的かを判断する視点を得られる
  • 国内外のAI倫理原則から共通点を抜き出し、9つのテーマに整理した上で、事例とセットで解説しているのでわかりやすい
  • 国内企業の具体的な取り組みを紹介していて、実務の参考になる

 

「AI倫理」や「責任あるAI」の概観を掴めたことで、目にするニュースや各社の取り組みを一段深く見れるようになりましたので、関心のある方にはおすすめの一冊です。

 

www.amazon.co.jp

 

補足

「AI倫理」と「責任あるAI」の関係性

『責任あるAI -「AI倫理」戦略ハンドブック』によれば、「責任あるAI」実現のために守るべき規範が「AI倫理」とのこと。 

www.amazon.co.jp

 

実践的な取り組み

本書をきっかけに他社事例を調べていたのですが、MicrosoftGoogleは実践的な取り組みを公開していて、特に進んでいる印象を持ちました。

機会があれば、両社の取り組みもブログにまとめたいと思います。

www.microsoft.com

ai.google