社会システム変容の研究と有識者のコラム集 コラム① ELSI

    ウェルビーイングを考慮したELSIとウェルビーイング計測のELSI 大阪大学 社会技術共創研究センター
    センター長
    岸本 充生

    ELSI(エルシーと発音)とは倫理的・法的・社会的課題の頭文字をとった言葉で、1990年に米国でヒトゲノムを解読する国家プロジェクトが開始された際に、ヒトゲノムが解読された際に生じうる課題をあらかじめ予想し、事前に対応すべく開始された研究プログラム名として世に出た(1)。外部向けの研究予算の少なくとも5%が割り当てられることが法律に明記され、複数の大学に研究拠点が設置された。その後、脳科学やナノテクノロジーの研究開発を実施する国家プロジェクトでも同様の枠組みが適用された。日本においても生命科学分野において、ELSIに関する取り組みは実施されてきたものの、まとまった研究費がつくようになったのは最近になってからである。さらに、人工知能(AI)を始めとする新興技術(エマージングテクノロジー)を研究開発・社会実装するという文脈でも、ELSIへの対応の必要性が注目されるようになってきた。国が策定する科学技術基本計画には、2006年に発表された第3期から、倫理的・法的・社会的課題という用語が載るようになり、科学技術基本法が科学技術・イノベーション基本法になって初めて2021年3月に閣議決定された第6期科学技術・イノベーション基本計画においても、倫理的・法的・社会的課題、またはELSIに触れた部分が4か所ある(2)

    基本計画には、実現したい社会を表現する言葉として、第5期までは、幸せという表現は用いられてこなかった。例えば、第5期では「国民一人ひとりが活躍する豊かな社会」や「一人ひとりが能力と意欲に応じて適材適所で最大限活躍できる環境」という表現が用いられていた。これらに対して第6期科学技術・イノベーション基本計画では、「一人ひとりが多様な幸せ(well-being)を実現できる社会」という表現が何度も繰り返され、「ウェルビーイング」が前面に出ることになった。ウェルビーイングは、経済的な豊かさの拡大と精神面も含めた質的な豊かさの実現を合わせたものであることは読み取れるが、「科学技術・イノベーション」によってどうやってウェルビーイングが達成されるのか、そのメカニズムは自明ではない。

    本稿では、科学技術・イノベーションにおけるELSIとウェルビーイングの関係について考えてみたい。新規の科学技術が社会に実装される際に、倫理的・法的・社会的課題(ELSI)が生じることが多く、事前にこれらに対応できていないと、そのギャップが原因で事故や事件、または「炎上」につながることは、数多くの事例からも明らかになってきた(3)。ドローンが2015年に首相官邸の屋上で発見されたことを受け、大急ぎで航空法が改正された事例が典型的なケースである。ELSIの中で、倫理(E)を社会において人々が依拠すべき規範、法(L)を明文化された法規制、社会(S)を世論や社会受容性と捉えると、変化しやすく不安定なSに対して、短期的には安定的であるが中長期的には変わりうるEと、理想的にはEに基づいて不断の見直しを受けるLという関係が想定される。ウェルビーイングは社会(S)に最も近そうである。それでは、社会(S)とウェルビーイングの関係はどのようなものだろうか。実証的な側面が強い社会受容性と規範的な側面が強いウェルビーイングはときに矛盾するのではないだろうか。すなわち、社会に受容はされるが人々のウェルビーイングを高めないケースや、社会に受容はされないが潜在的には人々のウェルビーイングを高めるケースがあるかもしれない。政府はSociety 5.0の推進を目標として掲げているが、Society 5.0が達成されると人々のウェルビーイングが高まるのだろうか。例えば、パーソナルデータの利活用の1つの分かりやすい手段である、情報銀行を使ったパーソナルデータの取引(売買)を考えてみよう。パーソナルデータの流通を促進することは、産業に新しい資源を提供し、経済を活性化し、人々には新たな収入源を与えることになるだろう。しかしその反面、パーソナルデータを売買することは、プライバシーの侵害や切り売りにつながったり、個人の尊厳を損なったりするおそれはないだろうか(4)。パーソナルデータの売買を、臓器売買に重ね合わせて批判する言説も見られる(5)。個人情報保護法はその目的を「......個人情報の有用性に配慮しつつ、個人の権利利益を保護すること」としており、両者のバランスを目指している。社会受容性とは別にウェルビーイングを明示的に考慮するならば、社会(S)は、社会受容性を測る社会(S1)とウェルビーイングを測る社会(S2)に分けて検討する必要があるかもしれない。

    それでは、人々のウェルビーイングをどうやって計測すればよいだろうか。OECDのウェルビーイング枠組みでは、物質的条件、生活の質、コミュニティ関係の3要素からなる11の重要な側面からなるものとされている(6)。11の側面それぞれに複数の指標が提案されている。他方で、新しい技術を使って、直接、精神的なウェルビーイングを客観的な数値として計測したいというニーズが高まっている。つまり、生体計測情報を機械学習モデルに入力してウェルビーイング指標を推計するというものである。例えば、生体認識技術(リモート:声、表情、発話内容、姿勢、仕草など)から感情をプロファイリング、生体センサー(表面:脈拍、体温、血圧、圧力、慣性など)からストレス等をプロファイリング、脳活動情報をデコーディングして心の状態をプロファイリング、などが挙げられる。しかし、プロファイリングは、欧州の一般データ保護規則(GDPR)において、「自然人に関する一定の個人的側面を評価(evaluate)するための個人データの利用から構成される個人データの自動化されたあらゆる処理形態」と定義され(第4条)、プロファイリングを含む自動的処理のみに基づいて行われた決定に服さない権利を有する(第22条)ことが明記されている。実際、研究論文でも、深層学習により顔画像から性的指向を人間よりも正確に予測できることを示した論文(7)が炎上したり、顔画像から犯罪行動に向かいやすいかを精度高く予測できるソフトウェアを開発したとする論文(8)が撤回されたりするケースがあった。

    ここで1つのケースを紹介しよう。デジタル面接プラットフォーム大手のHireVue社は、声、話の内容、表情、仕草などから多数の特徴パターンを検出し、あらかじめ設定した教師データと比較するAIアセスメント機能を持っていることで有名であった。HireVue社はHRテック系企業で初めて外部諮問委員会を設置し、AI倫理原則を策定するなど、ELSI対応の進んだ企業であった(9)。しかし、2019年11月、プライバシー擁護団体であるEPIC(電子プライバシー情報センター)が米国連邦取引委員会(FTC)に対して、アルゴリズムの不透明さやバイアスなどを理由に、FTC法第5条(「不公正で、欺瞞的な取引慣行」)を根拠として苦情申し立てを行った(10)。これに対して、2021年1月には、HireVue社はアルゴリズム監査会社であるORCAA社の監査を受けて、公平性とバイアスについて性能を満たしているという結果を受けた旨の発表を行ったと同時に、2020年の早い時期から、すべての新規のアセスメントから視覚分析(visual analytics)因子を削除した、すなわち表情分析をやめたことを発表した(11)。ただし、これはEPICに指摘されたようなバイアスを懸念した結果ではなく、社内研究で、自然言語処理の進展により視覚分析が必要なくなったことが明らかになったことがその理由とされた。

    このように、ウェルビーイングの精神的な側面を計測するための技術は潜在的にプライバシーの問題や個人の自律性の問題を引き起こしたり、また、監視(surveillance)技術になりうる課題を含んでいたりする。つまり、マインドリーディングとウェルビーイング推定は同じ技術の裏表になりうるのである。こうした懸念に対応するためには、ウェルビーイング計測技術も、新興技術(エマージングテクノロジー)の1つとして、社会実装前にELSIへの対応を進めておく必要がある。具体的には次のようなELSI対応が必要になってくるだろう。

    • 潜在的な悪用や誤用も含めた当該技術の使われ方の事前の予測と、それらを含めた複数シナリオにおけるELSIの洗い出しとリスク評価
    • 可能なケースでは「バイ・デザイン」アプローチにより初期段階から技術的にELSIに対応
    • ELSI対応を踏まえた「社会技術」の同時並行での開発(例:法規制の改正/倫理原則の策定/社会のルールや規範作り)
    • 組織内部に監督組織を設置するとともに、外部の第三者による監督の仕組みも用意

    特にこの中でも、ステークホルダーや社会全体に対して、想定されるリスクを評価して、リスク対策を行った結果、残余リスクが受け入れ可能なほど小さいと考えていることを分かりやすく説明することが重要になってくる。この作業は、パーソナルデータ利活用の文脈では、プライバシー影響評価(PIA)と呼ばれ、米国、カナダ、英国などでは公的機関に対して実施が義務づけられている。欧州のGDPRでは第35条において、民間企業や公的機関に対して「特に新たな技術を用いる場合など、個人の権利や自由に高いリスクを生じさせる可能性がある場合」には、「データ保護影響評価(DPIA)」の実施が義務づけられている。日本では2021年6月に個人情報保護委員会が民間企業に対して、「PIAの取組の促進について-PIAの意義と実施手順に沿った留意点」と題する資料を公表した(12)。リスク評価の枠組みは極めてシンプルで、リスク事象ごとに発生可能性と影響度をそれぞれ3~5段階で表し、両者を掛け合わせた数字の大きいものを高リスクとして、リスク対策を施したうえですべての項目を低リスクとすることを示すものである。枠組み自体はシンプルではあるが、いざ実践しようとすると、リスク事象の特定やレベルの評価など困難に直面することになる。しかし、この作業は、化学物質の安全管理などで実施されるような正確な評価を客観的に行うという側面よりも、自らが社会実装する技術について、リスクが無視できるほど小さい、あるいは、ベネフィットに比べてリスクが小さいと確信している理由を分かりやすくステークホルダーに示すという側面が強いものである。

    1. (1)岸本充生[2021]「新興技術を社会実装するということ」国立国会図書館調査及び立法考査局編『ゲノム編集の技術と影響(令和2年度 科学技術に関する調査プロジェクト)』pp.101-121
    2. (2)肥後楽・鹿野祐介・武田浩平[2021]「第6期科学技術・イノベーション基本計画をゼロから考えるために〜その概要と論点〜」ELSI NOTE、No.10 https://elsi.osaka-u.ac.jp/research/1122
    3. (3)岸本充生[2021]「倫理的・法的・社会的課題(ELSI)という考え方――なぜ今、企業活動において注目されているのか」『ビジネス法務』Vol.21、No.7、pp.35-37、2021年7月
    4. (4)岸本充生[2021]「パーソナルデータ取引の倫理的・法的・社会的課題(上)」『法律時報』Vol.93、No.5、pp.106-112、2021年5月
    5. (5)Jeong, Sarah [2019]. Selling Your Private Information Is a Terrible Idea. New York Times, July 5, 2019.
    6. (6)OECD [2020]. How's Life? 2020: Measuring Well-being. Organisation for Economic Cooperation and Development.
    7. (7)Wang, Y., & Kosinski, M. [2018]. Deep neural networks are more accurate than humans at detecting sexual orientation from facial images. Journal of Personality and Social Psychology, Vol.114, No.2, pp.246-257.
    8. (8)BBC News. "Facial recognition to 'predict criminals' sparks row over AI bias." 24 June 2020. https://www.bbc.com/news/technology-53165286
    9. (9)HireVue. "HireVue is First HR Technology Company to Create Expert Advisory Board to Guide Continued Ethical AI Development." Press Release on February 5, 2019. https://www.hirevue.com/press-release/expert-advisory-board-and-ethical-principles
    10. (10)EPIC. "Complaint and Request for Investigation, Injunction, and Other Relief Submitted by The Electronic Privacy Information Center (EPIC)." November 6, 2019. https://epic.org/privacy/ftc/hirevue/EPIC_FTC_HireVue_Complaint.pdf
    11. (11)HireVue. "HireVue leads the industry with commitment to transparent and ethical use of AI in hiring" Press Release on January 12, 2021. https://www.hirevue.com/press-release/hirevue-leads-the-industry-with-commitment-to-transparent-and-ethical-use-of-ai-in-hiring
    12. (12)個人情報保護委員会「PIAの取組の促進について-PIAの意義と実施手順に沿った留意点」第177回 個人情報保護委員会 資料2、2021年6月30日開催
    1. 各URLは、2023年10月30日にNTT社会情報研究所によりアクセス確認されたものである。

    岸本 充生

    京都大学経済学研究科で博士(経済学)を取得し、工業技術院資源環境技術総合研究所に就職。産業技術総合研究所化学物質リスク管理研究センター、安全科学研究部門での研究グループ長、東京大学公共政策大学院特任教授を経て、2017年より大阪大学データビリティフロンティア機構教授。2020年度より新設の社会技術共創研究センター(通称ELSIセンター)のセンター長を兼任。専門はリスク学。共編著に『基準値のからくり(ブルーバックス)』(講談社)、『リスク学事典』(丸善出版)など。