総務省、「AI開発ガイドライン」策定に向けパブリックコメント募集

 

総務省の政策研究機関である総務省情報通信政策研究所は、2016年12月28日から2017年1月31日まで、「AIネットワーク社会推進会議」で議論を進めている『AI開発ガイドライン』の素案の策定に向けた論点に対する意見を募集している

 

G7情報通信相会合で合意した「8原則」を肉付け

2016年のサミット開催国であった日本で21年ぶりの情報通信相会合が開催されたが、その会合では日本主導で、利用者のプライバシー確保などの安全性を担保するための8原則が大筋合意されていた。今回の意見募集はそれを受け、AIネットワーク社会推進会議で進められていた、より具体的なガイドラインの素案についてのものとなる。今回まとまった論点としては以下のような概要となった。

○体系について

開発ガイドラインは「分野別共通ガイドライン」「分野共通開発ガイドライン」という体系とし、策定の対象とするのは後者とする。

○8原則とその内容について※

「透明性の原則」…生命・身体の安全や法益、自己決定に関するリスクが惹起されるAIに関しては、入出力及び通信については検証可能性を確保すべき。アルゴリズムについては検証可能性確保に努めるべき。
「制御可能性の原則」…制御不能の可能性があるAIについては、研究室等の閉鎖空間においてリスク評価を行うべき。また人間又は信頼し得る 他のAIによる監督及び対処(停止、切断、修理等)の実効性を確保すべき。

「セキュリティ確保の原則」…確保すべき範囲は、情報の機密性、完全性及び可用性、信頼性及び頑健性の維持も含まれる。AIの設計段階において措置(セキュリティ・バイ・デザイン)を講ずべき。

「安全保護の原則」…個人の生命・身体の安全に関するリスクを惹起し得るAIは、利用者及び第三者の生命・身体の安全に危害を及ぼさないように配慮すること。本質安全(運動能力等の抑制)、制御安全(監視装置等の実装)、機能安全等を確保できるよう、AIの設計段階において措置(セーフティ・バイ・デザイン)を講ずべき。

「プライバシー保護の原則」…プライバシーの範囲には、空間プライバシー(私生活の平穏)、情報プライバ シー(個人データ)、通信の秘密及び生体プライバシーが含まれる。設計段階において措置(プライバシー・バイ・デザイン)を講ずべき。また、プライバ シー影響評価を行うべき。

「倫理の原則」…人間性(humanity)の価値を中心に据えつつ、人間の尊厳と個人の自律を尊重すべき。AIネットワークシステムが人間性の価値を毀損してはならないとする。人間の脳・身体と融合又は連携するAIを研究開発する際は、人間の尊厳と個人の自律の尊重について、生命倫理等の議論も 参照し特に慎重に配慮すべき。また技術的に可能な範囲で、AIの学習するデータに含まれる偏見等に起因 する差別(人種、性、宗教等による差別)を防止するための措置を講ずべき。

「利用者支援の原則」…AIネットワークシステムが利用者を支援し、利用者に選択の機会を適切に提供 するよう配慮すること。利用者に対し適時適切にその判断に資する情報を提供し、かつ、利用者にとって操作しやすいインターフェイスが利用可能 となるよう設計すべき。ユニバーサル・デザイン等社会的弱者の受容可能性を高めるための取組に努めるべき。

「アカウンタビリティの原則」…特に利用者等に対し開発原則の遵守状況等について説明を行うべきであるほか、多様なス テークホルダーと対話を行い、その意見を聴取する等ステークホルダーの積極的な関与を得るべき。開発者の責任の在り方について指針を示すべき。

※論点の要旨をmedit.tech編集部でさらに短くまとめたものですので、実際に意見応募の際は原文をご参照ください(全文)(要旨

 

国際的なガイドライン策定へ、主導的立場に立つ狙い

この8原則は、OECDが採択しているプライバシー保護やデータの国際流通について定めた「OECD8原則」を色濃く反映したもので、今後のガイドライン策定を主導していく思惑がにじむ。今後は寄せられた意見も参考に、国際的なガイドライン策定へ、まず日本が2017年夏に素案を策定。OECDへ議論の場を移していく見込みだ。