若者より年配者のほうがAI技術に不安 女性や知識が多い人ほど否定的なシナリオも

このエントリーをはてなブックマークに追加

東京大学国際高等研究所カブリ数物連携宇宙研究機構(Kavli IPMU)の横山広美教授を中心とする東京大学・金沢大学のメンバーからなる研究グループは1月11日、AI(人工知能)倫理に共通する8つの観点に基づき、それを数値化する新たな手法「オクタゴン測定」を提案したと発表。オクタゴン測定で異なる4つのAI技術における倫理問題のレベルを測定した。

同研究グループは、異なる状況のAI技術における倫理的な問題を可視化し、開発段階から科学技術者が問題を十分に把握することが重要だと考えた。同時に、国際的に比較して共通部分や違いを認識し、国際的な議論を促すことも重要としている。

そこで同研究グループは、メリットとデメリットの両方を含む4つのAIシナリオ(1:AI歌手、2:AIショッピング、3:AI兵器、4:AI犯罪予防)を用意し、これらの倫理問題レベルを「個人のプライバシー」「説明責任」「安全性とセキュリティ(第三者からの侵害)」「透明性と説明可能性」「公平性と無差別」「人間による制御」「専門家の責任」「人間の価値の促進」という8つのテーマに基づいたアンケートで測定した。

データはウェブ調査会社を通して、2020年9月10日〜2020年9月14日の期間に、20代から60代の日本国内の男女1029人(女性510人、男性519人)から取得した。

その結果、特にAI兵器のシナリオでは、「個人のプライバシー」を除く7つの観点すべてで倫理問題レベルが高いという回答が得られた。さらに、回答者の年齢や性別などで解析した結果、シナリオに関わらず、年齢が高いほどAI技術に否定的という結果が得られた。また、一部のシナリオや一部の観点では女性や知識が多い人ほど否定的といった結果も判明した。

同研究グループによると、こうした傾向はAI技術だけに限らず、他の科学技術のリスクにおいても見られる傾向だという。今後、同じシナリオについて異なる国で測定することで、倫理レベルの国際比較を検討している。

>>ニュースリリース