画像はUnsplashより
Today, the EU proposes the first EVER regulation on #ArtificialIntelligence ? ?? So #AI technology can be used as a force for good ✨
Press release ? https://t.co/6uI4WzJkUG#DigitalEU pic.twitter.com/NR6KMPPOzV
— Digital EU ?? (@DigitalEU) April 21, 2021
欧州連合(EU)の政策執行機関である欧州委員会(EC)は現地時間4月21日、人工知能(AI)に関する初の規制案を発表した。試験の採点や法律の適用などAIによるアルゴリズムがバイアスなどにより、適切とは言えない判断を下さないように厳しい義務を課すと見られる。
欧州委員会はAI規約案を後ろ向きなものではなく、「AIに関する初の法的枠組みと加盟国との新たな協調計画を組み合わせることで、人々や企業の安全と基本的権利を保証するとともに、EU全体でAIの導入、投資、イノベーションを強化する」と意気込んでいる。
今回、欧州委員会が発表したAI規約案は「容認できないリスク」「高リスク」「限定的なリスク」「最小限のリスク」の4段階で区分し、「禁止」から「介入しない」までさまざまな措置をとる。それぞれ詳細は以下のとおり。
「容認できないリスク」では、「未成年者の危険な行動を助長する音声アシスタントを使用した玩具」や「政府による『ソーシャルスコアリング』を可能にするシステム」など、人々の安全や生活、権利に明らかな脅威となるAIシステムを禁止する。
「高リスク」では、「教育や職業訓練で、教育へのアクセスや職業上の人生の進路を決定する可能性があるもの(試験の採点など)」「雇用、労働者管理、自営業へのアクセス(例:採用手続きのための履歴書ソートソフトウェア)」「必要不可欠な民間および公共サービス(例:信用スコアリングにより市民がローンを組む機会が失われる)」「司法と民主主義プロセスの管理(例:具体的な事実に法律を適用すること)」などに、市場に出す前に厳しい義務を課す。
「限定的なリスク」では、特定の透明性義務を負うチャットボットなどのAIシステムを使用する場合は、ユーザーは機械と対話していることを認識し、情報を得たうえで継続するか退くかを判断する必要があると主張している。
「最小限のリスク」は、AIを搭載したビデオゲームやスパムフィルターなど、AIシステムの大部分は本カテゴリーに入る。市民の権利や安全に対するリスクが最小または0(ゼロ)に過ぎないため、規則案では介入しないという。
マルグレーテ・ベスタガー上級副委員長はAI規約案について、「AIには信頼は必須であり、あっても良いものではない。これらの画期的な規則により、EUはAIを信頼できるものにするため、新たな世界基準の策定を先導する。基準を設定することで、世界的に倫理的な技術への道を切り開き、EUがその過程で競争力を維持できるようにする。将来性があり、イノベーションに適したわれわれのルールは、EU市民の安全と基本的権利が危機に瀕しているときなど、厳密に必要な場合に介入する」と説明する。
ティエリー・ブルトン欧州委員会域内市場担当委員は「AIは手段であり、目的ではない。それ(AI)は何十年も前から存在したが、コンピューティングパワーによって新たな能力を獲得した。これは健康、輸送、エネルギー、農業、観光、サイバーセキュリティなど、多様な分野で計り知れない可能性をもたらす。一方で、たくさんのリスクも存在する。本日の提案は、研究室から市場までAIの世界的な拠点としてのヨーロッパの地位を強化し、ヨーロッパにおけるAIがわれわれの価値観やルールを尊重し、産業利用のためにAIの可能性を活用することを目的としている」と述べた。
欧州委員会がAIに関する倫理ガイドラインを発表。日本では?
欧州委員会は2019年4月には、AIに関する倫理ガイドラインを発表した。
同ガイドラインでは「AIは人間の活動と基本的人権を支援することで公平な社会を可能とすべきで、人間の主体性を低下させたり、限定・誤導したりすべきではない」などと記されている。