一般社団法人 AI-Lab.

AI NEWS

News

2022/02/17

「説明可能なAI」に企業が注目 欧州規制案などに対応

人工知能(AI)の活用に規制をかける動きが世界で強まっている。AIは意図せぬ結論を出したり、その理由が説明できなかったりすることが少なくないためで、欧州連合(EU)が2021年4月に公表した規制案では厳格な利用条件を設け、違反企業には罰金を科す。企業は規制強化に対応し、判断理由を提示できる「説明可能なAI(XAI)」の開発を急いでいる。
企業はAIの活用で約束される自動化や効率化の恩恵を得ようとしている。プライスウォーターハウスクーパース(PwC)の調査によると、新型コロナウイルスの感染拡大以降にAIの導入を加速したと答えた企業は半数以上にのぼった。
だが、各社は判断基準が不透明なアルゴリズム、質の悪いデータ、偏ったモデルが引き起こす多大な損失を被る状況や、危険な事態に備えなくてはならない。
米IBMは2017年、こうした問題によって6200万ドルを投じたAI医療プロジェクトの打ち切りを余儀なくされた。このAIシステムは電子健康記録(EHR)を構文解析し、がん患者に最善の治療を勧めるよう設計されていた。実証実験では医師の9割と同じ治療計画を提示したが、AIの学習データが古くなったため、システムは臨床利用の承認を受けられなかった。
AIの社会的偏見も企業にとって大きな問題だ。研究開発コストを回収できなくなり、企業の評判にダメージを及ぼしかねないからだ。例えば、米アマゾン・ドット・コムは18年、アルゴリズムが男性の採用候補者を優先していたことが判明し、AI人事採用ツールの利用を取りやめた。
政府の契約では今や、企業にアルゴリズムの透明性を高めるよう義務付けている。各社は規制の圧力の高まりに直面しており、判断に至る経緯を示した「説明可能なAI(XAI)」の普及が進む下地ができつつある。今回のリポートでは、AIの「ブラックボックス」問題に焦点を当て、説明可能なAIの市場の重要な側面について取り上げる。
XAIとは何か。なぜこれが企業にとって重要なのか
医療や金融から農業や製造業に至るまで、企業はAIを自社のビジネスモデルにとり入れている。
だが、AIはブラックボックス化する問題を抱えている。自ら学習するアルゴリズムは複雑なため、利用者がシステムの判断基準を理解できない場合があるからだ。つまり、アルゴリズムの偏りが見過ごされている可能性がある。
これは銀行での融資承認や病院での医療診断など規制が厳しい業界での意思決定や、AIを活用した人事採用など社会的影響が大きい場合に問題になる。
XAIを使えば、アルゴリズムの意思決定プロセスの透明性を高め、学習データの質のチェックからAIの実験に関するあらゆるメタデータ(属性情報)の記録に至るまで、AI開発のライフサイクルの各段階で偏りを軽減できる。リアルタイムでの常時モニタリングにより、すでに実用化されているAIモデルを追跡することも可能だ。
規制の圧力が高まり、各社が自社の評判を守ることに目を向けているため、メディアによるXAIへの注目度は高まっている。
EUの一般データ保護規則(GDPR)で義務付けられた「説明を受ける権利」に加え、米連邦取引委員会(FTC)による最近の警告やEUによるAIについての初の法的枠組みにより、AIモデルを展開しようとする企業への規制の圧力が高まっている。
例えば、EUが21年4月に公表したAI規制案では、特に人事採用や信用評価、法の執行など規制対象外のアルゴリズムによる意思決定が有害な結果をもたらしかねない場合に、AIに対する説明責任や信頼性を求めている。
違反した企業には、世界売上高の6%か3000万ユーロのいずれか高い方を罰金として科す。
FTCも21年4月、人種や性別の差別につながるブラックボックスAIを販売したり、使用したりする企業はFTC法違反に当たるとの見解を示した。規制に違反していると知りながらAIモデルに判断基準を説明する機能の搭載を怠った企業には、使用差し止めを命じ、最大4万3000ドルの罰金を科す。

引用 日本経済新聞:
https://www.nikkei.com/article/DGXZQOUC023650S1A201C2000000/

文章圧縮率

0文字