特集:資本市場とAI

欧州の証券監督当局が注視する証券市場におけるAIリスク
-ESMAによる調査分析結果と今後のリスク対応の論点-

江夏 あかね

要約

  1. 人工知能(AI)が世界で急速に発展・普及が進む中、各国・地域の証券監督当局が証券市場におけるAIの潜在的なリスクへの対応を進めている。2023年に入って、(1)欧州連合(EU)では、欧州証券市場監督局(ESMA)が2月にEUの証券市場のAIリスクに関する調査分析結果、(2)米国では、米国証券取引委員会(SEC)が7月にブローカー・ディーラー等に対して、AI等の予測データ分析を利用する際に生じ得る利益相反への対応を義務付ける規則案、をそれぞれ公表した。
  2. ESMAによるEUの証券市場のAIリスクに関する調査分析結果では、証券市場参加者や各取引プロセスの観点からAIの利用状況を調査し、5つの潜在リスク(説明可能性、集中・相互連関・システミックリスク、アルゴリズム・バイアス、オペレーショナル・リスク及びデータの質とモデル・リスク)を特定した。ただし、「AIの開発を監視し、関連する重大なリスクを分析した上で、これらが十分に理解され、考慮されるようにする」として、厳格な規制の導入といった結論は導き出さなかった。
  3. 世界の証券市場で今後、ますますAI利用が進んでいくと想定される中、証券市場におけるAIリスクへの対応をめぐる主な論点としては、(1)各国・地域における証券監督当局や国際組織等による取り組み、(2)リスク管理・ガバナンス体制の拡充、が挙げられる。
  4. 特に、リスク管理・ガバナンス体制は、AIリスク対応に向けて新たな仕組みを構築するより、既存の体制を継続的に見直し、AIの利活用にも耐えうるような形に拡充していくことが多いと推察される。