政府の研究機関がAIの普及に伴う偽情報の拡散などを防ぐため、AIの安全性評価に関するポイントを8月にも公表することが26日分かった。悪用する側の視点からAIの欠陥や不適切なデータ出力の有無を調査する手法の手順書も公開する。どのようなAIが安全なのかを示すことで、事業者が安心して利活用を進めることができるようにする狙いがある。
政府が2月に新設した研究機関「AIセーフティ・インスティテュート」の村上明子所長(50)が26日までに共同通信のインタビューに応じ「企業や技術者がイノベーションに集中できるようにする」と述べた。AIを巡っては偽情報拡散や差別助長などのリスクが懸念され、安全性をどう確保するかが焦点となっている。
今回公表する安全性の評価のポイントは、政府のAI関連ガイドラインなどが基となる。偽情報の防止や、学習用データに誤った情報を意図的に盛り込む攻撃などへの対策を盛り込む。村上氏は「日本が強みを持つものづくり現場でのAIのリスクを洗い出すなど、国際的な役割分担を進めたい」と語った。