今日は大阪の社会福祉法人さんでした。夜は愛知に戻って、デイサービスの研修講師です!
AIの判断、企業に説明責任 ルール作りへ政府7原則(日本経済新聞)
(1)AIは人間の基本的人権を侵さない
(2)AI教育の充実
(3)個人情報の慎重な管理
(4)AIのセキュリティー確保
(5)公正な競争環境の維持
(6)企業に決定過程の説明責任
(7)国境を越えたデータ利用の環境整備
政府がまとめた人工知能(AI)に関する7つの原則が明らかになった。
AIが物事を判断する際、その企業に説明責任を求めるのが柱だ。
AIの判断基準を示し、金融機関の融資などで、過程が分からない状態をなくす。
この原則をもとに法整備を進め、外国企業が日本で活動するときの混乱回避に役立てる。
政府の「人間中心のAI社会原則検討会議」(議長・須藤修東大教授)が12月に公表する。
来年6月に大阪で開く20カ国・地域(G20)首脳会議で参加国に呼びかける。
AI活用による懸念は少なくない。
どのような基準で金融機関が融資したのか、
就職の合否をどう決めたのか、などの場合だ。
AIによる決定の基準があいまいなままでは判断された側には不満と不安が残りかねない。
就職で性別、国籍などが合否の判断材料になるケースもあり得る。
AIを使う企業側にもそれらの事情が分からない恐れが出てくる。
企業に決定理由を分かりやすく伝える責務を負わせ、
最終的には人がAIの判断に関する責任を持つ仕組みにして
AIを巡る懸念を取り除くよう促す。
外国企業がそれぞれの国や、その企業独自のルールに沿って
日本で活動すれば、混乱しかねないという懸念もある。
米国はGAFA(グーグル、アップル、フェイスブック、アマゾン・ドット・コム)
と呼ばれる巨大企業がAI開発をけん引している。
AI活用のルールは基本的に企業の自主規制に委ねられている。
中国は国家主導の色彩が強く、
BAT(バイドゥ、アリババ、テンセント)と呼ばれる企業を経由して
事実上、国家がデータを管理している。
欧州連合(EU)は米中の動向に対抗し、
EU主導で年末までにAIの倫理指針をまとめる。
EUはAIの判断過程をわかりやすく伝える責任を企業に課すのが特徴だ。
一般データ保護規則(GDPR)により、個人情報保護を厳しく規制する。
みずほ情報総研の豊田健志氏は
「日本はAIのルール整備で出遅れている。EU以外だけでなく、
経済協力開発機構(OECD)諸国を巻き込んで連携し、
ルール作りに役割を果たすことが重要だ」と指摘する。
日本政府がつくるAIの原則は
(1)AIは人間の基本的人権を侵さない
(2)AI教育の充実
(3)個人情報の慎重な管理
(4)AIのセキュリティー確保
(5)公正な競争環境の維持
(6)企業に決定過程の説明責任
(7)国境を越えたデータ利用の環境整備――の7つから成る。