キャプチャ

ターミネーターの世界にはさせない! 人工知能開発の安全確保呼びかけへ

  • このエントリーをはてなブックマークに追加

by [2016年6月07日]

ai-gakkai

人工知能学会のWebサイト

人工知能(AI)と聞いたら大体の人が思う浮かべる映画があるはず………その映画とは、ターミネーターだ。ターミネーターは、人工知能が人類に反旗を翻し、攻撃を仕掛けてくるという内容の映画だが、それが現実になる可能性があるという。というのも、現実の人工知能もターミネーターに出てくる人工知能ほど優れているわけではないが「自律性」を持っているので、人間の指示に従わなくなるかもしれないからだ。

そんな恐ろしい可能性も考えられる中、近年の急速なAI開発の発展を受け、6月6日に開催された2016年度人工知能学会全国大会「公開討論:人工知能学会 倫理委員会」にて、人工知能開発の倫理指針の原案がまとめられた。

人工知能開発において守るべき10の約束

今回人工知能学会が発表した倫理綱領では、10の観点からAI開発において果たすべき責任について言及されている。今回はその内容を総括して紹介しよう。

綱領は、人工知能研究開発者は専門家として人類の安全への脅威を排除しなくてはならないというあたりまえの文章から始まり、様々な責任を研究者に求めている。その一つが、一般人への責任だ。綱領では、危険な人工知能を開発しないというだけでなく、それに関する説明責任まで言及されており、研究者は人工知能の危険性について解析して警鐘を鳴らすのはもちろん、何か不祥事が起きた場合は説明責任も果たす必要があるとしている。

また、人工知能研究開発者は、人工知能に関する社会的な理解を向上させるよう努力しなくてはならないとも記されており、研究者は社会に人工知能の正しい認識を伝える責任まで問われることになる。

そうした人工知能開発特有の内容だけでなく、他社の個人情報に勝手にアクセスしたり、危害を加えたりしない、個人情報は適切に扱う、人工知能研究者は絶え間ない自己研鑽を積まなくてはならない、法規制を遵守するといった、研究者なら当然守るべき内容も盛り込まれている。

人工知能開発の法整備はもちろん大事だが、専門家内でルールを取り決めることもまた重要だ。AI開発者には、ルールや法律を守った安全なAI開発を期待したいところだ。

●参考リンク
倫理綱領案_Ver3.1.pdf
人工知能学会 (The Japanese Society for Artificial Intelligence)

タグ:
PageTopへ