「説明できる」AI
AIのブーム
このところ、ここシリコンバレーでも日本でも、AI(人工知能)が空前のブームになっていますね。AIにどの位未知の可能性があるのか、どういうことに使えて今の生活を改善し、または人命を救うことまでできるか、等考えると楽しみです。
その一方で、心配も色々あります。
AIやロボットが人間の能力を超えたらどうなるか、人間の意思に反した行動を起こすようになったらどうなるか、と言うのも心配の一つ。
AIの中身はブラックボックス?
その他に、AIの中身がブラックボックス的で、答えを出したのはいいがその答えが本当に正しいのか、そして答えを出すのに中で何が起こっているのか、その答えを出した理由は何なのか。これがAIを取り入れる側の大きな懸念の一つです。
チェスや将棋の勝負ならまだ、特に問題は無い。けれども車の自動運転やさらに軍事判断など、多数の人命にかかわる判断の場合、その判断が正しいことをどう証明するのか。
米国国防省の技術革新プログラム
米国国防省(Department of Defense、DOE)でもこの部分が一大関心事であり、昨年(2016年)夏に、まさに「説明できるAI (Explainable AI, XAI)というタイトルの技術革新プログラムによる、AI技術の募集を始めました。
プログラムはDARPA(Defense Advanced Research Projects Agency、米国防総省の中央研究開発組織である国防総省先進研究プロジェクト機関)主催、応募した各プロジェクトの中から選考し、選考に残った技術革新プログラムに対し補助金を出すというもの。ちなみに、過去には自動運転車の当初の競争などもこの開発組織DARPAの主催で行われ、米国ではここから数々のベンチャー企業も出てきています。
本年(2017)7月にこの選考で選ばれたプロジェクトが出そろったようで、詳細は秘密とされているプログラムも多いのですがこの機会に、「説明できるAI」について調べ、ブログで幾つか書いていきたいと思います。
ご意見・ご感想はchako (at) candoadvisors.com までお寄せ下さい。すぐにお返事いたします。
Comments