「説明できるAI」(3)、プロジェクト例
前回のブログで紹介したDARPA(米国国防省の技術革新プログラム)による、説明可能なAIプログラムを開発する募集案件ですが、全部で13件のプロジェクトが選ばれたとこちらのMIT Technology Review誌の記事にはあるのだが今回、ざっと見てみて発表されているのは以下の2件です。
プロジェクト例: PARCとCharles River Analytics
こういった先端の研究例では、片方はシリコンバレー、一方はボストン、という米国の技術革新に拠点が双璧となるケースがよくあるのだが、今回もそれにもれず、ざっと見て取り上げられている研究プロジェクトにはPARC主催の物(シリコンバレー・ゼロックスのパロアルト研究所)、ボストンの研究開発系企業Charles River Analytics(CRA)によるもの、があります。
PARCのによるCOGLE
PARCのプロジェクトはCOGLE(COmmon Ground Learning and Explanation)と呼ばれ、今回、PARCの発表によるとPARC陣営は単独ではなく、カーネギーメロン大、ウェストポイント、ミシガン大、エジンバラ大などと組んだ先端機械学習のコンソーシアムとのことである。
技術的な詳細は秘密とのことだと思いますが、コンセプトとしては、1)機械は細かいことまですべて「学習」する能力に優れている、一方、2)人間はコンセプト・抽象概念を表現するのが得意。であるので、この2つの間の共通項を見いだし、人間にわかりやすいようなインターフェースを通じて、機械の学習プロセスを人間がするような概念的表現で説明させる、と言う物のようです。
具体的なプロジェクトは当初無人航空機システム(ドローン)を使うが、プログラム自体は広範囲のAIプログラムに利用可能とのこと。
詳しくはこちらのリンク参照
http://bit.ly/2Aoc60R
http://bit.ly/2mjCO1D
CRAによるCAMEL
一方、ボストンのCharles River Analytics(CRA)のプロジェクトははCAMEL( Causal Models to Explain Learning effort)という名称でこちらもブラウン大、マサチューセッツ大Amherst等との連合プロジェクトです。
CAMELチームの方の中心となるコンセプトは「因果関係(causal relationship)」で、具体的な説明はなぜかこちらのウォール・ストリート・ジャーナルの記事の説明がわかりやすいのだが、
例えばAIシステムがテロリストなど疑わしい人物・対象物を特定した場合、その人物の画像だけでなく「なぜ疑わしいと判断したか」の原因となる部分の拡大画像も提供する
と言うようなシステム設計となる。これにより、例えば同じ画像を人間が見て「特に疑わしくない」と判断した場合、どこに違いがあるのかの分析に進むことができ、少なくとも「ブラックボックス段階」から一歩進めることができるわけです。
イメージ的にはこちら、DARPA資料からの写真がわかりやすいです。
詳しくはこちらのリンク参照
http://www.asdnews.com/news-70722/cra_leads_multidisciplinary_team_in_darpa_s_xai_program.htm
まとめ
今回、DARPAのプログラムは、米国の国防上で既にAIが色々な分野になし崩し的に進出しており、国家の安全・人命にもかかわることであるのだがAIはもちろん100%正確ではないので、どのときに正しく、また、間違った場合はどうしてなのか、等の問題を早急に解決する必要がある。だだし、防衛上の問題が絡む為詳細は中々公表されない、ということのようです。
ただ「人命にかかわる」AIの利用は軍事上だけでなく、自動運転車・医療などでも加速度的に導入されている。なので、ブラックボックス化が進みすぎる前にこういった研究の結果が是非、知られることになってほしいものです。
ご意見・ご感想はchako (at) candoadvisors.com までお寄せ下さい。すぐにお返事いたします。
Comments