AIは徹底した机上検討より素早い実地検証を

「他社のAIとは何が違うのですか?」

AI(人工知能)技術を活用したシステム構築に携わった技術者ならば一度は耳にしたことがあるのではないだろうか。そして、真摯であろうと思えば思うほど、答えに窮する質問である。

一方、事業部門や構築を依頼したクライアントなど、導入する側から見ると、世の中に様々なAIがある中で本当に導入すべきAIがどれなのか、判断が難しいのもまた事実である。

なぜAI技術が入ったシステムは評価が難しくなるのか。

企画段階での精度

企画段階において、世に数多あるAI活用ソリューションの中から、今回のケースに適したものを選択しなくてはならない。解きたいタスクに対する精度がまず重視されるだろう。

一つの応用タスクを実現する場合、実際には複数の部分タスクに分解して解くべき問題を構成する。例えば、文書要約という応用タスクを例にとると、単語分割や構文解析などの部分タスクを解いた上で、文同士の関係性を認識して要約文を作成する。部分タスクは汎用性をもつため、多くのベンチマークデータが整備・公開されている。それらを活用することで構築前に部分タスクの精度を算出することができる。

しかし、多くの場合ベンチマーク精度はあてにならない。応用タスクは、部分タスク同士が前の出力を次の入力とするように連結した「パイプライン」で構成されている。部分タスク同士が複雑な依存関係をもつため、部分タスクのベンチマーク結果が良かったからといって、応用タスク全体で良い精度が出るとは限らない。

再学習の運用性

システム構築後の運用面でも注意が必要である。ビジネスのスピードが加速している中で、AIに入力されるデータの内容も日々変化していく。新しいデータに対応できず、精度が落ちていくことも考えられるため、あるタイミングでAIが新しいデータへの対応を学ぶ“再学習”が必要である。

再学習にどれだけのコスト(時間・人手)がかかるかは利用するAIの手法によって大きく異なる。目先の精度だけでなく、その精度を低コストで維持していけるかが重要である。ただし、運用中における入力データの変化量・頻度は予想することが難しいため、構築前に再学習コストを正確に見積もることが困難な場合も多い。

技術進化についていける柔軟な設計

現在、第三次AIブームの中で機械学習・深層学習技術の発展スピードは目を見張るものがある。Tensorflow, Caffeなど人工知能フレームワークの進歩により、AIアルゴリズムの研究とオープンソースとしてのプログラム実装の間でタイムラグが無くなりつつある。研究者は論文発表と同時にオープンソースとしてプログラムを共有する。優れたアイディアにもとづくプログラムは世界中の人々によって試用、修正され、より信頼性が高いものになる。また異なるデータやタスクに適用した派生プログラムも開発され共有される。

このようなスピード感の中では、今採用するアルゴリズムはすぐに陳腐化するかもしれない。AI技術を活用したシステムにとって、コアのAIアルゴリズムを入れ替えても対応できるような設計になっているかは注視すべきポイントである。ただ、未だAIは進化の途中にあり、その進化に伴って使用するフレームワーク等はドラスティックな変化をしていくと考えられる。どこまでの柔軟性を持たせておけば正解かは判断が難しい。

AIを失敗から学ぶ

以上、AI技術を活用したシステムの評価において重要視すべきポイントを3つ紹介しつつ、これらのポイントを企画段階で精緻に評価することは極めて難しいと述べた。

ではAI技術を活用したい時、一体何から始めればいいのか。まずすべきことは、単純だがAIを実際に使ってみることだ。実際のデータを使ったプロトタイプを構築し、業務に近い環境でスモールスタートをしてみる。プロトタイプでは満足のいく効果は得られないかもしれない。採用したAIアルゴリズムが悪かったのか、データが不足していたのか、そもそも解こうとした問題設定が悪かったのか等、プロトタイプでの失敗原因を分析し、改善するサイクルを回していくことが重要だ。

今後、AI活用が企業成長の鍵になることは間違いないだろう。AIはやってみなければわからない。つまり、やってみない企業は他社に置いていかれるということだ。お手軽にAI活用ができるまで待って、いざ始めようとしたときにはもう手遅れになっているかもしれない。

  • Tensorflow(Googleが公開している人工知能のソフトウェアライブラリ)
  • Caffe(Berkeley AI Researchによって開発されたディープラーニング用フレームワーク)