フェイクニュースが気付かせたAI技術公開の在り方

技術の「進歩」と「悪用」の関係は切っても切れないものである。日進月歩するAI技術の前に、技術の悪用という課題は避けては通れない。今回の投稿では、自然言語処理分野で起きた実例を踏まえて、AI技術公開の在り方について考えてみる。

飛躍的に進展する自然言語処理技術

自然言語処理技術は、AI技術の中でも注目が集まっている分野である。私達の身近な製品では、多言語翻訳アプリケーションやスマートスピーカーに利用されている。WEB上に溢れる多くの情報はテキストのため、情報検索の改善などへの自然言語処理技術の活用が期待されている。

これまでは、数値データではないテキストデータの取扱いや言語体系の複雑さが、自然言語処理技術の進展を妨げてきた。しかし、近年のディープラーニングなどの技術的なブレイクスルーによって、人間に近い精度で文章を書くことができるAIが現れ始めた。

今後、自然言語処理技術を用いたAIに対して特に期待されるのは、文章作成や要約・翻訳といった、文章作成の自動化である。人間の代わりにAIが文書を書くことで、多くの仕事を高速に並行して行えるようになる。自然言語処理技術の進展は、私たちの生産性を飛躍的向上させるだろう。

公開が制限された驚異的な文章作成AI技術

自然言語処理技術の中でも、2019年2月に非営利のAI研究機関であるOpenAIが発表した"GPT-2"は、その公表方法に注目が集まった。GPT-2は、文章中の「次のワードを予測する」という1点を実現するAI技術である。このAI技術は応用範囲が広く、多言語翻訳や文章の要約、自動作文など、さまざまな文章作成に応用することができる。

ところが、この新技術の公開はフェイクニュース*1によって妨げられることになった。OpenAIは、GPT-2がフェイクニュース作成に悪用されるとして、プログラムの全面公開を見送り、小さなデータセットに基づく学習済みモデルの公開とプログラムの一部公開にとどめた。GPT-2の技術を用いれば、特定の個人が過去に書いた文章を学習することで、その個人が書きそうな文章をAIが自動で作成できる。作成された文章を個人に成りすましてSNS上などで広く拡散すれば、あっという間にSNSはフェイクニュースで溢れてしまうだろう。

企業や研究者がAI利用方法を想定し、技術公開を実際に制限するということは今まではなかった。自然言語処理技術が実用段階に近づいたからこそ、顕在化した問題である。AI技術を広く公開することを是としてきた風潮の中で、OpenAIの対応は一石を投じた形になった。

*1 フェイクニュースとは、事実とは異なる内容をSNSやインターネットを通じて広く発信することである。情報を受け取った人に誤った判断をさせたり、発信元と偽装された人や団体の社会的信用を毀損することが問題視されている。2016年の米国大統領選挙で広く認知された新しい社会課題である。

AI技術は悪用されるレベルへ到達

前述のとおり、AI技術のいくつかは高度化が進み、悪用される可能性が限りなく高まっている。2018年に"The Malicious Use of Artificial Intelligence"というAIの悪用方法についてまとめられたレポートが、OpenAIのスタッフを含む26名のAI研究者から共著で出された。このレポートでは、AIの悪用例をデジタル領域、物理的領域、政治的領域の3つの領域で例示している。

紹介されている悪用例の中でも、狙いを定めた相手に最適化した詐欺をしかけるスピアフィッシングなどは、自然言語処理技術と特に相性が良い。家族や同僚とそっくりの文体でメッセージが送られてきた場合、IDやパスワードを流出させるリスクが高まることが予想される。人間とAIのどちらが作成したか見分けがつかない文章を作成する技術は、まさに悪用されるレベルの技術である。

同レポートでは、セキュリティリスクへの考慮に向けて、AI技術公表前のリスク評価、AI技術の中央管理、ルールや規範、制度の設計、政策的関与など、様々な対応策を提案している。その中でも、新技術を公開する前に技術の善用と悪用のデュアルユースを評価することは、私たちも積極的に取り入れていくべき対応策の1つである。企業や技術者には、AI利用者に不利益が生じないことを第一に考えた上で、AI技術の普及を考える倫理的責任感が求められる。新技術やサービスを公開する前には、悪用などの負の影響を必ず評価すべきである。

技術の公開方法や管理方法の議論を続けるべき

日本でも、「AI戦略2019」や「人間中心のAI社会原則」が取りまとめられているが、社会実装方法や情報保護に記載の重点が置かれており、技術公開の指針については整理されていない。AIと人間の対立を不安視する前に、悪意を持った人間がAI技術を悪用するリスクを話し合うべきである。

どんなに対応策を検討しても、技術公開には必ずリスクが存在する。結局は、その技術を使う人間の善悪に依存するため、技術的な検討や対応策だけでなく、罰則強化を行うなどの政策的なアプローチをとる必要もあるだろう。有効な対応策で安全な利用が担保されるようになれば、技術公開がしやすい環境が整う。AI技術の開発者も、悪用のリスクに頭を悩ませることが減るはずである。安全な技術公開の方法については、引き続き議論を続けるべきである。

OpenAIが今後、どのようなプロセスを経てGPT-2を公開するのか、現時点では不透明である。誰がどのようなプロセスで技術公開の可否を決めるのか、まったく明らかになっていない。GPT-2の技術公開プロセスは、その後に続くAI技術公開の参考となるだろう。この問題はOpenAIのみならず、他のAI研究機関や企業、政府機関が集まって広く議論すべき問題ではないだろうか。1人の技術者としては、魅力的な新しい自然言語処理技術の公開が待ち遠しい。適切なAI技術の公開プロセスの整備が進み、多くの研究機関が技術公開しやすくなることを期待したい。