〒186-0002
東京都国立市東2-21-3

TEL : 042-843-0268

製品進化とマネジメント風景 第63話 脱炭素に向けたコンピュータ進化とAI活用マネジメント

AIについては毎日のように新聞や雑誌で記事を見かけます。記事として目立つのはニューラルネットワークを用いた本格的な深層機械学習(以後、本格DL)ですが、従来から存在していた統計的学習を用いた機械学習(以後、ML)や、これに毛の生えた簡易DLも様々なビジネス問題に適用され、成果を出すようになってきました。

ビッグデータ、高速なコンピュータハードウェアおよびソフトウェアの3拍子が一定の水準に達し、それらを組み合わせることにより、価値を創出できるタイミングが到来したということを意味しています。

過去半世紀については、半導体技術(特にCMOS)がムーアの法則に沿い、高集積化が数年で2倍に増えるスケーリング則で進んできました。しかし、微細化はついに1ナノレベルに近づき、物理的な限界が見えてきました。

現在のDLは、人間の脳の情報処理方法を真似たニューラルネットワークを、非常に単純化させた方法で使用しています。それにも関わらず、ビッグデータの量の増加ペースが急であるため、学習に時間がかかります。学習を短縮するために大規模な計算能力を投入する企業が出てきましたが、その結果、今度は消費電力が急増しつつあります。

本格DLがどれくらいの電力を消費しているかの例として2つの有名な例、アルファ碁とクイズ王ワトソンを支えるコンピュータで見てみましょう。どちらも人間を打ち負かしましたが消費電力は200-250KWです。人間の脳の消費電力は20Wですから1万人以上の頭脳を動員していることに相当します。

クイズに関して言えば、1万人のクイズ大好き人間が対抗すればワトソンに勝てたかもしれませんね。人間の脳は食物から取得したエネルギーで動きますが、コンピュータは電力が必要です。再生可能電力は、電力生産の1/4程度でしかない現状では、電力多消費型の製品はいずれ悪のレッテルを貼られるのではないでしょうか。

上記DLはゲーム等、ルールが固定化された領域では人間の能力を凌駕します。しかし、人間社会は常に変化している諸行無常の世界です。諸行無常に柔軟に対応するには、ゲームのスキルの少なくとも1万倍の計算能力は必要でしょうから、現状のコンピュータで人間に比肩する汎用的なDLを作ろうとすると、人間の1億倍くらいの消費電力が必要となります。

これが過大評価でないことは、ネズミの脳のコンピュータ再現試験結果を参照すれば分かります。ネズミの脳ニューロン数は人間よりもずっと少ないですが、ネズミと同速度で働かせるためには500MWの電力が必要という見積もりとなります。ネズミ1匹で原子力発電所の発電量(百万KW=1000MW)の半分を使用するという勘定です。

よって、人並みの能力を持つコンピュータを世界中のあちこち置くことを想定すると、少し過大な表現ですが、DLとそれを支援するコンピュータだけで世界中の電力を使ってしまいそうです。人間が使える電力が減ってしまうのは本末転倒であり、とても持続可能とはいえません。

ですから、私個人はレイ・カーツワイルが語る所のシンギュラリティが2040年代に来るとは考えていません。シンギュラリティを起こすには、まず、今よりも圧倒的に省エネなコンピュータが必要条件です。では、今のコンピュータはなぜ電力多消費型なのか? また、それを乗り越える手段はあるのか? 本コラムではそれらを議論していきたいと思います。

最初にノイマン型コンピュータと人間の脳の違いをみていきましょう。ノイマン型コンピュータの特徴は、データを置くメモリと計算をする演算器(CPU等)を分離し、決められた手順に沿って実施していくことです。メモリと演算器の分離は両者間でのデータ転送を必要とします。演算器の速度は技術向上により高めることができましたが、データを扱うメモリの処理速度は上げるのが難しく、演算を高速化するためには、メモリを多数配置して演算器と繋ぐ必要があります。

つまり、演算が高速化するにつれてデータ転送量が増え、配線を通るのは電子なので電力の一部が熱として失われていきます。高集積化が進むにつれて、リークを含めて配線での電力損失はどんどん増えていきます。高集積化すればするほど電力使用効率が下がるのです。

これに対して人間の脳は、メモリと演算器をセットで保持しているため、データ転送や配線での電力ロスは最小限に抑えることが可能です。他にもいくつか理由はありますが、ノイマン型コンピュータが電力多消費である最大の原因は、演算器とメモリが分離されていること、および、両者を繋ぐ媒体が電子であることだと言えます。これは、現在のコンピュータの最も根本的な部分が、更なる能力向上のネックになってしまったということです。

上記の問題点を完全に克服する非ノイマン型コンピュータやそれを構成する素子はまだ赤ん坊のような状態であり、これらがノイマン型コンピュータを置換するには、結構な時間がかかりそうです。一方、ビッグデータを学習したDLをビジネスで使いたいという要求は日に日に強まっていますので、ノイマン型コンピュータの欠点を改良しながら、少しでも能力を上げようという取り組みが行われています。

能力向上の1つの方向性は演算の並列化です。人間の脳は超並列演算器ですので、それを真似ているわけです。手段としては、まず、演算器を汎用演算器CPUから、本来はグラフィクス処理用で並列計算が得意なGPUに変更することから始まりました。

しかし、次第にそれだけでは満足できなくなってきたため、DL専用のASIC (Application Specific Integrated Circuit)やFPGA (Field Programmable Gate Array)に変わりつつあります。これらは電子を利用した半導体ではありますが、コンピュータアーキテクチャとして、より人間の脳の機能・構造に近づけたニューロモーフィック型が採用されています。

ニューロモーフィック型アーキテクチャを最初に実用化したのはIBM社やインテル社です。デジタル回路を用いる非ノイマン型と、アナログ回路を用いる非ノイマン型の2つの方向に分かれています。

人間のニューロンには1万近いシナプスがありますが、現在の半導体ではこの配線数は10程度です。人間に近づけようとすると配線爆発が起こり、それが限界を決めることになります。電子を利用した半導体を使うかぎり、この限界を超えることは出来そうもありません。別の方法を探す必要があり、後述します。

能力向上の異なる方向性は、DLニューラルネットワークの学習方法の改良です。現在のDLは大きく2つのニューラルネットワークを使用しています。1つは畳み込みニューラルネットワーク(以後CNN)であり、もう1つが再帰的ニューラルネットワーク(以後RNN)です。

CNNは画像解析に使われていますが、根本的に時系列データを処理するのには適さず、いわば静的な問題用の学習ツールです。一方、RNNは時系列データの学習に向いており、自然言語や動画の学習などに使われています。人間の脳は、多数の信号の時系列情報の結果としてパターン認識し判断していることが分かっていますので、人間の脳に近づけるにはRNNを高度化していく必要があります。

しかし、現在のDLの学習方法は、ニューラルネットワークの全要素に逆向きに誤差を伝播させ、誤差を最小化する方法に基づいており、その繋がりの数が増えると計算量が急増し、学習速度や現象を表現するパラメータ数に制限を生じさせています。

このRNNの欠点を改善する方法として提案されたのがリザバーコンピューティングです。このコンセプトは、固定した再帰的ニューラルネットワークを学習によって調整せずにリザバ―(溜池)として用いることから、リザバ―コンピューティングと呼ばれることになりました。

多層ニューラルネットワークでは、入力と出力があり、その途中を多層にして学習をしていきますが、リザバ―コンピューティングでは、入力と出力の間にはリザバ―があるだけで、リザバ―内は多数のパラメータが相互に繋がりあっています。入力はリザバ―内で非線形変換されて高次空間に写像されます。

面白いことに非線形写像は、判別が難しいパターンの差異を広げ、それらを線形分離する可能性高めます。これは、品質工学におけるタグチメソッドと同じ原理です。よって、パターン認識能力を高めるとともに、効率的な線形計算手法を適用できるので、誤差伝播を用いる従来手法に対して処理速度を大きく向上できます。

しかし、電子半導体を使用する限り配線から逃れることはできません。予測精度を上げるためにニューロンに接続するシナプスの数を増やせば、いずれ配線爆発により限界に達します。

以上から、次世代コンピュータの有力候補と目されるニューロモーフィックコンピュータにその本当の実力を発揮させるためには、配線を持たないリザバ―計算手段が必要だということです。では、どのような手段であれば、配線無しにできるのでしょうか? 

少なくともそれは電子を媒体としたものではありません。それを満たすのは、非線形変換が出来るものですが、物理現象にはそのような特性を持つものが多々あります。よって、物理現象を使って実現することが検討されています。それらは物理リザバ―コンピューティングと呼ばれていますが、光学系、磁気スピン系、機械系、生化学系などが候補として挙がっています。

光学系や磁気スピン系は波動現象を使用して配線を無くすことが可能であり、潜在性があります。半導体の中には発光するものがあり、うまくすれば既存の半導体製造技術や設備を流用できる可能性があるため、関心が高まっています。

上記はまだ研究段階であり、実用化には時間がかかるでしょう。しかし、配線の無いリザバ―コンピューティングが実用化され、ニューロンに接続するシナプスの数を数千レベルまで上げることが可能になると、人間の脳の能力に近づきます。従って、シンギュラリティが本当に起こってしまうかもしれないことになり、少し不安を感じてしまいます。

以上、当分の間、万能型、多用途型のAIを期待できないだろうことがご理解いただけたと思います。AIを事業に適用しようとすれば、当分の間、対象を限定した特化型とならざるを得ません。対象を限定したとしても、通常使用する深層機械学習が扱う学習データは、ある時点で切り取ったデータである場合が多く、静的な予測しかできないケースが多いと予想されます。

時系列の情報を扱おうとした途端に能力の限界に突き当たります。ゲームなどルールが不変の事例では、人間の何万倍ものスピードで学習できるので人間を凌駕することが可能でしょう。しかし、我々が扱う問題の多くは、ルールそのものが変動する極めて不安定なものが多いはずです。

ビッグデータを扱うDLが企業にとって役立つ場面は、人間では気付かない相関パラメータを見つけることと言えます。人権やプライバシーが強調されてビッグデータを集める環境が厳しくなる中、データ収集コストは確実に上がっていくと考えられます。本格DLの開発にはかなりの投資も必要です。

DL開発を行うのか、人材育成とMLあるいは簡易DLとの組合せで個々の問題を解決していくのか、よくよく検討して判断する必要があるでしょう。人間の能力もバカにできません。人間は、時系列に発生した事象を租借して仮説を構築する能力があります。製造現場でも設計現場でも経営の現場でも、各現場に特有のイベントがあり、人は意識的、無意識的にその場で学習し、問題解決や未来に対して仮説を立て、PDCAを回しながら目的を達成する習性を持っています。

もちろん人間にも問題がないわけではありません。専門の細分化が進んだ結果、狭い領域には詳しいが全体を俯瞰する能力を持つ人が減ってきています。ジョブ型人事システムは、運用を誤ると、その傾向に拍車を掛けることになるでしょう。

人間が、現在のAIに対して優位なのは、全体を俯瞰する能力やシステム思考です。本格DLの研究開発はしばらく大学や研究所に任せ、一般企業は、手軽に使えるようになったMLや簡易DLを使いこなす人材育成への投資と、それら専門人材のスキルを統合する仕掛づくりに投資するのが、最も効率が良いと考えます。 当社は、異分野の専門人材をつなぎ、ソリューションづくりを加速するノウハウと経験を持っています。必要な時にはご相談ください。