同じような外観検査装置用のAIでも魔法瓶の傷と、パソコンやスマホなどの電子製品の傷は異なる。製品ごとに傷の定義は異なるため、外観検査用AIでも汎用性はない。製品ごとに傷の種類を学習し直さなければならず、つまり専用AIなのである。
これに対し汎用AIは、外観検査用AIなら、どのような用途でも使え、顧客ごとにカスタマイズする必要がなくなる。生成AIはどのような問いにも答えを出してくれるという意味で汎用AIに近づいているのだ。
しかし、どのような質問にも答えてくれる、ということは学習させるべきデータ量が膨大になることを意味する。
2016年に発表されたディープラーニングの画像認識用ニューラルネットワークモデルの「ResNe-t50」は2500万パラメータしかなかったが、2018年にGoogleの研究者が発表した自然言語モデルの「BERT-Large」は3億4000万パラメータになり、2020年6月に発表されたチャットGPTに使われた「GPT-3」では1750億パラメータにも膨れ上がった。現在開発中のモデルだと1兆パラメータと予想されている。
これほど膨大になると、学習させるのに必要な時間は優に数百日以上となり、もっと高性能なAIチップが求められる。アメリカ・カリフォルニア州のスタートアップであるCerebras社は、2019年にウエハースケールの集積回路IC(21.5×21.5cm)を開発した(右写真)。
Cerebras社の創業者兼CTO(最高技術責任者)のGary Lauterbach氏は「巨大なAIソフトウェアの開発者は、今の(2019年時点で)GPUでは学習させるためのコンピュータ処理時間が数百日もかかる。このため巨大なモデル作りをあきらめようとしていた」と述べている。巨大なソフトウェアモデルには、巨大で超高性能なAIコンピュータが必要なのだ。
エヌビディアが高性能なAIチップを次々と開発する理由は、大規模言語モデルに基づく生成AIの進化に匹敵する半導体が必要だからだ。AIチップ1個の性能を上げることと同時に、そのチップを数千個並列接続してAIコンピュータの性能を上げられるように拡張性を持たせることが主眼となる。
また、並列演算を制御するためには、多数のAIチップをつないで制御するためのネットワークプロセッサも必要になるが、エヌビディアはそれも開発済みだ。
なぜエヌビディアは、ここまでAI分野で圧倒的な地位を築くことができたのか。2010年代中ごろからAIが第3次ブームになったときに、ニューラルネットワークをモデルにしたアルゴリズムが使われた。
これは人間の頭脳のニューロンとシナプスを基本とした神経ネットワークを模擬したモデルである。このモデルの基本は、積和演算、すなわち多数の掛け算を足し合わせるという演算がGPUの演算と同じだった。
つまりGPUを、ほぼそのままニューラルネットワークの演算すなわちAIの演算に使えたのである。エヌビディアはAI向けのソフトウェアライブラリを揃え、多数のAIモデルを充実させ、GPUとともにAIビジネスを推進してきた。
データセンターにおけるAIコンピュータでは、大量のGPUをつなげてコンピュータを構成する。GPU同士がつながったネットワークシステムとなっており、それらのデータが内部で衝突しないよう制御するためのネットワークプロセッサが必要になる。同社はネットワークプロセッサを扱うMellanox社を2020年に買収している。
エヌビディアがAIに賭ける技術開発は止まらない。最新チップのGH200は、CPU+GPUで構成されている。行列演算結果でゼロが多くなりがちなニューラルネットワーク演算の効率を上げるため、密行列の演算にはGPU、疎行列にはCPUと、それぞれ使い分けることで性能と電力効率を上げている。
GPUが主力だったエヌビディアだが、CPUも手がけるようになった。生成AIへの意気込みは半導体にとどまらず、ソフトウェアの充実化も進める。AMDやCerebrasなどが後を追うが、当分は独走状態が続きそうだ。