第49回 少し前に話題だったDeepSeekについて、いろいろ分かってきたような気がしてきたので、つらつらと書いてみた。
まえがきは割愛させていただきます。
本編が短いので、本編のみでお楽しみください。
●’25/2/16(日)
最近、AIに関連したプログラム関係で本業が非常に忙しくなっており、追い込まれ侍な日々を送っている。
ようやく新しい小説をスタートさせたのに、ちょっといろいろ考えている修正も追い付かず、もうそのままとりあえず出しちゃうかと考えている今日この頃である。
さて、掲題のDeepSeek。
一時、とても話題になっていた中国版AIである。
非常に低いコストでOpenAIのChatGPTに近い性能が出ているという話である。
だが、中国版ということで、中国へのデータ収集問題が起こりかねないため、実はまだ使っていない。
皆さんの中でもし使われた方がいらっしゃれば感想を教えていただきたい。どの程度パフォーマンスがあるのかなど。
このDeepSeekというAIプログラムであるが、特徴として、NVIDIAのハイパフォーマンスGPUが必要ないほど、計算の簡略化が可能な構成になっている。
この特徴は良くニュースでも言われているので、ご存じだと思う。
で、このプログラムに関して、すでにかなりの解析が進んできているおり、少し確からしい情報を掴んだので、書きたいと思う。
結論から簡単に言うと、DeepSeekは各分野の専門性を持たせたパターン解析エンジンが256個存在する(らしい)。
そして、ユーザーの質問に対して、56分野が主に解析を進めるようになっている。
このアーキテクチャをMixture of Experts、頭文字を取ってMoEと言う。
専門家を設けており、今までのように手当たり次第のパターン解析を行うわけではない。
それゆえに計算量を約1/10にできるのである。
質問によってはもっと簡略化させ、計算量を落とすことができるとのことである。
この手法は、アメリカが半導体輸出規制を行い、中国にハイスペックの半導体が行き渡らない状態となったため、中国側の開発者がそれを使わずとも良い結果が得られるように考え出された苦肉の策である。
だが、その成果は思った以上に効率かつ有効であったのだ。
AIというのは、言ってみれば、膨大なパターン解析を行う方法が一般的である。
例えば猫の絵の判別。猫の絵をこれは猫だよと言ってAIに渡す。そして逆にこれは猫ではないと言って犬の絵を渡す。これを教師データという。
人間には猫の絵に見えても、AIにとってそれは数字のデータでしかない。
画素毎にRed、Green、Blueそれぞれの色の0~255(8bit)の数字があり、それぞれがどういった配置で置かれているか、そのパターンをAIは学習する。
それはもう恐ろしいほどの並列処理で、ありとあらゆる配置の組み合わせを試していき、AIが「あー、猫はこういう色の配置パターンがあるんだね。」と理解するわけである。
そして、次の絵を出して「これは猫か?」と聞くと、そのパターンに当てはめて処理して、猫かどうかを判断しているわけである。だから教師データはできるだけ多くの種類があった方が良い。
今のDeepLearningを代表とするAIと従来の機械学習は何が違うかというと、機械学習の場合は、あらかじめ特徴を人間が決めており、そこに関するパターンを覚えさせるのである。
例を上げると、猫は鼻がペチャッとなってて、耳が三角で、という特徴を人間がコンピュータに教えておくのだ。
そして、いろんな猫の絵を見せるが、コンピュータは鼻の部分や耳の部分のパターンを覚える。
そして、コンピュータが判断する時は鼻や耳の部分で判断する。
しかし、AIは違う。
どこに特徴があるのかをAIが見つけ出し、勝手に判断基準を作るのだ。
だからやたら滅多にパターン解析をする必要がある。
そして、そのためにCPUよりも計算する部分が多いGPUが使われるのである。
その計算に関して、アメリカ側のAIは、もう半導体のハイパフォーマンスにモノを言わせて、そんなのあり得ないでしょというパターンさえも解析するのだ。
だが、中国のDeepSeekは例えば動物の鑑定士エンジンがあり、そこを起点にパターン解析を進める。
あらかじめ解析のパターンを絞って調べるため、低い計算能力の半導体でも見つけられるといった具合である。(詳細にはもちろんもっと複雑だが。)
ただ、この方法はアメリカでも議論はされてきていた。
しかし、高性能半導体があるため、もう計算いっぱいやっちゃえばいいじゃんと、そちらに舵を切っていたわけである。
そういうソフトの構成であることを踏まえて、性能に関して、どうなるかを私自身、少し考えた。
確かにすでにある程度答えが分かっているものに関してはこの専門家システムは有効だと思う。
しかし、本当に訳の分からないものに関してはやはり膨大な計算資源を使って、ありとあらゆる方向から解析してこそ、おっと思わせる解答が得られるように思う。
私は、AIの価値はその思いも拠らない特徴量を探し出すことこそあると思っているので、専門家のアプローチはちょっとなと思ったりもする。
しかし、今回のDeepSeekの騒動で、一般的な質問に対しては専門家アプローチは非常に有効だと理解した。
そして、それが分かった瞬間からハイスペック半導体側に形勢が戻ってしまったと言える。
ソフトウェアの仕組みは、分かってしまうと、短い時間でキャッチアップされてしまう。
ソフトができてしまえば、中国の半導体にできて、アメリカの半導体にできないわけはない。
むしろもっと性能の差が付くだろう。
ただし、逆はほぼ不可能である。
最新半導体である超高密度である2nm半導体はそう簡単にマネできるものではない。
中国は追い付いてきているとはいえ、まだ7nm。これが2次元で効いてくるので、9倍以上の密度差である。
半年くらいの差という人もいるが、そんなに甘いものではない。
これは実に3、4世代の差。少なくとも2、3年はかかるのではないかと勝手に思っている。
そうなると中国が喉から手が出る程欲しいものが見えてくる。
中国の欲しいもの。それは、ご存じの通り、台湾である。
台湾には現在、NVIDIAの半導体の大半を製造しているTSMCという半導体製造請負会社がある。ここの技術はとんでもない。世界でほぼこの会社でしか作れないものがある。
もし仮に、中国が台湾を自国に引き込んだ場合、中国はTSMCが持つ製造技術の情報を吸い上げ、間違いなく中国本土の半導体製造会社に渡すだろう。
中国の企業には国に情報を提供する義務があるからだ。
だから、同じ理由で、DeepSeekは危険だと言われている。
だが、アメリカの企業にはその義務はない。
そのため、以前Appleが犯罪者のi-Phoneの情報を頑なに引き出すことを拒んだ。
国家権力にAppleが逆らった形だ。
でも、中国の企業にはそれはできない。
なので、アメリカも黙っていない。
トランプ大統領だ。
現在、TSMCにトランプがインテルの工場運営参画を打診している。
台湾の防衛費用を盾にして主張している。
まだ明確にどういう契約になるのかは伝えられてないが、インテルに対して、ある程度の製造技術開示をしろと要求するのではないかと思う。
このコラムの結論だが、DeepSeekがもたらしたもの、それはAIというのは、とどのつまり半導体性能に依存するよねという当たり前のことが鮮明になったことだ。
(投資家はそんなこと何も考えず動くからNVIDIAの株価は17%も下落してしまったが。恐ろしいのはフジテレビの株価が問題発覚前の2倍になってる。。。投資家よ、ちょっと投資の本来の意味を考えてくれ。まあ、それは置いといて。(笑))
私のようなソフトエンジニアからするとちょっと悲しい話であるが、ソフトの組み方というのは特許になりにくい。
なってもパクられる可能性が非常に高い。
ただ、ソフトが魂の部分になりつつあるのは確かだから、この点は社会構造を見直す必要があるのではと思ってしまう。
まあそう思うのは、私がソフトエンジニアだからなのかもしれないが。(笑)
少し話は変わるが、DeepSeekはオープンソースである。つまりソフトが丸見えなのだ。
このことに、何かこの企業の博愛的精神を感じるのは私だけであろうか。
これが本当に世界が良くなればと考えてのことなら、中国という国からこういう精神が産まれ、自由競争を謳う資本主義のアメリカ大統領が最も自由競争からかけ離れつつあるこの時。何かすごく奇妙な感覚に囚われてしまう。
そんな時代に、私が望むただ1つの願い。戦争は起こらないで欲しい。ただそれだけだ。
海外にいると戦争起こると日本帰りにくくなったりするので。
なんだ?自分勝手な理由かよ。
お後がよろしいようで。(笑)
読んでいただき、誠にありがとうございました。
あと、ちょっとだけ「あとがき」を書いておこうと思います。
CPUとGPUの違いについてです。
超簡単に比喩表現すると、
CPUと言うのは、大学教授が10人くらいいる部屋で、
GPUと言うのは、小学生が10万人くらいいる部屋です。
そこに対して、メールで問題を出します。
簡単な足し算を10万問解く問題です。
大学教授は超賢いですが、足し算とはいえ、さすがに10人で10万問解くには非常に時間がかかります。
ですが、小学生が10万人いれば、10万問は一人に1問。解くのは一瞬です。
(あっ、小学生が足し算間違えない前提で、かつ少子化なので10万人集められないはなしです。)
計算部分の能力はGPUが低いけれど、計算速度が速いのはこういった計算機の構造の違いなんです。
あと、実は画像解析とかの計算はほぼ四則演算のような簡単な計算だけで事足りる場合が多いのです。
なので、GPUのコア能力が低くても問題ないわけです。
(まあ、最近のGPUのコアはかなり優秀ですが。)
以上、あとがきでした。