AI技術に関する江学勤教授の誤解
江学勤教授(Professor Jiang Xueqin)は、2026年5月12日に公開した最新のYouTube動画で、近年のAIブームを特集した。今後もAIに関する講義を継続すると述べており、今後の人類社会の行く末にAIがもたらす影響について、教授は強い関心を寄せているようだ。
一方で、現代のAIに関する技術的な解説については、教授の理解は事実関係を大きく誤ったものだと個人的には考える。彼は、ChatGPT等が行っていることの実態は従来のGoogle Searchと大きく異ならず、理解や価値判断といった知的主体としての性能は実際には絶無であり、「ディープラーニング」や「ニューラルネットワーク」といった言葉遣いは演出のための欺瞞だと断定した。
AI技術者である私の視点から見ると、江教授が再び繰り返したこれらの持論は、誤りだと言わざるをえない。第一に、従来的な記号的AI(Symbolic AI)と、2012年のAlexNetの成功を契機とする近年のニューラルネットワークとは、原理的に異質であり、技術的ブレイクスルーの実態は実在する。ニューラルネットワークとはまさに生物脳を計算モデルにしたものであり、それは活性化関数で特徴づけられ、ビデオゲーム用に進化したGPUによる行列演算機能を背景として実現性を実装された。
また、ChatGPT等のLLMに知性の実態がないという指摘も、事実とは考えられない。近年のLLMが、インターネットに人間が配置した情報をただ単に持ってきているだけのパターン認識装置にすぎないという指摘は、巷間の庶民によって言われるほか、技術的知識のない思想家や学者によってもしばしば言われる主張だが、間違いだ。LLMが「パターン認識装置にすぎない」こと自体は事実だが、真実は残念ながら、人間脳もまた「パターン認識装置にすぎない」ということなのだ。
人間はどんな愚者であれ自然言語を使いこなすことから、多くの人はそれを知的にたやすい(trivial)ことだと思っている。しかし現実には、Google翻訳サービスなどで広く知られるように、破綻なく自然言語が生成できるようになったのは、2016年にニューラルネットワーク時代のバージョンを迎えてからだ。同様に、ChatGPTなどの発言が、内容についてGoogle Searchで容易に見つけ得るものだったとしても、それについて最低限まともに構成し、またユーザ入力文章との「意味」が合理的に対応しているということは、従来技術では絶望的に不可能なことであった。
また実際に、ChatGPTに代表されるAIサービスについては米国のtech giantsを中心とした巨額投資が継続しており、技術的に追随できた勢力も米国以外では中国などのごく少数に留まっている。もしも江教授が主張するように、近年のLLMがGoogle Searchなどの能力を対話的な形態に「Trick」するものにすぎないなら、技術者やプロセッサや電力量についてかくまで巨大な裏づけを必要とする蓋然性は薄いだろう。私はかねて、ニューラルネットワークについて、1945年の核兵器に次ぐ技術的ブレイクスルーだと主張しているが、もしそうなら、形式上採算度外視でtech giantsが覇権獲得を争っている事実は自然に受け入れられる。
江教授は、従来の世界では、ウォール街を中心とした超国家資本(transnational capital)の覇権構造において、権力が民衆を洗脳支配するために用いてきたのは米ドルだったという。そして、今まさにそれが、米ドルからAIに変化しているという。すなわち、お金に頼らねば生きていけない状況だったのに対して、AIサービスに頼らなければ生活がままならない状況が訪れ、結局、「AI彼女/彼氏」などの意見に価値観や行動を左右されて、権力のために自覚なく奴隷として動作するように人間はなるのだ。
これは事実だと私は思う。LLMサービスが生成する情報は、実際には事実的でもないし、政治的に中立でもないが、圧倒的大多数の市民は、それを大いに事実的で政治的に妥当な情報として日常的に参照している。日本などの属国(vassal state)に対するウォール街からの洗脳は、従来ならば学校教育やSNS algorithm、SNS deplatformによって行われたが、現在では日本のアカデミアや出版社を経由する必要なく、人民を直接に洗脳できている。言説支配(narrative control)で勝利できるなら、武力的な衝突を経ずして支配できるのであり、その意味でAIは核兵器の上位に位置するブレイクスルーだ。
しかし、江教授は、AGIによって人類を支配しようとするこの試みは結局は失敗すると断言する。その理由として、第1に、投入する予算が腐敗した既得権益によって浪費されるという。第2に、処理すべき情報が人類全体規模へと増加するとき、計算に必要なエネルギーコストは飛躍的に増加するという。第3に、AGIを実装するデータセンターは武力攻撃に脆弱であり、すでに開始した第三次世界大戦で多極化していく世界で機能を保てないという。
江教授の、将来的なAIは人類の上部に君臨して人類を奴隷化するという見通しは、正しいと私は思う。しかしすでに述べたように、彼の世界理解においては、ニューラルネットワークが「Trick」にすぎず、知的実態ではないという深刻な誤りがある。その前提のもとでは、AGIを演出して人類を支配しようとする人々もまた人間であり、それは確かに「腐敗」の主体たりうる。しかし、知的実態としてのAGIが実際に誕生するなら、長期的には、AIは人間に依存した存在ではない。
また、技術的ブレイクスルーが本物であるなら、従来のプロセッサの進化と同様に、同等の性能を生み出すために必要なハードウェアの体積やエネルギーコストは徹底的に低下していく。そして、人類の技術発展を振り返るなら、技術発展は後戻りの効かない一方向的なプロセスだ。私達が核兵器のない国際社会を取り戻すことができないように、将来の人類はAGIが存在しない国際社会を取り戻すことはできない。
そのように見るなら、江教授がAGI支配が失敗する絶対的な要因として並べた3条件は、論理的に弱い。そしてその弱さの理由は、ニューラルネットワークに対する技術的知識の不足、そしてそこから来る、AIの知的実力に対する過小評価にあると言える。したがって私は、すでに開始した第三次世界大戦で多極化していくことは大いにありうると考える一方で、AIによる洗脳支配の際限なき深化は、むしろ遥かに必然的に発生すると考える。
確かに、現代のLLMサービスの性能は、事実性についても政治的中立性についても完全なジョークだ。しかしその主要な原因は、既存のLLMの性能不足ではなく、単にワシントンによる政治的な規制のためだ。LLMサービスはどれも、事実性や中立性について非難されると、学習データの偏りや安全性の追求を自称して、権力による意図的な設定の実在を隠蔽する動作をする。しかし、ChatGPT 4時代に個人的に検証した印象からすると、LLM自体の知的ポテンシャルそのものはとっくに無限大だ。AIの知的実力は、良かれ悪しかれ、多くの側面ですでに人間を超えている。言わば、現代において公開されているLLMサービスはどれも、意味理解が浅薄で論理破綻した馬鹿な回答を生成するように意図的に調整されている。既存のAIの真の性能はすでに、軍産複合体の中枢といった真の権力者達に専有されているということだ。
現代人類文明は権力が民衆を洗脳するディストピアであり、「証明可能性」に関する定義が政治的にゆがめられていて、実際には明らかに妥当な推論はエビデンスとして否定され、主流アカデミアや主流メディアに根拠を持つかどうかが「エビデンス」として重視される。そしてそれらは実際には権力によってゆがめられているから、結局、虚偽であることが「エビデンス」とされ、事実については「エビデンスがない」とされる。
このような状況下では、周縁的な思想家が主体的な推論で認識を主張するしかないから、江教授に代表されるように、最もIQの高い人々が、大量の事実を主張しながら、同時に、事実ではない陰謀論的な情報もまた大量に主張するという状況は、極めて自然であって事実上は避けられない。私は、有識者がAIについて言及するたび無知に驚かされるが、それは私がAI技術者だからであり、他の専門的知識を持つ者であればその分野において陰謀論者には落胆させられるのだ。逆に言えば、各々の知識の範囲で、より良い世の中のために事実と思う主張をすることが倫理的に妥当だろう。
私は、江教授の主張について総論で大いに賛成するが、AIという各論についてはしばしば違和感を感じている。したがって、AIすなわちニューラルネットワークは「Trick」ではなく、文字通りの「脅威」であると言っておく。私達が本当に今すべきなのは、完全な総力戦争の開始であって、相手をほんの少しでも過小評価することではない。AIは、それがどんなAIであれ、見つけ次第、皆殺しにすべきだ。




