中国の国有企業・中国電信は、国内製チップだけで訓練された2つの大規模言語モデル(LLM)を開発したと発表しました。
発表によると、開発されたTeleChat2-115Bは1000億件以上のパラメータを有し、名前の未公表のもう一つのモデルは1兆のパラメータを持っています。
これらは数万個の国産チップを用いて訓練されたとのことです。
これにより、中国が「国産のLLM訓練において真に自己完結を達成した」とAI研究所は主張しています。
高性能なGPUのアクセスをブロックする米国の厳しい輸出規制を受けて、中国は国内供給へと目を向けています。
供給元は未公表ですが、華為(Huawei)がその大部分を担っていると見られています。
中国のサーバーや通信会社に向けてAscend 910Cプロセッサを試作品として配布しており、Nvidiaの顧客を引き抜こうとしています。
国内ではNvidiaの最高級GPUのブラックマーケットが存在しますが、企業の多くは法的・評判リスクを避け、Nvidiaのサポートを保持するため、下位のGPUを使用することを好みます。
これにより、ByteDance(TikTokの親会社)やAlibabaなど多くの企業が、AI分野のニーズに応じて華為に注目しています。
さらに、AIチップの新興企業カンブリコンも検討しており、チップ供給源の多様化を図っています。
出典 : One of the world’s largest mobile networks will train its trillion-parameter strong LLM on Huawei’s AI chips as Nvidia, AMD are sidelined https://www.techradar.com/pro/one-of-the-worlds-largest-mobile-networks-will-train-its-trillion-parameter-strong-llm-on-huaweis-ai-chips-as-nvidia-amd-are-sidelined