BMS、BUS、産業、計装ケーブル用。

春節が終わりに近づく中、DeepSeekをめぐる熱気は依然として高い。この春節はテクノロジー業界における激しい競争意識を浮き彫りにし、多くの人がこの「キャットフィッシュ」について議論し、分析している。シリコンバレーはかつてない危機感に見舞われている。オープンソース支持者は再び意見を表明し、OpenAIでさえも、自社のクローズドソース戦略が最善の選択であったかどうかを改めて検証し始めている。計算コストの低減という新たなパラダイムは、NVIDIAなどの半導体大手企業に連鎖反応を引き起こし、米国株式市場史上最大の1日当たりの時価総額下落につながった。政府機関はDeepSeekが使用するチップのコンプライアンス調査を進めている。海外ではDeepSeekの評価は賛否両論だが、国内では驚異的な成長を遂げている。R1モデルの発売後、関連アプリのトラフィックが急増しており、アプリケーション分野の成長がAIエコシステム全体を牽引していくことを示唆している。明るい面としては、DeepSeekによってアプリケーションの可能性が広がり、将来的にはChatGPTへの依存がそれほど高価ではなくなることが示唆されている。この変化は、OpenAIの最近の活動にも反映されており、DeepSeek R1への対応としてo3-miniと呼ばれる推論モデルを無料ユーザーに提供したことや、その後のアップグレードでo3-miniの思考連鎖を公開したことなどが挙げられます。この思考連鎖はあくまでも要約に過ぎませんが、多くの海外ユーザーからDeepSeekへの感謝の意が表明されました。
楽観的に見ると、DeepSeekが国内プレイヤーを統合しつつあるのは明らかです。トレーニングコストの削減に注力する中で、様々な上流チップメーカー、中間クラウドプロバイダー、そして数多くのスタートアップ企業がエコシステムに積極的に参加し、DeepSeekモデルの利用コスト効率を高めています。DeepSeekの論文によると、V3モデルの完全なトレーニングにはわずか278万8000時間のH800 GPU時間しかかからず、トレーニングプロセスは非常に安定しています。MoE(Mixture of Experts)アーキテクチャは、4050億のパラメータを持つLlama 3と比較して、事前トレーニングコストを10分の1に削減するために不可欠です。現在、V3はMoEにおいてこれほど高いスパース性を示す最初の公に認められたモデルです。さらに、MLA(Multi Layer Attention)は、特に推論の面で相乗効果を発揮します。 「MoEがスパースであるほど、推論中に計算能力を最大限に活用するために必要なバッチサイズは大きくなり、KVCacheのサイズが主な制限要因となります。MLAはKVCacheのサイズを大幅に削減します」と、Chuanjing Technologyの研究者はAI Technology Reviewの分析で述べています。DeepSeekの成功は、単一の技術だけでなく、様々な技術の組み合わせによるものです。業界関係者は、DeepSeekチームのエンジニアリング能力を称賛し、並列トレーニングと演算子最適化における卓越性、そして細部に至るまで改良を重ねることで画期的な成果を達成していることを指摘しています。DeepSeekのオープンソースアプローチは、大規模モデルの開発をさらに促進しており、同様のモデルが画像や動画などに展開されれば、業界全体の需要を大幅に刺激することが期待されます。
サードパーティ推論サービスの機会
データによると、DeepSeekはリリースからわずか21日間で2,215万人のデイリーアクティブユーザー(DAU)を獲得し、ChatGPTのユーザーベースの41.6%を占め、Doubaoのデイリーアクティブユーザー1,695万人を上回り、世界で最も急成長しているアプリケーションとなり、157の国と地域でApple App Storeのトップを獲得しました。しかし、ユーザーが殺到する一方で、サイバーハッカーはDeepSeekアプリを執拗に攻撃し、サーバーに大きな負荷をかけています。業界アナリストは、これはDeepSeekが学習用のカードを展開している一方で、推論に必要な計算能力が不足していることが一因であると考えています。業界関係者はAI Technology Reviewに対し、「頻繁なサーバー障害は、料金を請求するか、マシンを追加購入するための資金調達を行うことで簡単に解決できます。最終的にはDeepSeekの判断次第です」と述べています。これは、技術重視と製品化のトレードオフを示しています。 DeepSeekは、外部からの資金調達をほとんど受けておらず、量子量子化技術に大きく依存して事業を運営してきたため、キャッシュフローへのプレッシャーは比較的低く、技術環境も比較的清浄です。現在、前述の問題を受け、一部のユーザーはソーシャルメディア上でDeepSeekに対し、利用限度額の引き上げや有料機能の導入など、ユーザーの利便性向上を求める声が上がっています。また、開発者は公式APIやサードパーティAPIを活用した最適化も開始しています。しかし、DeepSeekのオープンプラットフォームは最近、「現在、サーバーリソースが不足しており、APIサービスへのチャージを停止しています」と発表しました。
これは間違いなく、AIインフラ分野におけるサードパーティベンダーにとって更なるビジネスチャンスの創出となるでしょう。最近、国内外のクラウド大手企業がDeepSeekのモデルAPIをリリースしており、海外ではMicrosoftとAmazonが1月末にいち早く参加しました。国内大手のHuawei Cloudは、2月1日にSilicon-based Flowと共同でDeepSeek R1およびV3推論サービスをリリースし、先陣を切りました。AI Technology Reviewの報道によると、Silicon-based Flowのサービスはユーザー流入が著しく、プラットフォームが事実上「クラッシュ」したとのことです。大手3社(BAT(百度、アリババ、テンセント)とByteDance)も2月3日から低価格の期間限定オファーを開始しました。これは、DeepSeekのV2モデルのリリースをきっかけに始まった昨年のクラウドベンダー価格競争を彷彿とさせ、DeepSeekが「価格破壊者」と呼ばれるようになった状況を彷彿とさせます。クラウドベンダーの慌ただしい動きは、Microsoft AzureとOpenAIの以前の強固な関係を彷彿とさせます。2019年、MicrosoftはOpenAIに10億ドルもの巨額投資を行い、2023年のChatGPTのリリース後にその恩恵を受けました。しかし、MetaがLlamaをオープンソース化し、Microsoft Azureエコシステム外のベンダーが大規模モデルで競合できるようになったことで、この緊密な関係は徐々に崩れ始めました。今回、DeepSeekは製品の人気度でChatGPTを凌駕しただけでなく、o1リリース後にオープンソースモデルも導入しました。これは、LlamaによるGPT-3の復活をめぐる熱狂に似ています。
実際には、クラウドプロバイダーも AI アプリケーションのトラフィックゲートウェイとしての位置付けをしており、開発者との関係を深めることは先制的な優位性につながります。レポートによると、Baidu Smart Cloud では、モデルの発売日に Qianfan プラットフォーム経由で 15,000 社を超える顧客が DeepSeek モデルを利用していました。さらに、Silicon-based Flow、Luchen Technology、Chuanjing Technology、および DeepSeek モデルのサポートを開始したさまざまな AI インフラプロバイダーなど、いくつかの小規模企業もソリューションを提供しています。AI Technology Review は、DeepSeek のローカライズされたデプロイメントの現在の最適化の機会は主に 2 つの領域に存在することを知りました。1 つは、ハイブリッド GPU/CPU 推論を利用しながら、6,710 億のパラメーターを持つ MoE モデルをローカルにデプロイする混合推論アプローチを使用して、MoE モデルのスパース特性を最適化することです。さらに、MLA の最適化が不可欠です。ただし、DeepSeek の 2 つのモデルは、デプロイメントの最適化において依然としていくつかの課題に直面しています。 「モデルのサイズと多数のパラメータのため、最適化は非常に複雑です。特にローカル展開では、パフォーマンスとコストの最適なバランスを実現するのが困難です」と、Chuanjing Technologyの研究者は述べています。最大のハードルは、メモリ容量の制限を克服することです。「CPUやその他の計算リソースを最大限に活用するために、異種連携アプローチを採用しています。疎なMoE行列の非共有部分のみをCPU/DRAMに配置し、高性能CPU演算子を用いて処理し、密な部分はGPUに保持します」と、研究者は説明しています。報告によると、ChuanjingのオープンソースフレームワークKTransformersは、主にテンプレートを通じて様々な戦略と演算子を元のTransformers実装に注入し、CUDAGraphなどの手法を用いた推論速度を大幅に向上させます。DeepSeekは、成長のメリットが明らかになるにつれて、これらのスタートアップ企業に機会をもたらしています。多くの企業がDeepSeek APIのリリース後に顧客数の顕著な増加を報告し、最適化を求める既存顧客からの問い合わせを受けています。業界関係者は、「これまで、ある程度の規模の顧客グループは、規模の経済性によるコスト優位性に縛られ、大企業の標準化されたサービスに縛られることが多かった。しかし、春節前にDeepSeek-R1/V3の導入を完了した後、複数の著名な顧客から突然協力の依頼を受け、以前は休眠状態にあった顧客からもDeepSeekサービスの紹介を求める連絡が入った」と指摘している。現在、DeepSeekはモデル推論性能をますます重要にしており、大規模モデルの採用が拡大するにつれて、AIインフラ業界の発展に大きな影響を与え続けるだろう。DeepSeekレベルのモデルを低コストでローカルに導入できれば、政府や企業のデジタルトランスフォーメーションの取り組みに大きく貢献するだろう。しかし、大規模モデルの性能に高い期待を抱く顧客もいるため、課題は依然として残っており、実用化においては性能とコストのバランスが不可欠であることがより明らかになっている。
DeepSeekがChatGPTよりも優れているかどうかを評価するには、両者の主な違い、強み、そしてユースケースを理解することが重要です。以下に包括的な比較を示します。
特徴/側面 | ディープシーク | チャットGPT |
---|---|---|
所有 | 中国企業が開発した | OpenAIによって開発 |
ソースモデル | オープンソース | 独自の |
料金 | 無料で使用可能。より安価なAPIアクセスオプション | サブスクリプションまたは従量課金制 |
カスタマイズ | 高度にカスタマイズ可能で、ユーザーが微調整したり、構築したりできる | カスタマイズは限定的 |
特定のタスクにおけるパフォーマンス | データ分析や情報検索などの特定の分野で優れている | 創造的なライティングと会話のタスクで優れたパフォーマンスを発揮する多才な人材 |
言語サポート | 中国語と中国文化に重点を置く | 幅広い言語サポートだが米国中心 |
研修費用 | トレーニングコストを削減し、効率を最適化 | トレーニングコストが高く、かなりの計算リソースが必要になる |
応答の変動 | 地政学的状況の影響を受け、異なる対応が取られる可能性がある | トレーニングデータに基づく一貫した回答 |
ターゲットオーディエンス | 柔軟性を求める開発者や研究者向け | 会話機能を求める一般ユーザー向け |
ユースケース | コード生成とクイックタスクの効率が向上 | テキストの生成、クエリへの回答、対話に最適です |
「NVIDIAの破壊」に関する批判的視点
現在、ファーウェイ以外にも、ムーア・スレッド、Muxi、ビラン・テクノロジー、天旭志心といった国内チップメーカーがDeepSeekの2つのモデルを採用している。あるチップメーカーはAI Technology Reviewに対し、「DeepSeekの構造は革新性を示していますが、依然としてLLM(法学修士)です。DeepSeekへの適応は主に推論アプリケーションに焦点を当てているため、技術的な実装は非常に簡単かつ迅速です」と語った。しかし、MoEアプローチは、ストレージと分散処理に関してより高い要求を満たす必要があり、さらに国産チップとの互換性を確保する必要があり、適応時に解決すべき多くの技術的課題を提示する。「現在、国産の計算能力は、使いやすさと安定性においてNVIDIAに匹敵しておらず、ソフトウェア環境の設定、トラブルシューティング、そして基礎的なパフォーマンス最適化には、工場の協力が必要です」と、ある業界関係者は実務経験に基づいて述べている。同時に、「DeepSeek R1のパラメータスケールが大きいため、国内の計算能力では並列化のためにより多くのノードが必要になります。さらに、国内のハードウェア仕様はまだやや遅れており、例えばHuawei 910Bは現在、DeepSeekが導入したFP8推論をサポートできません。」DeepSeek V3モデルのハイライトの一つは、FP8混合精度トレーニングフレームワークの導入です。これは非常に大規模なモデルで効果的に検証されており、大きな成果となっています。以前、MicrosoftやNvidiaなどの大手企業が関連作業を提案していましたが、業界内では実現可能性について疑問が残っています。INT8と比較して、FP8の主な利点は、トレーニング後の量子化によってほぼロスレスの精度を実現しながら、推論速度を大幅に向上できることだと理解されています。FP16と比較すると、FP8はNvidiaのH20で最大2倍、H100で1.5倍以上の高速化を実現できます。特に、国産計算能力と国産モデルのトレンドをめぐる議論が活発化するにつれ、Nvidiaが破壊される可能性やCUDAの堀を回避できるかどうかについての憶測がますます広まっている。DeepSeekがNvidiaの時価総額を大幅に下落させたことは否定できない事実だが、この変化はNvidiaのハイエンド計算能力の完全性に関して疑問を投げかけている。資本主導の計算蓄積に関するこれまで受け入れられてきた物語は異論を唱えられつつあるが、トレーニングシナリオにおいてNvidiaを完全に置き換えることは依然として困難である。DeepSeekのCUDAの深い使用法を分析すると、通信にSMを使用する、ネットワークカードを直接操作するなどの柔軟性は、通常のGPUでは実現不可能であることがわかった。業界の見解では、Nvidiaの堀はCUDA自体だけでなくCUDAエコシステム全体を網羅しており、DeepSeekが採用しているPTX(並列スレッド実行)命令は依然としてCUDAエコシステムの一部であることが強調されている。 「短期的には、NVIDIAの計算能力を無視することはできません。これは特にトレーニングにおいて顕著です。しかし、推論用の国産カードの導入は比較的容易であるため、進歩はより迅速になるでしょう。国産カードの採用は主に推論に焦点を当てており、DeepSeekのパフォーマンスを国産カードで大規模にトレーニングできた企業はまだありません」と、ある業界アナリストはAI Technology Reviewに述べています。全体的に見て、推論の観点から見ると、国産の大規模モデルチップにとって状況は明るいと言えるでしょう。推論分野における国産チップメーカーの機会は、トレーニングの要件が過度に高く、参入障壁となっているため、より顕著です。アナリストは、国産推論カードを活用するだけで十分であり、必要に応じて追加のマシンを導入することも可能であると主張しています。一方、トレーニングモデルには独自の課題があります。マシン数の増加は管理の負担となり、エラー率の上昇はトレーニング結果に悪影響を及ぼす可能性があります。トレーニングには特定のクラスター規模の要件がありますが、推論用のクラスターに対する要求はそれほど厳しくないため、GPU要件は緩和されます。現在、NVIDIAのH20カード単体の性能は、HuaweiやCambrianの性能を凌駕するものではなく、その強みはクラスタリングにあります。Luchen Technologyの創業者であるYou Yang氏は、AI Technology Reviewのインタビューで、計算パワー市場全体への影響を踏まえ、「DeepSeekは、超大規模トレーニング用計算クラスターの構築とレンタルを一時的に阻害する可能性があります。長期的には、大規模モデルのトレーニング、推論、アプリケーションに関連するコストを大幅に削減することで、市場需要が急増する可能性があります。したがって、これに基づくAIの今後のイテレーションは、計算パワー市場における持続的な需要を継続的に促進するでしょう」と述べています。さらに、「DeepSeekによる推論およびファインチューニングサービスへの需要の高まりは、国内の計算環境(現地の能力が比較的弱い)との親和性が高く、クラスター構築後の遊休リソースの無駄を軽減するのに役立ちます。これは、国内の計算エコシステムのさまざまなレベルのメーカーにとって、実行可能な機会を生み出します」と述べています。ルーチェン・テクノロジーはファーウェイ・クラウドと提携し、国産コンピューティング能力を活用したDeepSeek R1シリーズの推論APIとクラウドイメージングサービスを開始しました。楊有氏は将来への楽観的な見通しを示し、「DeepSeekは国産ソリューションへの信頼を高め、今後、国産コンピューティング能力へのさらなる熱意と投資を促します」と述べました。

結論
DeepSeekがChatGPTより「優れている」かどうかは、ユーザーの具体的なニーズと目的によって異なります。柔軟性、低コスト、カスタマイズが求められるタスクでは、DeepSeekの方が優れている可能性があります。一方、クリエイティブライティング、一般的な問い合わせ、ユーザーフレンドリーな会話型インターフェースといった用途では、ChatGPTが優位に立つ可能性があります。それぞれのツールは目的が異なるため、使用状況によって選択は大きく異なります。
制御ケーブル
構造化配線システム
ネットワーク&データ、光ファイバーケーブル、パッチコード、モジュール、フェースプレート
2024年4月16日~18日 ドバイにおける中東エネルギー会議
2024年4月16日~18日 モスクワのSecurika
2024年5月9日 上海で新製品・新技術発表イベント開催
2024年10月22日~25日 北京にて開催されたSECURITY CHINA
2024年11月19日~20日 コネクテッドワールドサウジアラビア
投稿日時: 2025年2月10日