BMS、バス、産業、計装ケーブル。

春のフェスティバルが終わりに近づくにつれて、Deepseekを取り巻く興奮は引き続き強いです。最近の休日は、テクノロジー業界での競争の重要な感覚を強調し、多くの人がこの「ナマズ」について議論して分析しました。シリコンバレーは前例のない危機感を経験しています。オープンソースの支持者は再び意見を表明しており、オープンは、閉鎖戦略が最良の選択であるかどうかを再評価しています。計算コストの低下の新しいパラダイムは、Nvidiaのようなチップ巨人の間で連鎖反応を引き起こし、米国の株式市場史に1日の市場価値の損失を記録し、政府機関はDeepSeekが使用するチップのコンプライアンスを調査しています。国内では、海外のDeepseekのさまざまなレビューの中で、並外れた成長を経験しています。 R1モデルの発売後、関連するアプリにはトラフィックが急増しており、アプリケーションセクターの成長がAIエコシステム全体を前進させることを示しています。肯定的な側面は、DeepSeekがアプリケーションの可能性を広げることであり、ChatGPTに依存することは将来それほど高価ではないことを示唆しています。このシフトは、DeepSeek R1に応じてユーザーをフリーユーザーにするためのO3-Miniと呼ばれる推論モデルの提供や、O3-Miniの思考チェーンを公開した後続のアップグレードなど、Openaiの最近の活動に反映されています。多くの海外のユーザーは、これらの開発にDeepseekに感謝の意を表明しましたが、この思考チェーンは要約として機能します。
楽観的には、Deepseekが国内のプレーヤーを統一していることは明らかです。トレーニングコストの削減に重点を置いて、さまざまな上流のチップメーカー、中級クラウドプロバイダー、および多数のスタートアップがエコシステムに積極的に参加し、DeepSeekモデルを使用するためのコスト効率を高めています。 DeepSeekの論文によると、V3モデルの完全なトレーニングには2.788百万H800 GPU時間しか必要ありません。トレーニングプロセスは非常に安定しています。 MOE(専門家の混合)アーキテクチャは、4050億パラメーターを持つLlama 3と比較して、トレーニング前コストを10倍削減するために重要です。現在、V3は、MOEでこのような高いスパース性を示す最初の公開モデルです。さらに、MLA(マルチ層の注意)は、特に推論的な側面において、相乗的に機能します。 「MOEが少ないほど、計算能力を完全に活用するために必要なバッチサイズが大きくなり、KVCacheのサイズが重要な制限要因です。MLAはKVCacheサイズを大幅に削減します」全体として、Deepseekの成功は、単一のテクノロジーだけでなく、さまざまなテクノロジーの組み合わせにあります。業界のインサイダーは、Deepseekチームのエンジニアリング能力を称賛し、並行トレーニングとオペレーターの最適化における卓越性に注目し、すべての詳細を改良することで画期的な結果を達成しています。 Deepseekのオープンソースアプローチは、大規模なモデルの全体的な開発をさらに促進し、同様のモデルが画像、ビデオなどに拡大すると、業界全体の需要を大幅に刺激すると予想されます。
サードパーティの推論サービスの機会
データは、リリース以来、DeepSeekが21日以内に2,215百万人のアクティブユーザー(DAU)を発生し、ChatGPTのユーザーベースの41.6%を達成し、Doubaoの1695百万人のアクティブユーザーを超えて世界で最も急成長しているアプリケーションになり、157の国/領域でApple App Storeを突破します。ただし、ユーザーが大勢で群がる間、サイバーハッカーはDeepSeekアプリを容赦なく攻撃しており、サーバーに大きな負担をかけています。業界のアナリストは、これは一部がトレーニング用のカードを展開することによるものであると考えていますが、推論に十分な計算能力がありません。業界のインサイダーは、AIテクノロジーのレビューを通知しました。「頻繁なサーバーの問題は、より多くのマシンを購入するために料金や資金を請求することで簡単に解決できます。最終的には、DeepSeekの決定に依存します。」これは、テクノロジーと製品化に焦点を当てたトレードオフを提示します。 Deepseekは、自己装飾の量子量子化に大きく依存しており、外部の資金をほとんど受けておらず、キャッシュフローの圧力が比較的低く、技術的な環境がより純粋になりました。現在、前述の問題に照らして、一部のユーザーは、ソーシャルメディアのDeepSeekに、使用のしきい値を高めるか、ユーザーの快適性を高めるために有料機能を導入するよう促しています。さらに、開発者は、最適化のために公式のAPIまたはサードパーティAPIを利用し始めています。しかし、DeepseekのOpen Platformは最近、「現在のサーバーリソースは不足しており、APIサービス充電が停止されています。」
これは間違いなく、AIインフラストラクチャセクターのサードパーティベンダーにより多くの機会を開きます。最近、多数の国内および国際的なクラウドジャイアンツがDeepseekのモデルAPIを発売しました。オーバーシスジャイアンツMicrosoftとAmazonが1月末に最初に参加しました。国内のリーダーであるHuawei Cloudは、2月1日にシリコンベースのフローと共同でDeepSeek R1およびV3 Reasoning Servicesをリリースし、AIテクノロジーレビューからのレポートは、Siliconベースのフローのサービスがユーザーの流入を見て、プラットフォームを効果的に「クラッシュ」していることを示しています。 BAT(Baidu、Alibaba、Tencent)およびbytedanceの3つのハイテク企業は、DeepseekのV2モデルの打ち上げによって発火した昨年のクラウドベンダー価格戦争を連想させる、2月3日から低コストの限定時間のオファーを発行しました。クラウドベンダーの必死の行動は、Microsoft AzureとOpenaiの初期の強い絆を反映しています。2019年にMicrosoftは2023年にChatGPTの発売後にOpenaiにかなりの10億ドルの投資を行い、Meta OpenSourced Llamaの後に擦り切れ始めました。この例では、Deepseekは製品熱の点でChatGPTを上回っただけでなく、GPT-3のラマの復活を取り巻く興奮と同様に、O1リリース後のオープンソースモデルも導入しました。
現実には、クラウドプロバイダーはAIアプリケーションのトラフィックゲートウェイとしても位置付けています。つまり、開発者との関係を深めると、先制的な利点につながることがあります。レポートによると、Baidu Smart Cloudには、モデルの起動日にQianfanプラットフォームを介してDeepSeekモデルを利用している15,000人以上の顧客がいたことが示されています。さらに、シリコンベースのフロー、ルーシェンテクノロジー、チュアンジングテクノロジー、DeepSeekモデルのサポートを開始したさまざまなAIインフラプロバイダーなど、いくつかの中小企業がソリューションを提供しています。 AIテクノロジーレビューは、DeepSeekのローカライズされた展開の現在の最適化の機会が主に2つの領域に存在することを学びました。1つは、ハイブリッドGPU/CPU推論を利用しながら、6710億パラメーターMOEモデルをローカルに展開するための混合推論アプローチを使用して、MOEモデルのスパース特性に最適化しています。さらに、MLAの最適化が不可欠です。ただし、Deepseekの2つのモデルは、展開の最適化において依然としていくつかの課題に直面しています。 「モデルのサイズと多数のパラメーターにより、特にパフォーマンスとコストの最適なバランスを達成することが困難な地域の展開のために、最適化は実際に複雑です」とチュアンジングテクノロジーの研究者は述べました。最も重要なハードルは、記憶容量の制限を克服することにあります。 「私たちは、CPUやその他の計算リソースを完全に利用するために不均一なコラボレーションアプローチを採用し、CPU/DRAMのスパースのないMOEマトリックスの非共有部分のみを配置し、高性能CPU演算子を使用して処理しますが、密な部分はGPUにとどまります」と彼はさらに描きました。レポートによると、ChuanjingのオープンソースフレームワークKtransformersは、主にさまざまな戦略とオペレーターをテンプレートを介して元の変圧器の実装に注入し、Cudagraphなどの方法を使用して推論速度を大幅に向上させます。 Deepseekは、成長の利点が明らかになっているため、これらのスタートアップの機会を生み出しました。多くの企業は、DeepSeek APIを立ち上げた後、顕著な顧客の成長を報告しており、最適化を求めて以前のクライアントから問い合わせを受けています。業界のインサイダーは、「過去に、やや確立されたクライアントグループは、スケールによりコストの利点に厳密に拘束される大企業の標準化されたサービスに閉じ込められていることがよくありました。しかし、春のフェスティバルの前にdeepseek-R1/V3の展開を完了した後、私たちは突然、いくつかの有名なクライアントから協力要求を受け取りました。現在、DeepSeekはモデルの推論パフォーマンスをますます重要にしており、大規模なモデルをより広く採用することで、これはAI Infra業界の開発に大きな影響を与え続けています。 DeepSeekレベルのモデルを低コストでローカルに展開できる場合、政府とエンタープライズのデジタル変革の取り組みを大いに支援します。ただし、一部のクライアントは大きなモデル機能に関して高い期待を抱いている可能性があるため、課題は続きます。これは、実際の展開においてパフォーマンスとコストのバランスをとることが不可欠になることをより明らかにしています。
DeepSeekがChatGPTよりも優れているかどうかを評価するには、主要な違い、強み、およびユースケースを理解することが不可欠です。包括的な比較は次のとおりです。
機能/アスペクト | deepseek | chatgpt |
---|---|---|
所有 | 中国の会社によって開発されました | Openaiによって開発されました |
ソースモデル | オープンソース | 独自 |
料金 | 自由に使用できます。安価なAPIアクセスオプション | サブスクリプションまたはペイパーユーザー価格 |
カスタマイズ | 高度にカスタマイズ可能で、ユーザーがそれを微調整して構築できるようにします | 利用可能な限られたカスタマイズ |
特定のタスクでのパフォーマンス | データ分析や情報検索などの特定の分野で優れています | 創造的なライティングや会話のタスクにおける強力なパフォーマンスを備えた多才な |
言語サポート | 中国語と文化に重点を置いています | 広い言語サポートですが、米国中心です |
トレーニングコスト | 効率のために最適化されたトレーニングコストの削減 | より高いトレーニングコスト、かなりの計算リソースが必要です |
応答変動 | 地政学的なコンテキストの影響を受ける可能性のあるさまざまな応答を提供する場合があります | トレーニングデータに基づく一貫した回答 |
ターゲットオーディエンス | 柔軟性を求めている開発者と研究者を対象としています | 会話能力を探している一般ユーザーを対象としています |
ユースケース | コード生成とクイックタスクにより効率的です | テキストの生成、クエリの応答、対話への関与に最適 |
「nvidiaの破壊」に関する重要な視点
現在、Huaweiを除いて、Moore Threads、Muxi、Biran Technology、Tianxu Zhixinなどのいくつかの国内チップメーカーも、Deepseekの2つのモデルに適応しています。 CHIPメーカーはAI Technology Reviewに次のように語っています。「Deepseekの構造はイノベーションを実証していますが、LLMのままです。ディープシークへの適応は、主に推論アプリケーションに焦点を当てており、技術的な実装をかなり簡単かつ迅速にしています。」ただし、MOEアプローチでは、ストレージと配布の観点からより高い要求が必要であり、国内のチップと展開するときに互換性を確保することと、適応中に解決を必要とする多数のエンジニアリングの課題を提示します。 「現在、国内の計算能力は、ソフトウェア環境のセットアップ、トラブルシューティング、および基礎的なパフォーマンスの最適化のための元の工場参加を必要とする可能性と安定性においてNVIDIAと一致していません」と業界の実践者は実際の経験に基づいて述べました。同時に、「DeepSeek R1の大きなパラメータースケールにより、国内の計算能力は並列化のためにより多くのノードを必要とします。さらに、国内のハードウェア仕様はまだやや遅れています。たとえば、Huawei 910Bは現在、DeepSeekによって導入されたFP8推論をサポートできません」 DeepSeek V3モデルのハイライトの1つは、FP8混合精密トレーニングフレームワークの導入です。これは、非常に大きなモデルで効果的に検証され、重要な成果をマークしています。以前は、MicrosoftやNvidiaのような主要なプレーヤーは関連する仕事を提案していましたが、実現可能性に関して業界に疑問が残っていました。 INT8と比較して、FP8の主な利点は、トレーニング後の量子化が推論速度を大幅に向上させながら、ほとんど損失のない精度を達成できることです。 FP16と比較すると、FP8はNVIDIAのH20で最大2倍の加速度を実現し、H100で1.5倍以上の加速を実現できます。特に、国内の計算力と国内モデルの傾向を取り巻く議論が勢いを増し、Nvidiaが中断される可能性があるかどうか、Cuda Moatがバイパスされる可能性があるかどうかについての推測が増えているため、ますます普及しています。否定できない事実の1つは、DeepSeekが実際にNvidiaの市場価値の大幅な低下を引き起こしたことですが、このシフトはNvidiaのハイエンドの計算力の完全性に関する疑問を提起します。資本主導の計算蓄積に関する以前に受け入れられていた物語は挑戦されていますが、トレーニングシナリオでNVIDIAを完全に置き換えることは依然として困難です。 DeepSeekのCUDAの深い使用法の分析は、通信や直接操作にSMを使用したり、ネットワークカードを直接操作したりするなど、柔軟性が通常のGPUが対応する可能性がないことを示しています。業界の観点は、Nvidiaの堀がCuda自体ではなくCudaエコシステム全体を網羅しており、Deepseekが採用しているPTX(並列スレッド実行)の指示は依然としてCUDAエコシステムの一部であることを強調しています。 「短期的には、Nvidiaの計算能力をバイパスすることはできません。これはトレーニングで特に明確です。しかし、推論のために国内カードを展開することは比較的簡単です。そのため、国内カードの適応は主に推論に焦点を当てています。全体として、推論の観点から、状況は国内の大型モデルチップにとって励みになります。推論の領域内での国内チップメーカーの機会は、トレーニングの過度に高い要件により、エントリを妨げるため、より明白です。アナリストは、国内の推論カードを利用するだけで十分であると主張します。必要に応じて、追加のマシンを取得することは実現可能ですが、トレーニングモデルは独自の課題を提起します。マシンの数を増やすと負担がかかり、エラー率が高いとトレーニングの結果に悪影響を与える可能性があります。トレーニングには特定のクラスタースケール要件もありますが、推論のためのクラスターの要求はそれほど厳しくないため、GPUの要件が緩和されます。現在、NvidiaのシングルH20カードのパフォーマンスは、HuaweiまたはCambrianのパフォーマンスを上回りません。その強さはクラスタリングにあります。 Luchen Technologyの創設者であるComputational Power Marketへの全体的な影響に基づいて、AI Technology Reviewのインタビューで、「Deepseek Mayは、長期的には、大規模なモデルトレーニングに関連するコストを大幅に削減することにより、長期的には、AIの需要を継続するために、大規模なモデルトレーニングに関連するコストを大幅に削減することにより、長期的には、長期的には、長期的には、長期的には、長期的には、長期的には大規模なモデルトレーニングに関連するコストを削減することにより、長期的には、長期的には、長期的には大規模なモデルトレーニングに基づいています。計算電力市場における持続的な需要。」さらに、「Deepseekの推論と微調整サービスに対する需要の高まりは、地域の能力が比較的弱い国内の計算環境とより互換性があり、クラスター後の設立後のアイドルリソースから廃棄物を軽減するのに役立ちます。 Luchen TechnologyはHuawei Cloudと協力して、国内の計算力に基づいてAPIとクラウドイメージングサービスを推論するDeepseek R1シリーズを開始しました。 You Yangは将来について楽観的な楽観主義を表明しました。「Deepseekは、国内で生産されたソリューションに自信を植え付け、今後の国内の計算能力への熱意と投資を促進します。」

結論
deepseekがchatgptよりも「優れている」かどうかは、ユーザーの特定のニーズと目標に依存します。柔軟性、低コスト、カスタマイズを必要とするタスクの場合、DeepSeekは優れている可能性があります。創造的な執筆、一般的な問い合わせ、ユーザーフレンドリーな会話インターフェイスのために、ChatGptがリードする可能性があります。各ツールはさまざまな目的に役立つため、選択は使用されるコンテキストに大きく依存します。
制御ケーブル
構造化されたケーブルシステム
ネットワークとデータ、光ファイバーケーブル、パッチコード、モジュール、フェイスプレート
2024年4月16日から18日、ドバイの中東エネルギー
2024年4月16日から18日、モスクワのSecurika
2024年5月9日、上海での新製品&テクノロジーの立ち上げイベント
2024年10月22日25日、北京のセキュリティ中国
2024年11月19-20日、つながりの世界KSA
投稿時間:2月10日 - 2025年