05/18/2025

Huawei(ファーウェイ)とエヌビディア(NVDA)の比較:Huaweiの910CとCM384はエヌビディアを凌駕?

silver macbook on brown wooden tableコンヴェクィティ  コンヴェクィティ
  • 本稿では、注目の中国のテクノロジー企業であるHuawei(ファーウェイ)とエヌビディア(NVDA)の比較を通じて、両社の技術上の競争優位性を詳しく解説していきます。
  • Huaweiの910CおよびCM384は、旧世代のプロセスノードを用いながらも、エヌビディアのH100クラスやBlackwellスケールの性能を達成しており、最先端の半導体こそがエヌビディアの揺るがぬ競争優位であるという考えに挑戦しています。
  • システムレベルでの革新やフルスタック統合により、Huaweiは主要なAIワークロードにおいて、より優れた実効効率とスケーラビリティを実現しています。
  • 投資対象にはなり得ないものの、Huaweiの台頭はエヌビディアの価格決定力および中国市場における支配的地位を脅かし、長期的には世界的な競争優位性の差別化を侵食する可能性があります。

Huawei(ファーウェイ)とエヌビディア(NVDA)の比較

AIハードウェアにおいて、DeepSeekの転換点が近づいています。私たちは、Huawei(ファーウェイ)のAscend 910Cが重要な転機になると考えており、それはDeepSeek V2が静かにブレイクスルーを果たし、V3やR1が広く認知されるようになった流れに似ています。これは、リーダーシップを決定づけるのが単なるシリコンの性能ではなく、システムレベルでの革新であるという新たな時代の始まりを示しています。

2022年に一時中断していたHuaweiのAscendチップ開発は、AI需要の高まりと米国による制裁の中で再始動されました。その成果が、成熟した7nmプロセスとHBM2eを用いながらも、エヌビディア(NVDAのフラッグシップを上回る2倍のシステム性能を実現するHopperクラスおよびBlackwellスケールの信頼性ある代替製品、910CおよびCM384です。

910Cのチップレベルでの性能はエヌビディアのH100に匹敵しますが、Huaweiはネットワーク、メモリ、電力、ソフトウェアにわたる深い統合により、推論スループットやシステムの線形性といった実環境での性能ベンチマークでH100を上回る結果を示しています。

Huaweiは競合に並ぶだけでなく、最先端の製造技術に依存せず、アーキテクチャ上の独創性を重視する垂直統合戦略によって一歩先を行こうとしています。これは、LiDARを用いたADAS(先進運転支援システム)においても同様で、Huaweiはコストを10分の1に抑え、Teslaよりも早く高速道路でのレベル3自動運転を実現しました。

Huawei Cloudは、主要な3大ハイパースケーラーに対する挑戦者として台頭しており、自社製品の幅広いポートフォリオとAIネイティブなセキュリティエージェントの早期導入によって支えられています。さらに、Palantir型の現地常駐エンジニアリングモデルが、導入の促進とAI投資の収益性向上に貢献しています。

Huaweiは、旧世代ノードを用いながらH100レベルの性能とBlackwell級のシステムスループットを達成することで、「エヌビディアの競争優位は最先端シリコンによって守られている」という前提に異議を唱えています。

Huaweiは投資対象にはなりませんが、その台頭はエヌビディアの長期的な価格決定力やシステム差別化を侵食しつつあります。特に中国やその他の非西側市場においては、Huaweiがより低コストで同等またはそれ以上の性能を提供できるため、エヌビディアの強気な投資論の根拠である「排他的優位性」を揺るがす可能性があります。

皮肉にも、最も可能性が低そうに見える結果が最も現実的になることがあります。Huaweiや中国の半導体エコシステム全体に対する米国の制裁は、ますます逆効果をもたらしている兆候を示しています。これらの制裁は当初、中国の半導体進展を抑制することを目的としていましたが、実際には国内半導体産業の発展を加速させているとする証拠が増えています。短期的には混乱を招きましたが、長期的にはレジリエンスと技術的自立性の基盤を築く結果となっています。

2025年4月10日に開催されたHuawei Cloud Ecosystem Conferenceにおいて、Huaweiは正式にAscend 910CとCloud Matrix 384を発表しました。これは、私たちが2023年12月のエヌビディアのMSUレポートで予測した内容を裏付けるものでした。構成上はエヌビディアのBlackwellと類似しており、910Cは2つの910Bダイを一つにまとめた形ですが、基盤となるマイクロアーキテクチャはほぼ変更されていません。

910Bは、2019年からの米国制裁により大きな打撃を受けていたHuaweiのAscend 910 AIチップ開発計画の再始動を示すもので、エヌビディアのA100に対抗すべく設計された2019年の初代Ascend 910の再発行版でした。新たに発表された910Cは、この910Bを2ダイ構成にしたパッケージを採用し、マイクロアーキテクチャには変更がありません。製造には引き続きSMICの7nmノードとHBM2eメモリが使われており、チップレベルでの性能向上は限定的です。ただし、Huaweiのパッケージング戦略は、2ダイ構成かつHopperアーキテクチャを採用するエヌビディアのBlackwellに近いアプローチです。違いとしては、Blackwellが次世代のHBM3eメモリやコア構成の再設計によって、より実質的な性能向上を実現している点が挙げられます。

910CおよびCM384 – 予想通りのシステム優位性

910C = H100

NPUはGPGPUに比べて計算効率が高いです。 FP16性能の小幅な向上や2ダイ構成のNPUパッケージに加え、910Cで特筆すべき進展は、拡張されたスケールアップ・インターコネクトであり、1チップあたり2.8 Tbpsの一方向帯域幅(表中では2,800 Gb/s uni-di)を実現しています。比較として、エヌビディアのBlackwell(GB200)は1チップあたり7.2 Tbpsの一方向帯域幅(7,200 Gb/s uni-di)で、910Cの約2.5倍に相当します。ただし、Blackwellとの比較は完全に正確ではなく、910CはむしろエヌビディアのH100やH200と比較すべき製品です。H100に対しては、古いプロセスノードとHBMメモリを採用しているものの、チップレットベースのアーキテクチャを活用することで、910CはH100のFP16スループットの75%、メモリ容量は1.6倍、消費電力は1.14倍を実現しています。

さらに興味深いのは、Huaweiが実環境でのテストで、DeepSeek V3のシングルカードによるデコーディングにおいて、910Cが1秒あたり1920トークン(TPS)を処理し、H100の1850 TPSを上回ったと主張している点です。これは、演算性能の最適化だけでなく、ソフトウェアスタックと演算オペレータの深い統合によって実現されたものです。実際、910Cは汎用GPGPUではなく、AI専用に設計・最適化されたNPUであり、Tenstorrent、Tranium、TPUといった他のAI専用チップと同様です。こうした設計により、NPU内部にカスタムCPUコアを組み込むことで、スケジューリングなどの柔軟性が高まっています。一方、エヌビディアチップでは、DeepSeekが独自にスケジューラを構築し、H800の20%のコアをその機能に割り当てなければなりません。

また、Huaweiがこの性能を達成できた背景には、推論フレームワークのスタートアップであるSiliconFlowとの協業があります。Huaweiは、1ユーザーあたり20 TPSに制限された条件下で、シングルカードによる1920 TPSのデコードスループットを達成し、H100の1850 TPSを上回りました。Huaweiは単にスループットを最大化してユーザーごとの性能を犠牲にするのではなく、実用性の高い設計を追求しています。今後の計画では、HuaweiはTPSを4000まで引き上げることを目指しており、これが実現すれば、エヌビディアにとってはさらなる衝撃となるでしょう。

さらに、ハードウェアとソフトウェアの統合度の高さや、NPUのネイティブな柔軟性により、Huaweiは長文推論時のレイテンシーを20%削減できたと述べています。これは、今後のエージェント処理、検索強化生成(RAG)、高度な推論処理といったタスクにおいて、極めて重要な指標となるでしょう。

プロセス制約下でも際立つチップ設計の優秀性

Huaweiは、先端プロセスノードや最新メモリを使用せずに、エヌビディアのH100に匹敵または一部の指標で上回る信頼性のある代替製品を実現しました。910Cのダイサイズが大きいのは設計の非効率さによるものではなく、最先端のロジックノードやHBMメモリにアクセスできないことが原因です。こうした傾向はHuaweiに限られた話ではなく、ネットワーク分野の主要プレイヤーであるBroadcom(AVGO)もTPUv7pを開発しており(詳細はXへの投稿をご参照ください)、エヌビディアのGB200を主要なPPAC(性能・電力・面積・コスト)の指標で上回っています。TPUv7pは2025年後半に出荷予定であり、TSMCのN3プロセスを採用することで、N4ノード(Blackwellで使用)と比べて30%の密度向上と15%の性能向上が期待されます。プロセスノードの優位性がなくても、AVGOのチップ設計は、特に電力効率や面積最適化においてBlackwellを凌駕しており、事前コンパイルされたソフトウェアと競合他社よりも小型で効率的なネットワークIPの採用が貢献しています。

同様に、910Cも優れた面積効率を示しています。現時点ではH100よりわずかに優れた実環境性能を提供し、今後の世代ではH100比で2倍の性能向上が見込まれています。ダイサイズはH100の1.6倍ですが、これは主にプロセス制約によるものです。もしHuaweiがTSMCのN4ノードにアクセスできれば、SMICの7nmとTSMCのN4の密度差を考慮すると、ダイサイズはH100の1.14倍にまで縮小できる計算になります。電力消費もほぼ同等であり、SMICの7nmが通常TSMCのN4/5より30%多く電力を消費することを考えると、これは驚くべき結果です。チップ設計の観点から見れば、Huaweiはエヌビディアに迫る、あるいは一部で上回っていると言えます。さらに、910Cの一部の面積はチップレット統合やHBM接続に割り当てられている点を考慮すれば、そのPPAC(性能・電力・面積・コスト)の全体的なバランスは、プロセス技術やメモリ調達に制限がある中では非常に優れていると評価できます。

さらに注目すべきは、Huaweiがこれらすべてを、2019年から2023年にかけてAscendプロジェクトがほぼ停止していた状況下で成し遂げたという点です。Ascendはかつては低優先の取り組みであり、2019年に910Aが発表された際も大きな成功は収められませんでした。しかし、AIチップ需要の高まりと米国の制裁強化の中で、Huaweiは2022年11月から2023年前半にかけて、Ascend NPUの戦略的重要性をようやく本格的に認識しました。

CM384 = GB200 × 2

予想通り、より多くのチップをスケールアップ構成で相互接続することにより、HuaweiはAmpere世代のプロセスノードとメモリを活用してHopperクラスのチップ性能を実現し、最終的にはBlackwell比で1.67倍のシステムレベルBF16スループット(910C CM384で300 PFLOPS、GB200 NVL72で180 PFLOPS)を達成しています。CM384は、システムアーキテクチャ面での革新によって、Huaweiの競争力をさらに強化しています。エヌビディアのBlackwellシステムは1ラックあたり最大72個のGPUまでスケールアップ可能ですが、Huaweiは単一のスケールアップドメイン内に最大384個の910Cチップを統合しており、これは16ラック(NPUラック12基、ネットワークスイッチングラック4基)を接続することで、すべてのチップを1台のサーバーのように機能させています。このアーキテクチャにより、GB200 NVL72と比較して、総メモリ帯域幅は2.13倍、総メモリ容量は3.57倍となっていますが、システム全体の消費電力は3.86倍に達します。絶対的な電力消費は高いものの、CM384は帯域幅・容量・インターコネクト性能において明確なスケーリングの優位性を示しており、システム構築において6,900超の400G光モジュールと3,168本のファイバーケーブルを活用しています。

ファイバー vs. 銅線 = LiDAR vs. カメラのみ

Huaweiが384個のNPUを単一のコンピュートドメインに統合できるのは、同社のネットワーク分野における深い専門知識と、ファイバーベースの「全光」インターコネクトという戦略的なアプローチによるものです。この方法はシステムのコストと電力消費を増加させるものの、性能・柔軟性・信頼性の面で得られるメリットが大きいため、Huaweiはそれを正当なトレードオフであると見なしています。

一方、エヌビディアはスケールアップドメインを1ラック(72 GPU)に制限しており、密度、コスト管理、信頼性を優先しています。そのNVLinkベースのアーキテクチャは銅線ケーブルに依存しており、安価ではあるものの、通信距離やスケーラビリティに制限があります。この保守的な姿勢の一因としては、過去の課題が影響しています。エヌビディアはかつて、光学NVL256 Grace-Hopperプロトタイプを製品化しようとしたものの、トランシーバーの大量管理による信頼性の問題で失敗したとされています。これに対してHuaweiは、長年にわたり自社で光学モジュールを設計・製造してきた実績があり、エヌビディアにはない技術的コントロールとコスト削減の優位性を有しています。

データセンタースケールでの光学スケールアウト

ファイバーはコストや電力消費が高いにもかかわらず、HuaweiのCloud Matrix CM384システムは以下のような実用的な利点を享受しています:

  • 光伝送距離が長いため、ラック間接続が簡素化され、インフラ構築の複雑さが軽減されます。

  • 50kWのHuaweiラックは設置が容易で空冷も可能ですが、エヌビディアの145kW NVL72ラックではより積極的な冷却や電源インフラが必要です。

  • Huaweiは複雑な領域に踏み込むことで、性能、展開の容易さ、バーティカルなコスト管理といったスケーラブルな差別化を実現しています。

LiDARアナロジー:複雑でもスケーラブルな道を選ぶ選択

この方向性の違いは、自動運転におけるLiDAR vs. カメラのみという議論にも通じます。Elon MuskがLiDARは高価で不要だと主張し、カメラのみでADASを成功させるとしたように、Jensen Huangもデータセンターのスケーリングにおける光モジュールの導入に対して、コストと複雑性への懸念から慎重な姿勢を取ってきました。

Huaweiはこれら両分野において、その常識に挑戦しています:

  • ADASにおいては、自社でのLiDAR開発と製造に多額の投資を行っています。

  • 2025年後半に発売予定のADS4 Ultraシステムでは、長距離用の高出力LiDAR1台と、左右および後方用の短距離LiDAR3台を組み合わせ、世界初の商用L3自動運転(高速道路)システムを実現する見込みです。

一方で、Teslaのカメラのみを用いたL3システムは依然として開発中であり、安全性や技術的な堅牢性においてHuaweiが先行する可能性があります。

複雑さのコモディティ化:Huawei(ファーウェイ)の戦略

Huaweiは、LiDARや光モジュールのような複雑なハードウェアを垂直統合し、コモディティ化する能力によって優位性を確立しています。LiDARの価格を200ドル未満に抑えることに成功したことで、Musk氏の主張を覆しました。現在、Huaweiはこの手法を光モジュールにも適用しており、中国企業が製造スケールとコスト削減で得意とする分野です。

最先端半導体とは異なり、光モジュールの製造にはEUVリソグラフィが不要であり、国内での大規模生産がはるかに容易です。Huaweiの目標は、関税が課せられたとしてもエヌビディアの米国系サプライチェーンよりも安価な価格で、国産のファイバーインターコネクトや光モジュールを製造することです。

実際の性能と電力効率は予想を上回る

生の演算性能を比較すると、CM384はチップ数が5.3倍でありながら、計算能力は1.67倍にとどまっています。その代償として、大量のネットワーク機器を必要とし、BF16 FLOPSあたりの電力消費は2.3倍に達します。しかし、CM384はメモリ容量が3.57倍となっており、メモリの電力効率もNVL72とほぼ同等(1.09倍)です。これは、演算性能と比較してメモリがよりコモディティ化しているという私たちの見解を裏付けるものであり、H20の販売禁止という米国政府の最近の制裁に対する批判も強化する内容です。つまり、演算性能ではなくメモリを制裁対象にする戦略は効果的ではないことが明らかになっています。

性能指標をさらに深掘りすると、HuaweiがModel FLOPS Utilization(MFU)で55%を達成しているのは驚異的です。エヌビディアは43%にとどまっています。実際には、CM384は300 PFLOPS × 0.55 = 165 PFLOPS、NVL72は180 PFLOPS × 0.43 = 77.4 PFLOPSであり、MFUを考慮したBF16 FLOPSでは、CM384はNVL72の2.13倍の性能を提供していることになります。この差は、全光モジュールの活用、NPUネイティブの制御フロー、ネットワーク最適化などの要因によるものと考えられます。

Huaweiはまた、1万枚以上のカードを用いたクラスタにおいて99%の直線性(linearity)を達成していると主張しており、エヌビディアの95%を大きく上回っています。これがどれほど大きな差であるかを、以下のように数値で示せます:


計算:

  1. 基本パラメータ

    GPU数:N = 100,000

    期間:T = 3か月 = 90日 = 2,160時間

    総GPU稼働時間:100,000 × 2,160 = 216,000,000 GPU時間

  2. リソース消費量の計算

    99%の並列効率の場合:216,000,000 ÷ 0.99 ≈ 218,181,818 GPU時間

    95%の並列効率の場合:216,000,000 ÷ 0.95 ≈ 227,368,421 GPU時間

    差分:227,368,421 - 218,181,818 ≈ 9,186,603 GPU時間


つまり、10万台のGPUによる3か月間の連続学習において、並列効率が99%から95%へとわずかに低下するだけで、約918万GPU時間の無駄が発生します。1GPU時間あたり4ドルと仮定すると、わずか4%の直線性低下で実際の学習コストが約3,600万ドル増加する計算になります。

終端システムの消費電力について

SemiAnalysisによると、CM384の消費電力は559kWであり、NVL72の約3.8倍とされています。これは、各400G光モジュールが8レーンで50Gb/sの通信を行い、1チップあたり2,800Gb/sの帯域(7モジュール × 8レーン × 50Gb/s)を実現するという前提に基づいています。しかし、ハイエンド実装では、これらのレーンはさらに高速化が可能です。業界標準であるQSFP-DDモジュールでは、1モジュールあたり8レーン × 53〜56Gb/s、つまり合計424〜448Gb/sが実現可能です。さらに、Huaweiがチップ、ファイバー、プロトコルすべてを自社で制御している場合、これをさらに押し上げて8×64Gb/s以上にすることも可能です。エヌビディアがDellやFoxconnのラック標準に従わなければならないのに対し、Huaweiは自社最適化が可能です。実際には、CM384の消費電力は500kW未満に抑えられる可能性があり、これはNVL72比で約3.5倍でありながら、性能は2倍を実現していることになります。したがって、性能あたりの電力消費比率は1.75倍にとどまります。

システムレベルでの優位性

Huaweiはまた、40日間以上の連続学習に対応できると主張しており、エヌビディアの26日間を大きく上回っています。1万台以上のGPUクラスタで最大の課題は、単にチップを接続するだけではなく、すべてのプロセッサを24時間365日安定稼働させることにあります。学習中に1チップでも0.01%の障害が発生すれば、全体が停止する可能性があります。現在でも、1万台超のエヌビディアのGPUによる長時間学習を安定して運用できる企業は世界でもごくわずかです。エヌビディア自身もこの課題を理解しており、自社で巨大なクラスタを構築・運用する「ドッグフーディング」方式で、チップだけでなくシステム全体の信頼性を検証しています。

Huaweiがエヌビディアに対して持つ主な優位性は以下の通りです:

  • 深いネットワーク技術基盤: 数十年にわたる通信事業者向けの経験を通じて、高可用性と迅速な障害対応が求められる環境に精通しています。

  • 優秀な人材: 実行力とビジョンを兼ね備えた高度な人材層を擁しています。

  • 包括的な製品ポートフォリオ: ウェハ製造装置(WFE)やチップ設計から、データセンターインフラ、クラウドサービス、最終製品(スマートフォンや自動車)に至るまで、垂直・水平の両方向で事業展開しています。

こうした強みにより、Huaweiは全光化・液冷ラックのコストを抑えながらスケーリングが可能で、電力供給、人材、予知保全といった面でもシステムの堅牢性を維持できます。CM384のような超大規模システムを自社で構築・運用する体制を持っているため、スケーラビリティと信頼性を両立しています。

単一ノードのスケールアップや大規模クラスタのスケールアウトは、今後も技術革新が必要な未開拓分野であり、エヌビディアがCUDA以外にも強固な参入障壁を築いている理由でもあります。

たとえAMDがROCmを改善したとしても、高MFU(演算資源の活用率)、低MTBF(平均故障間隔)、メンテナンス性に優れたクラスタソリューションがなければ、単に安いチップを売るだけではTCO(総保有コスト)の削減にはつながりません。

HuaweiはCUDAと同等以上のオペレーター最適化、高効率な推論フレームワーク、信頼性の高いクラスタ管理、AI PaaSクラウド、Palantirのような業種特化型AIサービス、さらにテスラに匹敵するADASモデルや兆単位パラメータのファンデーションモデルに至るまで、すべての領域でエヌビディアを凌駕しようとしています。

Huaweiによると、910CおよびCM384の正式発表前に、すでに128,000 GPUのクラスタを構築し、ADAS向けのMixture of Experts(MoE)トランスフォーマーモデルの学習を完了しており、L3高速道路対応として商用化が間近に迫っているとのことです。

特に注目すべきなのは、Huaweiが莫大な売上と規模にもかかわらず、常に「Day 1」の活力と革新性を維持している点です。多くの企業が成長とともに鋭さを失う中、Huaweiは多くの分野でリーダーシップを発揮し、事業間のシナジーを活かして競争力を強化し続けています。

たとえばAMDは、これまでシングルカード性能に限られており、ようやくシングルノード性能を高めつつあります。一方、Huaweiは2023年の時点で、業界がシングルノード中心の時代から「演算×ネットワーク×メモリ×電力」の統合による新時代へとシフトしていることをいち早く認識していました。Huaweiはこの4軸すべてを同時にスケールさせることで、システム全体の性能向上を急速に推進しています。

Huaweiはまた、P/D(Prefill/Decode)推論クラスタといった先端技術に関しても高度な研究開発チームを擁しており、最新の論文では、エヌビディアの推論システムDynamoの課題を解決することで、1.6倍の性能向上とシステム利用率の改善を達成したとしています。

リクエストごとに、「文脈処理を行うPrefillステージ(演算集約型)」と「トークン生成を行うDecodeステージ(メモリ集約型)」の2フェーズが存在します。従来は両ステージを別々のマシンに割り当てるPD分離構成が一般的でしたが、GPUリソースの無駄が多く、Prefill側はメモリ、Decode側は演算資源を余らせていました。

この課題を解決するのが「Adrenaline」のような高度なソリューションです。Adrenalineは、注意機構(attention)の一部をDecodeからPrefillへと分離・オフロードする設計であり、Prefill側のメモリ帯域・容量利用率を高め、Decodeではバッチサイズを増やして演算効率を高めています。

Adrenalineの3つの中核技術は以下の通りです:

  1. 負荷を考慮したオフロードスケジューリング

  2. 低遅延のDecode同期

  3. リソース効率の高いPrefillの同居構成

実験結果によれば、最先端のPD分離推論システムと比較して、AdrenalineはPrefillのメモリ容量利用率で最大2.3倍、メモリ帯域で2.07倍、Decodeの演算利用率で1.67倍向上し、Decodeのスループットは1.68倍に向上しています。

このような推論リソース最適化の革新は、Huawei Cloudのサービススタックにも反映されており、動的なリソース割り当てと弾力的推論サービスによって、大規模LLM導入における効率性を大きく向上させています。これは、Huaweiがハードウェアとソフトウェア両面の進化を統合し、AIおよびクラウドエコシステムにおける主導的地位を確固たるものにしている好例です。

Huaweiはさらに、システムレイヤーの上にあるクラウドサービスレイヤーの最適化にも取り組んでおり、この点については今後さらに詳しく解説する予定ですのでお見逃しなく!


🚀お気に入りのアナリストをフォローして最新レポートをリアルタイムでGET🚀

コンヴェクィティ社はテクノロジー銘柄に関するレポートを執筆しており、プロフィール上にてフォローをしていただくと、最新のレポートがリリースされる度にリアルタイムでメール経由でお知らせを受け取ることができます。

さらに、その他のアナリストも詳細な分析レポートを日々執筆しており、インベストリンゴのプラットフォーム上では「毎月約100件、年間で1000件以上」のレポートを提供しております。

そのため、コンヴェクィティ社のテクノロジー銘柄に関する最新レポートに関心がございましたら、是非、フォローしていただければと思います!


アナリスト紹介:コンヴェクィティ

📍テクノロジー担当

コンヴェクィティのその他のテクノロジー銘柄のレポートに関心がございましたら、こちらのリンクより、コンヴェクィティのプロフィールページにてご覧いただければと思います。


インベストリンゴでは、弊社のアナリストが「高配当銘柄」から「AIや半導体関連のテクノロジー銘柄」まで、米国株個別企業に関する分析を日々日本語でアップデートしております。さらに、インベストリンゴのレポート上でカバーされている米国、及び、外国企業数は「250銘柄以上」(対象銘柄リストはこちら)となっております。米国株式市場に関心のある方は、是非、弊社プラットフォームより詳細な分析レポートをご覧いただければと思います。