ホーム jpn HPE、Nvidiaと提携して「ターンキー」のGenAI開発と展開を提供

HPE、Nvidiaと提携して「ターンキー」のGenAI開発と展開を提供

12
0


アイリーン・ユー

Hewlett Packard Enterprise (HPE) は、生成型人工知能 (GenAI) の導入を検討しているが、そのようなワークロードの開発と管理の複雑さに躊躇している組織向けに、統合された「ターンキー」ソリューションとして宣伝しているものを提供するために Nvidia と提携しました。

HPE が「Nvidia AI Computing」と名付けたこの製品およびサービス ポートフォリオには共同開発された AI アプリケーションが含まれており、両社が共同で顧客にソリューションを提案し、提供することになります。両社は、Deloitte、Infosys、Wipro などのチャネル パートナーとともにこれを行います。

また: AIの雇用への影響:労働者の86%が失業を恐れているが、朗報もある

数十年にわたるHPEとNvidiaの提携の拡大は、今週ラスベガスのSphereで開催されたHPE Discover 2024で、HPE社長兼CEOのアントニオ・ネリ氏が基調講演を行い、発表された。ネリ氏とともにステージに上がったのは、Nvidiaの創業者兼CEOのジェンスン・フアン氏だった。

ネリ氏は、GenAIは大きな変革力を持っているが、断片化されたAI技術の複雑さは、 妨げとなるリスク 大規模なビジネス導入。導入を急ぐと、特に企業にとって最も高価な資産であるデータに関しては、コストがかかる可能性があると彼は述べた。

Huang 氏は、AI には 3 つの主要コンポーネント、つまり大規模言語モデル (LLM) と、これらのモデルとデータを処理するためのコンピューティング リソースがあると付け加えました。したがって、企業にはコンピューティング スタック、モデル スタック、およびデータ スタックが必要になります。これらはそれぞれ、展開と管理が複雑です、と同氏は述べました。

HPE と Nvidia のパートナーシップは、Nvidia NIM 推論マイクロサービスを含む Nvidia の AI Enterprise ソフトウェア プラットフォームと、集中管理パネルとともに厳選された AI およびデータ基盤ツールを提供する HPE AI Essentials ソフトウェアを活用して、これらのモデルの製品化に取り組んできました。

ネリ氏は、「ターンキー」ソリューションにより、トレーニングモデルを含むすべての機能を統合する時間や専門知識を持たない組織は、代わりに新しいAIユースケースの開発にリソースを集中できるようになると述べた。

その鍵となるのは、Nvidia Spectrum-X Ethernet ネットワーキング、ファイル ストレージ用の HPE GreenLake、Nvidia の L40S、H100 NVL Tensor Core GPU、GH200 NVL2 プラットフォームをサポートするように最適化された HPE ProLiant サーバーで構成される統合 AI スタックを提供する HPE プライベート クラウド AI であると彼は述べました。

また: 最新のAIトレーニングベンチマークは、Nvidiaに競争相手がいないことを示す

AIは、GenAIを効果的に、そしてAIライフサイクル全体にわたって提供するために、設計上ハイブリッドクラウドを必要としているとネリ氏は述べ、 3月に言った Nvidia GTC で、彼は次のように述べました。「オンプレミス、コロケーション施設、パブリック クラウドでのモデルのトレーニングとチューニングから、エッジでの推論まで、AI はハイブリッド クラウド ワークロードです。」

Neri は、HPE と Nvidia の統合ソリューションにより、ユーザーはわずか 3 回のクリックと 24 秒で AI 導入をセットアップできると主張しています。

フアン氏は次のように述べた。「あらゆる業界が産業革命に参加しようと競い合う中、GenAIとアクセラレーテッドコンピューティングは根本的な変革を推進しています。NvidiaとHPEが両社の技術をこれほど深く統合し、NvidiaのAIコンピューティングスタック全体をHPEのプライベートクラウド技術と組み合わせたのは、これまでありませんでした。」

複雑さと断絶を取り除く

HPEのアジア太平洋およびインドHPCおよびAI担当ゼネラルマネージャー、ジョセフ・ヤン氏は、この共同ソリューションは、組織内で必ずしも統合されていないテクノロジーとチームを統合するものだと語った。

HPE Discoverの合間に行われたZDNETとのインタビューでヤン氏は、AIチーム(AIチームを持つ企業)は通常、ITチームから独立して運営され、ITに報告しないこともあると述べた。AIチームはAIモデルの構築とトレーニングの方法を知っているが、ITチームは汎用ワークロードをホストするクラウドアーキテクチャに精通しており、AIインフラストラクチャを理解していない可能性がある。

また: ジェネレーティブAIの最大の課題はROIを示すことです – その理由はここにあります

同氏は、AIとクラウドのインフラは明らかに異なるため、両者の間には断絶があると指摘した。たとえば、クラウドのワークロードは小さい傾向があり、1台のサーバーで複数の仮想マシンをホストできる。それに比べて、AI推論のワークロードは大きく、AIモデルを実行するには大幅に大規模なインフラが必要となり、これらのアーキテクチャの管理が複雑になる。

ITチームは経営陣からAI導入を求める圧力も高まっており、GenAI導入のプレッシャーと複雑さがさらに増しているとヤン氏は述べた。

さらに、既存のハードウェア インフラストラクチャは時代遅れの可能性のあるサーバーの寄せ集めであるため、組織は AI 計画を進めるために必要なアーキテクチャを決定する必要がある、と付け加えました。また、AI ワークロードを実行するためのプライベート クラウドやサーバー ファームに投資していない可能性があるため、既存の環境は拡張可能ではなく、実行できることに制限が生じます。

「企業は、GenAI に関連する複雑さとリスクを最小限に抑えながらイノベーションを加速できる適切なコンピューティング インフラストラクチャと機能を必要とします」とヤン氏は述べました。「Nvidia AI Computing by HPE ポートフォリオにより、企業は GenAI で価値実現までの時間を短縮し、新たな機会と成長を推進できるようになります。」

また: AIスキルかAI強化スキルか?雇用主が何を求めるかはあなた次第

ネリ氏はさらに、プライベート クラウドの導入により、組織がデータのセキュリティと主権に関して抱く懸念も解消されるだろうと指摘しました。

HPE はすべての現地の規制とコンプライアンス要件を遵守しており、AI の原則とポリシーは現地の市場のニーズに応じて適用されると彼は付け加えた。

HPE によれば、プライベート クラウド AI サービスは、独自のデータを活用する推論、微調整、RAG (取得拡張生成) AI ワークロードのサポートに加え、データのプライバシー、セキュリティ、コンプライアンスの制御も提供します。また、クラウド ITOps および AIOps 機能も提供します。

HPE GreenLake クラウド サービスを活用したプライベート クラウド AI サービスにより、企業はハイブリッド環境全体でエンドポイント、ワークロード、データを自動化およびオーケストレーションできるようになります。

また: 私のお気に入りの 4 つの AI ツールが仕事の効率化にどのように役立つか

HPE プライベート クラウド AI は、Nvidia H200 NVL Tensor Core GPU を搭載した HPE ProLiant DL380a Gen12 サーバー、およびデュアル Nvidia GH200 NVL2 を搭載した HPE ProLiant DL384 Gen12 サーバーとともに、秋に一般提供が開始される予定です。

Nvidia H200 NVL を搭載した HPE Cray XD670 サーバーは、夏に一般提供が開始される予定です。

アイリーン・ユーは、ヒューレット・パッカード・エンタープライズの招待を受けて、ラスベガスで開催された HPE Discover 2024 から ZDNET にレポートしました。





もっとニュース

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください