Lenovo と AMD: 企業に適した AI のサイジング

2024-09-16更新

  • twitter
  • facebook
  • line

ChatGPTがジェネレーティブAIへの大きな関心を呼び起こしてから、20カ月あまりが経過しました。この間、多くの企業がこの技術をどのように導入するかを模索し続けています。Lenovoのロバート・ダイグル氏によれば、膨大なデータ量を扱う場合、AIの活用には高いハードルが存在するとのこと。多くの場合、大規模な言語モデルと多数のGPUを莫大な費用をかけて導入しなければならないことが挙げられます。しかし、それは一つのシナリオに過ぎません。ロバート氏は、何から手をつければよいかを考えるだけでも、助けが必要な企業もあると言います。


レノボは、パーソナル・ビジネス・システムの巨大メーカーとして世界的に有名ですが、この多国籍企業は、幅広い市場で事業を展開する企業にAIソリューションやサービスも提供しています。ロバート氏はレノボのグローバルAIビジネスを統括しており、適切な目標設定、複雑性の克服、そしてAIから最大の価値を引き出すためのインフラ構築について、顧客を支援することを任務としています。

「私たちは、ハードウェア、ソフトウェア、サービスだけでなく、ソリューション全体を適切にサイジングすることができます。顧客が必要とする以上のものを過剰に提供することなく、ソリューション全体の適切なサイジングを行いたいと考えています」

企業におけるAI導入が遅れているのは、すべてのAIソリューションに大規模な言語モデルと巨額の投資が必要という誤った認識があるからだとロバート氏は言います。また、ビジネス上の課題は多様であり、必ずしも最も強力なAIを導入することが最適なソリューションではないとロバート氏は指摘しています。

「すべてにGPUが必要なわけではありません。すべてのユースケースに最高性能の相互接続アクセラレーターが必要なわけではありません。億を超えるパラメータモデルをゼロからトレーニングしようとするのは、素晴らしいことです。GPUを相互接続したハイエンドのコンピュート・システムを持つことは正しい選択です。しかし、多くの企業顧客にとっては、推論を行い、微調整を行うだけで十分であり、言語モデルを小型化する傾向さえあります」

ロバート氏は、小規模な言語モデルや推論であれば、CPUと軽量アクセラレーターで十分だと述べています。だからこそ、顧客により多くの選択肢と柔軟性を提供することが、レノボの”AI for All”戦略の鍵の一つになります。レノボが企業に選択肢を提供する方法の一つは、幅広いハードウェアとソフトウェアを提供することです。

4月、 レノボは ThinkSystem SR685a V3を含む 一連のサーバーとHCIデバイスを発表し、ハイブリッドAI中心のインフラシステムと 「コンピュート集約型ワークロード 」をサポートしました。ThinkSystem SR685a V3は、 第4世代AMD EPYCプロセッサーに加え、 AMDのInstinct MI300X GPUやその他のGPUオプションを搭載しています。このシステムは、オンプレミスだけでなく、パブリックAIクラウドサービス向けのソリューションとしても設計されています。

レノボはまた、セキュリティ、AIからの偏見の排除、環境保護に関わる懸念への対応も支援しています。顧客が責任ある倫理的なAIを構築できるよう支援するために、レノボは当初社内用に作成された複数段階の審査プロセスを共有しています。

「何らかの形や機能でAIが組み込まれている場合、たとえそれが社内で使用しているものであっても、この審査を受けなければなりません」とロバート氏は言います。「そのモデルがどのように開発され、どのようなデータソースで学習されたのか。データに偏りはないか。このAIソリューションによってセキュリティ上の脆弱性がないか。セキュリティーだけでなく、ダイバーシティやインクルージョンの面も確認しています」

エネルギー消費について、企業が電力消費について心配するのは当然だとロバート氏。一部のデータセンターが小国並みのエネルギーを消費していることに驚嘆したとロバート氏は言います。同氏は、LLMを採用する企業にとって、AMD EPYC CPUのようなエネルギー効率の高いプロセッサの使用や、液冷の可能性などが解決策になると述べました。

データセンター向けのノードへの直接温水冷却ソリューションは、ロバート氏に感銘を与えました。このシステムは、熱の90%を取り出すことができると言います。温水の使用は直感に反するように聞こえるかもしれませんが、この方法は冷水や一部のグリコールベースのソリューションよりも効率的であると同氏は言います。しかしロバート氏は、管理者がどの冷却システムを採用するかを検討する前に、2つの基本的な質問を自問すべきだとアドバイスしました。

  1. 大規模な言語モデルが必要か?
  2. GPUが必要か?

ビジネスリーダーがAIの長所と限界を理解し始めるにつれ、これらの質問に対する多くの企業の答えは「ノー」になるだろうと彼は予測しました。

一覧に戻る