検索
連載

生成AIを前提に通信網やデバイスが変化していく MWC 2024レポート(前編)世界の展示会で見たモノづくり最新動向(3)(2/4 ページ)

この連載ではMONOistとSalesforceのインダストリー専門家が協力して、世界各地の展示会から業界の最新トレンドをお届けします。前回のCES 2024最新動向レポートに続き、第3弾では、2024年2月26〜29日にかけてスペインのバルセロナで開催されたMWC Barcelona 2024から、通信業界の生成AIのトレンドを2回にわたり紹介します。

Share
Tweet
LINE
Hatena

LLMの進化:業界標準LLM VS 自社開発LLM

 LLMの進化にも焦点を当てます。現在多くの通信事業者が、Microsoft、Amazon、Google、Metaなどが提供する汎用的な基盤モデルを自社向けにカスタマイズして活用していますが、一部、自社で独自のLLMを構築している通信事業者も存在します。規制産業で国や地域ごとに特殊なルールがあり、業界特有の専門用語や複雑なオペレーションが多い通信事業者にとって、汎用的な基盤モデルのLLMのみに頼る形では生成AIの用途が広がっていきません。

 しかし、全ての通信事業者がそれぞれ独自のLLMを整備していくことも非効率で現実的ではありません、この点について、複数の講演の中で業界特化型LLMを整備することの是非が議論されました。

 2023年にDeutsche Telekom、SK Telecom、Singtel、e&が組成した「Global Telco AI Alliance」に新たにソフトバンクが加わることが発表されていますが、Deutsche Telekomの基調講演でもこの点に触れ、今後、業界に特化したLLMの共同開発も検討していくことが紹介されました。一方で、他の講演では、業界全体で共通化されたオープンなLLMが必要だという意見や、業界特化部分はLLMではなく各社がSLM(Small Language Model)を整備する方法もあるのではないかという意見も聞かれました。


基調講演で発表された「Global Telco AI Alliance」 提供:Salesforce

 LLMは、モデルサイズの考え方についても変化が見られました。LLMのアウトプットの正確性や品質を高め、対象範囲を広げるためには、LLM自体のパラメーター数を増やすのが一般的(例:OpenAIの「GPT-4」は1.7兆パラメーターを持つと推測されている)です。これに対してNECは、LLMのパラメーター数をコンパクトに抑え、トレーニングで精度を上げる方法を紹介しました。同社 CTO 西原基夫氏は講演の中で、2023年7月に発表したCotomi(パラメーター数130億)が、Cotomiの13倍程度のサイズを持つ他のLLMと同等の精度を出せると説明しました。特に日本語の処理に強みを持つとのことです。

 LLMのサイズが小さくなることで、クラウドよりも処理能力が低いエッジデバイスでのAI処理が可能になるというメリットがあります。つまり、企業や個人がクローズドな環境でLLMを活用する選択肢が生まれるのです。実際に、展示会場で注目されていたオンデバイスAIには、パラメーター数を抑えたLLMが搭載されていました。当面は、GPT-4のような大規模化する汎用LLMとコンパクトなLLMが用途に合わせて使い分けられる方向に動くのではないでしょうか。通信業界におけるLLMのあり方は、今後も大きな動きが続くことが予想されます。

 LLMに対する考え方として共通していたのは、生成AIを効果的に活用するためには、用途に応じて複数のLLMを組み合わせて使用することが望ましいという点です。生成AIの性能は、使用するデータの質に左右されるという認識が広がっています。同一の汎用LLMを採用しても、トレーニングデータやトレーニングの量、そしてプロンプトの質や検索拡張生成(RAG)の活用次第でアウトプットは変わります。それぞれのLLMが得意とする分野も異なるため、用途に合わせてLLMを使い分けたり、組み合わせたりする形が現状のベストプラクティスのようです。また、自社のニーズに対応する適切なデータを用意し、生成AIで活用できるよう整備することも成功の要因となるでしょう。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る