検索
ニュース

Googleの新基盤モデル「Gemini」、AI統合プラットフォームで法人利用開始人工知能ニュース

 Google Cloudの日本法人であるグーグル クラウド ジャパンは2023年12月14日、同社の新たな基盤モデル「Gemini」の話題を中心に、法人向けに提供する生成AI関連のサービスや機能を発表した。機械学習開発の統合プラットフォーム「Vertex AI」からGeminiにアクセス可能になる。

Share
Tweet
LINE
Hatena

 Google Cloudの日本法人であるグーグル クラウド ジャパンは2023年12月14日、同社の新たな基盤モデル「Gemini」を中心に、法人向けに提供する生成AI関連のサービスや機能を発表した。機械学習開発の統合プラットフォーム「Vertex AI」からGeminiにアクセス可能になる。

生成AIアプリケーション開発者向け機能を拡充

 Geminiはテキストや画像、動画、音声などに対応するマルチモーダル性をネイティブで備えた基盤モデルである。モデルのサイズ順に「Ultra/Pro/Nano」の3種類が用意されており、今回、一般利用が可能になるのは「Gemini Pro」だ。Geminiシリーズの最大モデルである「Gemini Ultra」は現在、限られた企業にのみ提供されているという。


Gemini Proの利用を開始[クリックして拡大] 出所:グーグル クラウド ジャパンのブログより

 企業の開発者はVertex AIを通じてGemini Proにアクセスできる。Vertex AIは生成AIアプリケーションで多く見られるセマンティック検索や対話機能が開発可能な「Vertex AI Search and Conversation」、生成AIのチューニングやカスタマイズを行える「AI Platform」など、生成AIアプリケーションの開発に役立つ機能を複数搭載している。

 これに加えて、AIモデルのプラットフォーム「Model Garden」を通じて、Gemini Proの他、Googleの大規模言語モデル(LLM)「PaLM 2」や画像生成AIモデル「Imagen」、MetaのLLM「Llama 2」やAnthropicのLLM「Claude 2」などをユーザーが必要に応じて選択できるようにした。

 基盤モデルと他システム間の応答を安定化させる「Vertex AI Function calling」や、外部データソースの操作や接続などを実現する「Vertex AI Extensions」などの機能も搭載した。これらは生成AIの開発者から実装の要望が多かった機能だという。他システムと連携してデータを処理し、その結果を基にアクションする基盤モデルが開発できる。LLMの機能拡張を実現するフレームワーク「LangChain」との互換性を持つ。なお、Vertex AI Extensionsは現在、プライベートプレビュー版での公開となっている。

 LLMのハルシネーション(幻覚)問題を軽減するために、企業が持つデータの検索結果に基づいた回答を出力する「Grounding in Vertex AI」も搭載している。基盤モデルの蒸留機能である「Distillation Step-by-Step」も提供する。

 Gemini ProによるVertex AI Search and Conversationの機能強化も2024年に行う計画だ。グーグル クラウド ジャパン ソリューション&テクノロジー部門 AI/ML事業開発部長の下田倫大氏は「プロダクションレベルのAIエージェントを数時間ないしは数日程度で簡単に作成できるようにする」と説明した。

 また、出力したAIモデルやトレーニングデータの著作権に関する補償範囲を、PaLM2とImagen、Geminiの3つをVertex AI、Duet AIで利用した場合にまで拡張した。Vertex AI上で使用した企業のデータを、Google Cloudが再利用することはないとする。なお、個人開発者の場合は無料ツール「Google AI Studio」でGemini Proにアクセスできる。

 これに加えて下田氏は2024年の早期に、生成AIによるGoogleのサービス支援機能「Duet AI for Google Workspace」に、Gemini Proが搭載されることも紹介した。メールサービスの「Gmail」やオンライン会議サービス「Google Meet」、文書作成サービス「Google ドキュメント」に加えて、コーディングのサポートを行う「Duet AI for Developers」やセキュリティ対策支援サービス「Duet AI in Security Operations」などのユーザー支援機能を向上させるとみられる。

独自AIチップ「TPU」シリーズも強化

 Geminiなどの基盤モデル開発や運用を支えるAIチップ「TPU v5p」と「TPU v5p」についても紹介した。TPU v5pは2023年12月に発表したもので、既存のLLMのトレーニングは2.8倍に高速化、スケーラビリティは4倍に、チップ1つ当たりのFLOPSを2倍にすることに成功した。一方でTPU v5eはコスト効率性を重視したものとなっており、1ドル当たりのAIモデルのトレーニングパフォーマンスは2倍、推論パフォーマンスは2.7倍に向上した。

 特にTPU v5eによってGeminiの提供価格を、従来の基盤モデルサービスよりも低く抑えることが可能になったという。PaLMシリーズの言語タスク用モデル「text-bison」と比較すると、入力文字数当たりの利用単価が4分の1、出力文字数当たりでは2分の1に低減できる。

⇒その他の「製造ITニュース」の記事はこちら

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る