
Googleは本日、新しいAIモデル「Gemini 2.5 Flash」を正式にリリースしました。このモデルは、低コストでリアルタイムな応答機能に重点を置いた「費用対効果の高い推論ツール」と位置付けられています。このモデルは現在テスト中で、GoogleのAI開発プラットフォーム「Vertex AI」で最初に利用可能になります。
Googleは技術ブログで、Gemini 2.5 Flashは計算能力の動的な調整をサポートし、開発者がタスクの複雑さに応じて処理時間を柔軟に割り当てることができると紹介しました。例えば、単純な顧客サービスの問い合わせを処理する場合、システムは自動的に応答時間を短縮し、請求コストを削減します。複雑なドキュメント分析に直面した場合でも、計算精度が向上します。Googleによると、この機能により、主力モデルであるGemini 2.5 Proの総コストを最大50%削減できるため、銀行や通信など、AIへの高頻度の呼び出しが必要な業界に適しています。 Gemini 2.5 Flashは、OpenAIのo3-miniやDeep QuestのR1と同様に、回答前に事実確認を必要とする「推論最適化モデル」に分類され、生成モデルよりも応答時間がわずかに長くなります。しかし、平均レイテンシは0.8秒以内に抑えられており、インテリジェントな顧客サービスや議事録生成などのリアルタイムシナリオに適しています。Googleは、このモデルが1日200万件以上のメッセージを処理する社内メール要約ツールに適用されていることを具体的に発表しました。
Googleはまた、2024年第3四半期から、企業がGoogle Distributed Cloud(GDC)を通じて自社サーバーにGeminiシリーズモデルを導入できるようになると発表しました。現在、NVIDIAと協力してBlackwellアーキテクチャのハードウェアを採用しています。顧客は、金融やヘルスケアなどの機密データ業界のコンプライアンス要件を満たすために、このチップを搭載したローカルコンピューティングデバイスをGoogleまたはパートナーチャネルを通じて購入できます。
注目すべきは、GoogleがGemini 2.5 Flashの技術ホワイトペーパーとセキュリティテスト結果を公開していないことです。同社は、このモデルを「実験的」と位置付けており、詳細なレポートは公開しないと説明したものの、社内倫理審査に合格したことを約束した。以前、Gemini 1.5 Proは画像生成におけるバイアスにより論争を巻き起こしていた。今回の戦略調整は、開発者コミュニティにおいてモデルの透明性に関する議論を巻き起こした。
Vertex AIのバックエンドデータによると、Gemini 2.5 Flashのオープンベータ版公開から3時間以内に1万2000社以上がアクセスを申請し、そのうち63%がカスタマーサービスとドキュメント管理の分野だった。Googleは、最初のエンタープライズユーザーへのモデル展開を9月までに完了させる予定だ。