GoogleがGoogle I/O 2025でAndroidにおけるAI開発の新たな展開を発表した。ユーザーのアプリ体験を革新するAI機能の統合を支援する3つの主要なアップデートが明らかにされ、開発者がスマートで個人化されたクリエイティブなアプリを構築するためのツールが拡充される。
今回の発表では、オンデバイス処理からクラウドベースの機能まで、幅広いスペクトラムでAIをアクセシブルにすることに焦点が当てられた。Googleは開発環境全体でのイノベーションを支援するため、包括的なソリューションを提供する方針を示している。
第1の重要なアップデートは、オンデバイスAI体験のためのGemini Nanoの効率活用だ。GoogleはML Kit GenAI APIの新セットを発表し、Gemini Nanoを基盤としたテキスト要約、校正、異なるスタイルでのコンテンツ書き換え、画像説明 生成などの一般的なタスクに対応する。オンデバイス処理により、ローカルデータ処理とオフライン利用が可能になり、推論に追加コストが発生しない利点がある。
第2のアップデートでは、オンデバイスML/AIとカスタムモデルのシームレスな統合が可能になる。Google AI Edgeプラットフォームは、TensorFlow、PyTorch、Keras、Jaxなど様々なフレームワークをサポートし、事前訓練済みおよびカスタムモデルの構築・デプロイを支援する。さらに、オンデバイスハードウェアアクセラレータの改良サポートと、包括的なベンチマーキング・評価のための新AI Edge Portalサービスが提供される。
大容量モデルのダウンロードと更新の課題に対処するため、GoogleはPlay for On-Device AIのベータ版をローンチした。このサービスは開発者がカスタムモデルのダウンロードを効率的に管理し、各Androidデバイスに適切なモデルサイズと速度を必要な時点で正確に提供する。
第3のアップデートでは、Firebase AI Logicを通じてGemini Flash、Pro、ImagenでAndroidアプリを強化する機能が発表された。複雑な推論タスク、大量データ分析、音声・動画処理、画像生成など、より高度な生成AI用途に対応する大規模モデルがクラウドで利用可能になる。これらのモデルは高度な機能やマルチモーダル入出力を必要とするシナリオに適しており、インターネット接続のあるあらゆるAndroidデバイスでサポートされる。
開発者のインスピレーションと実践的な学習を支援するため、Googleは新たなオープンソースアプリ「Androidify」をリリースした。このアプリは、Gemini API、ML Kit、Jetpack Compose、CameraX、Navigation 3、アダプティブデザインを活用したAI駆動のAndroid体験構築を実演している。ユーザーはGeminiとImagenを通じてパーソナライズされたAndroidボットを作成でき、ML Kit姿勢検出でカメラファインダー内の人物を検出する機能も搭載されている。
出典: Top 3 things to know for AI on Android at Google I/O '25