Androidアシスタント「Gemini」がより強力になりました。
Samsung(サムスン)から新機種Galaxy S25 / S25 Ultraが発表されたことに合わせて、Google(グーグル)からはGeminiの新しい機能が発表されました。これまでより人に寄り添った機能で、1つの指示から横断的にタスクをできるようにしてくれます。まずはGalaxy、Pixelシリーズに搭載ですが、今後Androidスマホにも搭載されそうなので、今のうちにその新機能を見ておきましょう。
Gemini Liveは、これまでも会話形式のプロンプト入力ができることで、自然な会話からAIを利用する入り口になっていましたが、それがさらに多用途に進化して、画像、ファイル、YouTube動画を会話に追加できるようになりました。
まずはGalaxy S24 / S25シリーズ、Pixel 9デバイスで利用可能になります。今後さらに多くのAndroidデバイスにも拡大されそうです。また、今後数カ月以内に、画面共有やライブ動画ストリーミングといった機能を、まずはAndroidのGeminiモバイルアプリとGalaxy S25に導入する予定と発表されています。
GIF: GoogleGeminiは既にYouTube、Google Maps、Gmail、Spotifyなどのスマートフォンアプリ内でのタスクをこなすことが可能ですが、今回の発表でGoogle系のアプリだけでなく、Samsung純正系のアプリにも対応できるようになりました。
例えばSamsung Calendar、Notes、Reminder、Clockが追加されています。これでサードパーティー製のアプリが次々連携されるようになる日も近そうです。既にWhatsApp、Spotifyなどが連携しているので、徐々にGeminiと連携、操作できるのが当たり前になる世界も近そうです。
GIF: Google複数のアプリを1つのプロンプトで横断して利用できる例をご紹介します。
例えば「週末に近くのアクティビティを探して、それをサラに送ってください。」と話せば、検索、合致する内容のピックアップ、メッセージアプリの起動、メッセージ本文の生成などユーザーはまったく操作せずとも、タスクを実行してくれるようになります。同様のタスクをGalaxyの場合も実行できる様子が「GalaxyS25シリーズ」まとめ記事に掲載されています。
実際は…
1. 条件に従ってネットを検索して行き先候補を選定
2. メッセージアプリを開く
3. 行き先候補を入れたメッセージ本文を生成
という操作が背景で行なわれているのですが、ユーザー側はまったく意識せずに、理想とするタスクをGeminiが考えてアウトプットしてくれます。
Samsung製のアプリにも対応できるようになったので、例えば高タンパク質のランチアイデアを探しているとしたら、Geminiにレシピをリクエストして、それをSamsung NotesやGoogle Keepに直接保存することもできるようになりました。
どのアプリを開いて、何をして…なんて考えることなく、まずはGeminiに話すだけで解決できるんです。今はアプリの組み合わせが限られていますが、これからはAndroidなら何も考えず、Geminiに話しかけることがスタンダードになりそうです。
合わせて「かこって検索」も改善されていて、電話番号、メールアドレス、URLを自動的に認識して、より簡単に操作できるようになりました。検索結果内のAIオーバービューも拡張され、場所やアート作品、オブジェクトの画像かこって検索を使った時に、AIオーバービューが結果に表示される可能性が高くなっています。
Galaxy S25シリーズでは、Geminiへよりアクセスしやすい設計になっています。サイドボタンを長押しするだけで、Geminiが画面上の内容に応じたアシスタントをしてくれます。
さらに今週後半には、 GeminiモバイルアプリでDeep Research機能を公開することをGoogleは予告しています。この機能は、移動中でも数時間のリサーチを省略する手助けとなるということ。詳しい内容は発表を待つしかないですが、私たちに代わってGeminiがタスクをこなしてくれることは間違いなさそう。 現時点の発表を見る限り、iPhoneのApple Intelligenceよりも一歩進んだ感じになりそうですね。始まってるよ、AIデバイス競争!
Source: Google, The Verge