Gemini Liveがさらに人間っぽく。今年後半、劇的な進化を遂げる…のか?

  • 2025年2月10日
  • Gizmodo Japan

Gemini Liveがさらに人間っぽく。今年後半、劇的な進化を遂げる…のか?
Image: shutterstock

AIと話している自分がおかしくて噴き出しちゃうので会話が続かないのだ…。

GoogleのGemini Liveはユーザーと会話できるんですけど、その会話が弾むかと言われると微妙なところ。でも、Googleとしては少なくとも「リアルな話し相手」みたいに感じてほしいらしいんですよね。

で、AIの性能が上がるにつれてできることも広がってきているようで、今回のアップデートでは「クラウド上のAIとチャットしてる」というよりも、「スマホにAIから電話がかかってきた」みたいな演出になっているのだとか。

Gemini LiveのUIが電話っぽく変更

Googleは1月末にGemini 2.0 Flashモデルをアップデートし、Geminiアプリを利用するすべてのユーザーが無料で使えるようにしました。つまり、もう有料サブスクに加入しなくてもOKってわけです。

9to5Googleによると、このアップデートには「隠し変更」もあったらしく、Gemini Liveの通知がこれまで以上に人間っぽく見えるようになったとのこと。AIとの距離感がまた一歩近づいた感じ?

以前のAndroid版Gemini Liveでは、バックグラウンドでの実行中にアプリを閉じると、シンプルな通知が表示されるだけでした。でも、新バージョンではこれがまるで通話画面みたいなデザインに変更され、「終了」か「一時停止」を選べるようになりました。

UIはこんな感じ。

Image: Kenji P. Miyajima / ギズモード・ジャパン Gemini Live(Android)のスクリーンショット

さらに、ロック画面では「GeminiとLiveで会話」「マイクがONになっているため、Geminiと音声で会話できます」という通知が表示されます。比較的短時間で自動的に一時停止モードに入りますが、その場合はもう一度アプリを開くか、「OK Google、 話そう」などと声をかけると会話を継続できるようです。

Project Astra機能搭載の前兆?

今回の小さな変更は、Googleが2025年に向けてAIをどう進化させようとしているのかが見えてくるアップデートでもあります。Gemini Liveはすでにユーザーと会話できるだけでなく、最近は写真や動画の内容を理解する機能まで追加されました。

さらに将来的には、Google DeepMindの「Project Astra 」から視覚認識機能を搭載する計画も進行中とのこと。そのため、Gemini Liveはスマホの通常操作を邪魔することなく、バックグラウンドでより自然に動作する必要がありそうです。

Gemini 2.0のアップデートは続く

Image: shutterstock

Googleは現在、Gemini 2.0をさらにアップデートし、用途に応じた大小さまざまなAIモデルを追加中。2月5日に公開されたブログ記事では、“実験的な”Gemini 2.0 Proがお披露目され、これまでで最も強力なユーザー向けモデルと紹介されていました(こちらGoogle Japanのブログでは言及がありません)。

Gemini 2.0 Proは特にプログラマー向けに設計されていて、Gemini Advancedの有料プランに加入すれば誰でも利用可能とのこと。AIを駆使して作業を効率化したいエンジニアにとっては、なかなかおもしろい選択肢になりそうですね。

ところで、Googleの最新モデルは本当にそこまで優秀なんでしょうか? 同社の説明では、ほとんどのベンチマークでGemini 2.0 Flashを上回っているそうですが、「事実に基づいた正確な回答を求めるテスト」だけは例外だったとのこと。それ、例外になったらあかんやつやん。

一方、Gemini 2.0 Flash-Liteは、必要な電力がGemini 1.5 Flashと同じなのに、より正確な回答を出せるとGoogleは主張しています。

ちなみに、この新モデルの発表は、OpenAIがo3推論モデルを公開した直後でした。OpenAIは1月末、さらに軽量バージョンのo3-mini推論モデルも発表。AIの進化競争は線路のようにどこまでも続きそうです。

Geminiは今年後半、劇的な進化を遂げる…はず

Samsung(サムスン)の最新スマホGalaxy S25の目玉機能のひとつとして、Geminiとのクロスアプリ機能が搭載されました。電源ボタンを長押しするだけで、テキストメッセージをカレンダーの予定に変換するといった簡単な操作がハンズフリーでできるとのこと。めちゃくちゃ便利そうに聞こえますよね?

でも、米Gizmodoのテストによると、実際のAI機能はかなり平凡だったらしく、単純なタスクは問題なくこなせるものの、複雑な処理にはまだ難があるとのこと。もしAIの回答をいちいちチェックしなきゃいけないなら、自分でやったほうが早いかもしれませんね。

Googleは今年後半のGoogle I/O 2025やPixel 10のリリースに向けて、最高のモバイルAI機能を温存しているようです。SamsungのAIがイマイチだったこともあって、Googleとしては「これが本物のAI体験だ!」とユーザーを驚かせせるつもりなんでしょう。でも、これほどの努力とPRが価値あるものだったのかどうか、その答えはもう少し待つ必要がありそうです。

キーワードからさがす

gooIDで新規登録・ログイン

ログインして問題を解くと自然保護ポイントが
たまって環境に貢献できます。

掲載情報の著作権は提供元企業等に帰属します。
copyright 2025 (C) mediagene, Inc. All Rights Reserved.