昨年のGoogle開発者カンファレンス・Google I/Oで発表されたプロジェクトAstra。マルチーモーダルで目をもつAIアシスタントとして、周辺状況をユーザーとともに共有かつ理解できるのが魅力のプロジェクトです。
今年のGoogle I/Oのデモ動画では、記憶力、認識力、会話力と全方位的にアップグレードしており、控えめにいってとても優秀な姿を披露しています。
デモ動画は自転車修理のシーン。
ユーザーが両手を使って自転車を修理している中、スマホを横に置いてAstraで自転車の説明書を検索。知りたいことをユーザーに尋ねた上で該当ページを開きます。さらにネジパーツの締め方のチュートリアル動画をYouTubeで探して再生、メールから検索して必要なパーツをカメラ越しに囲ってお知らせ、近所の自転車屋さんに問い合わせをこなしつつ、第三者の登場を察知。そのタイミングで会話を止める、その後、続きから話すのを自主的に行なっています。
これだけでもかなりのプロセスをこなしていますが、その全てがじつに自然な会話の流れでできているのが素晴らしい。まさにアシスタントの名に相応しい働きっぷりです。
プロジェクトAtraはGemini進化のためであり、GeminiはGoogleのスマートグラスプラットフォーム・Android XRにも連携されます。
が、今回ちょっと残念だったのは、Astraのデモ動画をスマートグラス越しで見たかったということ。途中、スマホをかざしてパーツを探すシーンがありますが、あれがスマートグラスでできていれば、よりハンズフリー体験がアップしており、会話ができるAIの強みもアピールできたのにな。(Android XRのデモ動画がしょぼく見えないように、もしかしてわざと?)
Astraの今後の進化には、ますます期待したいところ。
Source: Google