リアル世界にCtrl+F、リアル世界に字幕。
万物拡張をめざすGoogleのカンファレンスI/O 2022。
今年はハードウェアが大豊作で、5つのPixel新ラインナップ(7/21予約開始7/28発売のPixel 6aとPixel Buds Pro、秋発売のPixel WatchとPixel 7/7Pro、来年発売のAndroidベースのPixelタブレット)とさらに、ワンモアシングではARめがねまで現れてリチャードと会場を沸かせてくれましたね!
まだあまり言及されていないポイントを簡単に振り返ってみます。
Pixel 5aはカメラがスタンダードモデルのPixel 5と同じで、中身のプロセッサで力を抜いた廉価版スマホでしたが、Pixel 6aは中身のプロセッサが6と同じハイエンドなTensorで、メインカメラを非力(6が50MPなのに対し6aは12.2MP)にすることで低価格を実現しています。バランスが逆転しているので「Pixelはやっぱりカメラ」と感じる人は、6か秋の7/7 Proという棲み分けになりそうです。
Google初のノイキャンワイヤレスイヤホン「Pixel Buds Pro」登場に合わせて、Pixel 6aからイヤホンジャックは廃止に。7/7 Proも3.5mmの穴はついていません。ジョニー・アイヴ調のナレーションでPixel 5aのイヤホンジャックをあれだけプッシュしていたGoogleですが、いともアッサリとおさらばです。
Pixel 7/7 Proはピンクが消えて、黒のObsidian、白のSnowに、7は黄のLemongrass、7 ProはグレイのHazelを加えた3色展開です。ピンク好きなみなさまは残念だけど、Hazelはカメラのところが銅で、少し近いかな。
わかってる人はわかってるけど、オーディオ機器ではまだあまり一般的じゃないので、一瞬ポカンとしてしまったのが「マルチポイント」ってやつ。これは見てのとおり(上の動画の0:18〜)、2つの端末に同時にBluetooth接続して、わざわざ手動でつなぎ直さなくても自動的に接続端末を切り替えられることを指します。スマホでイヤホン使って、そのままPCに向かうとハンズフリーでPCにペアリングされたりするの便利そう!
スマホでパシャッと撮って犬や花の名前を画像検索できるGoogleレンズ、ほんとに便利で手放せませんよね! I/O基調講演では、パシャッと撮ってから文字でさらに検索条件を絞れる「マルチサーチ」機能(4月英語圏にて先行リリース)の説明もありました。
たとえば蛇口が壊れて交換が必要なシーンでも、蛇口をパシャッと撮って「交換」と入力すれば、交換可能なアイテムがヒットするので、部品の呼び方がわからなくてずーっと放置ということもなし。
年内にはパシャッと撮って「Near Me」と入力すると、近隣で入手可能なストアも探せるようになるそうですよ? Webでおいしそうな料理を目にしたらカメラかスクショでパシャッ。「Near Me」という文字で絞ると、料理の名前と食べられるお店の一覧が表示されるので、気になるお店をクリックすると地図と営業時間が丸わかり。うーん、Googleレンズ使用時の行動パターンをそのまま自動化した感じですねー。
ストア情報はGoogleマップに集まるレビューや写真がベースとのこと。Yelpみたいなレビューサイトは胃に穴が開く1年になりそうです。
基調講演の最後を飾ったARグラス。リアルタイム字幕、商品棚にレビュー評価ポイントがオーバーレイするシーンでは眠気が吹っ飛びました。
コンセプト映像で映し出されたのは「母親は中国語、自分は英語」というYoshiko&Viva母娘。「娘の話す英語はわかるけど、英語で返事できないの」とYoshikoママはさびしそう。でもGoogleのARグラスをかけると世界は一変。「リアル世界に字幕」がついちゃう! 手話も文字起こしされて自由に会話が楽しめちゃう! 目と目を見ながら、言語コミュニケーションにギャップがある人と自然に会話ができて、言語の壁を崩すテクノロジーは背景に溶け込んで消える、これがGoogleの考えるAR。 ここ数年、テック大手が模索している「Ambient computing*」がついにくるんかい!…となりました。
*アンビエント(環境)・コンピューティング。ユーザーがスマートフォンやPCといった個別の端末を意識することなく、環境自体をコンピュータのように操作できるというコンセプト。
2012年のGoogleグラスは頓挫しましたが、1月の内部情報リークによると、いまのAR事業は開発コードネーム「Project Iris」。約300人が守秘義務契約のもと従事しているみたいですよ? 代表を務めるのは、昨年のI/Oで話題になったリアルタイム3DキャプチャのビデオチャットのProject Starlineの総括を兼務するClay Bavorさん。チームの顔ぶれを見るとGoogleのオールスターズ感があり、数千人規模のチームを抱えるMetaやAppleと対等に渡り合っていけるかに注目ですね。
ストリートビューは世界400周分以上を制覇し、人が住む地域の98%はHD衛星イメージでカバー済み。これらの膨大なデータをもとに、Googleは機械が読み取れる3Dモデルを構築し、これをストビューやGoogleレンズのARに活かしてます。
I/Oでは、これをAPIで公開(ARCore Geospatial API)。空間スキャンなしでARコンテンツのアンカリングが可能になりました。もうスマホカメラを向けるだけで正確な端末の向きと位置が瞬時に特定できるので、いろんなアプリでARが楽しめちゃうの、Androidの人もiOSの人も。これはデベロッパーさんたちも腕まくりだね。
あー早くこいこい、ARワールド。これでリアルタイム翻訳も高速&精度ばっちりになるなら、みんなハッピーじゃないですか。ね!
ARグラスで興奮するリチャード スマホ時代の終わりは近そう。Google I/Oで発表された秘密兵器 いやー盛り上がりましたね!Google(グーグル)の開発者向け会議こと「Google I/O」。「どうせ開発者向け会議でしょ」となめていたら、とんでもない新製品の山、山、山…ガジェットオタクなら涙を流すような、熱い展開となりました。そんなGoogle I/Oの注目ポイントを、ギズモード・ジャパンのガジェットコーディネーターこと西谷茂リチャードと一緒にチェックしていきましょう!未来を変える、スマー https://www.gizmodo.jp/2022/05/google-io-richard-movie.html