【Google I/O 2018】カメラ×AIで何ができる?Google Lensの使い道 | RBB TODAY

【Google I/O 2018】カメラ×AIで何ができる?Google Lensの使い道

IT・デジタル モバイル

(c)GettyImages
  • (c)GettyImages
  • 「Style Match」機能。(c)GettyImages
  • Aparna Chennapragada氏。(c)GettyImages
 米Googleの開発者会議Google I/Oが今年も開催された。昨年の同イベントではじめてお披露目されたGoogle Lensにいくつかの新機能が登場している。

 Google Lensは、カメラに写ったものをAIが認識し、様々な情報を表示したり文字をテキスト情報として読み込んだりといったことができる機能。これまでは、一度撮影したものをGoogleフォトに取り込むことでその機能が使えていたが、いよいよリアルタイム認識に対応することが今回発表された。

 別稿で触れたが、これを活用してGoogle MapがAR対応したほか、たとえば海外のレストランでメニューを見ても内容がわからない時、Google Lens対応のカメラをメニューにかざすと、リアルタイムに翻訳してくれたり、料理の写真を表示してくれたりする。読み込んだテキストはそのままコピー&ペーストすることも可能だ。

 または、服やカバン、靴などにカメラを向けると、類似したアイテムをレコメンドしてくれる「Style Match」という機能も紹介された。照明などにカメラをかざすと、おすすめの照明カバーを検索してくれたりもする。そのほか、建物や動物にカメラを向けると、ビル名だったり、犬種だったりを知ることができる機能や、アーティストのポスターにかざすとそのアーティストの楽曲のYouTubeが再生されるといった使い方もできる。

 実際にカメラに写るものは、たとえば同じ建物といってもそのアングルや光の当たり方によって無数の見え方をする。そうした膨大な数のシチュエーションに対してリアルタイムに適切な情報を表示する今回の試みに関しては、やはり機械学習の力がなければ不可能だったと、プレゼンテーションにのぞんだAparna Chennapragada氏は述べている。

 なお、カメラのレンズとAIで言えば、マイクロソフトが昨年7月に発表した「Seeing AI」というものもある。こちらは、聴覚障害のある方達の利便性向上が念頭にあり、レンズに写ったものの状態を音声で読み上げるというもの。まだ日本では利用できないが、こうしたAIの活用事例が今後も増えていくだろう。
《白石 雄太》

関連ニュース

特集

page top