谷歌表示:沉浸視圖模式將于今年下旬在安卓和iOS系統推出 , 首發僅面向部分城市 , 包括洛杉磯、倫敦、紐約、舊金山和東京 , 未來還將陸續支持其他城市 。
可以想象 , 將2D地圖升級為3D模型需要時間和成本 , 想要規模化并不容易 。 為此 , 谷歌早前就在探索基于NeRF-W的合成算法 , 根據2D圖片合成逼真、連貫的3D視角 , 這項技術對于谷歌開發3D地圖將起到關鍵作用 。 此前青亭網也曾報道過這項技術 , 包括其背后的原理和細節 。
Google Lens功能優化
除了AR外 , 谷歌也看好視覺搜索的前景 , 認為它將成為未來搜索技術的關鍵部分 , 甚至可能比語音搜索、移動搜索等技術更加重要 。 谷歌表示:Google Lens用戶平均每個月搜索的次數達80億 , 是一年前的三倍 。 人們對于視覺搜索的需求是存在的 , 接下來要做的是深入研發 , 以尋找最有價值的應用場景 。
為此 , 谷歌宣布擴展Google Lens智能鏡頭的“多重搜索”(multisearch)功能 , 為其加入“附近搜索”功能 , 意味著你可以將視覺搜索結果連接到附近的地點 。 這種更加智能的視覺搜索功能 , 未來可能與AR眼鏡有很好的結合 。
據悉 , 多重搜索是一種同時用文本和圖像來進行搜索的功能 , 簡單來講就是在視覺搜索基礎上 , 可以進一步設定顏色、附近等關鍵詞 , 來優化搜索結果 。 比如 , 當你看中一條連衣裙的款式 , 但是想要尋找另一種顏色 , 便可以利用多重搜索功能掃描這條裙子 , 然后再輸入目標顏色來細化搜索結果 。
而新增的“附近搜索”功能指的是 , 當你用Google Lens搜索某家連鎖餐館時 , 可以進一步搜索“我附近” , 這家餐館離你最近的店 。 甚至 , 還可以拍攝零件來關聯附近五金店 , 搜連衣裙匹配周圍服裝店 , 或是掃描食物照片搜索附近的餐館菜單/外賣 。
除了購物等日常生活場景外 , 谷歌認為視覺搜索還可以解決社會上的一些問題 , 比如幫助人們學習環保 , 幫助救災人員快速整理捐款等等 。 而相比于單純的視覺搜索 , 多重搜索的好處是支持更復雜的搜索結果 , 搜索體驗更智能 。 目前 , 谷歌還在研發在一張圖像/場景中同時搜索多個對象的模式 , 比如掃描書架上的書后 , 便可查看關于各種書的信息等 。 隨著視覺搜索越來越復雜、智能 , 其與AR眼鏡結合的價值也越來越明顯 。
實際上 , 在去年7月接受外媒GQ采訪時 , Google Lens產品經理Lou Wang就表示在AR眼鏡中集成Lens功能是可行的 , 未來視覺搜索功能可以像語音搜索那樣普及 。 盡管智能手機生命周期還很長 , 但如果用AR眼鏡就能進行一些簡單的視覺搜索 , 也許可以補充手機的功能 , 為用戶帶來更多便利 。
在本屆I/O大會上 , 盡管谷歌并未展示Google Lens在AR眼鏡上運行的效果 , 但還是展示了AR眼鏡的另一種場景:實時翻譯 , 可以將自然語言轉化為文字 , 幫助你和周圍的人更流暢溝通 。 當然 , 目前這似乎只是一個應用概念 , 從前不久的報道來看 , 傳聞中谷歌的Project Iris原型的體積類似于滑雪護目鏡 , 因此未來谷歌能否在普通眼鏡形態的AR硬件中實現強大的功能 , 令人非常期待 。
相關經驗推薦
- OPPO|OPPO推出“適老化”功能,雙擊電源即可秒開健康碼
- 小紅書|真別小看安卓機的流暢度!果粉上手體驗后秒心動,小功能太香了
- 安卓|為什么中國堅持禁用谷歌地圖?看它在俄烏戰場做了什么,就明白了
- 芯片|看到谷歌發布的Android 13 測試版肯定蠢蠢欲動了吧,我先來試試水了!
- 四川長虹|這臺手機就有偽基站攔截跟騷擾信息攔截功能
- iPhone|暴雨不斷,自然災害風險系數高,手機這幾個應急功能請全部打開
- 安卓|打電話被別人惡意錄音?谷歌:安卓系統已經全面禁止
- 小米科技|小米新多功能胸包,易攜帶空間很大,價格僅售不到70元
- ios16|iOS 16發布倒計時,提前預覽新功能!
- 顯卡|AMD真良心:十年老卡增加光追功能,下一代顯卡規格完美
