請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

影片|Google能用影片搜尋了!AI助手Astra超狂理解力、影片生成模型Veo,還有哪些AI革命?

數位時代

更新於 2024年05月18日09:02 • 發布於 2024年05月16日13:10

Google年度開發者大會I/O於台灣時間5月15日凌晨登場,今年火力全開更新AI功能,會後統計這場活動中一共提到122次「AI」。

Gemini以「多模態」形式進入搜尋引擎、助手等功能中,今年開始Google將能夠用「影片」進行搜尋,同時推出AI Overview功能,靠AI協助把搜尋內容摘要整理;智慧助手Astra能夠邊錄影邊辨認畫面中的物體、動作等資訊,即時回應相關問題;大型語言模型則推出全新的Gemini 1.5 Flash和影像生成模型Veo。

Google Deepmind領導人德米斯.哈薩比斯(Demis Hassabis首次出席Google I/O。。

《數位時代》前進現場直擊,Google I/O最新發布內容。

AI革命一:搜尋引擎!除了能搜尋影片、還能理解更複雜指令!

首先是鞏固Google龍頭地位的搜尋引擎,這次迎來根本性的更新,加入Gemini的新能力後,不只能辨識影音內容,還可以理解更長更複雜的指令。

Google能用「影片搜尋」了!

Google搜尋過去很長一段時間都以文字、圖片為主要搜尋方式,如今終於進階,開放「影片搜尋」,可以即時拍攝影片,用語音或文字簡單補充詢問,搜尋引擎會自動分析畫面中的內容並提供相應的回覆。

現場展示功能,當播放黑膠唱片時遇到技術困難,金屬唱針不規則晃動,可以用影片錄下畫面,並語音簡單詢問「為什麼會這樣?」Google就會自動搜尋,並且透過Google Overview的功能提供AI搜尋摘要。

AI Overview:理解更長更複雜的指令

AI Overview是Google去年發表的技術,會在搜尋引擎頂端摘要、整理搜尋到的內容,這一次透過Gemini模型新的「多步驟推理能力」,AI Overview能處理複雜的問題。不管問題有多大串、包含多少細節和該注意的地方,都不用再分次查詢。

例如用戶想找一間新的瑜珈或皮拉提斯教室,可以直接搜尋:「 幫我找在波士頓最棒的瑜珈或皮拉提斯教室,並告訴我它們的新會員優惠資訊、還有從燈塔山走過去的時間。內容包含多項需求,但AI Overview功能依舊可以完成任務。

AI革命二:Astra助手!即時分析影片內容,思考反應

今年首度登上I/O舞台的Google Deemind負責人傑米斯·哈薩比斯(Demis Hassabis)上台展示Google「未來的人工智慧助手」——名為「Astra」的助手,號稱能像人類一樣理解這個動態且複雜的世界。

Astra同樣解鎖「多模態」的能力,加入影片的即時分析技術,能夠在看到動態畫面時快速思考和反應,甚至可以擁有記憶力,這項功能一發表,讓現場響起如雷掌聲。

在展示的功能中,使用者拿著手機邊拍畫面邊到處走動,先走到窗邊詢問Astra「你覺得我現在人在哪個社區」,接著拍到電腦畫面,用筆刷圈選螢幕中的程式碼問Astra「你覺得哪裡有問題要改善?」甚至在影片結束前,可以問Astra「記不記得我的眼鏡放在哪裡?」Astra也能分析這幾分鐘經過的所有畫面,找到眼鏡所在的影格並分析畫面中的資訊,最後得出結論;「放在一顆蘋果旁邊。」

AI革命三:Google相簿搜尋!AI幫你找照片、記錄生活

Google也在Google相簿推出Ask Photos with Gemini功能,可以透過影像分析將照片中的物體分類,並貼上關鍵字標籤,例如用戶可以快速找出帶有自己車子車牌的照片,甚至可以記錄「女兒學習游泳的過程」,並將這些相關的照片整理,當詢問Gemini:「我女兒是何時學會仰式的?」可以快速找出相關圖片並提供日期作為答覆。

Google I/O公布Google相簿搜尋功能。

AI革命四:Android!Gemini橫跨對話、影音等所有體驗

Android預計將成為Google AI功能體驗最佳的載具,Gemini在手機裡會隨時準備好提供多元協助,根據大會中展示的應用,可以在聊天的對話中隨時生成迷因圖,或者詢問體育影片中的規則,若收到80多頁的PDF檔案也可以透過Gemini Advanced App「現學現賣」,即時回答問題。

大量參數處理的能力,讓Gemini可以在幾秒鐘內讀通整本經濟學,並提供摘要或回答問題。

AI革命五:Gemini更新!新模型Flash,更輕量、一次處理百萬token

大型語言模型的技術,是這次所有新功能的重要基礎。Gemini作為Google最核心的AI大型語言模型,這次更新直攻「多模態」和「大量處理」兩大核心能力,進化到能一口氣處理百萬token的文字、圖片、影音。

Gemini 1.5 Flash

這次Gemini家族全新成員Gemini 1.5 Flash,大小介於Gemini 1.5 Pro和Gemini 1.5 Nano之間,不過能用更輕量、更高的效率,和Gemini 1.5 Pro達到同等級的能力,例如一個對話指令的視窗可以處理百萬Token,代表一次可以分析長達1500頁的文件,或超過30,000行的程式碼。這個輕量版的模型是通過「知識蒸餾(Distillation)」的方式來實現,更適合需要速度、低成本的開發者,

Google Gemini 1.5 Flash單次處理參數

Gemini 1.5 Pro 更新

今年2月才公開的Gemini 1.5 Pro也預告將升級,今年稍晚會把能一次處理的token量翻倍到200萬個,代表能夠同時處理2小時的影片、22小時的音檔、超過60,000行的程式碼或超過140萬字的文字內容。

AI革命六:影像模型Veo!文字指令生成影片

至於影像生成,Google端出Veo跟OpenAI推出的Sora打對台,可以輸入自然語言文字指令,生成超過一分鐘的1080p高畫質影片,並且能理解電影拍攝和視覺技術相關的術語,在創作過程中可以融入縮時拍攝等手法。

Google I/O發表影像生成模型Veo
Veo能夠理解多組複雜指令並生成影片。

至於OpenAI推出的Sora,能夠生成包含多名角色、特定動作類型以及大量細節的複雜場景,而且AI不僅了解用戶在提示詞所說的各種物體,還知道這些物體是如何存在於現實世界,進而營造出讓人驚豔的逼真感受。

OpenAI趕在Google I/O前一天,發表GPT-4o

另外,在Google I/O登場前一天,OpenAI發表全新模型GPT-4o,在擁有GPT-4等級智慧的同時,具備更為強大的語音、視訊處理能力,並能給予用戶逼近與真人互動的感受。

GPT-4o能夠在聊天過程中即時口譯,讓說著不同語言的兩人順暢地進行交談。或者請求GPT-4o講一個睡前故事時,可以用更飽滿、有語氣的聲音生動地說故事;又或者能用接近人類的口吻,教導人們解開簡單的數學問題。

根據OpenAI說法,GPT-4o能夠「讀懂」用戶的表情與語氣,知道什麼時候該如何做出回應,並能在不同的語氣間快速切換,一下是冷冰冰的機械聲,一下又能活潑地唱起歌來。

2天內2大AI大咖接連發表最新技術,這場AI革命將持續影響人們生活。

延伸閱讀:OpenAI新模型GPT-4o問世!對話能力強到會「插嘴」,還能讀懂人類語氣

責任編輯:林美欣

延伸閱讀

貝佐斯成股東!亞馬遜參與私募,掏5.3億元認購世芯-KY 22萬股
Appier淡季交出33%營收成長,全因3大AI模組導入產品線!解密AI精兵人才策略
Siri要變聰明了?「AI版Siri」傳6月WWDC亮相,ChatGPT如何燒出蘋果危機意識?
「加入《數位時代》LINE好友,科技新聞不漏接」

查看原始文章

更多科技相關文章

01

馬斯克:SpaceX與特斯拉將持續大規模採購輝達晶片

路透社
02

LINE MOBILE二度退場 LINE付費會員制上線

卡優新聞網
03

國立臺灣大學資訊工程學系暨資訊網路與多媒體研究所副教授廖世偉,即將參與第九屆《Hit AI & Blockchain》人工智慧暨區塊鏈產業高峰會!

Knowing
04

那斯達克獲SEC批准 開啟證券代幣化試點

路透社
05

簡立峰新書《出海》演講:台灣5年內沒有人才、10年內沒有消費者,該怎麼解?

創業小聚
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...