請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

【重大事件】AI聊天機器人ChatGPT更上一層樓!GPT-4發布,可辨識圖片,還能考上史丹佛?

CMoney

發布於 2023年03月15日09:16 • 熊天行 Teddy

圖/Shutterstock

OpenAI — ChatGPT發展時間軸:

  • 2015/12/11 OpenAI成立
  • 2019/7/22 微軟投資OpenAI
  • 2020/6/11 宣布GPT-3模型
  • 2022/11/30 ChatGPT發布
  • 2023/2/8 微軟New Bing上線
  • 2023/3/2 GPT-3.5-turbo API發布
  • 2023/3/14 支援圖像分析的GPT-4發布,微軟表示New Bing在前五周就已經使用GPT-4的早期版本

ChatGPT人工智慧聊天機器人:應用、技術原理與限制

相信大家都玩過去年年底開放大家免費使用的ChatGPT了,若你還沒使用過,可以先點選這個連結註冊,並開始使用。

你可以將ChatGPT理解成一個人工智慧聊天機器人,他背後的技術是由美國公司OpenAI發展訓練出的GPT-3.5模型,以對話形式的使用者介面,來與使用者利用自然語言進行對談。

目前較多的應用為:生成各種主題的文章(如針對某議題的介紹文、詩詞、劇本等),對文本進行摘要、翻譯,進行程式設計,並均擁有很高的水準,不過ChatGPT本身的技術原理,是在吸收大量網路文章後,經過人類標註訓練,歸納出預測文字的能力,因此在一些他不確定的問題底下,他會給出「一本正經胡說八道」的答案(人工智慧幻覺);另外一個限制是,由於訓練資料為2021年9月以前的資料,因此在這個時間點後發生的事情,ChatGPT則無法解答,即使是我們接下來要討論的最新模型:GPT-4,也是一樣的。

資料來源:ChatGPT(撰文者不負責內容正確性,截圖時間:2023/3/15)

微軟的New Bing:Bing+ChatGPT,讓大家開始對Bing刮目相看

長期被谷歌Google(GOOG)(GOOGL)獨占鰲頭的搜尋引擎市場,在2023年產生的變化。

在微軟(MSFT)投資的OpenAI推出ChatGPT後,一直為人詬病的就是他只能回答2021年以前的資料,可是我們總是想要得知最新資料對吧?如果我們還要先自己去查資料,再拿去給ChatGPT整理,不是有點麻煩嗎?

因此,微軟這個game changer當然沒有放棄這個痛擊搜尋引擎對手的大好機會,在2023年2月推出結合其本身的搜尋引擎Bing以及ChatGPT的New Bing聊天介面,他可以在使用者輸入訊息後,先辨認關鍵字,並使用Bing上網搜尋,再由搜尋結果中,獲取最新資訊來給出答覆。

即使其在使用上仍然存在一定程度上的不準確(尤其是數據上),不過這已經又使人們對AI應用的具象化,刷新了一層認知。

另外,在GPT-4發布後,微軟表示New Bing在前五週已經開始使用GPT-4的早期版本。

資料來源:bing(撰文者不負責內容正確性,截圖時間:2023/3/15)

資料來源:ChatGPT(撰文者不負責內容正確性,截圖時間:2023/3/15)

OpenAI推出GPT-4:能夠辨識並分析圖片

OpenAI在推出ChatGPT後並沒有停下腳步,在2023/3/14推出GPT-3的下一個版本:GPT-4,並一併結合進ChatGPT的介面。

GPT-4與GPT-3(或GPT-3.5)最大的不同是GPT-4支援圖片辨識功能,並可以在辨識後,根據使用者的需求進行下一步的分析。

曾經有不少網友針對GPT-3.5版本測試是否可以在提供圖片網址後進行分析,由於有些時候具有一定的正確性而引發討論,不過後來發現只是ChatGPT會利用網址或是網頁原始碼裡面包含的關鍵字資訊推論出資料內容,再進行回答而已。

GPT-4就不一樣了,在理論上,使用者可以將圖片交給GPT-4進行分析。不過目前雖然ChatGPT Plus的付費使用者可以在ChatGPT介面中選擇GPT-4模型,但是此介面目前還沒提供上傳圖片的功能,因此一般用戶還尚無法交給ChatGPT進行圖片處理。

CMoney研究團隊認為,這要等到OpenAI解決安全性問題,且釋出GPT-4的API(應用程式介面,Application Programming Interface),或是其推出其他類型的付費方案後,才有可能將GPT-4的能力釋放到最大。

資料來源:OpenAI

資料來源:OpenAI

GPT-4 API價格至少比GPT-3.5貴15倍

收費的部分,根據OpenAI官方網站,GPT-4的API(應用程式介面,Application Programming Interface)的收費模式為至少每1000個token(token可以理解為文字塊,例如一個中文字、一個英文單字,1000個token約等於750個詞)收取0.03~0.06美元(約新台幣0.9~1.8元),較GPT-3.5-turbo的收費0.002美元貴15~30倍,但仍然不會形成過高門檻。

資料來源:OpenAI

GPT-4的學術答題能力顯著高於GPT-3.5的版本,甚至有機會讓史丹佛錄取

根據OpenAI官網提供的研究報告,GPT-4在LSAT(法學院入學考試)、SAT(學術水準測驗考試,等同美國的學測)、GRE(研究生入學考試)的考試中,分別可以達到PR 90、93與99,而GPT-3.5則分別只有PR 10、87、63(PR值從1~99,99最高;若考試有多科,以verbal為例)。

資料來源:OpenAI

輝達Nvidia(NVDA)的AI人工智慧科學家Jim Fan表示,以GPT-4這樣的成績都可以申請上史丹佛大學博士班了,並表示之前他自己考上史丹佛博士時都沒有那麼高分。

OpenAI CEO Sam Altman表示GPT-4之圖像輸入功能還需等待解決安全性問題後發布

OpenAI創辦人之一、現任執行長CEO的Sam Altman也在推特發表評論,他表示目前GPT-4仍有瑕疵,且存在限制,而圖片輸入的功能,由於安全性問題尚未公開發布。

資料來源:Twitter @sama

現在上架的GPT-4版本已在各層面能力顯著提升

根據OpenAI的研究,GPT-4提升了回答的準確性,尤其是在處理較為繁雜的資訊時,不僅能夠接受的字數更多,回答也較為完整;另外,GPT-4也減少了人工智慧幻覺的情形發生,如下圖所示:

資料來源:OpenAI

GPT-4未來加入圖像解析能力,值得期待

除了文本處理能力外,CMoney研究團隊更加期待的是GPT-4尚未公開的圖像分析能力。

畢竟,ChatGPT處理文本內容的能力,已經在這幾個月顛覆了人們對AI分析與創造能力的想像,在增加了圖像分析能力後,可以協助,或甚至取代人類的比例將會有明顯提升,微軟有望在新模型發布後進一步受惠,New Bing潛在商機更大。

若之後OpenAI有進一步消息,我們會進行資訊更新。

結論

  • GPT-4的回答完整度、正確性較GPT-3.5高
  • GPT-4在學術考試表現顯著優於GPT-3.5
  • GPT-4可以處理圖像,GPT-3.5無法(尚未公開)
  • 需要訂閱ChatGPT Plus才能在ChatGPT上使用GPT-4模型
  • GPT-4 API僅供開發者進入排隊名單,且較GPT-3.5-turbo API貴至少15倍
  • GPT-4仍然只有2021年以前的資料
  • New Bing已使用GPT-4模型,使微軟更具題材性
  • 圖像分析是GPT-4的一大亮點,惟需等待安全性問題受解決

(延伸閱讀:【美股新聞】OpenAI宣佈推出ChatGPT的新版本~GPT-4 (2023.3.15)

(延伸閱讀:【美股研究報告】隨著疫情解封,個人電腦需求下降,微軟將如何因應未來趨勢?

版權聲明

本文章之版權屬撰文者與 CMoney 全曜財經,未經許可嚴禁轉載,否則不排除訢諸法律途徑。

免責宣言

本網站所提供資訊僅供參考,並無任何推介買賣之意,投資人應自行承擔交易風險。

查看原始文章

更多理財相關文章

01

廣達尾牙登場!林百里:未來3年是AI爆發期

NOWNEWS今日新聞
02

這檔股票買1股就送紀念品!「轉手價炒到2000元」

民視新聞網
03

中砂、昇陽、新應材...2奈米不是只有台積電會賺!「5檔材料商」搭上成長列車

商周財富網
04

13家金控2025年獲利成績出爐!3金控最會賺、全年最飆的金控竟是「它們」

商周財富網
05

全聯、好市多都不敢輕忽的對手!LOPIA 用「肉舖靈魂」與「日味熟食」,站穩台灣超市市場

經理人月刊
06

台積法說/亞利桑那二廠量產等重點一次看

NOWNEWS今日新聞
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...