請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

ChatGPT 新強敵!Claude 使用解析,支援繁中、能讀長文與多頁文件

FC未來商務

更新於 2023年11月02日08:26 • 發布於 2023年11月02日08:00 • 曾子軒

由 Anthropic 推出的 Claude,最近已經開放給台灣使用者。它超乎尋常的款待——提供使用者高達 10 萬個 token,意味著它擁有絕佳記憶力,能夠處理超長的文章,從此不用像以前使用 ChatGPT 那樣,冗長地複製貼上。究竟 Claude 有什麼樣的特色?背後的開發者 Anthropic 是誰?創辦人的信念,又如何影響 Claude 的訓練過程?

Claude AI 是什麼?

Claude 是由 Anthropic 推出的 AI 模型,同時也是能與人類對話的 AI 互動服務。我們可以像使用 ChatGPT 一樣,直接從網站上與 Claude 互動,也能調用 Claude API,投入企業內部開發。

根據 Anthropic 官網介紹,Claude 擅長處理文字,可以生成包含文件、信件、問答等大量內容,也能夠編輯、重寫、摘要、分類這些內容;它也可以自然地與人對話,扮演不同角色,就像與真人對話一般;因為訓練資料龐大,它精通不同語言,也熟諳程式撰寫,更能回答許多文化、領域的專精知識;最後則是將工作流程自動化,它能夠根據使用者下的指令,有邏輯地解決任務。

不過,它沒有辦法造訪網頁,使用者可以從外部貼入資訊與它互動。Claude 同時服膺 Anthropic 的理念,希望生成出有幫助、誠實、無害的內容,此原則被稱為「HHH」(Helpful, Honest, and Harmless),因此經過特別的訓練手法,希望符合開發者想要呈現的行為。

Claude 台灣已開放註冊,如何到官網開設帳戶?

打開 Claude 的頁面之後,只要輸入電子信箱,或者用 Google 帳號,即可開啟註冊程序。

打開 Claude 頁面之後,只要輸入電子信箱,或者用 Google 帳號,即可開啟註冊程序。

除了輸入姓名以外,接下來還要提供手機號碼,用來接收認證簡訊,通過後才能開始使用 Claude。

除了輸入姓名以外,接下來還要提供手機號碼,用來接收認證簡訊。

在使用之前,Anthropic 會提醒使用者,在使用 Claude 途中可能會遇到的情況,例如生成誤導人的資訊、有冒犯性的內容等。

接下來就能直接開始使用 Claude 了。就像 ChatGPT 一樣,我們可以展開問答,不過,它的驚人之處在於,能夠接收比 ChatGPT 更長的上下文長度(context window),也就是說,我們能夠提供更長的輸入,而 Claude 都能「記得」。

根據 Claude 官網的說明,其背後的模型 Claude 2,輸入和輸出加起來的 token 數量達到 10 萬,約莫是 7 萬個英文字的長度。對比付費版 ChatGPT 背後的 GPT-4,個人使用約為 8 千個 token,企業版則是 3 萬 2 千個 token,遠遠比不上 Claude,因此若有解析長文的需求,尤其是檔案頁數多的 PDF,可以上傳到 Claude 處理。

上傳逐字稿(txt檔)後,Claude 迅速解析全文,並抓出三個重點。
上傳一份消費爭議報告(pdf檔)後,Claude 同樣能夠抓出趨勢。

不過,作為大型語言模型,再加上沒有開啟連網功能,Claude 仍無法避免產出幻覺。在這方面 ChatGPT 倒是已經在近期做出不少努力,幻覺有減少中。

Claude 無法知道蔡英文的總統連任限制。

Claude 背後的公司 Anthropic 是誰?竟然和 ChatGPT 有關係!

推出 Claude 的企業 Anthropic 大有來頭。創辦人達里歐(Dario Amodei)和丹尼耶菈(Daniela Amodei)兄妹在共同創立 Anthropic 之前,同樣在開發 ChatGPT 的 OpenAI 擔任高階主管,哥哥達里歐擔任研發副總,妹妹丹尼耶菈則擔任安全與政策副總。

根據 Venture Beat 報導,兄妹兩人因為無法認同 OpenAI 接受微軟投資 10 億美元,大幅向產業轉向的發展路線,決定在 2021 年離開公司,並帶走 9 名員工,接著成立 Anthropic,打算打造更透明、更能讓人信任的人工智慧系統。與兩人相似的,還有特斯拉創辦人馬斯克,他同樣因為不認同 OpenAI 向資本靠攏的路線,選擇退出 OpenAI。

安全與信任始終是 Anthropic 的核心宗旨。兩人也一同入選時代雜誌的「AI 百大影響人物」榜單,對達里歐和丹尼耶菈來說,人工智慧系統和人類價值觀的對齊(human value alignment)是首要之務,這讓他們和其他開拓 AI 技術與應用的企業相比,顯得猶為突出。

對機器學習領域,或者廣義人工智慧領域的研究者來說,時常見到一個不討喜的譬喻:AI 做決策的流程就像黑盒子(black box)。因此,有不少人投入打開黑盒子、拆解 AI決 策原因的研究,希望能夠推出可以解釋的 AI(explainable AI),增加機器的可詮釋性(mechanistic interpretability),達里歐和丹尼耶菈正是其中之二。

觀察Anthropic的發展歷程,和 OpenAI 有某種程度的相似。他們將自己定位成人工智慧安全研究的實驗室(AI safety-research lab),但若想打造出先進的模型,就需要算力,如同 OpenAI 引進資金挹注於模型開發一樣,Anthropic 同樣募資,並將模型使用權授權給投資者與客戶使用。

不過,他們並不像 OpenAI 的企業結構,Anthropic 是一間公益公司(public benefit corporation,PCB),以社會與公共利益為優先,與一般營利企業不同,比較不用擔心投資者要求取得財務回報的關愛眼神,或者是強大合作夥伴的施壓。

有誰投資 Anthropic?矽谷富爸爸們 Google、Amazon 都來了!

根據 Crunchbase 資料,包含 Google、Amazon、FTX 創辦人 SBF(Sam Bankman-Fried)、前 Google 執行長施密特(Eric Schmidt)、臉書共同創辦人莫斯科維茲(Dustin Moskovitz)都參與對 Anthropic 的投資。

2021 年 5 月,參與 Skype 開發的工程師塔林(Jaan Tallinn)領投,在 A 輪注資 Anthropic 約 1.24 億美元。塔林曾投資 DeepMind,並且非常關注 AI 對人類造成的存在風險(existential risk),參與創辦英國劍橋大學的存在風險研究中心,以及美國的未來生命研究所,後者就是日前馬斯克參與連署「停止先進 AI 系統開發 6 個月」倡議的組織。

2022 年 4 月,現已惡名昭彰、加密貨幣交易所 FTX 創辦人暨執行長 SBF,在 B 輪領投約 5.8 億美元。2023 年 2 月,Google 宣佈投資 Anthropic 3 億美元獲得約 10% 股份,在發展自家的 Bard 以外,也寄望 Claude 可以作為跟 ChatGPT 對抗的武器。

2023 年 5 月,以 Spark Capital 為首,Google 和 Zoom 也有參與的C輪中,共投 4.5 億美元。2023 年 8 月韓國電信商 SK 電信也投資 1 億美元,希望打造適合電信公司的大語言模型。

2023 年 9 月,Amazon 宣佈將投資 Anthropic 高達 40 億美元,對 Anthropic 來說,AWS 會成為公司仰賴的雲端服務商,就像 OpenAI 利用微軟的算力與經費一樣,Anthropic 能夠將新資源挹注在改善模型穩定性與表現上;Amazon 則效法微軟,如同在 Azure 上讓客戶使用 OpenAI 模型一樣,透過 AWS 將 Anthropic 的模型開放給客戶使用,例如調用 Claude 2 生成內容、提供對話服務。

Claude AI 訓練過程中有何特色?

因為公司創辦人的信念,Claude 的設計顯得非常有原則。

在 Claude 的訓練過程中,開發者先制定出幾個稱為「憲法 AI」(Constitutional AI)的原則,讓機器能夠遵守。在第一階段,Anthropic 先讓模型生成內容,接著再讓模型自我批判,並因應批判修正生成內容,藉此調整模型生成內容的方向,這個階段中,模型會因為人類制定的原則,評價自己的回答,因此屬於監督式學習。第二階段,則是從微調後的模型生成內容,再使用其他模型「二選一」,也就是利用其他模型評斷生成內容的好壞,藉此訓練出偏好模型。

若熟悉 OpenAI 訓練 ChatGPT 的過程,一定會記得「從人類回饋中強化學習」(reinforcement learning from human feedback,簡稱 RLHF)的階段,也就是請人類標記者評價生成內容的好壞,Anthropic 只是請 AI 代替人類評價,因此以「從 AI 回饋中強化學習」(reinforcement learning from AI feedback,簡稱 RLAIF)。

其實,Claude 的訓練過程與 ChatGPT 很相似,只是,雖然同樣從標記資料、同樣從人類或機器的回饋中學習與改進,但 Claude 在開始時就制定出原則,讓 AI 有了可以遵循的依歸,生成內容得以體現制定者(人類)的價值觀,讓Claude減少人類標記者暗藏的偏見。

藉著這樣的訓練過程,Anthropic 訓練出不會帶來傷害,但也不會逃避問題的 AI 助理,即便使用者蓄意詢問有潛在危險的問題,例如 ChatGPT 明令禁止涉及犯罪與暴力相關的內容,Claude 還是可以提出反駁。Anthropic 強調,他們提升了 AI 做出決策的透明程度,也讓人類可以更精確控制 AI 的行為,同時卻不會增加人工干預,可謂一舉數得。

(本文轉載自《遠見》)

延伸閱讀

用 ChatGPT 自動化 AI 商機分析!3 步驟摘要、排序客戶需求,提升業務流程效率
用 AI 做廣告,成本節省 20 倍!雀巢、可口可樂都擁抱 AI,背後有什麼風險?
讓 AI 替產品把關!Landing AI 以資料為中心,訓練精準「自動品管」

查看原始文章

更多科技相關文章

01

馬斯克:X7天內開放演算法原始碼

路透社
02

【張瑞雄專欄】當世界首富要你別存退休金

Knowing
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...