聊天機器人 ChatGPT,在 11 月開放試用一週就衝出百萬用戶。這個由 OpenAI 釋出的超夯人工智慧工具究竟是什麼?為何能有此表現?除了當槍手、做代筆作家以外,ChatGPT 還有什麼隱藏「用法」?
人工智慧研究實驗室 OpenAI 釋出對話式語言模型 ChatGPT,因為它的用途廣泛、效果強大,因此迅速走紅。根據官網的介紹,ChatGPT 可以跟使用者對話、回答問題,若是使用者的論點中有錯誤,它也能指正。
聊天機器人 ChatGPT 被讚萬能,唯獨這指令一出會被兇
目前開放給民眾免費使用的 ChatGPT 還在測試階段,不過已經有許多人發掘出它的有趣應用,除了對話以外,有學生拜託它回答大學理論課的申論題,也有工程師麻煩它寫程式,或者要求它吟詩作賦,而 ChatGPT 來者不拒地照辦——品質還驚人地好。但唯獨一種做法會被它立即拒絕,其實,ChatGPT 並不是真的有求必應,若使用者輸入的內容和仇恨言論、暴力、犯罪等主題有關,ChatGPT 不會做出回答,還會提醒使用者這違反了平台的規範。
ChatGPT 究竟是什麼?為何能有此表現?除了當槍手、做代筆作家以外,ChatGPT 還有什麼「用法」?
ChatGPT 用法完整更新
除了寫作業、寫程式以外,ChatGPT 還有更多元的有趣應用。
針對「有什麼使用人工智慧產出文字的酷方法」,ChatGPT「稍作思考」後,也針對自身的用途,提供寶貴建議,以下為 ChatGPT 產生的文字:
• 生成創意文字,甚至吟詩作對: 人工智慧演算法可以訓練大量文字,如書籍和詩歌,並可以生成原創的故事或詩歌。
• 翻譯: 人工智慧演算法可以訓練翻譯一種語言到另一種語言,讓不同語言的人更容易溝通。
• 幫你抓重點摘要: 人工智慧演算法可以用來自動摘要長文件,讓人們更容易快速理解主要思想。例如,有人想了解全球第二大加密交易所 FTX 為何破產?貼給 ChatGPT 一份研究報告摘要後,它馬上可以簡略回答出,「根據資料,由創辦人 SBF 所成立的 FTX 和 Alameda 兩間公司,中間似乎有密切的關係。而且大量 FTT 代幣被這兩間公司控制,讓人對他們的獨立性產生懷疑。」這個重要結論!幫你省去看艱深報告內容的大筆時間。
• 寫個人化的電子郵件: 人工智慧演算法可以訓練生成個人化的電子郵件,根據人們的興趣和喜好。
• 代工小編,幫你寫新聞: 人工智慧演算法可以訓練生成特定主題的新聞文章,讓新聞組織能夠快速製作各種主題的內容。
隱藏版用法
其實,ChatGPT 能派上用場的地方遠遠不止如此,網友也發現有隱藏版用法。就創意而言,它確實能夠接收使用者給定的題目與人物寫出故事,當起編劇來。具體來說它能夠幫助創意工作者針對特定的場景發想點子,例如請 ChatGPT 產出一段穿越劇故事,都辦得到。
另外,ChatGPT 也是個點子王。突然失業了怎麼辦?它還可以幫你腦力激盪賺取收入的小點子,還不只一個,如下圖:
另外,也有網友發現,它可以代為回覆客服信函。在協助數據工作者上,它還能夠給予產出關鍵字。或幫助開發應用的人,快速生出小教學文章等。
同時,它中文也能通。來看看下面它給大家工作面試前的建議:
ChatGPT 究竟是什麼?
ChatGPT 的開發者是一家專精於人工智慧的組織 OpenAI,OpenAI 曾經推出輸入文字便能輸出圖像的 DALL-E、給定音樂風格和歌詞就可以產出音樂作品的 Jukebox,以及 2020 年推出時震撼全球的語言模型 GPT-3。
根據 OpenAI 的介紹,ChatGPT 就和先前曾推出的「打電動機器人」OpenAI Five 一樣,都是透過由人類提供回饋的增強學習(reinforcement learning)訓練而成。增強學習的原理類似小朋友在玩電動遊戲,即使在場沒有成年人指導,幼童仍可以在不斷的試錯當中,藉著每次挑戰所獲得的正向與負向回饋,找到能夠通關的策略。
訓練 ChatGPT 時便是仿照上述概念,OpenAI 先請模型的訓練者們同時扮演使用者和人工智慧助手(即現在的 ChatGPT)的角色,創造一定數量的數據,讓機器認識到對話的基本策略。接著,為了讓機器學到相對較佳的對話內容與模式,訓練者會扮演使用者向機器擔任的人工智慧助手發話,此時訓練者會提供建議幫助機器撰寫回答。
為了讓機器「學習」,訓練者會擷取機器撰寫的不同語句,接著「告訴」機器回答內容的品質高低。這些線索有如「小朋友齊打交」的正向與負向回饋,機器可以藉此改善產出,並回頭更新其產生回答的策略,就這樣一步一步的離成品邁進。
為何 ChatGPT 如此厲害?
2016、2017 年,AlphaGo 接連擊敗圍棋名宿李世乭與柯潔,引發世人們熱議,然而,那畢竟是用途相對狹隘的弱人工智慧(weak AI),相較於在圍棋界獨孤求敗的 AlphaGo,ChatGPT 的應用場域顯得貼近生活,離泛用、接近人類的強人工智慧(strong AI)更進一步。
不過,ChatGPT 仍屬於弱人工智慧的範疇,它的設計目標是模仿人類的對話,背後的運作原理與人類的邏輯推理不同,而是從預先訓練的資料中找尋能夠對應的素材,多番拼湊後產生回答。但是,對一般人來說,機器能夠如此流利的和人們交談,就已經足夠驚人。
ChatGPT 的優異表現,很大部分要歸功於它所站立於上的巨人肩膀,也就是 GPT-3。
2018 年,OpenAI 發表論文,主要在討論如利用所謂「通用預訓練(generative pre-training,簡稱為 GPT)」改善模型對於語言的理解,這個方法成功克服了當時機器學習研究者的痛點。
對投身人工智慧領域的產學界人士來說,即使技法再精妙、運算資源再豐沛,還是必須投入人力標注資料。舉例來說,在訓練機器判斷醫療影像時,想讓機器向醫生「學習」何謂罹患疾病,就必須讓機器知道每張照片對應到的標籤是陽姓或者陰性。
然而,若要拜託醫師花時間逐一標記影像,必然耗費巨大的人力成本。不只是影像辨識,其他領域亦然,機器生成的文字品質如何改進?人工智慧給人資的履歷篩選建議會不會有遺珠?這些都仰賴人類實際的回饋。
GPT 就厲害在它能夠基於無監督(unsupervised,指沒有標籤)的數據,建立起通用的語言模型,接著再針對有監督(supervised,指有標籤)的特定任務逐步微調,如此一來,便成功通過當時科學家遇上的瓶頸。
當然,使用無監督的數據生成模型說來容易,但實務上的挑戰甚巨,因為訓練模型需要大的運算能力,這意味著燃燒資本。
就第一代 GPT 模型來說,預訓練的數據量達到約 5GB,使用到的參數接近 1.2 億。隔年(2019)OpenAI 發表 GPT-2,預訓練的數據量暴漲,直接衝高到 40GB,使用到的參數更是來到 15 億。OpenAI 並沒有停下腳步,在 2020 年又釋出了 GPT-3,這次的數據量翻了千倍,達到 45TB,而參數量也升級到 1,750 億。
OpenAI 並沒有公佈訓練 GPT 模型所投入的資金。但就深度學習企業 Lambda Labs 的首席科學家推測,若是利用最便宜的雲端運算服務訓練 GPT-3 模型,需要花上至少 460 萬美元、耗時 355 年才能訓練完成。
當 OpenAI 公布 GPT-3 以後,很快造成轟動。就像現在的 ChatGPT 一樣,當時有許多人利用 GPT-3,打造出各種有趣的服務,例如請語言模型幫忙解析學術論文、根據描述產出網頁以及對應的程式碼、將平常使用的語言轉換成法律術語等等。
ChatGPT 有何隱憂?
除了擔心老師們以後再也無法分辨作業是誰的產出之外,已經出現了人工智慧技術壟斷的相關討論。無論是 Google 的 BERT,或者是 OpenAI 的 GPT,不僅頂尖科學家要投入心血,企業更要挹注大筆資源,才能打造出厲害的模型。
然而,這是個富者愈富、貧者愈貧的世界。隨著大企業開發出一個又一個新的模型,能夠像是這次 ChatGPT 一樣,從人們的踴躍試用中得到更多回饋,進而改進其模型,而機器學習領域又是一個殘酷的世界,只有表現好的模型才有話語權-這又回頭仰賴企業的資源,因此直到今日,能夠開發出此類巨型語言模型的企業屈指可數。
就像科技作家「演算法決定世界」的預言一樣,人工智慧也把持在少數企業手中。這會為我們的生活帶來什麼樣的影響?是否會出現科幻小說當中的常見情節,日後人類的生活會被少數科技菁英與機器所主宰?我們必須關注人工智慧發展中的壟斷問題。
本文轉載自《遠見》
延伸閱讀
雷亞 AI 溝通師職缺引熱議,作為數位時代下的「魔法師」需要哪些關鍵技能?
輸入文字就能生成影片!Facebook 與 Google 相繼投入,將帶動創意產業巨變?
1 分鐘生成美圖!Midjourney 出現以後,設計師會失業嗎?
留言 0