請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

Anthropic最新研究:愛幫AI「改稿」的人,可多發揮近兩倍戰力!5個關鍵用法一次學

數位時代

更新於 7小時前 • 發布於 7小時前

當你打開一個 AI 聊天框,丟進第一個問題,AI 回你一大段工整、有條列、有小標題的答案——多數人會在這裡按下結束,開啟下一個分頁,繼續一天的工作。

但在 Anthropic 2月23日公布的「人工智慧流暢度指數」研究裡,有一群人被悄悄標記出來:他們不滿意第一次回答,會一遍又一遍地改問題、補上下文、要求改寫、請 AI 解釋推理,甚至直接指出「這裡怪怪的,重算一次」。在數據裡,這種看似囉嗦、雞蛋裡挑骨頭的對話方式,和「會不會用 AI」高度綁在一起。

白話來說,這份報告試圖衡量「人類究竟學會了多少 AI 的讀寫能力?」而且用的不是問卷,而是真實的對話紀錄。

更重要的是,這些發現可以被轉譯成一套你今天就用得上的實戰守則,讓你在不改變工作本質的情況下,實際「多榨出 AI 的價值」。

一份量化「會不會用 AI」的研究,是怎麼做的?

報告背後的問題其實很直接:現在 AI 工具滲透速度極快,但「會打開 AI」跟「真的懂得用 AI 把自己變強」是兩件事。要處理這個落差,光看「使用率」或「月活躍用戶」是不夠的,必須去看人類怎麼跟 AI 互動。

研究團隊借用的是一個與學界共同開發的「4D 人工智慧流暢度框架」,把所謂的 AI 流暢度拆成 24 種具體行為,涵蓋例如:

  • 能不能清楚說明自己的目標與限制?
  • 會不會提供必要的上下文,而不是只丟關鍵字?
  • 會不會在收到答案後追問、質疑、要求解釋推理?
  • 會不會意識到 AI 角色以及分享 AI 產出可能帶來的後果?

其中,有 11 種行為可以直接從 Claude.ai 的聊天紀錄裡觀察得到,其餘 13 種(例如你有沒有對同事誠實說「這段是 AI 幫忙寫的」、有沒有想過把 AI 產出貼上網的風險)發生在介面之外,就不在這一輪量化範圍內。

研究的做法是這樣:

  • 選取 2026 年 1 月某一週,在 Claude.ai 上進行多輪對話的使用者,共 9,830 則對話。
  • 用隱私保護分析工具,把每段對話用 11 個二元指標標記:某個行為「有」或「沒有」。
  • 檢查這些指標在不同日期、不同語言之間是否穩定,確認這不是某天或某語系的偶然偏差。

最後,研究團隊得到的是一個「人工智慧流暢度指數」:它既是今天人類與 AI 協作方式的一張切面圖,也是未來觀察變化的基準線。

換句話說,他們在做的,是一個早期版本的「AI 使用素養全民體檢」。

在 9,830 筆 Claude.ai 對話中,多數使用者會與 AI 反覆迭代,但較少明確說明受眾、語氣等細節,更少在對話中檢查關鍵事實或質疑模型推理。

研究2大發現:迭代是總開關,成品反而讓人少質疑

在這 9,830 則對話裡,研究團隊看到兩個特別明顯的模式。

一、會反覆「改稿」的人,就是那群會用 AI 的人

第一個模式,是「迭代與改進」和其他所有 AI 流暢度行為之間的強關聯。

在樣本中,有 85.7% 的對話出現了迭代與改進:也就是使用者會在 AI 的前一次回答上,進一步修改、追問、補充條件,而不是看完第一次回答就換下一個題目。從結果來看:

  • 有迭代的對話,平均會額外展現 2.67 種流暢行為;
  • 沒有迭代的對話,平均只有 1.33 種。

也就是說,只要你願意在一個題目上跟 AI 來回幾輪,整體使用方式從補上下文、明確目標,到要求改寫、質疑推理,幾乎全部都被「連帶拉高」。

在評估 AI 回答這一塊,差異更誇張。在有迭代的對話裡,使用者質疑 AI 推理的可能性,是沒有迭代對話的 5.6 倍指出缺失上下文的可能性,是 4 倍

簡單來說,會反覆改稿的人,能多榨出 AI 至少兩倍以上的「流暢度行為」。這裡講的不是抽象的「價值感」,而是實際可觀察的行為:你有沒有再多問一句「為什麼」?有沒有補上一個關鍵條件?

這顛覆了傳統對「懶人用 AI」的刻板印象。真正把 AI 用得好的那群人,並不是丟一個模糊題目進去等它自動生出一切,而是把 AI 當作可以談判、可以磨合、可以要求重寫的共同作者。

有迭代的對話,在釐清目標、給範例、補上下文與質疑推理上的出現率,全面高於無迭代對話,顯示反覆改稿是驅動 AI 流暢度的關鍵槓桿。

二、成品一出現,人類質疑力道果斷下降

第二個模式,則是當 AI 開始幫忙產出具體「工件」(程式碼、文件、互動工具等)時,人類的行為出現某種分裂。在樣本中,約有 12.3% 的對話涉及這類工件。和沒有工件的對話相比,這些對話有幾個明顯特徵。

前期,在「描述」與「授權」的面向上,使用者變得更積極:

  • 闡明目標的比例,多了 14.7 個百分點;
  • 指定格式,多了 14.5 個百分點;
  • 提供範例,多了 13.4 個百分點;
  • 迭代行為,也多了 9.7 個百分點。

也就是說,當人類期待 AI「做出一個東西」時,會更像一個專案經理,努力把規格講清楚。

但一旦工件出現,例如一段跑得動的程式、一份排版得體的文件、一個能點的介面,與「辨別」相關的行為反而下滑:

  • 發現缺失上下文的比例,少了 5.2 個百分點;
  • 事實查核,少了 3.7 個百分點;
  • 要求模型解釋推理,少了 3.1 個百分點。
在產生程式碼、文件等 artifact 的對話中,使用者更常釐清目標、提供範例並指定格式,也更頻繁迭代;但在同時,查證事實、質疑推理與指出缺失上下文的比例反而低於無 artifact 對話,顯示前期指導變多、事後辨別變少。

簡單講:在作品出現之前,人類很會「指揮」;作品出現之後,人類卻不太問「你憑什麼這樣寫」。對此,研究提出幾個合理的解釋:

  • 成品本身看起來太「完整」,讓人下意識以為應該沒太大問題;
  • 在某些任務裡,美觀與功能性可能被放在比精準更前面的優先順序;
  • 部分使用者可能在對話之外檢查成果,例如直接跑 code 或交給同事 review,而不在對話中留下任何質疑。

但不管是哪一種,這個現象都指向同一個風險:越是看起來像成品的 AI 輸出,人類越傾向把最後一關檢查外包給運氣、其他工具,或者別人。

AI 流暢度,其實是一種新型「數位讀寫能力」

如果把這份報告從統計細節抽離,看的是背後的結構,它在談的是一種新的「讀寫能力」。

傳統的讀寫能力,是讀文章、寫文章;數位時代加入了搜尋與資訊判讀;現在,AI 又加了一層人機協作能力。報告其實隱約把 AI 流暢度拆成三個向度:

  • 描述(Describe):你能不能把需求說到 AI 聽得懂?
  • 授權(Delegate):你敢不敢、會不會把適合的工作交給 AI?
  • 辨別(Discern):你有沒有能力看出哪裡怪怪的,並追問下去?

從數據來看,在有工件的情境中,前兩者(描述與授權)相對強,但第三者(辨別)反而變弱。

這其實跟很多人的使用體驗很像:

我們越來越會寫 prompt、給範例、拆子任務給 AI 做,但對於「這樣是不是錯的」那一關,常常只是憑直覺晃過去,或者乾脆放生。

而把這三個維度稍微轉個彎,就可以變成一般AI使用者今天就能用的一套實戰守則。

五個AI實戰守則一次看

如果你不是研究者,而是每天要寫簡報、寫報告、寫程式、寫企劃的人,這份報告最有價值的地方,不是圖表,而是它暗示了一條很清楚的分界線:會不會用 AI,不在於工具,而在於你願不願意保留那一份「人類該做的工作」。

下面這五條,就是可以直接貼到讀者生活裡的版本:

守則一:把 AI 當長線合作,不是一次性搜尋

研究裡最強烈的訊號,是「迭代與改進」幾乎是所有 AI 流暢度的總開關。有迭代的對話,其他熟練行為幾乎翻倍。

落在實務上,就是三件小事:

  • 不要停在第一個答案,把它當草稿:請 AI 改寫、補例子、換角度、收斂成重點版本。
  • 遇到覺得怪的地方,直接點名:「這段推理看起來不對,幫我重算」或「這裡跟前面矛盾,請整理成一致版本」。
  • 把後來想到的新條件丟回原對話,讓 AI 在舊答案上修,而不是開新對話重問。

你可以把每條對話,想成一個「迷你專案」:有脈絡、有版本、有決策,而不是一排彼此無關的搜尋結果。

守則二:一開始就「寫好工作說明書」

數據顯示,在有工件產出的情境,只要使用者願意多花一點力氣講清楚目標、格式、範例,整體合作品質會明顯提升。

所以在每一個重要任務的第一輪提問,你可以問自己三個問題:

  • 這份輸出要給誰看?用來做什麼決策?有哪些不能踩的線?
  • 我希望它長什麼樣子:條列、表格、長文、簡報大綱、程式碼模組?
  • 我有沒有一小段「理想範例」可以貼上去,讓 AI 照著 pattern 延伸?

把 AI 當接案 freelancer 寫 brief,而不是當搜尋引擎丟關鍵字。很多時候,前面多花兩分鐘,後面可以少掉四五輪補救。

守則三:越像成品,越要刻意啟動「質疑模式」

這份報告最值得反過來提醒大家的是:當 AI 做出看起來很完整的成品,使用者往往比較少質疑、比較少查證、比較少要求解釋。

所以真正高流暢度的使用者,應該養成一個反直覺習慣:

  • 越是看起來漂亮的輸出,越要刻意停下來問自己:

  • 這裡面有沒有 AI 自己補上的前提,是我沒有說過的?

    • 有沒有關鍵數字、日期、名稱,是我應該去別的來源 double-check 的?
    • 如果這整份內容是錯的,會錯在哪裡?錯了對我、對公司有什麼後果?
  • 強制自己問 AI 幾句固定問題,例如:

  • 「請逐步解釋你是怎麼推導出這個結論的。」

    • 「幫我列出這份回答中,你覺得最可能不準或有爭議的三個點。」

這樣做的本質不是「不信任 AI」,而是提醒自己:成品,是檢查的起點,不是終點。

守則四:事先跟 AI 設定「合作條款」

報告提到,只有約三成對話會明講「希望 AI 怎麼跟自己互動」,但這其實是一種低成本、高報酬的設定方式。

你完全可以在每個新專案的一開始,就跟 AI 說清楚幾條合作原則,例如:

  • 「如果你發現我的前提可能不對,請直接提出異議,並說明原因。」
  • 「在給出結論之前,請先用三到五點說明你的推理步驟。」
  • 「請主動標出你不太確定、或依賴可能過時資料的部分。」
  • 「當你覺得需要更多背景資訊時,不要亂猜,請先問我問題。」

這種條款不需要太多專業術語,重點只是把 AI 的預設模式,從「直接給答案」,調整成「邊思考邊跟你核對」。

守則五:最後一關檢查,一定要留在人類這邊

研究的限制段落一再提醒:很多負責任、合乎倫理地使用 AI 的行為,其實發生在聊天框之外,例如你自己用常識核對、跑測試、問同事、看風險。

這一點可以直接延伸成以下職場規則:

  • 不要假設 AI 會幫你完成最後的 sanity check,這一關本應該是人類的責任。
  • 特別是牽涉法律、醫療、財務、政策、公共溝通的內容,把 AI 當整理與產能工具,最後一定要有人類專業簽名背書。
  • 每一次你選擇「完全照 AI 的建議做」,都應該清楚知道:責任落點還是在你,而不是模型。

記得,AI 可以幫你省時間、省腦力,但不能幫你背鍋。

不要把人類該做的工作,也外包給 AI

最後把整篇報告收斂成一句話,大概會是:讓 AI 幫你做事,但不要讓它代替你思考與負責。

那些在對話框裡願意一遍又一遍「改稿」的人,表面上看起來只是比較囉嗦,實際上,他們正在學會一種新的 AI 讀寫能力:不用 AI 取代自己,而是用 AI 放大自己的判斷與洞察。

長期來看,真正會被 AI 放大的,不是誰用到哪一個最新版本的模型,而是誰願意為結果負責,並且願意多問幾個「為什麼」。

延伸閱讀:Anthropic發布23頁Claude Code指南!數據視覺化、產品開發、行銷等10大領域,實戰操作建議一次收

資料來源:Anthropic

本文初稿為AI編撰,整理.編輯/ 李先泰

延伸閱讀

72%員工已開發AI工具!台灣大「斷奶令」逼出全員AI超人
農業金庫2年虧損77億!「農漁民好朋友」為何陷入農民無法信任、農會不敢投資困境?
「加入《數位時代》LINE好友,科技新聞不漏接」

查看原始文章

更多理財相關文章

01

春節瘋出國1/請4天休16!日韓線擠爆、歐美加逆勢崛起 旅遊業看旺Q1營收

CTWANT
02

財神把月老按在地板摩擦!台南男脫單前每天買1股台積電 611天驚人損益曝光

鏡週刊
03

台股強彈站穩35K!被問崩盤怎麼辦 專家:抱2檔ETF跌到1萬點也不怕

CTWANT
04

2025營收41億掉至5億! 高雄豪宅王:從業35年最寒冬

ETtoday新聞雲
05

中鋼47年來首見虧損 擬每股配0.15元股息創新低

中央通訊社
06

台股首檔萬金股現身 信驊飆漲衝上10275元改寫史上最高股價紀錄

anue鉅亨網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...