請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

美律師使用 ChatGPT 寫摘要,被法院揭穿內容全是假

科技新報

更新於 2023年05月29日17:11 • 發布於 2023年05月29日11:30

AI 聊天機器人會寫文章、分析來龍去脈,還會下結論,威脅許多仰賴文字為生的職業,其中含金量最高的文字商人就是律師,被視為是AI 最可能取代的職業之一,但最近一名美國律師使用ChatGPT 撰寫類似訴訟案的判決案例,結果被證實這些案件全都是假的。

ChatGPT 基於一個統計模型,從網路上提取數十億個文本,猜測哪些文本片段應該跟在其他序列之後來生成文章。由於許多職業都需要經過大量的資料搜集與文本撰寫工作,尤其是律師,許多律師已經在使用AI 工具節省大量精力與時間,甚至研發更精進的AI 工具專供律師使用。普林斯頓大學、賓州大學和紐約大學研究人員研究就直指最容易接觸到新AI 工具的產業是法律服務。高盛經濟學家估計,44% 的法律工作可以實現自動化,僅次於辦公室和行政支持工作。

但過度仰賴技術只會讓自己成為笑柄。今年一名美國人起訴一家航空公司,稱他在飛往紐約機場的航班上被一輛推車撞到膝蓋而受傷,原告的律師提交一份長達10 頁的摘要,其中引用六項以上的相關法院判決。

結果被告航空公司的律師發現案例有問題,寫信給該案法官,表示案例中簽發的法院和法官、案卷編號和日期資料不齊全,懷疑原告律師使用聊天機器人,最後也證實案例是假的,該案法官稱此事件是「前所未有的情況」,下令在6 月8 日舉行聽證會,討論可能對該名律師的制裁措施。

該律師也承認使用聊天機器人,還強調他有向聊天機器人再三確認案例是真的,據他提供的對話視窗,聊天機器人還向他保證這些案例可以在信譽良好的法律資料庫中找到。律師也表示非常後悔依賴ChatGPT,說「如果沒有絕對驗證其真實性,未來在法律研究工作中不會再使用聊天機器人」。

雖然 AI 肯定會愈來愈好,但可能不會像某些人預測的那麼快,白領職業不會那麼快就被機器人接管,這一事件凸顯法律領域對AI 技術盲目信任的潛在風險。

AI 會自我生成幻覺

許多人擔憂,AI 工具可能已經失控,最近一名美國法學教授要求ChatGPT 提出美國法學院教授的五起性騷擾事件,還要求ChatGPT 引用報紙文章中的引述,結果ChatGPT 錯誤地將另一名法學教授Jonathan Turley 視為性騷擾者,甚至引用一篇從來沒出現過的新聞文章做為消息來源,結果證實這篇文章完全是由聊天機器人編造。

今年2 月Google 搜尋負責人Prabhakar Raghavan 在與一家德國出版物的對話中警告,AI 有時會產生幻覺並提供令人信服但完全虛構的答案。今年3 月Elon Musk 簽署一封公開信要求暫停六個月的AI 開發,信中列舉對人類和社會的潛在風險,其中就包括錯誤訊息傳播和工作自動化。最近 ChatGPT 開發商OpenAI 也呼籲對超級AI 進行監管,認為需要類似於國際原子能機構的機構來保護人類免受AI 威脅。

(首圖來源:Flickr/Sarah-Rose CC BY 2.0)

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多科技相關文章

01

鴻海高雄Y15聯開案來了!砸159億打造南台灣旗艦總部、30%容積建安心宅:給足員工福利移居亞灣

今周刊
02

川普允許輝達H200晶片銷中 美國會議員要求說明細節

路透社
03

TechInsights:華為最新手機採用中國改良晶片

路透社
04

毛利率警示引發AI報酬疑慮 博通股價重挫11%

路透社
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...