自從 ChatGPT 面世後,AI 不僅改變了人們的生活方式,也影響各行各業的工作模式。在享受新科技帶來的便利之餘,也要謹慎使用,小心誤觸法律與倫理問題。
新科技會衍生新問題,AI 的使用界線在哪?
2023 年,美國就發生了律師用 AI 寫假判例的真實事件。《紐約時報》(The New York Times)報導,一名執業 30 年的資深律師使用 ChatGPT 寫訴狀卻沒有仔細查證,被法官發現裡面引用的 6 個判例根本不存在,都是 AI 虛構出來的。這名律師出席聽證會時表示,不知道 ChatGPT 會捏造案件,由於違背了律師職業倫理,最終被罰 5000 美元(約新台幣 16 萬元)。
台灣人工智慧學校基金會秘書長侯宜秀表示,AI 是新科技,會衍生出新問題,不只國外,台灣也有許多類似的事。舉例來說,有新聞媒體在報導中試圖還原現場,利用 AI 生成圖片,後續引起的討論是,用 AI 圖片取代新聞攝影,是建構真實,還是會誤導讀者?
再舉一個例子,使用 AI 技術打造的「虛擬鄧麗君」,不只能獻唱,還能對話互動。問題是,使用逝者的聲音、影像和文字生成一個「虛擬人」,這件事誰可以做?會被怎麼使用?「這些事不見得違法,但牽涉到社會倫理,要看社會大眾能否接受。」
對於 AI 的規範,各國已陸續推出相關法案。台灣政府預計在 2024 年推出《人工智慧基本法》草案,日前國科會提出的草案列出 7 大原則:永續發展、人類自主、隱私保護、資安與安全、透明可解釋、公平不歧視及問責,包括避免 AI 的應用造成歧視、廣告不實或造假等問題。
侯宜秀表示,基本法的作用是為台灣的人工智慧規範與發展建立一個大方向,之後各機關會再訂定更具體的法規,保障基本權利。大原則是,秉持「以人為本」的理念 —— AI 是用來提升人類生活,不能用於歧視、操縱或犯罪行為。比方說換臉的「深偽技術」(deepfakes)可以用來讓消費者模擬自己試穿衣服的樣子,但不能用來詐騙和不當誘導。
避免侵害原著權利,內容生成最好經人為編修
侯宜秀進一步指出,使用 AI 也必須留心權利歸屬,避免發生爭議。「現在 AI 工具很多,不管用哪一個,都要看清楚使用者條款,免費和付費版的規範也會不同。」
舉例來說,OpenAI 就明確指出 ChatGPT 生成的內容所有權利會轉讓給使用者,代表該公司不會對 ChatGPT 生成的內容主張著作權;AI 繪圖工具 Midjourney 則要求年營收超過 100 萬美元(新台幣 3250 萬元)的公司,必須採用進階付費的「Pro」或「Mega」方案。她提醒,如果公司要導入工具,可以把工具的條款做一個白話文摘要,確保每個員工都了解使用規則。
此外,用途也得考慮著作權問題。「像是我拿一本完整的書餵給 AI 摘重點,會不會侵權?」侯宜秀表示,這涉及「重製」,取決於摘出來的重點有沒有「合理使用」。最簡單的判斷方法是,有沒有對外公開、是否商業利用。比方說摘錄的內容只是自己參考,就沒有問題。如果上傳到網路分享甚至販售,就可能會侵害到原書作者的權利。「AI 生成的內容最好不要直接使用,經過再製或改寫比較保險。」
明定守則,別讓 AI 幫倒忙!
隨著 AI 工具愈來愈多元,企業已經習慣用它來提升員工效率。不過侯宜秀提醒,運用工具工作仍有些風險,必須建立基本觀念。
1. 由「人」做最後把關
目前生成式 AI 較難確認來源的真實性和時效,因此最好避免用它來取得事實資訊,或是生成的內容必須由人做最後的查證和把關。
2.制定 AI 使用守則
公司內部應該明定使用規範,例如不能把內部資料上傳,建立一套機制記錄從生成、後製到編輯的內容,以便出問題時可以舉證。
3. 生成內容須再製
AI 模型通常是由大量網路資料訓練而成,生成內容可能包含受著作權保護的資料,為了不侵犯他人權利,最好再經過人為編修。
延伸閱讀
AI 機器人更常見了,你離失業也更近了?拆解3衝擊、3種最危險的工作者
擔心 AI 生成內容侵權?輸入提示詞要避免 3 項錯誤!
加入《經理人》LINE好友,每天學習商管新知
留言 2
lesane
所需慮者,乃用科技 或 生意為掩護 去 變相地進行 土地 或 軍事行為。古今多少例子都是如此。
看歷史參考前車之鑑,謹慎為上。
08月27日18:12
Ronald Wang EIGHTS
AI 到處抄,再經人為編輯,還是侵犯著作權,不然,我把梵谷的畫拿來改一改就會變我的嗎。
08月27日11:47
顯示全部