請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

台灣 AI 基本法草案來了! 7 大原則一次看,政府應輔導 AI 造成的失業

TechOrange 科技報橘

更新於 2024年07月16日16:22 • 發布於 2024年07月16日03:49 • 廖紹伶

隨著 AI 技術不斷創新,背後對社會與個人帶來的新風險、挑戰也備受關注,美國、歐盟等國家已紛紛訂立 AI 治理規範,如今,台灣國科會於昨(15 日)預告「人工智慧(AI)基本法」草案。草案共有 18 則條文,明定政府應將 AI 進行風險分級與管理、建立問責機制等。

國科會表示經審慎研議,邀集公協會、業界領袖、大專院校校長及各部會,召開多次溝通會議,凝聚各界共識後提出「AI 基本法」草案。國科會指出,草案依台灣產業與社會需求,參考美國 AI 規範鼓勵創新發展、歐盟兼顧人民權益的精神為推動方向,當中涵蓋 7 大原則:

1. 永續發展與福祉

應兼顧社會公平及環境永續。提供適當之教育及培訓,降低可能之數位落差,使國民適應人工智慧帶來之變革。

2. 人類自主

應以支持人類自主權、尊重人格權等人類基本權利與文化價值,並允許人類監督,落實以人為本並尊重法治及民主價值觀。

3. 隱私保護與資料治理

應妥善保護個人資料隱私,避免資料外洩風險,並採用資料最小化原則;同時促進非敏感資料之開放及再利用。

4. 資安與安全

人工智慧研發與應用過程,應建立資安防護措施,防範安全威脅及攻擊,確保其系統之穩健性與安全性。

5. 透明與可解釋

人工智慧之產出應做適當資訊揭露或標記,以利評估可能風險,並瞭解對相關權益之影響,進而提升人工智慧可信任度。

6. 公平與不歧視

人工智慧研發與應用過程中,應盡可能避免演算法產生偏差及歧視等風險,不應對特定群體造成歧視之結果。

7. 問責

應確保承擔相應之責任,包含內部治理責任及外部社會責任。

另外,國科會也將以 4 大方向為推動重點──創新合作及人才培育、風險管理及應用負責、權益保障及資料利用、法規調適及業務檢視。

AI 納管是否會扼殺技術創新?

值得關注的是,草案條文規範,政府應推動 AI 風險分級規範,並建立 AI 智慧應用負責機制。也就是說,政府應依 AI 風險分級,透過標準 、驗證、檢測、標記、揭露、溯源或問責等機制,提升人工智慧應用可信任度,並建立 AI 應用條件、責任、救濟、補償或保險等相關規範,明確責任歸屬與規則條件,包含外國 AI 產品落地規範。

不過,為了避免影響學術自由和產業前端研發,AI 草案參考歐盟作法,指出 AI 智慧技術的開發與研究,在應用前的任何活動,不適用責任相關規範,以利技術創新發展

另外,AI 對於人類就業的衝擊,也在本次草案的規範內。草案條文指出,政府因應 AI 發展,應該避免技能落差,並確保勞動者的勞動權益;政府應該就因 AI 利用而導致失業者,依其工作能力輔導就業

根據國科會,AI 基本法草案即日起,預告 60 天至 9/13 為止,將持續蒐集各界意見,以完備內容。草案施行日期,後續將由行政院訂定。

【推薦閱讀】

超商 24 小時營業將成絕響?日本嚴重缺工,超商店員要學會跟 AI 一起工作

OpenAI 神秘項目「草莓」曝光!《路透》:擁有迄今 AI 模型無法實現的能力

ChatGPT 只是最低階!OpenAI 分出 AI 能力 5 等級,最強人工智慧 5 年內出現

*本文開放合作夥伴轉載,資料來源:國科會、公共政策網路參與平臺。首圖來源:Unsplash

加入『 TechOrange 官方 LINE 好友』 掌握最新科技資訊!

查看原始文章

更多科技相關文章

01

美國FCC核准SpaceX計畫 允增設7500枚星鏈衛星

路透社
02

美ICE明尼蘇達州擊斃女子惹議 新影片曝光

路透社
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

留言 1

留言功能已停止提供服務。試試全新的「引用」功能來留下你的想法。

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...