請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

生活

【一週E書】不要提供作惡的資源(或變成色情影像的角色)

Readmoo閱讀最前線

更新於 11月08日07:00 • 發布於 11月06日02:10 • Readmoo閱讀最前線
【一週E書】不要提供作惡的資源(或變成色情影像的角色)

文/犁客

2024是全球大選年,有數十個國家──包括台灣──這一年都有重要選舉;台灣的總統大選在年頭選過了,美國的總統大選在年尾快選了,而有個大家可能沒那麼關心的總統大選,發生在今年年中7月,地點是南美的委內瑞拉。委內瑞拉這回選舉爭議很大,因為政經狀況都不好,所以想連任的總統支持度不到對手的一半,結果選舉結果居然贏了,這人的執政被認為偏向獨裁,選舉結果如此,八成用了什麼不好明說的手段。

有良心的媒體工作者沒有沉默,獨裁者也沒有──大選之後,委內瑞拉至少有七名記者被捕,失去辯護權力,被指控與恐怖主義有關。仍然有願意匿名提供訊息的人,但如果要採訪或要報導,記者自己都必須曝光,那就會增加被捕的風險。這該怎麼辦?

科技幫了忙──他們在網路上使用AI生成的虛擬替身代替真正的記者播報新聞,強調:「我們是由人工智慧創造的,但我們的內容是真實、經過驗證、高品質且由記者撰寫」。

AI以及虛擬成像技術在這事上幫了忙很令人開心,不過在其他方面就令人擔心了。

有事問AI聊天軟體也能得到答案,有些人也就不自己Google了;但自己Google都可能因為各種演算法、廣告推播之類緣故而無法直接獲得正確答案了,問AI聊天軟體真的穩妥嗎?事實上,它的平均錯誤率目前還不小,麻煩的是那答案是否錯誤,或許比你Google到的更難分辨。

知名明星的臉被移花接木到色情影像裡頭的事,很早就發生了,影像編修軟體越進步,它們看來就越像回事,利用AI合成影像的技術不但降低了製作方的技術門檻,還讓那些影像從靜態照片變成影片。現在的AI技術,連「原始」的影星照片和色情影片材料都不需要了,它們早就從網路浩瀚的資料海洋裡獲得了足以無中生有的養分。

有不少人開始知道面對釣魚廣告時要小心謹慎、收到「社交攻擊」郵件時會提高警覺,但同樣的這群人,卻會大剌剌地在社群平台上頭張貼自己和朋友開心出遊的照片、喜孜孜地覺得人臉辨識閘口是社會進步的象徵──這些資料其實可會被科技反過來使用在欺瞞、謀利、詐騙或偽造等等惡行當中,提供資料的人當然不希望這種事情發生,但他們卻不知不覺都幫了忙。

那麼,該如何避免自己變成惡事的幫凶?

最直接,也最根本的做法,就是理解那些技術運作的核心──幸好,技術的核心都是不難理解的概念,專業的部分大多出現在執行過程。《AI底層真相》這書的重點就在幫我們理解核心,只要理解核心,你就好理解該怎麼避免自己在未被告知的情況下提供了作惡的資源,或者變成色情影像裡的角色。

AI底層真相:如何避免數位滲透的陰影 - 穆吉亞 | Readmoo 讀墨電子書

▶▶看看【《AI底層真相》:深度偽造、濫用個資、勞動剝削、全面監控⋯⋯如何避免數位滲透陰影?

▶▶看看最新上架的電子書!

延伸閱讀:

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0

留言 1

  • Jui-Ya Hsieh(瑞雅)
    基本上這世上每個人都光溜溜的來,好死的一定會被全身扒光,讓人看光,只是有沒有公開傳閱而已,所以與其教人想盡辦法保護自己,不如教所有人客觀看待,人心正,見色不為迷惘,見淫亂不為所動,教人辨別是非對錯,當您長得醜,成為情色主角誰會上心啊!別來髒我的眼啊!當您長得美那些情色是藝術,要好好欣賞,怎能心存骯髒侮辱藝術,而誰是製造是非的AI?我們的社會能讓AI做惡嗎?出現錯誤的AI是要除錯的,所有的智慧終歸於人,人搞出來的爛事,就讓那些人收拾,把他們的影像自己補上真人面貌,知道誰犯賤就好。
    11月13日02:40
顯示全部