請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

專家警告5事別告訴ChatGPT 教5技巧自保

NOWNEWS今日新聞

更新於 2025年04月17日06:15 • 發布於 2025年04月17日05:16 • 國際中心陳政嘉/綜合報導
▲專家提醒,5項敏感資料不該提供給AI聊天機器人。圖為ChatGPT。(圖/記者周淑萍攝)

[NOWnews今日新聞] 人工智慧(AI)聊天機器人ChatGPT問世後已成為許多人的職場和生活助手,甚至心情不好、身體不適都會找AI分享心事、討論病情,近來甚至還有人請AI看手相。不過有美國史丹佛大學專家警告,有5項敏感訊息永遠不該與聊天機器人分享,否則會讓隱私無端暴露、惹上麻煩,專家也提供5招自保手段。

美媒《華爾街日報》、《紐約郵報》報導,AI業者雖希望盡量拓大資料收集範圍以改善運算模型,但公司也不想獲取用戶的秘密,OpenAI和Google也都呼籲用戶,對話過程中請勿分享敏感、機密訊息或任何不想讓審查員看到的資料。

史丹佛大學「人本人工智慧研究中心」(HAI)研究員珍妮佛·金恩(Jennifer King)警告,資訊一旦輸入給聊天機器人,就會從此失去所有權。她提點出有5種敏感資訊絕不該讓聊天機器人知道。第一種就是個人身分資訊,包括身分證號碼、駕照號碼、護照號碼、出生日期、居住地址、電話號碼。雖然有些聊天機器人會針對這類內容略加編輯,但用戶徹底避免分享會更安全。

第二種是醫療報告,醫療院所需要保護病患隱私,但聊天機器人通常不會,若要以學術角度或實驗性質分享,上傳醫療相關報告或檢驗結果時,務必把圖片或文件裁減、編輯,儘量只提供醫療檢測的結果,其餘內容都不要透露給AI。

第三種則是財務相關資訊,包括銀行、投資帳戶的號碼都不該跟AI分享,若被駭客取得,恐成暗中監控甚至竊取財產的目標。第四種則是個人的帳號、密碼,金恩提醒,AI聊天機器人不是保險庫,無法保護帳號密碼的安全,最好還是要利用密碼管理軟體比較安全。

第五種則是公司資料,金恩提醒,工作中使用AI機器人輔助時,務必要小心無意間洩漏客戶資料或是不對外公開的商業機密,就算只是要請AI幫忙起草電子郵件也不該透露。報導提到,韓國三星電子有工程師不小心洩漏內部原始碼,三星就決定禁用ChatGPT。金恩提醒,職場用戶最好使用公司訂閱的企業版本,或是自家客製化的AI程式,嚴格落實資安配套措施。

針對用戶與AI聊天機器人進行敏感話題交流,專家也給出五招自保技巧:增強帳號密碼的複雜度、登入過程使用多重身分驗證、每次對話後刪除所有內容、使用臨時聊天功能,這與無痕瀏覽的功能類似,讓ChatGPT無法把聊天內容加到用戶資料庫中,也無法用於訓練模型、使用匿名提問,如匿名搜尋引擎Duck.ai可讓用戶選擇AI機器人回答,但AI的完整功能也會因此受限。

立即加入NOWnews今⽇新聞官⽅帳號!跟上最HOT時事

查看原始文章

更多國際相關文章

01

峇里島將「完全停擺」24小時!機場全面暫停航班起降 遊客也禁外出

CTWANT
02

伊朗瘋狂報復!無人機、飛彈襲擊阿聯酋1909次 炸掉「最大天然氣田」

鏡報
03

商人妻與小姨子設局「裝監視器偷密碼」 他價值74億比特幣全沒了

CTWANT
04

南韓釜山爆重大案件! 航空公司機長遭「前同事砍死」 

鏡週刊
05

史上最貴!1根奇多賣280萬台幣 「噴火龍造型」獲世界紀錄認證

太報
06

衣服洗完卻飄滿尿騷味!她裝監視器逮到弟媳「超惡毒動作」...網全看傻

鏡報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...