跟AI聊天?這五件事千萬別說!
ChatGPT等聊天機器人如今已經(jīng)成為人們的常用工具。但在使用過程中,不要讓自己的隱私成為人工智能的訓(xùn)練素材,或者因為數(shù)據(jù)泄露而被曝光。
本文引用地址:http://2s4d.com/article/202503/468823.htm3月31日消息,過去幾年,用戶能從OpenAI的ChatGPT中學(xué)到了不少東西,而這個聊天機器人也記錄了許多關(guān)于用戶的個人信息。
它從無數(shù)次的用戶交流中收集了大量個人信息,比如誰喜歡吃雞蛋,某些用戶的小寶寶需要靠哺乳入睡,還有用戶因為背痛需要調(diào)整運動方式。
它甚至記住了更多更為私密、不便詳述的細(xì)節(jié)信息。
無論選擇哪種聊天機器人:分享越多,它們就越有用?;颊呱蟼餮簣蟾娣治觯こ處熣迟N未發(fā)布代碼尋求調(diào)試。但人工智能專家提醒,我們應(yīng)該對這類擬人化工具保持警惕,諸如社會保障號碼、企業(yè)機密數(shù)據(jù)等敏感信息尤其需要防范。
盡管科技公司急于利用數(shù)據(jù)來優(yōu)化模型,但它們并不希望獲取用戶隱私數(shù)據(jù)。OpenAI明確警示,“請勿在對話中透露任何敏感信息。”谷歌也向Gemini用戶強調(diào):“避免輸入機密信息或您不愿意被審核者查看的內(nèi)容。”
人工智能研究人員認(rèn)為,關(guān)于奇怪皮疹或財務(wù)失誤的聊天記錄,既可能成為訓(xùn)練新版人工智能的素材,也可能因為數(shù)據(jù)泄露而曝光。以下列舉用戶應(yīng)當(dāng)避免輸入的內(nèi)容,并分享一些保護(hù)隱私的對話技巧:
聊天機器人逼真的人性化表達(dá)方式常會使人放下戒備。斯坦福以人為本人工智能研究所研究員詹妮弗·金(Jennifer King)提醒,一旦在聊天機器人中輸入信息,“你就失去了對這些信息的掌控?!?/p>
2023年3月,ChatGPT漏洞使得部分用戶可以窺見他人初始對話內(nèi)容,所幸公司很快就修復(fù)了漏洞。OpenAI此前還曾誤發(fā)訂閱確認(rèn)郵件,導(dǎo)致用戶姓名、電子郵件地址和支付信息外泄。
若遭遇數(shù)據(jù)黑客攻擊或需配合司法搜查令,聊天記錄可能被包含在泄露數(shù)據(jù)中。建議為賬戶設(shè)置高強度密碼并啟用多重認(rèn)證,同時避免輸入以下具體信息:
身份標(biāo)識信息。包括社會保障號碼、駕照號碼和護(hù)照號碼,出生日期、住址和聯(lián)系電話。部分聊天機器人具備此類信息自動脫敏功能,系統(tǒng)會主動屏蔽敏感字段。OpenAI發(fā)言人表示,“我們致力于讓人工智能模型學(xué)習(xí)世界而非個人隱私,并積極減少個人信息收集?!?/p>
醫(yī)療檢測報告。醫(yī)療保密制度本為防止歧視和尷尬,但聊天機器人通常不受醫(yī)療數(shù)據(jù)的特殊保護(hù)。若需要人工智能解讀檢測報告,斯坦福研究中心的金建議:“請先對圖片或文檔進(jìn)行裁剪編輯處理,盡量只保留測試結(jié)果,并對其他信息進(jìn)行脫敏處理?!?/p>
金融賬戶信息。銀行及投資賬戶號碼可能成為資金監(jiān)控或盜取的突破口,務(wù)必嚴(yán)加防護(hù)。
公司機密信息。如果用戶在工作中喜歡使用各種通用版聊天機器人,即使只是編寫一封普通電子郵件,也可能無意中泄露客戶數(shù)據(jù)或商業(yè)機密。三星曾因工程師向ChatGPT泄露內(nèi)部源代碼,全面禁用該服務(wù)。如果人工智能對工作確實有幫助,企業(yè)就應(yīng)當(dāng)選擇商用版或者部署定制化人工智能系統(tǒng)。
登錄憑證。隨著能夠執(zhí)行各種現(xiàn)實任務(wù)的智能體興起,向聊天機器人提供賬戶憑證的需求增多。但這些服務(wù)并非按數(shù)字保險庫標(biāo)準(zhǔn)構(gòu)建,密碼、PIN碼及密保問題應(yīng)該交由專業(yè)密碼管理器保管。
當(dāng)用戶對機器人回復(fù)給予好評或差評時,可能視為允許將提問及AI回復(fù)用于評估和模型訓(xùn)練。如果對話因涉及暴力等敏感內(nèi)容而被標(biāo)記,公司員工甚至可能會進(jìn)行人工審核。
Anthropic公司開發(fā)的Claude默認(rèn)不將用戶對話用于訓(xùn)練人工智能,并會在兩年后刪除這些數(shù)據(jù)。OpenAI的ChatGPT、微軟的Copilot和谷歌的Gemini雖然會使用對話數(shù)據(jù),但都在設(shè)置中提供關(guān)閉這項功能的選項。如果用戶注重隱私,可以參考以下建議:
定期刪除記錄。Anthropic首席信息安全官杰森·克林頓(Jason Clinton)建議,謹(jǐn)慎型用戶要及時清理對話。人工智能公司通常會在30天后清除被標(biāo)記為“已刪除”的數(shù)據(jù)。啟用臨時對話。ChatGPT的“臨時聊天”功能類似于瀏覽器的無痕瀏覽模式。用戶啟用后,可防止信息被存入用戶檔案。此類對話既不保存歷史記錄,也不會用于訓(xùn)練模型。
匿名提問。隱私搜索引擎支持匿名訪問Claude、GPT等主流人工智能模型,承諾這些數(shù)據(jù)不會用于模型訓(xùn)練。雖然無法實現(xiàn)全功能聊天機器人的文件分析等高級操作,但基礎(chǔ)問答足夠使用。
謹(jǐn)記,聊天機器人永遠(yuǎn)樂于繼續(xù)對話,但何時結(jié)束對話或點擊“刪除”鍵,始終取決于用戶自己。
評論