奧特曼:ChatGPT的數據可能會被用來對付你

與 ChatGPT 討論您最私密的事務時,您可能會發現自己沒有任何保護:與律師或醫生的對話不同,在這裏您的話可能成爲法律證據。

與ChatGPT的對話爲何存在風險?

根據OpenAI的首席執行官Sam Altman的說法,與享有所謂“法律特權”的人交談(如律師、醫生或治療師)與與ChatGPT互動之間存在實質性差異。盡管您與專業人士的機密信息受到特定法規的保護,但在與人工智能的聊天中並不存在這種保護。Altman在與Theo Von的播客《這個周末》採訪中將這一缺失描述爲“一個巨大問題”。

在實踐中,如果發生法律案件或調查,法院可能會要求獲取與ChatGPT的討論內容。這是許多用戶低估的風險,今天越來越多的人與AI系統分享個人問題和非常敏感的數據。

AI沒有“法律特權”意味着什麼?

法定特權的概念確保某些溝通保持機密,不能在法庭上用於對付該人。目前,當你與律師、醫生或治療師交談時,你的話受此制度保護。然而,阿特曼指出:

“我們在與ChatGPT交談時尚未解決這一方面。”

這有一個直接的後果:在爭議發生時,任何通過平台分享關鍵數據或供詞的人,都可能在法庭上被曝光。

這種擔憂更加突出,因爲正如阿特曼的採訪所強調的,人工智能在金融、心理和醫療援助中的使用正在迅速增加。在這種情況下,缺乏法律保護有可能成爲一種系統性的脆弱性。

ChatGPT和隱私的新規:我們處於何種狀態?

山姆·奧特曼不僅僅是敲響了警鍾:他表示他正在與政策制定者和立法者進行對話,他們意識到需要緊急幹預。然而,明確的立法尚未被定義。“這就是爲什麼有時我害怕使用某些人工智能工具的原因之一,”奧特曼聲明,“因爲我不知道多少個人信息會保持私密,以及誰將獲得這些信息。”

因此,需要一個更新的監管框架,至少在某種程度上將人工智能的數據保護與醫療和法律專業人士的受保護交流相提並論。但這條路仍然很漫長,目前,責任仍然在用戶身上。

監控與人工智能:它能走向何方?

另一面的問題是監控的增加。阿爾特曼的擔憂是,人工智能的加速發展將導致政府對數據的更大控制。他說:“我擔心世界上人工智能越多,監控就會越增強。”這種擔憂是有道理的,因爲出於國家安全或防止非法活動的原因,政府可以輕易請求訪問人工智能的對話。

奧特曼明確區分了對某種妥協的需求——“我願意爲了集體安全放棄一些隱私”——以及政府“顯然走得太遠”的風險,正如歷史上常常發生的那樣。因此,這個警告有兩個方面:不僅在ChatGPT上隱私沒有得到保障,而且未來的趨勢有可能以控制和預防的名義進一步限制隱私。

使用ChatGPT的人會面臨哪些變化:具體風險和最佳實踐

如果你使用ChatGPT來獲取細致的建議——無論是心理、醫療還是法律性質的——你必須意識到你的數據上沒有任何保護過濾器在運行。如果明天你卷入訴訟或調查,那些信息可能會被合法請求並用來對付你。

目前,唯一真正的解決方案是避免在與AI的聊天中輸入敏感的個人數據或關鍵的揭示。在等待監管的同時,這是OpenAI的領導者推薦的最佳實踐。請始終記住,即使刪除聊天記錄也並不能提供絕對的不可訪問保證。

現在有沒有保護自己的辦法?接下來會發生什麼?

在個體層面,建議保持最大謹慎:目前沒有任何技術工具可以保證與ChatGPT的對話具有“法律特權”。如果您想立即行動,請限制使用一般性或非可識別的問題,將敏感內容推遲到適當的場合。

然而,法律辯論才剛剛開始。根據阿爾特曼的說法,“快速的政治行動”將是保護用戶隱私和自由在人工智能時代的真正需要。行業運營商和立法者中,誰將第一個採取行動來填補這一空白,仍有待觀察。

ChatGPT和人工智能的隱私未來仍然開放:在接下來的幾個月裏,立法加速與大科技公司的新政策之間一切都岌岌可危。關注社區討論,保持更新:擁有真正隱私的權利與人工智能絕非理所當然。

NOT-8.72%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)