“盡管制定了購買和使用個人信息的協議,但被告采取了不同的方法:竊取?!苯眨慌涿耸恳源藶槔碛?,向OpenAI,以及其投資方之一的微軟公司發(fā)起集體訴訟。
起訴書稱,OpenAI從互聯網上竊取了3000億個單詞,它們來自“書籍、文章、網站和帖子——包括未經同意獲得的個人信息”。
【資料圖】
目前這些指控仍是一面之詞。不過,這已經不是這家公司第一次陷入數據安全、個人信息泄露相關的指控了。
“OpenAI是否按照其隱私政策合法合理地收集并利用用戶個人信息,以及是否有效識別并剔除其訓練數據來源中‘偶然’包含的個人信息??赡苁窃撈鹪V訟的爭議焦點所在?!北本┐蟪陕蓭熓聞账呒壓匣锶肃囍舅杀硎?。
以大模型原理構建的生成式人工智能產品,是算力與數據加持下的“暴力美學”,數據是門檻,語料庫海量數據存在高度的數據合規(guī)風險。擁有1億用戶、數十億訪問量的ChatGPT因為“樹大”其問題首當其沖,但以數據為基石的大模型,數據安全問題正變得越來越重要,甚至可能成為產品的“阿克琉斯之踵”。
AI新秀變“數據小偷”?
根據ChatGPT的開發(fā)者OpenAI提供的信息,ChatGPT的三個主要信息來源是互聯網上的公開信息、從第三方處通過許可獲取的信息以及用戶或模型訓練者提供的信息(如用戶與ChatGPT的聊天記錄)。
這份將近160頁的起訴書聲稱,OpenAI 秘密從互聯網上竊取了 3000 億個單詞,竊聽了“書籍、文章、網站和帖子——包括未經同意獲得的個人信息”。
具體而言,該集體訴訟的原告認為,為了贏得“人工智能軍備競賽”,OpenAI從ChatGPT的交互對話以及集成ChatGPT的應用程序中“收集、存儲、跟蹤、共享和披露”數百萬人的個人信息,包括產品詳細信息、帳戶信息、姓名、聯系方式、登錄憑據、電子郵件、支付信息、交易記錄、瀏覽器數據、社交媒體信息、聊天日志、使用數據、分析、cookie、搜索和其他在線活動。
原告認為,此舉違反了服務協議條款以及州和聯邦的隱私和財產法。起訴書指出,這一數據竊取行為的受害人預計有數百萬,潛在損失達 30 億美元。原告訴求則是,要求法院暫時凍結 OpenAI 產品的商業(yè)訪問和進一步開發(fā)。
鄧志松告訴21世紀經濟報道記者,ChatGPT運行的原理通過“閱讀”大量現有文本并學習詞語在上下文中的出現方式來預測可能出現在回應中的最可能的詞語。此前,OpenAI方面聲稱不會“主動”收集個人信息用于模型訓練,但各渠道訓練數據可能“偶然”包含個人信息,人工智能模型可能會從中了解如何在回應用戶時正確使用人名、地址等信息,同時它們堅稱這些信息不會被用于建立用戶畫像、廣告推廣等商業(yè)用途。
“OpenAI是否按照其隱私政策合法合理地收集并利用用戶個人信息,以及是否有效識別并剔除其訓練數據來源中‘偶然’包含的個人信息。這兩個問題可能是該起訴訟的爭議焦點所在?!编囍舅煞治?,未經用戶許可擅自抓取并利用其個人信息,可能涉嫌違反所在司法轄區(qū)的個人信息保護法律法規(guī),并構成民事侵權。
不過,受訪專家也指出,目前“竊取”暫時仍是原告方的一面之詞,還不能據此貿然將OpenAI所實施的個人信息收集活動定性為違法行為。
如何理解數據“竊取”
綜合來看,合規(guī)、知情-同意成為這起訴訟的風暴眼。
“第一是信息的來源,尤其是訓練用的物料是否能說得清、是否合規(guī);第二,在與用戶交互的過程中是否涉及到了用戶的隱私信息。”數安信CTO崔維友也指出,“竊取”很可能是在用戶沒有充分知情的情況下拿到了用戶的個人數據。
“盡管 OpenIAI對其數據收集和做法 ‘絕對保密’,但就我們了解,該公司使用(至少)5個不同的數據集來訓練ChatGPT?!备鶕鹪V書陳述,OpenAI使用的數據集中有部分數據的抓取并不合規(guī)。
以WebTex2這一OpenAI "專有 "人工智能語料庫為例。原告指出,為了構建這一語料庫,OpenAI抓取了社交媒體網站Reddit上所有獲得至少3個 "喜歡"(在Reddit上被稱為 "Karma "投票)的帖子所鏈接的所有網頁,以及Reddit帖子和相關評論。而Reddit中受歡迎的內容除了來自其網站本身,還包括大量來自YouTube、Facebook、TikTok和Instagram等社交媒體的鏈接。這些鏈接及與之關聯的個人信息在沒有通知相關方獲得同意的情況下被大量抓取。
值得注意的是,公開資料顯示,今年4月,Reddit官方宣布將對調用其API的公司收費,原因正是OpenAI、谷歌等公司利用該平臺上的數據訓練模型。
袁立志指出,當前人工智能大模型訓練數據主要有應用存量數據、商業(yè)和開放數據、公共互聯網數據和用戶使用數據等幾大來源,而不同的數據源的使用則各有不同優(yōu)劣?!耙龅酵耆弦?guī),并不容易?!彼毖浴?
數據安全——大模型產品的“必答題”
人工智能發(fā)展的突破得益于高質量數據的發(fā)展。大模型的最新進展依賴于更高質量、更豐富的訓練數據集。如何判斷數據收集行為以及留存的數據內容是否合規(guī),已成為當前相關技術發(fā)展亟待解決的問題,更是大模型產品未來健康發(fā)展的關鍵。
“雖然ChatGPT表示,存儲訓練和運行模型所需的數據會嚴格遵守隱私和安全政策,但在未來可能出現網絡攻擊和數據爬取等現象,仍存在不可忽視的數據安全隱患。特別是涉及國家核心數據、地方和行業(yè)重要數據以及個人隱私數據的抓取、處理以及合成使用等過程,需平衡數據安全保護與流動共享?!蹦祥_大學法學院副院長、中國新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員陳兵說。
大成律師事務所高級合伙人肖颯則強調了AI技術“文本數據挖掘功能”潛藏的合規(guī)風險。她表示,該功能不僅可以“主動”搜集和存儲數據,并且能在不斷的數據處理過程中形成自己的處理模式。若其所搜集的數據(含個人信息)并未取得合法授權,相關的處理活動就可能涉嫌違法違規(guī)。
這已經不是ChatGPT第一次陷入數據泄露的風波。今年3月,其Redis 開源庫中的錯誤導致本 ChatGPT 服務中暴露了其他用戶的個人信息和聊天標題。在ChatGPT被接連發(fā)現意外泄露用戶聊天記錄后,意大利數據保護局(Garante per la Protezione dei Dati Personali)于3月底宣布將暫時禁用ChatGPT并對該工具涉嫌違反隱私規(guī)則展開調查。 加拿大也對OpenAI“未經同意收集、使用和披露個人信息”的投訴進行調查。
但這并不是OpenAI這家公司、ChatGPT這個產品的個例,其暴露出的隱私泄露、存儲敏感信息、未授權訪問等數據安全問題是大模型產品落地應用后可能普遍面臨的問題。
CCIA數據安全工作委員會指出,大模型使用來自互聯網的公開文本數據作為預訓練數據,這些數據可能包含一些用戶的個人信息,這些信息可能被LLM無意中學習和記憶,并在后續(xù)的應用中泄露出來。預訓練和微調過程中需要對數據進行收集、存儲、分析和處理,這些操作可能會侵犯用戶的個人信息權利,如知情權、選擇權、刪除權等。用戶可能沒有充分的意識和能力來保護自己的個人信息,也沒有足夠的透明度和監(jiān)督機制來確保數據處理方遵守相關的法律法規(guī)和倫理規(guī)范。
并且,由于參數量巨大,大模型需要借助分布式計算和云服務等技術來進行訓練和部署,這就增加了數據被竊取、篡改、濫用或泄露的風險。
自ChatGPT發(fā)布后,中國企業(yè)目前已經發(fā)布了超70個基礎大模型。雨后春筍般的大模型,在接下來商用過程中如何做到數據合規(guī),已經成為每一個產品需要面對的“必答題”。
在袁立志看來,未來,針對不同的數據來源,企業(yè)應采取不同手段保證訓練數據合規(guī)。原有業(yè)務的存量數據,如果用以大模型訓練,屬于變更使用,需要再次得到用戶同意;如果爬取互聯網公開數據,則需做好數據清理、匿名化等處理,同時注意爬蟲技術本身的法律風險;如果購買商用數據或者使用開源數據,則需要企業(yè)內做好相關合規(guī)審查,保障安全。至于用戶使用過程中產生的數據,如與大模型對話的聊天記錄,C端數據在事前告知用戶獲得同意后使用;接入API使用的B端數據,由于與企業(yè)高度相關,模型默認不會收集和使用。
“合規(guī)確實是后發(fā)的大模型訓練者需要面對的棘手問題?!痹⒅咎寡?,從業(yè)者只能參照自身現實情況,選擇盡可能安全透明、成本可控的方法。
AI的浪潮不會停歇,如何掌好前行的船舵,在企業(yè)生存與合規(guī)生產間找到平衡向前,或許已經成為第四次工業(yè)革命下的時代命題。
(文章來源:21世紀經濟報道)
標簽: