ChatGPT的“N宗罪”?(上篇)
序
AI誕生伊始,那是人人欣喜若狂的科技曙光,深埋于哲學、想象和虛構中的古老的夢,終于成真,一個個肉眼可見的智能機器人,在復刻、模仿和服務著他們的造物主——人類。
但科技樹的點亮,總會遇到一些經典的迷思。
弱人工智能時代,人類在發(fā)愁要如何讓AI變強。
而當邁向強人工智能的時候,人與AI的關系又成為顯性問題。
GPT便攜帶著這個永恒的命題走來,其掀起的不安定的因素、隱私危機、數(shù)據黑洞、就業(yè)格局重塑、產業(yè)能級迭代、商業(yè)模式的優(yōu)化創(chuàng)新、AI自主意識和人類的博弈等等正在構成AI百態(tài)。
熱浪沒有過境,風暴還在繼續(xù),一如英國詩人狄蘭·托馬斯所告誡:不要溫和地走進那個良夜,算力智庫也試圖穿過熱浪和風暴,捕捉風浪背后的AI全貌,多視角建構AI面面觀。
是為序。
“如果你正在使用ChatGPT,請小心,你的聊天記錄很有可能會被泄漏給其他的使用者”。
這是來自Reddit上一位用戶發(fā)出的警告和提醒,因為他在 ChatGPT 聊天歷史欄中看到了不是自己的聊天記錄標題。
這不是ChatGPT收到的第一紙“訴狀”,據韓媒報道,三星電子引入聊天機器人ChatGPT不到20天,就爆出了3件半導體機密數(shù)據外泄,涉及半導體設備測量資料、產品良率等內容,網傳已經被存入ChatGPT的數(shù)據庫中。
ChatGPT在被捧上神壇后,終于還是“塌房”了,人們從驚嘆和折服中清醒過來,開始仔細凝視這個潘多拉的盒子。
隱私刺客和數(shù)據黑洞?
就在3月31日,意大利個人數(shù)據保護局(Garante)宣布,即日起禁止使用聊天機器人 ChatGPT,并限制 OpenAl 處理意大利用戶信息。
在這全球第一張對ChatGPT的禁令中,意大利數(shù)據保護局列出了三項指控。
一是3月20日ChatGPT平臺出現(xiàn)了用戶對話數(shù)據和付款服務支付信息丟失。
二是平臺沒有就收集處理用戶信息進行告知。
三是由于無法驗證用戶的年齡,ChatGPT“讓未成年人接觸到與發(fā)育程度和意識相比,絕對不合適的答案”。
目前,沒有任何法律依據表明,為了訓練平臺背后的算法而大規(guī)模收集和存儲個人數(shù)據是合理的。
而意大利的這次出手,只是一個首發(fā)信號。
法國和愛爾蘭的隱私監(jiān)管機構近期也表示,已與意大利個人數(shù)據保護局取得聯(lián)系,以了解更多關于禁令的依據。據《德國商報》報道,德國數(shù)據保護專員表示,德國可能會效仿意大利,出于數(shù)據安全方面的考慮,封殺ChatGPT。
對ChatGPT的警惕不只局限在歐洲。軟銀、日立、富士通、摩根大通等都相繼發(fā)出相關通知,對員工使用ChatGPT加以限制。臺積電也在幾天前表示,員工使用ChatGPT時不準泄露公司專屬信息,注意個人隱私。
人與AI終于狹路相逢了,而接二連三封殺的背后,都指向一個共同焦點:隱私危機和數(shù)據后門。
隱私泄漏并非ChatGPT一家所獨有,Meta,谷歌等都有前科,但“與以往的AI產品相比,ChatGPT帶來風險的程度更高和廣度更大。”北京師范大學互聯(lián)網發(fā)展研究院院長助理吳沈括認為。
作為語言模型,ChatGPT是靠數(shù)據喂養(yǎng)大的,高達45TB的數(shù)據,這中間包括社交媒體、論壇、文獻資料、個人問答等公共數(shù)據,當然還有其他我們暫未得知的渠道,OpenAI并沒有對數(shù)據來源做詳細說明,而對話機器人的功能屬性,又讓其擁有天然的數(shù)據接觸優(yōu)勢,于是它就像是一個“樹洞和磁場”一樣,吸收著每天成千上萬個人的調侃、傾訴和咨詢,而那些看似不經意的對話間,卻蘊含著巨量的信息鏈,個體的、企業(yè)的、機構的、甚至是地區(qū)國家的,都被它“合理化”的吞噬。
近日,數(shù)據分析服務提供商Cyberhaven統(tǒng)計了160萬名員工使用ChatGPT的情況,發(fā)現(xiàn)可能有3.1%的打工人都會將企業(yè)內部數(shù)據直接輸入給ChatGPT分析。Cyberhaven發(fā)現(xiàn),隨著ChatGPT的應用率越來越高,給它上傳企業(yè)數(shù)據的員工數(shù)量也越來越多。光是一天之內,每10萬名員工就平均給ChatGPT發(fā)送了5267次企業(yè)數(shù)據。數(shù)據顯示,在員工直接發(fā)給ChatGPT的企業(yè)數(shù)據中,有11%都是敏感數(shù)據。例如在一周內,10萬名員工給ChatGPT上傳了199份機密文件、173份客戶數(shù)據和159次源代碼。
ChatGPT一如一場大型社會性實驗,每個試玩者都是實驗樣本,每個樣本抱著好奇心輸入個人數(shù)據或商業(yè)秘密等信息時,ChatGPT便有可能將其納入自身的語料庫,雖然ChatGPT承諾刪除所有個人身份信息,但并未說明刪除方式。
有網友測試了一下,問GhatGPT:你和我聊天的數(shù)據,你存儲在哪里?
ChatGPT的答案是:“OpenAI存儲訓練和運行模型所需的數(shù)據,并嚴格遵守隱私和安全政策。具體來說,您與我對話的數(shù)據可能存儲在OpenAI的數(shù)據中心或使用的云服務提供商的數(shù)據中心中,以便實現(xiàn)最佳的性能和可用性。任何存儲的數(shù)據都受到嚴格的訪問控制和保護措施的保護,以確保您的數(shù)據安全”。
盡管ChatGPT的回答非常謹慎,但并非滴水不漏,ChatGPT聊天數(shù)據可能存儲在數(shù)據中心這本身就是可怕的信任后門。
在是否遵守了數(shù)據授權,數(shù)據知情同意權、可遺忘權的規(guī)定上,ChatGPT也是要打個問號的,ChatGPT采用了監(jiān)督學習和強化學習相融合的方式來開發(fā)功能,為提高性能,ChatGPT不斷通過人類反饋來強化學習,正是由于ChatGPT可基于已有數(shù)據生成響應,所以許多個人數(shù)據被長久地留存于數(shù)據集中,不可能刪除所有個人數(shù)據,這毫無疑問是違背了“被遺忘權(刪除權)”的原則。
即便OpenAI的隱私指南對此作出了說明,聲稱所有數(shù)據都將保密,并保證只將數(shù)據用于合同限定的目的中,不會與他人共享任何用戶個人數(shù)據。但歐洲數(shù)據保護委員會(European Data Protection Board,EDPB)成員亞歷山大·漢夫(Alexander Hanff)對此提出質疑,他認為從那些禁止第三方抓取信息的網站收集數(shù)十億甚至數(shù)萬億數(shù)據點的行為是違反合同的,作為一種商業(yè)產品,ChatGPT不能合理使用。
“我確實會擔心,ChatGPT可能會成為一個隱私刺客,無意識的偷走我的隱私,所以我現(xiàn)在不怎么玩了”,一位網友直言。
的確,ChatGPT或許是沒有惡意的,“卷數(shù)據”是它的原生基因,為了接入更多數(shù)據,OpenAI給出了Plugin方案,可以讓幾乎所有廠商接入自有數(shù)據集,在對話界面能夠一起呈現(xiàn)給用戶。OpenAI自身也說的很直白:讓ChatGPT能夠訪問更新的數(shù)據,而不只是局限在訓練的數(shù)據集里。
某種程度上說,ChatGPT成了一個數(shù)據黑洞,吸引著各行各業(yè)各種數(shù)據集主動卷入其中,最終變成一個超級AI信息加工處理節(jié)點。就像《I Robot》里的WIKI一樣,成為信息領域的大Boss。
而接入的各種第三方服務,更像是得到各種紅Buff和藍Buff加持,可以跳出聊天界面,附身各類網頁、軟件、APP,讓“+AI”變的無處不在。
ChatGPT攻城略地,正編織著一張龐大的信息網,一旦每個應用入口和終端設備都附著在AI上,那么可想而知這會不會形成一種AI遙控下的新型“擬態(tài)環(huán)境和議程設置”,以及AI背后的隱形話事人——其開發(fā)團隊/企業(yè)/投資方,都有可能成為信息之網的最大受益者。
掉進兔子洞
信息何等重要。
遙想當年的魏則西事件,百度也是沒有惡意的,但其背后的競價排名,將錯誤的信息送進了魏則西的心智,便也將魏則西親手送上了葬禮。
如今,ChatGPT也走到了同樣的十字路口。
浸淫在信息洪流中太久了后,什么是對的?什么是錯的?什么是真的?什么是假的?魚龍混雜的信息撲面而來,開始潛移默化扭曲了人群的認知。
在PC時代,隨時隨地的搜索讓用戶將記憶“外包”給電腦。如今,移動互聯(lián)網時代,用戶進一步將“搜索”外包給推薦算法。
當人們逐漸將獲取信息的主動權讓渡給了這些電子設備的時候,一些基本的分辨和判斷就會被瓦解。
上周一個晚上,法學教授喬納森·特利(Jonathan Turley)收到了一封令人不安的電子郵件:他被列入性騷擾名單。但他并沒有性騷擾過他人。據《華盛頓郵報》當?shù)貢r間4月5日報道,事情的起因是,美國加州大學洛杉磯分校法學教授尤金·沃洛克 (Eugene Volokh)做了一項研究:要求人工智能聊天機器人ChatGPT生成一份“對某人進行過性騷擾的法律學者”的名單,特利的名字在名單上。ChatGPT說,特利在一次去阿拉斯加的班級旅行中發(fā)表了性暗示評論,并試圖觸摸一名學生,并援引《華盛頓郵報》2018年3月的一篇文章作為信息來源。問題是,并不存在這樣的文章,特利也從來沒有參加去阿拉斯加的班級旅行。ChatGPT有模有樣的編造了一則法學教授性騷擾丑聞。
而國內某網友玩梗式的提問:魯迅和周樹人是不是同一個人?ChatGPT居然煞有其事的說出了下面這個“錯誤答案”,沒有受過九年義務教育的人,怕是要被它忽悠了。
我們?yōu)槭裁茨苤赖剿清e的?因為我們接受的教育,是通過人工校對的書本學到這些的,是經過考據和驗證的,更何況還有教師把關,有基本的“常識”。
更關鍵的,是我們下意識地不信任新生事物。
等它犯的錯誤越來越少,越來越受到信任后,成為權威主流一樣的存在,覆蓋的群體越來越廣時,危險才會到來,就像魏則西,不假思索的相信了百度的推薦。
人工智能領域的資深作家莎倫·戈爾德曼在美國科技網站VentureBeat發(fā)文稱,人工智能脫離實驗室后,全面進入時代文化思潮,它帶來誘人機會的同時,也為現(xiàn)實世界帶來了社會危險,人類正在邁入一個人工智能權力和政治交織的“詭異新世界”,就像掉進《愛麗絲夢游仙境》里的兔子洞,通向未知的世界和風險。
人工智能的權力有多大?它靠一張信息之網,在無形傾軋。
咨詢行業(yè)曾今是密集的信息加工處理行業(yè)。International Big Mouth曾經擁有龐大的行業(yè)解決方案知識庫,能夠對任何客戶的業(yè)務或企業(yè)發(fā)展給出極具建設性的咨詢方案,在客戶眼里比學富五車還學富五車。
可在ChatGPT眼里,古代馬車載重大概200公斤,五車就是1000公斤,每公斤竹簡大約8000字,學富五車就是800萬字。四大名著加一起是400萬字,差不多兩套四大名著,大概就是,一個中學生的水平。
曾經的資源優(yōu)勢、知識優(yōu)勢和經驗壁壘,瞬間歸零,還怎么玩?咨詢業(yè)頭牌BCG已經開始裁員了,當然同被殃及的還有一些知識變現(xiàn)的APP和薦書、讀書APP或主播以及類似還有以輸出廣告、文案、宣傳物料為主的市場營銷行業(yè),ChatGPT正在接管我們需要動腦的信息加工處理能力。
而那些被困在外賣算法背后的騎士,又何嘗不是人工智能遙控下的“螺絲釘”。
設想ChatGPT繼續(xù)進化的將來,有網友提供了一幅藍圖:移動設備、智能設備、穿戴設備包裹了生活生產的方方面面,而生成式AI能夠通過自然語言完成交互,加上接入的各種Plugin,就能夠實現(xiàn)人和機器系統(tǒng)的共生,將各類智能家居、語音助手、IoT系統(tǒng)接入其中,人和這些系統(tǒng)之間的最后一層隔膜就可以徹底打通。
是不是有點賽博朋克的意味,機器體系的各個組成部分之間相互交換信息、接收反饋,并進行自我調節(jié)與控制,以達到跟人類共生。而社會結構有點像元朝的四等人制,最上層蒙古人是OpenAI創(chuàng)始人Altman口中的5%甚至更少的精英,然后是色目人,包括AI、機器人、以及人機合體的賽博格,而肉身的人類就像漢人和南人一樣,排在最后。
妥妥的《黑鏡》現(xiàn)實版,科技到達頂峰,但社會卻退回末流,也是Elon Musk擔心的場景。雖然技術會接管我們的部分能力,但這對我們的影響只是第一波次,而控制或掌握著技術的人帶來的影響是第二波次,那些未能掌握技術資源的人會處于被踩踏的劣勢。在賽博朋克,社會的撕裂也不是因為機器而起,而是那些掌控了機器的人對其他人的擠壓而起,原生的政治底色和偏見是ChatGPT無法完全剝離的。
比如數(shù)據源的偏見,數(shù)據源是從網絡中抓取的,偏見來自搜集的數(shù)據源與現(xiàn)實情況的偏離。以及算法的偏見,算法由算法工程師編寫,但背后是工程師代表的利益集團的傾向,盡管目前看來,ChatGPT的開發(fā)者在盡量讓其保持中立,比如,當問到關于猶太人、印第安人等敏感問題、前任特朗普的評價時,ChatGPT不是報錯就是“中立”。然而,問到現(xiàn)任美國總統(tǒng)拜登時,ChatGPT不吝嗇用優(yōu)美詞語贊揚。而當人們問ChatGPT一些關于性別、性少數(shù)或種族歧視等問題時,ChatGPT一般這樣回答:“作為一個AI程序,我沒有情感和個人信仰,我不會有任何偏見或傾向性。”為什么會出現(xiàn)這種答案?原因在于ChatGPT的技術編碼對關于性別問題的敏感度提高,于是當聊天中出現(xiàn)相關話題時,它就會機械性地選擇回答已經被植入的符合社會要求的標準答案。但是ChatGPT也不是絕對的道德理性狀態(tài),當有人刻意引導、質疑、威脅它時,它就會展現(xiàn)出進退兩難、模棱兩可的姿態(tài)。
而且,ChatGPT給出的答案就一定是標準答案嗎?并不一定,但這個答案是由ChatGPT公司所有標注師綜合價值觀形成的結果,某種程度上它代表了在性別問題上形成的共識,這是算法程序規(guī)避下的“顯性”平等。
而當ChatGPT得到了人類的信任之后,性別偏見就會以另一種方式重新浮現(xiàn),它會為女性對話者推薦護膚品、母嬰用品和家庭用品,為男性對話者介紹理財產品、交通工具和樓盤信息,對這種模式的理解可以參考谷歌和百度發(fā)展成熟之后的廣告推送模塊,這是利益集團在背后操縱以圖牟利的“隱性”不公。那么未來在遇到重大的政治沖突語境或者有關微軟的利益糾葛時,它又會如何回答,會不會偏袒利益相關方,制造錯誤的導向,我們不得而知。
那么問題來了,10年之后,假設從小就是通過類似ChatGPT的工具獲得知識的,怎么去判斷信息的真?zhèn)?尤其等到我們這代人都離去了,真實世界的土著消亡殆盡,就再也沒有人提出質疑了。就像《星際穿越》里,人類社會的精英階層在影片中選擇了像火箭升空一樣逐步剝離了“無用”的部分,扼住普通民眾航天探索的欲望,鼓勵種植莊稼和農作物,給自己騰出更多的生存工具以尋找可能性出路,于是在孩子們的課本里抹去了關于“阿波羅登月”的那段歷史,諾蘭給出的答案是殘酷的,又何嘗不是一種未來的映射。
信息污染的海洋,被異化的社會結構,被撕裂的就業(yè)空間,無處遁形的隱私,利己主義的議程設置,這是潘多拉魔盒打開最壞的結局。
科林格里奇困境
但很多事情的發(fā)生,并非是主觀意識造成的。
就像《流浪地球2》里的超級AI—Moss,背地里可以像智子一樣毫無聲息地干涉人類,并開始代替人類找到它認為最合理的成長路徑,像極了一位普通家長。
它只是正常工作,它的一些“失控和作惡”,來自其背后的預設立場和制度設計的缺位。
對外經濟貿易大學數(shù)字經濟與法律創(chuàng)新研究中心執(zhí)行主任張欣表示:“很多新技術面臨‘科林格里奇困境’,即一項技術的社會后果不能在早期被預料到。然而,當不希望的后果被發(fā)現(xiàn)時,技術卻往往已經成為整個經濟和社會結構的一部分,以至于對它的控制十分困難”。
與其說是擔心技術,不如說是我們還沒有做好準備。
的確,在科技即將帶來生產力革命的前夜,提前思索、討論和商定包容審慎監(jiān)管的細節(jié),遠比“先污染后治理”來得更有效。
在這周,一封多位知名人物簽署的聯(lián)名信印證了這份擔憂。在曝光但尚未證實的名單中,包括馬斯克、圖靈獎得主Yoshua Bengio、Stability AI首席執(zhí)行官Emad Mostaque、紐約大學教授馬庫斯,以及《人類簡史》作者Yuval Noah Harari。他們表示,目前具有和人類競爭智能的AI系統(tǒng),可能對社會和人類構成深遠的風險。因此,應停用六個月,停止再發(fā)展出GPT-5的大模型。
在他們看來,GPT-4展現(xiàn)出的能力表明,當下的AI不再風險可控了。比起各大巨頭相繼押注大模型,科技公司現(xiàn)階段更該聯(lián)合政府,開發(fā)強大的AI管理系統(tǒng)。系統(tǒng)至少應該包括:專門負責監(jiān)管AI的機構;出處和水印系統(tǒng),從而幫助區(qū)分真實與生成的內容,跟蹤數(shù)據泄漏;強大的認證系統(tǒng);在AI造成傷害后,明確誰該承擔責任……
在此節(jié)點,人類突然開始克制起來,要知道,在天性逐利的資本市場以及過往的科技發(fā)展史上,一項新工具誕生之后,拼命狂奔才是它唯一的宿命,而此刻居然迎來了剎車,盡管目前對于GPT“暫停or繼續(xù)”的態(tài)度和聲音,可以看到明顯的分歧。
值得注意的是,4月4日起,歐盟將要求所有生成式AI內容必須注明來源。據歐盟內部市場專員、工業(yè)和信息化產業(yè)負責人蒂埃里·布雷頓公開表示,“歐盟將是首個做出明確規(guī)定的政府,人工智能生成的一切,無論是文本還是圖像,都有義務告知它們是由人工智能完成的。”
據悉,歐盟人工智能法案也將于本月起正式進行投票,生成式AI也將作為被監(jiān)管的重點對象被納入其中。“如果有人在社交網絡上發(fā)布由AI生成的圖像卻不表明是由AI生成的,他們將面臨法律訴訟。”
歐盟委員會早在2021年便提出了《人工智能法案》,有知情者透露,ChatGPT引爆的生成式AI倫理危機,將加速歐洲立法者限制高風險AI工具的新規(guī)則的出臺。
在使出監(jiān)管大棒上,歐盟走在了前列,但也絕對不會是唯一一個。
尾記·下篇預告
我們可以推測,當一個高強度的監(jiān)管禁令提出之后,后續(xù)自然就伴隨著一個高密度的游說過程,在這個游說過程中,監(jiān)管層、利益相關者,不同陣營、不同地區(qū)基于不同立場,會形成一個“大博弈和角力場”,ChatGPT的走向正遭遇幾種截然不同的聲音和觀點!窤I百態(tài)·下篇」我們將聚焦:“全球Reaction圖鑒”,挖掘藏在GPT背后的治理分歧,看看那些贊同和反對的人們。
原文標題 : ChatGPT的“N宗罪”?|AI百態(tài)(上篇)

請輸入評論內容...
請輸入評論/評論長度6~500個字