中國西藏網 > 即時新聞 > 國內

平衡科技創(chuàng)新與隱私保護 多國計劃加強對ChatGPT監(jiān)管

發(fā)布時間:2023-04-10 11:07:00來源: 法治日報

  平衡科技創(chuàng)新與隱私保護

  多國計劃加強對ChatGPT監(jiān)管

  □ 本報記者 王衛(wèi)

  4月3日,德國聯邦數據保護專員烏爾里希·凱爾伯稱,出于對數據安全保護的考量,德國可能會效仿意大利,暫時禁用ChatGPT。他透露,禁用該軟件的行為將屬于德國聯邦數據保護機構的職權范圍。此外,德國聯邦數據保護機構要求意大利監(jiān)管機構提供有關其阻止ChatGPT的更多信息。

  專家指出,推出兩個月即擁有1億活躍用戶,ChatGPT成為歷史上增長最快的消費者應用程序。固然ChatGPT在實際使用中表現驚艷,然而囿于大規(guī)模語言模型自身、數據原因等局限,仍存在成本高昂、信息泄露等劣勢。如何平衡科技創(chuàng)新與隱私保護仍需各方不斷探索。

  多國跟進限制措施

  近期,多國對ChatGPT的不滿、恐慌、抵觸等負面情緒正持續(xù)發(fā)酵。

  路透社報道稱,意大利個人數據保護局(DPA)近日宣布從3月31日起禁止使用ChatGPT,限制OpenAI處理意大利用戶信息數據,同時對其隱私安全問題立案調查。此舉引發(fā)多國監(jiān)管機構和企業(yè)的關注,德國、法國、愛爾蘭等國家已開始準備效仿意大利的做法,加強對ChatGPT的監(jiān)管。

  德國《商報》4月3日援引烏爾里?!P爾伯的話稱,原則上,類似屏蔽行動在德國也是可能的。德國已要求意大利提供有關其禁令的進一步信息。

  與此同時,據英國路透社報道,法國和愛爾蘭的個人數據監(jiān)管機構已經和意大利的同行取得聯系,以了解更多有關該禁令的依據。愛爾蘭數據保護機構(DPC)的一位發(fā)言人說:“我們正與意大利監(jiān)管機構跟進以了解他們采取行動的依據,我們將與所有歐盟數據保護機構協(xié)調此事?!?/p>

  加拿大廣播公司(CBC)4月4日報道稱,加拿大聯邦隱私監(jiān)管機構宣布,已經對OpenAI展開調查,因為該公司涉嫌“未經同意收集、使用和披露個人信息”。報道同時提到,美國總統(tǒng)拜登及其科技顧問委員會在當日舉行的會議上也討論了人工智能的“風險和機遇”。

  據韓國《國民日報》4月3日報道,包括三星、SK海力士、浦項制鐵公司在內的多家韓企正在采取限制使用ChatGPT的措施,嚴防員工泄密。LG電子公司雖然未發(fā)出禁令,但要求員工進行“人工智能及數據使用”方面的培訓。

  另據日經新聞網報道,出于對信息泄露的擔憂,包括軟銀、日立、富士通、三菱日聯銀行和三井住友銀行在內的日本公司已開始限制在業(yè)務運營中使用ChatGPT等交互式人工智能服務。

  但瑞典的隱私監(jiān)管機構表示,目前還沒有禁止ChatGPT的計劃,也沒有與意大利的監(jiān)管機構取得過聯系。西班牙的監(jiān)管機構稱,尚未收到任何有關ChatGPT隱私泄露或是其他方面的投訴,不過并不排除未來展開調查的可能性。

  涉嫌信息泄露風險

  這并不是ChatGPT第一次引發(fā)爭議。自從該服務推出后,就有人擔心它會被用來作弊、傳播假消息或誤導公眾。

  ChatGPT由美國人工智能研究實驗室OpenAI于2022年11月30日推出,具備非常驚艷的語言理解、生成、知識推理能力。據報道,推出后短短幾天內,其注冊用戶超過100萬,兩個月活躍用戶數已達1億,引爆全網熱議,成為歷史上增長最快的消費者應用程序,掀起了人工智能領域的技術巨浪。但不可否認的是,當ChatGPT運用更為廣泛的同時,與之相對應的疑問和擔憂也接踵而至。

  業(yè)界認為,ChatGPT目前技術尚處于早期階段,其自身存在較多問題。首先,身為大規(guī)模語言模型,ChatGPT使用成本高昂。ChatGPT基礎大模型訓練成本高、部署困難、每次調用花費不菲,還可能有延遲問題,對工程能力有很高的要求。數據顯示,OpenAI為了讓ChatGPT的語言合成結果更自然流暢,共用了45TB的數據、近1萬億個單詞來訓練模型。這大概相當于1351萬本牛津詞典。訓練一次的費用高達千萬美元。

  其次,人工智能技術在信息泄露等方面的社會性風險,會因為使用的龐大數據規(guī)模被進一步放大。對于司法工作而言,在司法人員和ChatGPT交互過程中,ChatGPT會獲取大量業(yè)務相關數據,這些數據在案件未符合司法公開條件之前,不能隨意公開,一旦發(fā)生數據泄露,可能導致嚴重后果。此外,OpenAI的使用條款并未對用戶可能輸入ChatGPT的數據信息提供任何保護。

  再次,ChatGPT準確率不高的問題不容忽視。由于ChatGPT的大部分答案都是從已知內容中摘錄或搜集而來,對于未知的或者ChatGPT知識的盲區(qū),則可能會給出錯誤或者不恰當的建議意見。比如,司法工作人員在辦案工作中常常需要兼顧“天理國法人情”,需要考量辦案的法律效果社會效果政治效果的統(tǒng)一,具有一定的人性化思考,而這些往往是人工智能有所欠缺和不足的,因此,此時ChatGPT給出的建議,會存在一定程度的偏頗。

  數據安全任重道遠

  對于ChatGPT暴露出的相關風險,歐盟對個人數據的保護走在前列。據報道,歐盟即將出臺的《人工智能法案》采取了一種基于風險程度對人工智能系統(tǒng)進行分類管理的監(jiān)管思路。但是,類似ChatGPT這樣的生成式人工智能產品對當前的風險分類方法提出了挑戰(zhàn)。

  事實上,歐盟委員會早在2021年便提出了《人工智能法案》條例草案,不過提案的推進并沒有預想中順利。歐洲議會議員們爭議的核心是監(jiān)管是否會阻礙創(chuàng)新,即如何平衡數據隱私與避免扼殺人工智能的創(chuàng)新和投資。其中最具爭議的領域是決定哪些人工智能系統(tǒng)將被歸為“高風險”。有知情者透露,歐洲立法者目前正就多方面限制“高風險”AI工具的新規(guī)則進行磋商。

  不僅歐洲議會議員們尚未就提案基本原則達成一致,政府內部也引發(fā)了監(jiān)管ChatGPT與否的爭議。

  4月2日,意大利副總理兼基礎設施與可持續(xù)交通部長馬泰奧·薩爾維尼在社交平臺上公開發(fā)文,批評DPA暫時禁止ChatGPT的決定,稱其屏蔽行為太“過度”了。他稱該監(jiān)管機構的行為“太過虛偽”,這種做法像是沒有常識一樣,“幾乎所有的在線服務都無法避免涉及隱私問題”。在他看來,這項禁令可能會損害國家的商業(yè)發(fā)展和科技創(chuàng)新,希望能快速找到一個解決方案,早日恢復ChatGPT在意大利的使用。德國政府發(fā)言人同樣認為沒有必要禁止ChatGPT。

  專家表示,一邊是堅決禁用,一邊是寬容放行。爭議背后也說明,如何保護公民數據隱私、規(guī)避隱私泄露風險等問題,將是人工智能與大范圍覆蓋社會生活后,各主體必須要考慮和解決的問題。過于決絕的“一刀切”做法也不值得提倡,監(jiān)管政策既要有可商討的彈性空間,也要能讓企業(yè)充分釋放出創(chuàng)新活力,更重要的是保護好公民的個人數據隱私與信息安全。這不僅是意大利、德國如今面臨的難題,各國都需要在保護數據安全和監(jiān)管防控過度之間做好平衡,用杠桿支撐起科技創(chuàng)新與隱私保護兩端。

(責編:陳濛濛)

版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。