以文心一言、ChatGPT 為代表的人工智能生成服務方興未艾,迅速風靡。一方面,人們為它的便利性和智能性驚嘆,另一方面,用戶對于生成內容會不會造成隱私泄露,會不會出現不和諧內容的憂慮也與日俱增。近日,網信辦發布了《生成式人工智能服務管理辦法(征求意見稿)》(簡稱《征求意見稿》),嘗試探討人工智能生成服務的規范問題。這一規定恰逢其時,對于促進生成式人工智能產業發展具有重要意義。但是,我仍然想說,法律法規對于新興技術的限制應當把握好 " 度 ",既要對生成內容健康性進行有效引導,也不應讓技術本身背太多的 " 鍋 "。
例如,《征求意見稿》第七條提到 " 提供者應當對生成式人工智能產品的預訓練數據、優化訓練數據來源的合法性負責 "" 數據包含個人信息的,應當征得個人信息主體同意或者符合法律、行政法規規定的其他情形 "" 保證數據的真實性、準確性、客觀性、多樣性 "。這類規定其實在實操上存在很大的困難。
首先,數據真實性、準確性是否屬于個人信息,在不同的場景下很難界定。例如,很多新聞都說 " 馮德萊恩是歐洲的‘裸官’ ",歐盟又出來辟謠,這些新聞孰真孰假呢?一位知名醫生的履歷被掛在醫院網站上,這屬于 " 個人信息 " 還是 " 公共信息 " 呢?如果生成式人工智能連知名醫生的信息也獲取不到,它的價值會大打折扣。正是因為界定的模糊性,對海量數據的真實性和準確性進行逐一評判和甄別,幾乎變成了不可能的任務。
其次,生成式人工智能技術是一種基于數據驅動的技術,它通過學習大量的數據,來模擬數據中的分布和規律,從而生成新的數據。這種技術本身并不具有判斷真實性、準確性、有效性的能力,也不依賴于這些標準來優化自身的性能。因此,要求生成式人工智能服務提供者保證其提供的服務內容真實、準確、有效,實際上對技術存在一定的誤解。這種要求會給生成式人工智能服務提供者帶來巨大的壓力和風險,也會抑制生成式人工智能技術的創新和發展。
生成式人工智能的大量訓練數據來自于海量的互聯網信息,而互聯網信息則來自于千千萬萬互聯網用戶和古今中外的資料。正是這豐富而多樣的數據來源,賦予其強大的智能。客觀來講,在當下的技術發展階段,需要讓生成式人工智能既 " 吃飽 " 又 " 吃好 ",才能促進其快速發展和進化。如果因難以甄別而將大量的信息棄之不用,無異于因噎廢食。如果過于追求 " 真實性 "" 準確性 "" 規避個人信息 ",勢必大大縮小模型的數據集數量,導致國內生成式人工智能技術難以有效發展、用戶使用體驗嚴重下降,甚至很快被國外的同類平臺在技術上遠遠甩開。
所以,我們應當以長期主義的開放心態來看待生成式人工智能技術。給它以寬容,給它以空間,接受它的不完美。生成式人工智能技術不是一個能夠甄別一切假新聞、能夠保護所有人隱私的 " 神 " 級技術,但是它的有效發展,卻能夠實實在在地便利工作與生活,提高社會生產力。這么好的技術,我們一定要占領世界制高點。
法律法規對新興技術的限制從來都是一個 " 度 " 的問題,過猶不及。對于新生事物,既要有效引導和管理,也要充分鼓勵支持。要讓生成式人工智能和互聯網信息內容更加真實、健康,通過法律法規給生成式人工智能提供方壓力只是治 " 標 ",在全社會踐行社會主義核心價值觀才是治 " 本 "。
審核編輯黃宇
-
數據
+關注
關注
8文章
7134瀏覽量
89424 -
人工智能
+關注
關注
1795文章
47642瀏覽量
239763 -
ChatGPT
+關注
關注
29文章
1566瀏覽量
7960
發布評論請先 登錄
相關推薦
評論