人民網
人民網

面對新技術“浪潮”,如何筑牢“安全堤”?

林曉麗 黃東儀
2023年09月12日16:19 | 來源:人民網
小字號

今年以來,數字中國建設峰會、中國網絡文明大會、2023年國家網絡安全宣傳周等重要活動接連在福建舉辦,這三場活動都與互聯網有關,但聚焦的卻是截然不同的兩個關鍵詞。

互聯網是把“雙刃劍”,“發展”和“安全”正是它的一體兩面。隨著新一輪科技革命和產業變革深入發展,網絡安全領域面臨的風險和挑戰日益突出。

例如,近年來越來越受輿論關注的“AI換臉術”,在今年的網絡安全博覽會上,“AI換臉”的“攻”和“防”亦備受關注。

隻需一張目標人物的照片,依托人工智能合成,站在攝像頭前的你就能在屏幕上“變成”他,還能通過網貸平台的人臉認証,眨眨眼、搖搖頭就把錢轉出去了。在美亞柏科展區,工作人員演示了這一“騙術”。

對此,現場工作人員表示,目前,美亞柏科自主研發了深度偽造檢測鑒定平台,可以進行智能檢測和識別偽造的視頻,助力監管部門提升內容安全治理能力。

於今年4月在福州舉辦的數字中國建設峰會上聊“發展”時,AI稱得上是最熱的詞﹔在當下正在舉辦的網絡安全宣傳周上談“安全”時,AI仍是最大的焦點。

“數據可以說是AI大模型最重要的一個要素,大家認識不同,但是總的來說幾乎所有人都認為數據的質量對模型智能水平影響最高,差不多要超過60%。”在北京智源人工智能研究院院長、北京大學計算機學院教授黃鐵軍看來,大模型基於背后的數據,所有的功能都源於數據,這也意味著越來越高的風險,“對於AI技術,你給它‘喂’的數據出錯了,它就永遠照這個錯誤的來辦,有的時候相互矛盾。”

網絡安全技術高峰論壇現場。人民網 黃東儀攝

網絡安全技術高峰論壇現場。人民網 黃東儀攝

粵港澳大灣區數字經濟研究院創院理事長沈向洋談到“AI對社會的沖擊”時用了三個詞:不完美的數據源、一本正經的“胡說八道”和更難被察覺的AI謠言。

搜索引擎和AI大模型都有搜集資料、解答疑問的功能,沈向洋形象地將搜索引擎形容為“責任有限公司”,而將AI大模型形容為“責任無限公司”。如此論斷的區別在於深層次學習。

“搜索引擎搜出來不好的東西,你知道它的出處在哪裡,所以它責任有限,而AI大模型通過深層次的人工智能將內容生成,我把它叫做‘責任無限公司’。”沈向洋說。

在一些專家看來,生成式人工智能,新型安全風險正在顯現,比如不良輿情、算法偏見、認知錯誤、心理誤導、數據泄露等。

今年7月,我國出台了全球首部針對生成式人工智能的專門立法——《生成式人工智能服務管理暫行辦法》,對數據合規提出明確要求。

中央宣傳部副部長、中央網信辦主任、國家網信辦主任庄榮文在會上表示,要創新數據治理,大力提升數據安全和個人信息保護水平,加大數據領域違法違規行為的打擊力度,保障個人信息安全。要強化規范引領,加強新技術新應用前瞻性研究,劃清安全紅線,有效規范引導新技術新應用健康有序安全發展。

(責編:江葦杭、張子劍)

分享讓更多人看到

返回頂部