焦點(diǎn)日?qǐng)?bào):ChatGPT因數(shù)據(jù)安全問題遭多國(guó)監(jiān)管調(diào)查,網(wǎng)安企業(yè)能否助其跳出“潘多拉魔盒”?
2023-04-17 14:56:14    藍(lán)鯨TMT

不過兩個(gè)月的時(shí)間,ChatGPT作為全球爆火的科技概念,在掀起一陣陣科技浪潮后,因可能引發(fā)的數(shù)據(jù)安全問題而被海外多個(gè)國(guó)家的監(jiān)管機(jī)構(gòu)調(diào)查。這背后,再次凸顯出人們對(duì)與新科技伴生的網(wǎng)絡(luò)安全的擔(dān)憂。

據(jù)外媒報(bào)道,近日,德國(guó)聯(lián)邦數(shù)據(jù)保護(hù)專員烏爾里希·凱爾伯表示,德國(guó)可能會(huì)追隨意大利的腳步,因數(shù)據(jù)安全問題“封殺”ChatGPT。此前,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布,禁止使用聊天機(jī)器人ChatGPT,并限制開發(fā)這一平臺(tái)的OpenAI公司處理意大利用戶信息,同時(shí)開始立案調(diào)查。

在國(guó)外,GPT-4的發(fā)展速度加重了公眾對(duì)個(gè)人信息安全的擔(dān)憂;而在國(guó)內(nèi),百度文心一言、阿里通義千問、華為盤古等大模型陸續(xù)浮出水面,如何更安全地追趕ChatGPT掀起的熱潮成為各互聯(lián)網(wǎng)企業(yè)不得不正視的問題。


(資料圖片僅供參考)

信息安全領(lǐng)域?qū)<覐埻蛴浾咧赋?,?duì)網(wǎng)絡(luò)安全企業(yè)來(lái)說(shuō),AI引發(fā)了新安全領(lǐng)域,主要涉及數(shù)據(jù)安全,內(nèi)容安全和算法安全等方面,網(wǎng)絡(luò)安全企業(yè)在某些領(lǐng)域?qū)⒊蔀橹匾?,但要求網(wǎng)絡(luò)安全企業(yè)具備更強(qiáng)的安全技術(shù)整合和服務(wù)能力。

GPT被曝可能引發(fā)黑客攻擊、隱私泄露等安全問題

AI模型大致可以分為決策式AI和生成式AI兩種。決策式AI指學(xué)習(xí)數(shù)據(jù)中的條件概率分布,根據(jù)已有數(shù)據(jù)進(jìn)行分析、判斷、預(yù)測(cè),主要應(yīng)用模型有用于推薦系統(tǒng)和風(fēng)控系統(tǒng)的輔助決策、用于自動(dòng)駕駛和機(jī)器人的決策智能體。

生成式AI指學(xué)習(xí)數(shù)據(jù)中的聯(lián)合概率分布,并非簡(jiǎn)單分析已有數(shù)據(jù)而是學(xué)習(xí)歸納已有數(shù)據(jù)后進(jìn)行演技創(chuàng)造,基于歷史進(jìn)行模仿式、縫合式創(chuàng)作,生成了全新的內(nèi)容,也能解決判別問題。

目前,作為生成式AI代表的ChatGPT已迭代到4.0版本,回答準(zhǔn)確性不僅大幅提高,還具備更高水平的識(shí)圖能力,且能夠生成歌詞、創(chuàng)意文本,實(shí)現(xiàn)風(fēng)格變化。此外,GPT-4的文字輸入限制也提升至2.5萬(wàn)字,且對(duì)于英語(yǔ)以外的語(yǔ)種支持有更多優(yōu)化。

相較于GPT3.5,GPT-4最大的進(jìn)化在于“多模態(tài)”和長(zhǎng)內(nèi)容生成,最大的突破是擁有了“讀圖能力”。有專家預(yù)測(cè),未來(lái)會(huì)出現(xiàn)文字、圖像、音頻和視頻等所有數(shù)據(jù)統(tǒng)一處理的新變革。

相關(guān)資料顯示,初代GPT模型的參數(shù)是1.17億個(gè),GPT-2是15億個(gè),GPT-3模型參數(shù)量達(dá)到1750億,是GPT-2的100倍;而GPT-4的真實(shí)參數(shù)在1750億-2800億之間,重點(diǎn)在數(shù)據(jù)處理優(yōu)化上。

越來(lái)越強(qiáng)的算力意味著更大的數(shù)據(jù)和隱私風(fēng)險(xiǎn),與初代GPT帶來(lái)的驚喜不同,GPT-4的發(fā)展已讓多國(guó)感受到威脅。

據(jù)外媒報(bào)道,三星在引入ChatGPT不到20天里,就已經(jīng)發(fā)生了三起半導(dǎo)體機(jī)密資料外泄事故,涉及測(cè)量資料、產(chǎn)品良品率等內(nèi)容,傳聞已被存入到ChatGPT學(xué)習(xí)資料庫(kù)中。對(duì)此,三星透過公告叮囑職員注意ChatGPT的使用方式。

與此同時(shí),意大利、德國(guó)、英國(guó)、加拿大、日本等多個(gè)國(guó)家的相關(guān)企業(yè)都開始發(fā)出警告,限制在業(yè)務(wù)運(yùn)營(yíng)中使用ChatGPT等交互式人工智能服務(wù)。

張威認(rèn)為,人工智能技術(shù)本質(zhì)上是一種工具,帶來(lái)的網(wǎng)絡(luò)安全危害主要是由于被壞人使用或鉆了空子,目前,很多“壞人”在尋求鉆這樣的空子,所以GPT的安全威脅就展現(xiàn)了。

他把GPT帶來(lái)的威脅分為五個(gè)方面,其一是支持詐騙,不論是智能換臉,智能聊天,智能文案等功能首先都會(huì)被詐騙分子用來(lái)支持他們的詐騙犯罪;其二是支持網(wǎng)絡(luò)攻擊,GPT的海量知識(shí)庫(kù)可以讓黑客更快速地搜集被攻擊對(duì)象的內(nèi)外部情況,同時(shí)黑客也會(huì)基于相同算法開發(fā)智能化自動(dòng)攻擊程序;其三是隱私泄露問題,如果人們長(zhǎng)期和GPT交互,GPT會(huì)保留對(duì)話者的隱私或用戶畫像,這部分?jǐn)?shù)據(jù)一旦被濫用,其危害比現(xiàn)有的隱私泄露大的多。

其四是算法本身存在漏洞,可以被惡意者污染或引導(dǎo),產(chǎn)生有利于惡意者的結(jié)果;最后是使用GPT可能引發(fā)新倫理安全問題,就如同電車難題一樣,GPT的智能化會(huì)使很多普通人錯(cuò)把它認(rèn)為有人性,這會(huì)引發(fā)很多倫理安全的新問題。

在頭豹研究院行業(yè)分析師常喬雨看來(lái),鑒于很多人對(duì)GPT的工作原理缺乏詳細(xì)的了解,且對(duì)語(yǔ)言本身所蘊(yùn)含的能量信息缺乏妥善的認(rèn)知,惡意攻擊者可以通過GPT快速產(chǎn)出誘導(dǎo)性內(nèi)容,然后以批量式重復(fù)性的信息淹沒戰(zhàn)術(shù)攻擊受害者,從而達(dá)成不法目的。例如,GPT可以模擬可信任來(lái)源,自動(dòng)化發(fā)送網(wǎng)絡(luò)釣魚郵件或信息,誘使用戶點(diǎn)擊惡意鏈接或輸入敏感信息。

如何跳出“潘多拉魔盒”?

據(jù)報(bào)道,在意大利個(gè)人數(shù)據(jù)保護(hù)局就ChatGPT涉嫌違反數(shù)據(jù)收集規(guī)則展開調(diào)查后,OpenAI發(fā)表博客稱:“我們認(rèn)為,強(qiáng)大的人工智能系統(tǒng)應(yīng)該接受嚴(yán)格的安全評(píng)估。需要有監(jiān)管來(lái)確保這種做法被采納,我們積極與政府接觸,探討這種監(jiān)管可能采取的最佳形式?!?/p>

OpenAI還表示,解決人工智能安全問題的一個(gè)切實(shí)可行的方法是投入更多時(shí)間和資源來(lái)研究有效的緩解和校準(zhǔn)技術(shù),并在現(xiàn)實(shí)世界的濫用情況下測(cè)試它們。

與此同時(shí),微軟推出一款新的人工智能對(duì)話工具SecurityCopilot(安全副駕),使用了OpenAI公司研發(fā)的GPT-4語(yǔ)言模型,以及網(wǎng)絡(luò)安全領(lǐng)域的專業(yè)數(shù)據(jù)。據(jù)悉,能夠幫助網(wǎng)絡(luò)安全團(tuán)隊(duì)防止黑客攻擊,并且在遭遇攻擊后進(jìn)行處置。

反觀國(guó)內(nèi)類GPT的發(fā)展,目前已有百度、阿里、360、華為等多家企業(yè)入局,但國(guó)內(nèi)企業(yè)推出的語(yǔ)言大模型,從文本數(shù)據(jù)質(zhì)量、創(chuàng)造性和靈活性等方面看,都要遜于ChatGPT。

真正能夠區(qū)分這類大模型能力的,是它們背后多年的積累沉淀,也就是常說(shuō)的“工程力”。常喬雨指出,工程力在AIGC中是一個(gè)很宏觀但又很難具體量化解釋的概念,它涉及對(duì)模型框架的設(shè)計(jì)思路、對(duì)參數(shù)變化的持續(xù)微調(diào),以及對(duì)機(jī)器學(xué)習(xí)方法應(yīng)用的靈活度。

對(duì)于國(guó)內(nèi)企業(yè)來(lái)說(shuō),要發(fā)展類GPT技術(shù)需要借鑒國(guó)外的經(jīng)驗(yàn)和教訓(xùn),在擁抱GPT的同時(shí)安全先行,避免引發(fā)“潘多拉式”的魔盒危機(jī)。

常喬雨建議企業(yè)在發(fā)展此類技術(shù)時(shí),需要建立完善的安全管理體系,加強(qiáng)對(duì)GPT等新技術(shù)的安全評(píng)估、審計(jì)和監(jiān)管,及時(shí)發(fā)現(xiàn)并應(yīng)對(duì)存在的安全隱患。企業(yè)還應(yīng)該對(duì)員工進(jìn)行安全培訓(xùn)和教育,提高員工安全意識(shí)和技能。至于用戶個(gè)人,應(yīng)該加強(qiáng)密碼保護(hù)、防范網(wǎng)絡(luò)釣魚、避免泄露個(gè)人隱私等行為,在使用GPT等新技術(shù)時(shí),不輕信來(lái)路不明的信息,不隨意泄露個(gè)人隱私。

從社會(huì)層面看,張威認(rèn)為,目前GPT還屬于行業(yè)早期探索階段,適合強(qiáng)調(diào)一些底限,比如限制違法內(nèi)容的輸出、個(gè)保法、網(wǎng)安法的執(zhí)行等,但不宜設(shè)置上限限制技術(shù)創(chuàng)新。

網(wǎng)絡(luò)安全企業(yè)機(jī)遇與挑戰(zhàn)并存

360日前宣布,4月16日,基于360GPT大模型開發(fā)的人工智能產(chǎn)品矩陣“360智腦”率先落地搜索場(chǎng)景,將面向企業(yè)用戶開放內(nèi)測(cè)。

作為網(wǎng)絡(luò)安全的龍頭企業(yè),360成為較早發(fā)布類GPT產(chǎn)品的代表。周鴻祎曾表示:“我自己就是做安全的,但我堅(jiān)定地認(rèn)為,不發(fā)展才是最大的不安全”。

因?yàn)樵谥茗櫟t看來(lái),“不管你愿不愿意,GPT都將引領(lǐng)一場(chǎng)新的工業(yè)革命,意義超越互聯(lián)網(wǎng)和iPhone的發(fā)明,它將帶來(lái)生產(chǎn)力的大幅提升,進(jìn)而提升國(guó)家競(jìng)爭(zhēng)力”。在這個(gè)過程中,網(wǎng)絡(luò)安全企業(yè)無(wú)疑要承擔(dān)更多的責(zé)任和任務(wù),這對(duì)它們來(lái)說(shuō)既是機(jī)遇也是挑戰(zhàn)。

近日,在投資者互動(dòng)平臺(tái),綠盟科技透露,將在今年第三季度發(fā)布基于類ChatGPT技術(shù)的智能安全服務(wù)機(jī)器人。奇安信則指出,公司正在基于ChatGPT相關(guān)技術(shù)和自身積累的海量安全知識(shí)和數(shù)據(jù),訓(xùn)練奇安信專有的類ChatGPT安全大模型。

對(duì)此,綠盟科技方面向記者表示,綠盟研發(fā)了ChatGPT文本生成檢測(cè)的專用工具,對(duì)比分析ChatGPT模型生成虛假信息與真實(shí)信息,可以用于監(jiān)控電子郵件、消息和新聞等,以檢測(cè)信息的置信度,并警示用戶注意避免釣魚攻擊,提示用戶不要輸入任何敏感信息,更好保護(hù)用戶的信息和隱私。

今年1月份,工信部等十六部門聯(lián)合印發(fā)《關(guān)于促進(jìn)數(shù)據(jù)安全產(chǎn)業(yè)發(fā)展的指導(dǎo)意見》提出,到2025年,我國(guó)數(shù)據(jù)安全產(chǎn)業(yè)規(guī)模超過1500億元,年復(fù)合增長(zhǎng)率超過30%,將建成5個(gè)省部級(jí)及以上數(shù)據(jù)安全重點(diǎn)實(shí)驗(yàn)室。

網(wǎng)絡(luò)安全企業(yè)在把握住下一個(gè)紅利期之前,需要不斷適應(yīng)人工智能新形態(tài)帶來(lái)的底層技術(shù)邏輯、業(yè)務(wù)邏輯的變化,增強(qiáng)產(chǎn)品研發(fā)能力和競(jìng)爭(zhēng)實(shí)力。

常喬雨指出,網(wǎng)絡(luò)安全企業(yè)需要增強(qiáng)監(jiān)測(cè)和防范GPT產(chǎn)出的模仿他人口吻編造的虛假信息等,通過識(shí)別文字是AI自動(dòng)產(chǎn)出的可能性大小發(fā)出警告提示。同時(shí),利用GPT進(jìn)行網(wǎng)絡(luò)的攻防模擬、通過GPT攻擊模擬發(fā)現(xiàn)可能存在的網(wǎng)絡(luò)安全漏洞、和使用GPT進(jìn)行安全咨詢對(duì)話增強(qiáng)等功能。

目前中國(guó)相關(guān)技術(shù)水平距離GPT-4還有差距,現(xiàn)有的硬件基礎(chǔ)設(shè)施能力對(duì)支持更大規(guī)模的此類技術(shù)廣泛應(yīng)用還存在瓶頸。對(duì)于GPT可能帶來(lái)的潛在風(fēng)險(xiǎn)既不可忽視,也不必過度擔(dān)憂,畢竟永遠(yuǎn)不會(huì)被AI淘汰的是使用或研究AI的人。

正如常喬雨所言,理性地以工具角度看待GPT,認(rèn)可它成為第四次科技革命潛力的同時(shí)不過度神化GPT和傳播恐懼,通過持續(xù)地實(shí)踐和思考,讓GPT為每個(gè)人在它自身擅長(zhǎng)的領(lǐng)域最大化發(fā)揮價(jià)值。

藍(lán)鯨TMT王雅迪

關(guān)鍵詞: