瑞萊智慧CEO田天:沒有安全可控為前提 大模型無法落地應(yīng)用
原創(chuàng)
2024-09-29 09:20 星期日
科創(chuàng)板日?qǐng)?bào)記者 李明明
①瑞萊智慧CEO田天告訴《科創(chuàng)板日?qǐng)?bào)》記者,只有提供更加安全可控的AI才能更快速地把AI賦能千行百業(yè),特別是嚴(yán)肅場(chǎng)景;
②隨著AIGC技術(shù)發(fā)展,將來AI合成假內(nèi)容的比例會(huì)越來越高,覆蓋面也會(huì)越來越廣,需要從技術(shù)和用戶兩方面共同努力。

《科創(chuàng)板日?qǐng)?bào)》9月29日訊(記者 李明明)近期,韓國曝出“Deepfake”(深度偽造技術(shù))事件,被認(rèn)為是采用新犯罪手段的“N號(hào)房”案件重現(xiàn)。隨著AI在大模型等技術(shù)的帶動(dòng)下向深度應(yīng)用方向邁進(jìn),AI帶來的數(shù)據(jù)泄露、“AI換臉”等安全問題愈發(fā)嚴(yán)峻,相關(guān)的AI詐騙案件頻發(fā),正給社會(huì)帶來巨大挑戰(zhàn)。

早在AI安全問題引起廣泛重視之前,瑞萊智慧就已深耕這一領(lǐng)域,聚焦人工智能安全和垂類大模型應(yīng)用,通過構(gòu)建大模型安全基座、AI偽造內(nèi)容檢測(cè)基座等,實(shí)現(xiàn)對(duì)AI大模型研發(fā)部署和應(yīng)用治理環(huán)節(jié)全覆蓋,建立了包括基礎(chǔ)算法平臺(tái)層、底層資源層、應(yīng)用層的全方位AI安全體系。

作為清華系深耕中國人工智能領(lǐng)域的創(chuàng)業(yè)企業(yè)之一,瑞萊智慧由中國科學(xué)院院士、人工智能研究院名譽(yù)院長(zhǎng)張鈸和清華大學(xué)人工智能研究院副院長(zhǎng)、計(jì)算機(jī)系教授朱軍共同擔(dān)任首席科學(xué)家,清華大學(xué)計(jì)算機(jī)系博士田天出任首席執(zhí)行官,其也是瑞萊智慧的創(chuàng)始人。

在人工智能時(shí)代,如何守護(hù)我們的信息安全?《科創(chuàng)板日?qǐng)?bào)》記者就此專訪了田天,他表示,只有提供更加安全可控的AI才能夠更快速地把AI賦能千行百業(yè),特別是嚴(yán)肅場(chǎng)景(比如to B)。如果沒有安全可控為前提,大模型就無法落地和應(yīng)用,這是零和一的問題,有了安全可控,才有可能去實(shí)現(xiàn)應(yīng)用。

提供安全可控的AI 將AI賦能千行百業(yè)

《科創(chuàng)板日?qǐng)?bào)》:作為一家初創(chuàng)企業(yè),為何選擇AI安全領(lǐng)域入局?

田天:這個(gè)問題其實(shí)就是創(chuàng)立初衷。瑞萊智慧2018年成立,目標(biāo)就是要去做更加安全可控的第三代人工智能的落地,讓人工智能真正應(yīng)用起來,能夠發(fā)揮作用和價(jià)值。

在公司成立之前,我們團(tuán)隊(duì)也在清華大學(xué)里進(jìn)行相關(guān)技術(shù)研究,并于2018年發(fā)現(xiàn),盡管AI在很多場(chǎng)景、領(lǐng)域的發(fā)展已經(jīng)很火熱,但還不能迅速落地,因?yàn)檫€缺乏一個(gè)非常重要的環(huán)節(jié),即AI的安全可控問題尚未解決,而只有提供更加安全可控的AI才能夠更快速的把AI賦能千行百業(yè),特別是嚴(yán)肅場(chǎng)景(比如to B)。

所以公司產(chǎn)品包括兩大類。一類是安全本身,即給AI產(chǎn)品做安全增強(qiáng),提供AI安全增強(qiáng)模塊和完整的AI解決方案,幫助客戶實(shí)現(xiàn)AI技術(shù)的應(yīng)用與價(jià)值。特別是在這兩年大模型安全需求越來越多之后,我們可以給客戶提供更加安全可控的大模型整體行業(yè)落地解決方案。

另一方面是利用AI去提升生產(chǎn)力,即相關(guān)領(lǐng)域的AI落地、提升和改善其工作效率等。其實(shí)從成立伊始公司就在做這些工作,比如一直在做的金融領(lǐng)域、政府和社會(huì)治理相關(guān)行業(yè)、工業(yè)制造領(lǐng)域等。

《科創(chuàng)板日?qǐng)?bào)》:相比已經(jīng)深耕數(shù)年的同行們,比如奇安信、啟明星辰、綠盟科技、安恒信息等,瑞萊智慧有何競(jìng)爭(zhēng)優(yōu)勢(shì)?

田天:傳統(tǒng)網(wǎng)安公司不太可能提供一個(gè)很強(qiáng)大的AI系統(tǒng)并解決AI安全問題。本質(zhì)上真正的AI公司是關(guān)注如何構(gòu)建一個(gè)更加可控、更加安全的AI系統(tǒng),其和互聯(lián)網(wǎng)安全、數(shù)據(jù)安全是完全不同的領(lǐng)域。

隨著人工智能技術(shù)的發(fā)展,越來越多的企業(yè)開始關(guān)注AI安全,并試圖將AI技術(shù)應(yīng)用于網(wǎng)絡(luò)安全領(lǐng)域。一方面,網(wǎng)安企業(yè)通過引入AI技術(shù)來增強(qiáng)自身的競(jìng)爭(zhēng)力;另一方面,專門從事人工智能開發(fā)的公司也在積極探索AI安全。在這一過程中,擁有強(qiáng)大AI能力和專業(yè)知識(shí)的團(tuán)隊(duì)成為競(jìng)爭(zhēng)的關(guān)鍵。

在AI安全可控領(lǐng)域市場(chǎng)方面,我們還是較為領(lǐng)先的,并占了絕大多數(shù)份額。目前,客戶構(gòu)成方面包括幾百家的大型企業(yè)(包括央國企互聯(lián)網(wǎng)公司)、政府客戶、金融機(jī)構(gòu)等。

隨著AIGC技術(shù)發(fā)展,將來AI合成假內(nèi)容的比例會(huì)越來越高

《科創(chuàng)板日?qǐng)?bào)》:在產(chǎn)品開發(fā)中,你和團(tuán)隊(duì)遇到比較大的困難是什么?如何去解決困難?

田天:困難還是在于AI安全可控領(lǐng)域發(fā)展的太快,并充斥著大量的技術(shù)迭代。目前主要面臨兩個(gè)問題。一方面,我們研發(fā)一個(gè)能力更強(qiáng)的AI安全系統(tǒng),需要進(jìn)行持續(xù)的投入,特別是在大模型日新月異的時(shí)代,如何跟上模型能力發(fā)展,并處于AI大模型安全行業(yè)的最前沿,這是一個(gè)難點(diǎn);

另外一方面,最新的AI技術(shù)也會(huì)帶來很多更高層次的安全問題。此前,AI還比較弱,或者應(yīng)用范圍還比較窄的時(shí)候,其安全問題不太嚴(yán)重。而隨著AI能力越來越強(qiáng),應(yīng)用越來越廣,其引起的安全問題類型也會(huì)越來越多,同時(shí)造成的風(fēng)險(xiǎn)隱患也會(huì)越來越大。因此,我們也要持續(xù)投入關(guān)注和研發(fā)。

此外,對(duì)于AI惡意應(yīng)用,我們一直在持續(xù)跟進(jìn),會(huì)去做相關(guān)情報(bào)搜集,并在支持客戶的過程中積累了很多經(jīng)驗(yàn)。甚至還會(huì)預(yù)演一下,比如模擬黑客,并先于實(shí)際黑客之前掌握攻擊方式,以便更早的做好防御準(zhǔn)備。

《科創(chuàng)板日?qǐng)?bào)》:Sora等文生視頻的出現(xiàn)給AI視頻檢測(cè)帶來了更大的不確定性,帶出了“真的假視頻”(AI生成視頻),“假的假視頻”(真人擺拍冒充Sora生成視頻)等現(xiàn)象,具體應(yīng)該如何防范?

田天:AI合成視頻挑戰(zhàn)了人們之前眼見為實(shí)的常識(shí),而且隨著AIGC技術(shù)發(fā)展,將來AI合成假內(nèi)容的比例會(huì)越來越高,覆蓋面也會(huì)越來越廣。甚至很快在互聯(lián)網(wǎng)上的信息中,AI合成的假內(nèi)容可能比真實(shí)產(chǎn)生的還要多,這也是未來的趨勢(shì),所以這個(gè)問題首先很嚴(yán)重。

對(duì)此,需要從技術(shù)和用戶兩方面共同努力:一方面,AIGC技術(shù)和產(chǎn)品的供應(yīng)商要去加強(qiáng)治理。通過技術(shù)手段如內(nèi)容水印和平臺(tái)標(biāo)識(shí)來標(biāo)明信息的真實(shí)性;另一方面,提升用戶的辨識(shí)能力,使他們能夠自主判斷所見信息的真實(shí)性。比如,我們面向個(gè)人用戶的AIGC實(shí)時(shí)檢測(cè)產(chǎn)品RealBelieve,能幫助用戶鑒別通話或網(wǎng)絡(luò)視頻中的人臉真?zhèn)危部稍谟脩魹g覽網(wǎng)頁內(nèi)容時(shí)提供AI合成可能性提示。

《科創(chuàng)板日?qǐng)?bào)》:當(dāng)前大模型在哪些場(chǎng)景下更容易發(fā)揮作用,并面臨什么挑戰(zhàn)?

田天:大模型最適合的是內(nèi)容生產(chǎn)與創(chuàng)新類場(chǎng)景,但對(duì)于嚴(yán)肅場(chǎng)景(如生產(chǎn)力提升或決策分析)由于可控性不足而不受歡迎。由于模型頻繁出現(xiàn)錯(cuò)誤或不可靠的結(jié)果,導(dǎo)致它們無法被放心地融入到工作流程中去進(jìn)行自動(dòng)化操作。

我認(rèn)為未來AI特別是大模型最終會(huì)在各個(gè)行業(yè)中實(shí)現(xiàn)落地應(yīng)用,雖然目前AI落地仍存在許多問題,但這是一個(gè)大趨勢(shì)。然而,盡管現(xiàn)階段非常熱門,但大模型在實(shí)際業(yè)務(wù)場(chǎng)景中使用的案例相對(duì)較少。例如,在媒體行業(yè)中,實(shí)際應(yīng)用的案例并不多見。

因此,公司正致力于實(shí)現(xiàn)更安全可控的大模型系統(tǒng),使其能在不同行業(yè)中真正落地并有效使用,并已在政府、央企等多個(gè)標(biāo)桿項(xiàng)目中取得成果。

《科創(chuàng)板日?qǐng)?bào)》: 安全可控的大模型能否應(yīng)對(duì)一些特殊或敏感問題,例如涉及政治、法律合規(guī)、倫理等領(lǐng)域?

田天:我們的模型通過設(shè)計(jì)和開發(fā),能夠有效應(yīng)對(duì)有意破壞或提出超常規(guī)交互的人。我們致力于在限定制度范圍內(nèi)工作,保證模型的安全可控。

此外,超級(jí)智能安全將是未來的關(guān)鍵問題,這在國內(nèi)外均處于起步階段,公司已在該領(lǐng)域投入更多資源,緊跟技術(shù)進(jìn)展。同時(shí),隨著人工智能升級(jí),安全威脅增大,公司也將持續(xù)提高安全領(lǐng)域的投入比例。

目前產(chǎn)品已助力金融、政務(wù)、自動(dòng)駕駛等領(lǐng)域

《科創(chuàng)板日?qǐng)?bào)》:中國銀行行長(zhǎng)李禮輝表示,從金融領(lǐng)域來看,現(xiàn)在主要的問題是AI算法和模型仍然不夠清晰和透明,有待解決技術(shù)方面的缺陷。如果把不太成熟的人工智能技術(shù)投入到高風(fēng)險(xiǎn)的金融領(lǐng)域,可能會(huì)放大現(xiàn)有風(fēng)險(xiǎn),并產(chǎn)生新的風(fēng)險(xiǎn)。您怎么看?

田天:對(duì)此,我是很贊同的。如果說我們對(duì)現(xiàn)有的AI系統(tǒng)風(fēng)險(xiǎn)沒有足夠的認(rèn)識(shí),就貿(mào)然將其用在一些相對(duì)敏感嚴(yán)肅的場(chǎng)景,很有可能會(huì)造成比較嚴(yán)重的后果。所以我建議相應(yīng)的AI系統(tǒng)必須足夠安全,或者對(duì)其安全能力有足夠認(rèn)識(shí),再去應(yīng)用到適合的場(chǎng)景里,以避免放大現(xiàn)有風(fēng)險(xiǎn)或產(chǎn)生新的風(fēng)險(xiǎn)。

《科創(chuàng)板日?qǐng)?bào)》:能否介紹一些具體的金融安全方面的案例?

田天:當(dāng)下大家會(huì)通過手機(jī)銀行或者一些線上的方式刷臉,以便去驗(yàn)證身份。但由于現(xiàn)在AIGC能力很強(qiáng),網(wǎng)上相關(guān)方可以合成一個(gè)人臉,使其做張嘴、眨眼、搖頭等動(dòng)作,然后通過高清屏或者直接注入的方式,欺騙身份核驗(yàn)系統(tǒng),這也帶來了很大的風(fēng)險(xiǎn)。我們的其中一款產(chǎn)品人臉AI安全防火墻RealGuard,能夠有效檢測(cè)這種AI合成的人臉,作為現(xiàn)有系統(tǒng)的補(bǔ)充。

目前銀行客戶群體涵蓋了諸多頭部銀行,如郵儲(chǔ)、交行等。由于涉及客戶隱私,我們無法透露具體的減小了多少安全概率的數(shù)據(jù)。但可以根據(jù)實(shí)際效果來說,產(chǎn)品確實(shí)幫助客戶防御了大量的攻擊。

《科創(chuàng)板日?qǐng)?bào)》:除了金融領(lǐng)域,公司在大模型應(yīng)用上有哪些典型案例及主要聚焦點(diǎn)?與其他專注政務(wù)、金融等領(lǐng)域的同行相比,貴公司在大模型應(yīng)用上的獨(dú)特之處在哪里?

田天:公司在政務(wù)領(lǐng)域有眾多成功案例,例如去年為北京市政府打造了政策大模型并在相關(guān)比賽中獲得第一名。此外,還在工程管理、工業(yè)生產(chǎn)、金融等領(lǐng)域開展深度探索,但大模型主要是作為現(xiàn)有工作流的改造升級(jí)和輔助改善工具,而非完全替代人類勞動(dòng)力。公司的獨(dú)特之處在于提供的能力更加安全可控,這對(duì)許多領(lǐng)域的從業(yè)者來說是不具備的,同時(shí)注重提升行業(yè)原有工作流程中基于AI的新能力和應(yīng)用場(chǎng)景。例如,在政策比較中,利用大模型可高效準(zhǔn)確地對(duì)比不同地區(qū)政策間的異同,這是傳統(tǒng)方式難以實(shí)現(xiàn)的。

此外,我們還專注于研發(fā)自動(dòng)駕駛領(lǐng)域的對(duì)抗攻防技術(shù),并已成功開發(fā)出相應(yīng)產(chǎn)品。并在多家車企和自動(dòng)駕駛公司的研發(fā)階段進(jìn)行了應(yīng)用,并取得了一定的成功率,能有效防止商用系統(tǒng)在實(shí)際運(yùn)行中遭遇重大故障。

值得一提的是,如果沒有安全可控為前提,大模型就完全無法落地,從而無法應(yīng)用,這是零和一的問題,有了安全可控,才有可能實(shí)現(xiàn)大模型的應(yīng)用。

收藏
120.57W
我要評(píng)論
歡迎您發(fā)表有價(jià)值的評(píng)論,發(fā)布廣告和不和諧的評(píng)論都將會(huì)被刪除,您的賬號(hào)將禁止評(píng)論。
發(fā)表評(píng)論
要聞
股市
關(guān)聯(lián)話題
0 人關(guān)注
0 人關(guān)注
0 人關(guān)注