公司新聞
最新資訊
行業(yè)新聞
當前位置:首頁(yè) > 公司資訊 > 最新資訊
當前位置:首頁(yè) > 公司資訊 > 最新資訊
公司新聞
最新資訊
行業(yè)新聞

做好人工智能發(fā)展的風(fēng)險防范

來(lái)源:學(xué)習時(shí)報    時(shí)間:2023-12-26 10:41:57    瀏覽:344

當前,ChatGPT類(lèi)大模型加速了數字世界和物理世界的深度融合,引領(lǐng)人工智能進(jìn)入新的發(fā)展階段。與此同時(shí),人工智能固有的不確定性、不透明性、難以解釋、事實(shí)性錯誤等能力局限,對經(jīng)濟發(fā)展、國際政治和全球治理等方面帶來(lái)深遠影響,引發(fā)了全球對大模型廣泛應用安全風(fēng)險的熱議。如何應對人工智能風(fēng)險并把握人工智能發(fā)展的戰略主動(dòng),有效保障國家安全,已成為我國國家安全治理的重要議題。

大模型技術(shù)引發(fā)新的安全風(fēng)險和治理挑戰。隨著(zhù)技術(shù)的更新迭代,人工智能的應用門(mén)檻持續降低,伴隨著(zhù)誤用濫用情況的增加,經(jīng)濟社會(huì )領(lǐng)域的多重安全風(fēng)險也在交織疊加。

一是放大隱私信息泄露風(fēng)險。當前,人工智能開(kāi)發(fā)者和服務(wù)提供者可能利用用戶(hù)數據進(jìn)行優(yōu)化訓練,但相關(guān)服務(wù)條款卻并未對數據使用做出解釋說(shuō)明,可能涉及在用戶(hù)不知情情況下收集個(gè)人信息、商業(yè)秘密等,安全風(fēng)險較為突出。為保護個(gè)人信息安全,部分歐洲國家對大模型進(jìn)行了嚴格監管和審查,甚至考慮禁止ChatGPT等人工智能應用。

二是輿論引導與文化滲透風(fēng)險。在輿論和文化領(lǐng)域,人工智能技術(shù)可被用于算法引導、平臺滲透、網(wǎng)絡(luò )監控、內容生成等信息處理環(huán)節,由大模型驅動(dòng)的文本創(chuàng )作工具可能產(chǎn)生頗具影響力或說(shuō)服力的信息,使得虛假信息不易被識破,負面輿情傳播速度加快,進(jìn)而導致侵犯他人合法權益、擾亂經(jīng)濟秩序和社會(huì )秩序,甚至危害國家安全和社會(huì )公共利益。

三是情報軍事領(lǐng)域應用的新威脅。人工智能的自動(dòng)生成代碼功能使黑客技術(shù)的習得過(guò)程更為容易,使網(wǎng)絡(luò )攻防的更新頻率大幅提升。利用ChatGPT類(lèi)大模型可以幫助機器學(xué)習識別更加復雜的文本及實(shí)體,或將擴大無(wú)人軍用智能無(wú)人裝備的應用,增大軍事對峙摩擦,對國家安全帶來(lái)嚴峻挑戰。

加快推進(jìn)人工智能安全治理。面對人工智能技術(shù)快速發(fā)展、風(fēng)險持續蔓延的形勢,增強人工智能的安全性成為國際組織、各國政府及產(chǎn)業(yè)界等共同關(guān)注的議題。

我國高度重視人工智能安全問(wèn)題,不斷加強人工智能發(fā)展的潛在風(fēng)險研判和防范,建立健全人工智能安全治理體系,對人工智能技術(shù)本身所致的內生安全、人工智能應用中的衍生安全以及影響和決定人工智能前景的發(fā)展安全問(wèn)題進(jìn)行系統性治理,確保人工智能安全、可靠、可控。

2017年,國務(wù)院發(fā)布《新一代人工智能發(fā)展規劃》,對人工智能治理工作進(jìn)行了專(zhuān)門(mén)部署,并要求建立人工智能安全監管和評估體系。我國不斷完善數據安全、網(wǎng)絡(luò )安全、人工智能等相關(guān)法律制度建設,為新技術(shù)的快速應用奠定法律基礎。研究制定算法推薦、深度合成、生成式人工智能等領(lǐng)域的管理規定,對人工智能發(fā)展進(jìn)行引導和規范,保障相關(guān)技術(shù)產(chǎn)品的有序發(fā)展。先后發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》《新一代人工智能倫理規范》,為人工智能技術(shù)的開(kāi)發(fā)和應用設定道德約束,促使人工智能更好地服務(wù)于人類(lèi)。此外,我國也積極參與全球人工智能治理,堅持倫理先行、和平利用、安全可控等治理原則,呼吁加強對人工智能軍事應用的監管,以負責任的態(tài)度促進(jìn)人工智能安全治理。

推動(dòng)形成人工智能安全治理的強大合力。盡管已開(kāi)展一系列治理行動(dòng),但人工智能安全治理還面臨諸多全球共性難題。人工智能技術(shù)目前并不具備較強的可解釋性、準確性和真實(shí)性,難以完全實(shí)現人工智能治理所倡導的透明度、可靠性和安全性。如何在創(chuàng )新發(fā)展和有效監管之間取得平衡也是各國普遍面臨的問(wèn)題。既要避免過(guò)度監管阻礙技術(shù)發(fā)展,也要防止管理力度不夠而引發(fā)嚴重問(wèn)題。

人工智能影響下的國際科技、經(jīng)濟及政治領(lǐng)域發(fā)生沖突的可能性日益增大。我國正處在人工智能技術(shù)快速發(fā)展的階段,必須堅持貫徹總體國家安全觀(guān),構建多元參與、協(xié)同共治的人工智能治理機制,調動(dòng)各主體參與治理的積極性,促進(jìn)人工智能與經(jīng)濟社會(huì )健康有序融合,以高水平科技安全保障國家總體安全。一是建立健全人工智能安全治理機制。堅持審慎監管、開(kāi)放包容原則,強化風(fēng)險研判和監測預警,完善科技倫理審查和監管制度。二是增強法治保障能力。加快推進(jìn)人工智能立法,開(kāi)展生成式人工智能、信息安全利用等法律問(wèn)題研究,建立追溯和問(wèn)責機制,清晰界定人工智能相關(guān)主體權利、義務(wù)及責任邊界,從而保障各類(lèi)群體的合法權益。三是增強人工智能技術(shù)治理能力。強化人工智能數據安全、隱私保護等技術(shù)研發(fā),強化對人工智能算法和模型的審計監管和對人工智能系統安全性測試評估,增強抗系統性風(fēng)險能力。四是增強國際安全合作能力。倡導以人為本、智能向善理念,在《中國關(guān)于規范人工智能軍事應用的立場(chǎng)文件》等基礎上,發(fā)揮聯(lián)合國、G20、上合組織等多邊機制的作用,拓展人工智能安全共識,避免人工智能濫用帶來(lái)的安全風(fēng)險。

【作者:趙志耘(中國科學(xué)技術(shù)信息研究所黨委書(shū)記、所長(cháng),科技部新一代人工智能發(fā)展研究中心主任),來(lái)源:學(xué)習時(shí)報】


欧美色成人综合天天影院-色五月婷综合久久精品国产-欧美无遮挡一区二区三区-亚洲国产欧美激情-国产亚洲制服免视频在线播放