久久99久久99精品免视看看_99久久一区二区精品_久久久人妻人人_久久精品视频夜晚

學院概況 學院動態(tài) 通知公告 黨建工作 學生工作 教學科研 招生就業(yè) 學子風采 信息安全專欄
欄目分類 News
當前新聞
當前位置: 網站首頁>>信息安全專欄
專題:人工智能安全
時間:2023-06-28 10:02  作者:信息工程(大數據  

 近年來,人工智能技術發(fā)展取得了長足的進步,在多個領域廣泛應用,特別是以 ChatGPT 為代表的生成式人工智能技術開啟了人工智能應用的新紀元。隨著人工智能技術及應用的迅猛發(fā)展,也帶來了諸多由于人工智能引發(fā)的新安全問題,人工智能相比傳統網絡安全將面臨更多新的安全形勢和挑戰(zhàn),需要依托頂層設計、標準規(guī)范、安全策略、技術手段、管理措施等方面進行有效的應對與防范,上述問題和情況都值得我們深入的思考和研究。

 

一、人工智能概述

(一)人工智能的歷史與發(fā)展

人工智能(Artificial Intelligence,AI)是一門技術科學,它研究和開發(fā)理論、方法、技術和應用系統,以模擬、擴展人類智能。人工智能研究目的是通過探索智慧的本質,擴展人類智能,使智能主體具備聽、看、說、思考、學習和行動的能力。1951 年,馬文·明斯基與他的同學迪恩·愛德蒙一起,建造了世界上第一臺“隨機神經網絡模擬加固計算器”。1956 年,約翰·麥卡錫首次提出了人工智能這個概念,當時的定義為“制造智能機器的科學與工程”。
人工智能自誕生之日起經歷了多個發(fā)展階段。第一階段是人工智能起步階段,提出人工智能概念,發(fā)展出了神經網絡、機器定理證明、人機對話等。第二階段是人工智能工程應用階段,通過專家系統模擬人類專家的知識和經驗解決特定領域問題,實現人工智能從理論研究走向實際應用的重大突破。第三階段是人工智能深度發(fā)展階段,互聯網技術的迅速發(fā)展加速了人工智能的創(chuàng)新研究,推動人工智能技術進一步走向實用化。第四階段是人工智能數據挖掘階段,新型數據和圖形處理器推動人工智能技術飛速發(fā)展,在圖像分類、語音識別、知識問答、人機對弈和無人駕駛等方面實現重大技術突破。第五階段是人工智能蓬勃發(fā)展階段,生成式人工智能作為一種新型的人工智能技術,在自然語言處理、圖像生成、音頻合成等領域取得了顯著的成果。
(二)人工智能技術與應用
1. 人工智能技術
人工智能的核心技術主要包括深度學習、計算機視覺、自然語言處理和數據挖掘等。
深度學習是一種實現人工智能的重要方法,它源自早期的人工智能研究。深度機器學習能夠從數據中學習并自動歸納總結出模型,最終使用模型進行推斷或預測。
計算機視覺指的是計算機可以從圖像中識別物體、場景和活動的能力。例如,一些技術能夠檢測圖像中物體的邊緣和紋理,分類技術可以用來確定識別到的特征是否代表系統已知的某一類物體。
自然語言處理是涉及計算機科學、人工智能和語言學的一個領域,它研究計算機與自然語言之間的互動。自然語言處理面臨許多挑戰(zhàn),包括自然語言理解,因此它涉及到人機交互的方方面面。
數據挖掘是通過算法從大量數據中搜索隱藏信息的過程。數據挖掘通常與計算機科學相關,并通過統計、在線分析處理、情報檢索、機器學習、專家系統和模式識別等多種方法來實現目標。
近些年,人工智能技術正在朝著更多的分支領域發(fā)展,包括無人駕駛技術、人臉識別技術、神經機器翻譯技術、聲紋識別技術、智能客服機器人、智能外呼機器人、智能音箱以及個性化推薦等。
2. 人工智能領域應用
AIGC、AGI 是人工智能領域中兩個重要的概念,而 LLM 大型語言模型是推動生成式人工智能聊天機器人迅猛發(fā)展的核心技術。
AGI 是指一種具有與人類相當或更高的認知能力的智能系統,能夠理解、學習、計劃和解決問題。通用人工智能(AGI)的概念可以追溯到人工智能誕生之初,1950 年圖靈提出了著名的圖靈測試。AGI 的技術需要更多的支持,例如自然語言處理、計算機視覺和機器學習等。AGI 的應用領域也比較廣泛,可以應用于醫(yī)療保健、金融服務、交通運輸等領域中。
AIGC(AI Generated Content)是一種利用人工智能技術自動生成內容的新型生產方式,其優(yōu)點在于高效性和自動化生產。隨著人工智能的發(fā)展,越來越多的內容不再需要人工編輯,而是由機器自動生成。在 2021 年之前,AIGC 主要用于生成文字,自 2022 年以來,AIGC 的發(fā)展速度驚人,新一代模型能夠處理多種格式的內容,達到專業(yè)級別。AIGC 技術主要應用于新聞報道、廣告創(chuàng)意、視頻制作等行業(yè)。
LLM(Large Language Model)是一種基于深度學習的自然語言處理模型,能夠學習自然語言的語法和語義,生成人類可讀文本。2017 年,Deep Mind 提出了 RLHF 概念,同年 6 月,Google 發(fā)布了 Transformer,成為所有 LLM 的基礎架構。2020年,OpenAI 發(fā)布 GPT-3,LLM 流行度穩(wěn)定增長。ChatGPT、Bing Chat 和 Google Bard 這樣的聊天機器人迅速崛起,證明了該領域正匯集大量資源。
3. 人工智能行業(yè)應用
人工智能在金融科技領域的應用。機器學習、知識圖譜、生物識別和服務機器人等人工智能技術被廣泛應用于金融預測、反欺詐、授信決策和智能投顧等領域,人工智能是未來金融科技創(chuàng)新與發(fā)展的重大推動力。
人工智能在能源領域的應用。人工智能的機器學習與能源相結合將有助于加快可再生能源的采用,成為應對氣候變化的有效工具,符合可持續(xù)發(fā)展目標。
人工智能在衛(wèi)星通信領域的應用。美國衛(wèi)星通信創(chuàng)新集團認為衛(wèi)星是整個通信網絡依賴的基礎,人工智能可以管理虛擬通信網絡,幫助衛(wèi)星提供可靠的通信服務,實現通信任務自動化。
人工智能在農業(yè)領域的應用。人工智能在農業(yè)生產中的運用愈發(fā)廣泛,可以進行農作物的監(jiān)控,了解農作物的生長情況,及時補充所需要的養(yǎng)分或者農藥,并且可以保證用量更精確。
人工智能在城市公共安全領域的應用。人工智能在提高城市公共安全保障能力方面優(yōu)勢明顯,隨著人工智能發(fā)展依賴的數據規(guī)模的不斷擴大、算力的不斷提高以及算法的優(yōu)化與突破,應用人工智能技術的成本將大幅降低。
(三)生成式人工智能
生成式人工智能是指利用機器學習技術讓計算機自動生成不同模態(tài)高質量數據的方法。生成式人工智能所涉及的技術非常綜合且廣泛,但就其文本生成核心功能而言,主要依賴于生成式預訓練和提示學習兩個主要功能。
從算力角度看,生成式計算是繼云計算之后的又一種新的算力形式,將會像電、網絡和云計算一樣,成為人們生活中不可或缺的基礎能力。從應用生態(tài)角度看,以 ChatGPT 為代表的生成式人工智能產品將成為互聯網新的入口。從人機交互角度看,以 ChatGPT 為代表的產品將成為人類大腦的延伸,提供更加智能、高效、自然的與人交互的方式。
(四)人工智能行業(yè)與市場發(fā)展
近年來,人工智能產業(yè)進入高速發(fā)展階段,智能場景融合能力不斷提升,人工智能的應用場景從硬件擴展到了軟件、服務和平臺體系,在金融、工業(yè)、農業(yè)、醫(yī)療領域的行業(yè)應用不斷深入。商業(yè)化應用已經成為人工智能科技企業(yè)布局的重點,歐洲、美國等發(fā)達國家和地區(qū)的人工智能產業(yè)商業(yè)化已經落地。
我國政府高度重視人工智能的發(fā)展,通過發(fā)布政策、實施重大項目等方式積極推動人工智能技術和產業(yè)創(chuàng)新發(fā)展,將人工智能融入國家整體創(chuàng)新體系,不斷增強產業(yè)競爭力。“十四五”數字經濟發(fā)展規(guī)劃等多項政策圍繞“加快高性能、智能計算中心部署”“打造智能算力、通用算法和開發(fā)平臺一體化的新型智能基礎設施”等作出具體部署。
隨著我國新基建、新經濟的不斷推進,人工智能技術在各領域的應用不斷深化,人工智能行業(yè)市場規(guī)模持續(xù)增長。人工智能產業(yè)鏈主要包括算法、芯片、算力、數據及場景等幾大環(huán)節(jié),各個環(huán)節(jié)都存在細分領域的龍頭企業(yè)。未來,在 5G+ 物聯網的加持下,各行各業(yè)都將進入一個智能化階段。

 

二、人工智能安全形勢及風險分析

(一)人工智能安全形勢分析

在 5G、大數據、云計算、深度學習等新技術的共同驅動下,人工智能作為新型基礎設施的重要戰(zhàn)略性技術加速發(fā)展,并與社會各行各業(yè)創(chuàng)新融合。人工智能的發(fā)展表現出以下特征:一是人工智能執(zhí)行的關鍵業(yè)務對安全防護的實時性提出了更高要求;二是人工智能的個性化服務需求對敏感信息保護提出了更高要求;三是人工智能跨組織融合對數據安全共享提出了更高要求;四是基于機器學習的安全算法與軟件漏洞問題日益突出。
人工智能技術的本質使其與安全體系內的多個環(huán)節(jié)形成密切相關,并產生多層次的影響,使得人工智能技術具有明顯的國家安全屬性,對國家主權、意識形態(tài)、社會關系等方面帶來沖擊。當前,主要發(fā)達國家都將發(fā)展人工智能技術和應用視為提升國家競爭力和維護國家安全的重大戰(zhàn)略,并努力在新一輪科技競爭中占據主導地位。美國國防部《人工智能戰(zhàn)略》提出,美國及其盟友和伙伴國家,必須采用人工智能來維持其戰(zhàn)略地位,確立未來戰(zhàn)場的優(yōu)勢,保衛(wèi)自由與開放的國際秩序,美國中央情報局更是宣布將 ChatGPT 和類似的生成式人工智能技術用于情報工作。
(二)人工智能安全風險分析
1. 人工智能技術安全風險
目前,人工智能技術主要采用深度學習方法,以數據智能為主,智能程度與數據量成正相關。然而,這種人工智能缺乏基礎知識儲備,所有的知識都來自于輸入的數據,包括訓練數據和與環(huán)境交互數據等。從原理上看,深度學習算法只能反映數據的統計特征或學習數據之間的關聯關系,無法解讀數據的本質特征或因果關系。這種技術的風險主要表現在三個方面。
數據風險:攻擊者可利用人工智能特點,在模型訓練階段混入惡意樣本數據,引導模型訓練過程。常見攻擊方式有數據投毒、對抗樣本和成員推理攻擊。生成式人工智能如 ChatGPT 和 BingAL 易竊取機密數據,用于迭代訓練。
算法風險:算法是人工智能的核心,目前算法風險主要表現在四個方面。首先,算法設計可能存在漏洞,導致訓練數據不均、投毒或泄露等安全問題。其次,算法后門攻擊使攻擊者能夠操控模型預測結果。第三,算法的“黑箱”問題和不可解釋性導致人工智能算法在業(yè)界轉化過程存在安全隱患。最后,算法偏見與歧視可能導致人工智能在決策時偏向某些群體或個體,引起社會不公平。
模型風險:人工智能模型存在多種攻擊風險,包括模型逆向攻擊、逃逸攻擊和模型竊取攻擊等。對于大型模型如 ChatGPT,竊取其完整功能可能并不現實,但可以針對某一領域進行功能竊取。
2. 人工智能應用安全風險
隨著 ChatGPT 等人工智能生成內容的新突破,內容生產方式發(fā)生了徹底的變革。這種變革使西方意識形態(tài)和價值觀的隱性傳播對中國產生了影響,增加了治理難度并帶來了多個安全風險。
政治風險:人工智能技術使政治權力去中心化,非國家行為體權力擴大,政治安全風險上升。技術如換臉和換聲等的利用使制造具有欺騙性的假新聞成為可能,從而對政治事件的進展產生影響。人工智能對公眾行為的潛移默化影響干擾國內政治行為,挑戰(zhàn)選舉制度。
經濟風險:人工智能技術導致資本和技術在經濟中的地位提升,勞動力價值削弱,引發(fā)機構性失業(yè)、貧富分化和不平等。此外,人工智能技術帶來的全球經濟結構調整將引導全球資本和人才進一步流向技術領導國使發(fā)展中國家實現現代化的機遇受限。同時,隨著經濟生活數字化水平的快速提升,雖然為用戶帶來了便利,但也埋下了重大的安全隱患。
社會風險:人工智能技術濫用帶來社會風險,如濫用人臉識別、智能殺熟、推薦算法問題、隱私與數據泄露、個人數據過度采集等,擾亂市場和社會秩序。濫用人工智能技術深度挖掘、分析、處理個人數據和社會信息,加大了社會治理和國家安全挑戰(zhàn)。
軍事風險:人工智能技術在軍事領域應用將引發(fā)安全風險,改變戰(zhàn)爭機制,增加不確定性。如人工智能武器背后的邏輯和意圖難以理解,導致戰(zhàn)略判斷和不確定性風險。此外,人工智能武器本身存在安全風險,如智能情報系統的誤判、輔助決策系統的安全風險和自主武器系統的進化風險。
隱私與數據泄露風險:隨著數據信息的電子化和網絡化,數據的獲取和傳播變得更加便捷,但同時也帶來了數據泄露和擴散的風險。由于人工智能對數據的依賴,信息的安全風險更加突出。人工智能系統需要大量數據進行訓練,這意味著企業(yè)需要通過自動化方式獲取大量個人數據來支持人工智能算法的訓練。然而,這種數據獲取和使用往往侵犯了個人的隱私權。
倫理道德安全風險:人工智能技術帶來的倫理結果不確定,受主觀和客觀因素影響。包括道德算法風險、道德決策風險和隱私數據泄露風險等。人工智能倫理道德風險的成因多樣,包括算法目標失范、算法和系統缺陷、信任危機、監(jiān)管和工具不足、責任機制不完善,以及受影響主體防御措施薄弱等因素。
總之,人工智能的競爭引發(fā)了國際安全不穩(wěn)定性。各國為爭奪主導權,強化在技術標準、國際規(guī)則、芯片、數據等方面的“科技脫鉤”。尤其是中美人工智能競爭最為激烈。美國出臺一系列文件試圖排斥和防備中國,可能擾亂中國的人工智能發(fā)展步伐,帶來直接技術風險和經濟損失。更嚴重的是,這可能引發(fā)全球人工智能技術、產業(yè)與標準生態(tài)體系的分裂甚至是對抗。
(三)各國應對人工智能安全問題的舉措
隨著人工智能的全球化發(fā)展,人工智能安全問題也超越了國家邊界,成為人類必須共同面對的挑戰(zhàn)。不同國家的政府,因其發(fā)展現狀、遠景規(guī)劃的不同,在人工智能安全方面的側重點也有所不同。這就決定了各國在相關領域的投入、處理問題的優(yōu)先級都存在差異。
聯合國教科文組織于 2021 年 11 月通過了《人工智能倫理問題建議書》,該建議書旨在促進人工智能為人類、社會、環(huán)境以及生態(tài)系統服務,并預防其潛在風險。該建議書的內容包括規(guī)范人工智能發(fā)展應遵循的原則,以及在這些原則指導下人工智能應用的領域。
美國白宮宣布了旨在遏制人工智能風險的首個新舉措,報告顯示美國國家科學基金會計劃撥款 1.4 億美元建立專門用于人工智能的新研究中心。政府還承諾發(fā)布政府機構的指導方針草案,以確保對人工智能的使用的安全,保障“美國人民的權利和安全”。谷歌、微軟、OpenAI 等人工智能公司已同意在 8 月的網絡安全會議上對其產品進行審查。
在歐盟委員會發(fā)布的《歐盟人工智能》戰(zhàn)略規(guī)劃中,明確指出要確保歐盟具有與人工智能發(fā)展和應用相適應的倫理和法律框架,最大化歐盟整體在人工智能領域的國際競爭力。歐洲議員同樣呼吁制定更多的規(guī)則來對人工智能技術加以監(jiān)管,并列出了幾項期待的舉措,包括在擬議的《人工智能法案》草案中提供一個框架,此外還提及應召開關注人工智能風險的全球峰會等。
加拿大在 2022 年 6 月頒布了《人工智能和數據法案》,該法案旨在規(guī)范人工智能系統中的國際和省際貿易和商業(yè)。
日本、韓國、新加坡等亞洲國家,更多是將人工智能安全的戰(zhàn)略重點放在促進產業(yè)健康發(fā)展以及公共安全、國家安全的應用上,并對人工智能的一些安全問題、倫理問題做出原則性規(guī)定。
我國在 2017 年發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,2019 年政府工作報告將人工智能進一步升級為“智能+”的戰(zhàn)略方向,2023 年國家互聯網信息辦公室就《生成式人工智能服務管理辦法》公開征求意見。

 

三、人工智能安全保障的重大意義

(一)國家安全需求

人工智能技術的快速發(fā)展和廣泛應用為社會帶來了巨大的變革,同時也帶來了一系列的安全挑戰(zhàn)。這些挑戰(zhàn)不僅涉及到個人隱私和數據安全,也關乎國家安全和社會穩(wěn)定。人工智能為中國保障國家安全、推進國家治理體系和治理能力現代化帶來了新問題。因此,如何把握人工智能的發(fā)展主動權與處理好相應的風險,并實現良性、合理的國際合作與競爭,已經成為我國國家安全治理亟需解決的議題。
(二)政治安全需求
人工智能因具有精準識別和篩選需求信息、整合議題并優(yōu)化治理情景、智能模擬和輔助治理主體決策、實時跟蹤評估和反饋治理效能等方面的優(yōu)勢,深度嵌入公共治理領域。但也可能帶來國家網絡主權、意識形態(tài)、政治制度等維度的政治安全風險。以人工智能的技術效能提升國家政治安全效能并強化政治體系對政治安全風險的動態(tài)適應能力,強化對人工智能算法推薦的人工把關效能并提升“人機”雙重把關體系的風險防控水平,加強人工智能向善的制度設計并優(yōu)化國家政治安全制度保障體系,是智能社會語境中政治安全風險的善治之道。
(三)有序發(fā)展需要
人工智能技術日新月異,各種創(chuàng)新思想層出不窮。在這個不斷進步的領域,持續(xù)學習和適應變化的能力非常重要。為了實現人工智能的高水平應用和高質量發(fā)展,我們要在以下幾個方面加強工作:一是培育科技創(chuàng)新主體的科技向善理念,維護好公民的個人數據隱私與信息安全;二是明確支撐中國科技創(chuàng)新的支點,強化基礎研究和創(chuàng)新生態(tài)建設;三是推動數字技術與實體經濟深度融合,助力傳統產業(yè)轉型升級;四是優(yōu)化和加強產學研協同創(chuàng)新模式,支持國內科研院校與人工智能領先科技公司的深度合作;五是有力地促進產業(yè)規(guī)范和有序發(fā)展,加快制定相關的行業(yè)標準和規(guī)范。同時,還要加快人工智能領域的國際合作與交流。

 

四、人工智能安全技術與實現途徑

鑒于人工智能面臨的安全形勢和安全風險,為了確保人工智能系統的安全性和可靠性,需要采取科學、可行的安全策略和技術,從多個途徑進行保護和控制。
人工智能安全技術主要包括,智能篩查攔截技術,充分利用知識蒸餾、對抗樣本智能篩查攔截等技術手段強化其抵御對抗樣本的能力。數據隱私保護技術,在建立和操控人工智能系統的過程中,注意保護數據隱私,采取加密、權限控制等安全措施,避免數據泄露和濫用。安全漏洞檢測技術,采取主動的安全漏洞發(fā)現與分析技術,識別并及時修復漏洞、緩解系統安全風險。監(jiān)控與校準技術,對人工智能系統進行實時的持續(xù)監(jiān)控,發(fā)現任何異常行為,及時糾正,避免出現重大事故。安全評估與審核技術,對人工智能系統進行安全性評估與審核,包括 AI 芯片測試、算法審核、數據安全評估等,確保其符合相關標準和規(guī)范。
實現人工智能系統安全保護的途徑主要包括以下方面:首先,需要科學規(guī)劃人工智能的發(fā)展方向,確保人工智能發(fā)展符合人類預期并為人類服務。其次,需要明確人工智能安全責任,建立完善的安全責任框架,不斷探索人工智能安全責任認定和分擔機制。第三,需要加強人工智能依法合規(guī)管理,從國家層面進行立法和政策方面的完善。第四,需要強化隱私保護和統一監(jiān)管,建立可審查、可回溯、可推演的監(jiān)管機制,確保技術一致性。第五,需要嚴格評估人工智能算法的安全性,明確算法設計動機和可解釋性,克服不公正影響。第六,需要合理運用人工智能技術,避免人工智能技術濫用所導致的恐怖主義和國家政治穩(wěn)定被破壞。

 

五、人工智能安全保障措施及建議

(一)開展人工智能安全防護技術研究

人工智能安全防護的核心功能包括治理、映射、測量和管理,旨在幫助組織解決人工智能系統存在的風險。美國國家標準技術研究院(NIST)于 2023 年 1 月 26 日正式發(fā)布了《人工智能風險管理框架》1.0版本,該框架旨在為設計、開發(fā)、部署和使用人工智能系統的個人和組織提供指導,以實現人工智能風險管理。
想要構建較為完善的人工智能安全防護體系需要多方的共同努力,首先,企業(yè)應該根據自身的業(yè)務特點和安全需求,構建適合自身的人工智能安全防護體系。其次,企業(yè)也應該與政府、行業(yè)、學術等各方密切合作,共同推動人工智能安全技術的創(chuàng)新和發(fā)展。同時,政府應當加強人工智能安全技術與應用的研究和監(jiān)管。
(二)完善人工智能安全領域的政策法規(guī)
我國在立法規(guī)范方面已經取得了顯著的成績,為人工智能安全治理奠定了堅實的基礎。例如,《個人信息保護法》明確了個人信息處理的原則、條件、范圍、方式等,保障了個人信息主體的知情權、選擇權、控制權。然而,隨著人工智能在各行各業(yè)的廣泛應用,其技術漏洞也被濫用甚至用于欺詐犯罪。因此,我們需要不斷完善和更新立法規(guī)范體系,以應對時代變化和社會需求。首先,需要建立健全的人工智能算法和數據行業(yè)制度體系,制定處罰濫用和欺詐的細則。其次,逐步推進《人工智能法》的立法進程。最后,加強與國際社會的溝通和協調,推動形成共同的人工智能安全治理規(guī)則和標準。
(三)增強人工智能應用中的道德法規(guī)約束
人工智能的自主性引發(fā)了一系列倫理道德問題,包括人工智能是否具有獨立人格、人與人工智能的關系、是否允許人工智能改造人類、是否允許人工智能自我復制,以及人工智能社會倫理問題涉及到人類的尊嚴、平等、公平和隱私等多個方面。
需要進行人工智能倫理約束,制定人工智能倫理原則和框架,并引導全社會正確認識和應用人工智能。在合規(guī)管理方面,企業(yè)應與政府、行業(yè)、學術界等各方密切合作,共同推動人工智能倫理標準規(guī)范的制定和實施;在技術研發(fā)方面,強化科研人員的倫理觀念、道德約束和法律意識;在應用方面,應加強對人工智能行為的科學和倫理學等問題的研究,提高人工智能應用的道德水平和社會責任感。
(四)加強人工智能安全國際交流與合作
盡管人工智能技術競爭、監(jiān)管競爭已成為全球科技競爭領域中的一個既定事實,但是全球各方在疫情應對、氣候變化等方面的成功合作已經讓各界意識到了只有通過廣泛的國際合作,才能夠徹底解決人工智能技術的發(fā)展和應用帶來的安全問題。目前,全球各層面已經就相關問題展開了合作。在亞太地區(qū),我國與東盟國家一直在人工智能領域保持密切合作與聯系。此外,我國還與法國積極拓展在人工智能領域的合作,共同應對全球性挑戰(zhàn)。因此,只有通過構建一個平衡包容的國際人工智能治理體系,才會有助于讓人工智能技術進一步釋放其潛能,更好地造福于人類,確保其自身運用的安全性和可靠性。

 

六、結 論

通過對人工智能安全形勢和安全風險的深入分析,對人工智能安全保障重大意義的闡述,對人工智能安全技術、保障措施、實現路徑的總結得到以下結論:

一是人工智能安全保障要與信息技術、人工智能技術同步發(fā)展、緊密結合、統籌考慮、穩(wěn)步推進;二是完善人工智能安全頂層設計,基于我國人工智能技術與應用發(fā)展現狀做好系統規(guī)劃和全方位考慮;三是建立健全人工智能安全的協調與決策機制,政府職能部門統籌,匯聚產、學、研、用多領域資源,構建人工智能安全發(fā)展新生態(tài);四是加強人工智能應用的規(guī)范性管理,加速人工智能安全方面法律法規(guī)、標準規(guī)范建設,綜合國際背景、國家戰(zhàn)略需求、技術發(fā)展趨勢以及實踐應用,實現人工智能產業(yè)安全健康的發(fā)展;五是推進人工智能安全產業(yè)發(fā)展,大力發(fā)展人工智能在數據采集、算法設計、技術開發(fā)以及場景應用中配套的安全產品與安全服務;六是加強人工智能安全人才培養(yǎng),人工智能安全涉及多專業(yè)背景的跨學科研究領域,需要加強人工智能安全與其他學科的交叉融合,對人工智能研發(fā)人員加強安全培訓,進一步強化安全意識。
總之,人工智能安全已經上升到國家安全層面,但我國人工智能安全在戰(zhàn)略布局、頂層設計、法規(guī)標準、技術應用等方面與歐美發(fā)達國家相比還存在一定差距,同時人工智能安全較傳統網絡安全還存在一定的差異性?;谏鲜銮闆r,我國在人工智能安全保障方面要緊扣國家安全戰(zhàn)略和社會需求,盡快完善人工智能安全的頂層設計,著力提升人工智能安全技術研發(fā)能力,加速推進人工智能安全標準建設,加強人工智能安全技術的國際交流與合作,加大人工智能的監(jiān)管力度,規(guī)范人工智能行業(yè)應用,為我國人工智能健康有序的發(fā)展打下堅實基礎。

(本文刊登于《中國信息安全》雜志2023年第5期

責任編輯:信息工程學院 

湖北路地址:徐州市湖北路68號 | 高職校區(qū)地址:徐州國家高新技術產業(yè)開發(fā)區(qū) | 中職校區(qū)地址:徐州市云龍區(qū)兩山口欣欣路東首1號
郵政編碼:221000 電話:0516-85722117 All Rights Reserved Copyright 2007-2014 徐州開放大學 蘇ICP備05016277號-4