国产精品午夜免费观看网站_国产精品禁18久久久夂久_晚上开车又疼又叫的视频_尤物麻豆av在线_善良迷人的女教师2中文

人工智能應(yīng)用方興未艾 同時也帶來安全風險隱患

觀眾在首屆中國國際智能產(chǎn)業(yè)博覽會上體驗醫(yī)療人工智能產(chǎn)品。新華社發(fā)

人工智能技術(shù)和應(yīng)用飛速發(fā)展,在推動經(jīng)濟社會創(chuàng)新發(fā)展的同時,也帶來安全、倫理、法律法規(guī)等方面的風險挑戰(zhàn)。

隨著數(shù)據(jù)越來越多被收集,應(yīng)用場景增加,用戶個人信息泄露的風險也隨之提升。

人工智能的研究和應(yīng)用要有倫理和法律界限,即應(yīng)以人類的根本利益和責任為原則。

剛剛結(jié)束的全國兩會上,“拓展‘智能+’”首次被寫入今年的《政府工作報告》,作為未來的重要基礎(chǔ)性技術(shù),人工智能已連續(xù)三年出現(xiàn)在《政府工作報告》中??梢灶A(yù)見,隨著人工智能、大數(shù)據(jù)的深入應(yīng)用,生產(chǎn)生活的數(shù)字化轉(zhuǎn)型是大勢所趨。

人們在擁抱人工智能、邁向數(shù)字社會的同時,也需要正視人工智能等新技術(shù)應(yīng)用在安全、倫理、法律法規(guī)、社會治理等方面的挑戰(zhàn)。只有未雨綢繆,研判和防范潛在風險,才能安享“智能+”的時代紅利。

人工智能應(yīng)用方興未艾,同時也帶來安全風險隱患

前不久,一項人工智能深度換臉技術(shù)引發(fā)爭議。原來,這項技術(shù)能做到幾乎毫無痕跡地給視頻中的人物“換臉”,引發(fā)人們對隱私和肖像權(quán)被侵犯的擔憂。更深的擔憂在于,如果這一技術(shù)被濫用,是否意味著大量視頻會被“移花接木”?

今年全國兩會上,人工智能、大數(shù)據(jù)等技術(shù)應(yīng)用帶來的安全風險,成為代表委員關(guān)注的焦點之一。全國政協(xié)委員、360集團董事長兼首席執(zhí)行官周鴻祎就表示,安全應(yīng)該成為人工智能發(fā)展的基礎(chǔ)與前提。全國人大代表、蘇寧控股集團董事長張近東也提出,數(shù)據(jù)安全是數(shù)字中國建設(shè)的重中之重,發(fā)展高質(zhì)量的數(shù)字經(jīng)濟,需要加強對數(shù)據(jù)的安全保護和合規(guī)共享。

從信息安全角度看,當前人工智能應(yīng)用的安全風險點主要有哪些?

中國信息通信研究院移動安全聯(lián)盟秘書長楊正軍說,人工智能高度依賴海量數(shù)據(jù)的采集和訓(xùn)練分析。隨著數(shù)據(jù)越來越多被收集,應(yīng)用場景增加,用戶個人信息泄露的風險也隨之提升。

“人工智能算法不僅能直接采集用戶個人信息,也會深度挖掘分析看似不相關(guān)的數(shù)據(jù)。”楊正軍介紹,他們開展的一項調(diào)研顯示,當前濫用個人信息現(xiàn)象較為普遍。同時,人工智能及大數(shù)據(jù)場景下無所不在的數(shù)據(jù)收集、專業(yè)化多樣化的數(shù)據(jù)處理技術(shù),使得信息主體難以了解、控制其信息是如何被收集和利用的。信息安全保護已經(jīng)成為人工智能發(fā)展的重要課題。

專家表示,技術(shù)本身是中性的,只要利用得當,人工智能也能用來提升網(wǎng)絡(luò)安全水平。比如,人工智能在識別惡意代碼方面就很有優(yōu)勢。

北京神州綠盟科技有限公司安全研究員吳子建說,惡意代碼往往是基于一些開源代碼修改而成,它們通常有相似的行為模式。借助人工智能技術(shù)訓(xùn)練的檢測工具,能夠比較高效地發(fā)現(xiàn)惡意代碼。

人工智能技術(shù)也普遍用于企業(yè)內(nèi)網(wǎng)安全防護。吳子建介紹,傳統(tǒng)的防護手段是在網(wǎng)絡(luò)的入口處設(shè)置防御措施,但內(nèi)網(wǎng)之間很少進行防御。采用人工智能等技術(shù)手段關(guān)聯(lián)數(shù)據(jù),可以有效檢測內(nèi)網(wǎng)中的異常。與傳統(tǒng)的方法相比,這種方法不僅能發(fā)現(xiàn)已知威脅,還可以檢測到未知風險。

吳子建認為,業(yè)內(nèi)還需要做更多深入的研究,不斷提升人工智能在安全防護上的價值。

應(yīng)提前研判智能時代的法律倫理風險,引導(dǎo)人機良性合作

人工智能的應(yīng)用越來越多,衍生出一系列倫理、法律難題。比如,無人駕駛汽車發(fā)生交通事故時如何界定責任,醫(yī)療外科手術(shù)機器人出現(xiàn)意外怎樣處置……

“人工智能的研究和應(yīng)用要有倫理和法律界限,即應(yīng)以人類的根本利益和責任為原則,以實現(xiàn)人類根本利益為終極目標。這一要求也是人工智能和人的關(guān)系決定的。”中國人民大學法學院副教授郭銳認為。

“當前技術(shù)條件下,智能機器尚未具備倫理決策的能力,但其決策會引發(fā)有倫理意義的后果。”郭銳認為,通常法律針對的是能夠遵循這些原則的主體,也就是自然人或者法律看作是主體的組織(法人),但考慮到人工智能的特征是對人的智能的模擬、延伸和擴展,因此倫理原則應(yīng)當適用于人工智能系統(tǒng)。

北京師范大學哲學學院教授田海平認為,人工智能的主體構(gòu)成不是孤立的個體,而是多種關(guān)聯(lián)形態(tài)的總和。“人工智能的構(gòu)成主體分為研發(fā)者(包括算法的開發(fā)者)、生產(chǎn)商、運營商、電信網(wǎng)絡(luò)服務(wù)商等。一旦發(fā)生交通或醫(yī)療事故,由于無法找到某個確定的責任主體,給責任界定帶來很大困難,因此需要確立代理人來界定責任與權(quán)利。”

近年來,學界和產(chǎn)業(yè)界日益重視人工智能中的倫理與法律問題,并推動制定相關(guān)技術(shù)標準及社會規(guī)范。專家表示,人工智能倫理法律涉及科學界、企業(yè)界,哲學、法學等多個領(lǐng)域,有必要成立應(yīng)對人工智能發(fā)展的聯(lián)盟組織,吸納各方面的力量,共同推進相關(guān)研究。

郭銳建議,要考慮到人工智能開發(fā)和部署過程中的權(quán)責歸屬,通過為技術(shù)開發(fā)者、產(chǎn)品生產(chǎn)者或者服務(wù)提供者、使用者界定權(quán)利和義務(wù),讓自動駕駛、無人機等人工智能應(yīng)用安全落地。

專家表示,人工智能大規(guī)模進入人們生活之前,還應(yīng)建立相對統(tǒng)一的風險評估指標體系,設(shè)立具體、可操作的指標,為相關(guān)研究及應(yīng)用提供指引。

專家特別提醒,人和機器各有優(yōu)勢,要互相了解才能實現(xiàn)人機協(xié)作,但人還是人機關(guān)系的主導(dǎo)者。惟其如此,才能將人工智能引向人機合作的良性發(fā)展道路。

全球人工智能法律治理面臨共同難題,當前應(yīng)加強個人隱私安全管理

針對人工智能應(yīng)用在安全、倫理等領(lǐng)域的潛在威脅,世界各國已經(jīng)開始了相關(guān)法律治理研究。

楊正軍介紹,各國對人工智能風險的關(guān)注重點和重視程度有所不同。以安全為例,美國關(guān)注人工智能對國家安全的影響,2018年3月美國國會發(fā)起提案,建議成立國家人工智能安全委員會,并將制定相關(guān)法案;歐盟和英國關(guān)注人工智能對隱私、就業(yè)及倫理的影響;俄羅斯、以色列、印度則重點關(guān)注人工智能在國防領(lǐng)域的應(yīng)用以及對軍事安全的影響。

北京師范大學刑科院暨法學院副教授、中國互聯(lián)網(wǎng)協(xié)會研究中心秘書長吳沈括表示,在規(guī)范人工智能發(fā)展方面,我國起步較早。2017年7月,國務(wù)院頒布《新一代人工智能發(fā)展規(guī)劃》;2017年12月,工信部發(fā)布《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018—2020年)》,都對人工智能產(chǎn)業(yè)的規(guī)范發(fā)展提出了要求。

“這些政策能夠引導(dǎo)和助推相關(guān)產(chǎn)業(yè)的發(fā)展。關(guān)于人工智能技術(shù)標準,我國也發(fā)布過一些文件。然而,當前立法中對于人工智能帶來的安全問題還存在比較大的空白,這也是全球人工智能的法律治理面臨的共同難題。”吳沈括說。

隨著人工智能應(yīng)用的深入,其附屬的相關(guān)風險也日益凸顯,加強對人工智能相關(guān)的法律治理至關(guān)重要。人工智能法律治理呈現(xiàn)出哪些趨勢,現(xiàn)實中又有哪些需要迫切注意的問題?

吳沈括認為,人工智能立法治理上可能會呈現(xiàn)出三個趨勢:一是立法將更加細化,更有針對性。比如,針對自動駕駛、機器人、生物識別等領(lǐng)域頒布一些規(guī)范性文件,立法監(jiān)管也會更加多元;二是立法將與產(chǎn)業(yè)特性緊密結(jié)合;三是立法將以規(guī)范為主,監(jiān)管則重在為產(chǎn)業(yè)發(fā)展提供指引。

“由于法律往往存在一定的滯后性,考慮到人工智能等新技術(shù)應(yīng)用前景廣闊,立法需要預(yù)留一定的空間,盡量實現(xiàn)產(chǎn)業(yè)應(yīng)用與風險前瞻的恰當平衡。在確定監(jiān)管什么內(nèi)容、如何監(jiān)管以及怎樣執(zhí)行時,要把握好力度,不宜影響產(chǎn)業(yè)的發(fā)展活力。”吳沈括說。

楊正軍說,從行業(yè)調(diào)研情況來看,當前應(yīng)該加強個人隱私安全管理。他建議,隱私保護應(yīng)從立法監(jiān)管和技術(shù)能力提升兩方面入手:一方面,針對我國個人信息保護法律條款分散、不成體系的現(xiàn)狀,加快統(tǒng)一立法,明確數(shù)據(jù)不當收集、使用、泄露等的責任,同時也要界定好數(shù)據(jù)歸屬權(quán)等問題;另一方面,應(yīng)加強新技術(shù)在個人隱私保護方面的應(yīng)用。

數(shù)據(jù)的合理合法收集是數(shù)據(jù)利用的前提。專家表示,我們不應(yīng)回避智能化與隱私安全保護的沖突,而應(yīng)積極作為,找到智能時代技術(shù)應(yīng)用與風險防護的最大公約數(shù),為智能生活保駕護航。(記者 喻思南 劉詩瑤)

關(guān)鍵詞: 人工智能 風險隱患
圖片版權(quán)歸原作者所有,如有侵權(quán)請聯(lián)系我們,我們立刻刪除。
新化月報網(wǎng)報料熱線:886 2395@qq.com

相關(guān)文章

你可能會喜歡

最近更新

推薦閱讀
泸溪县| 东乡族自治县| 四会市| 临海市| 龙岩市| 桃源县| 松溪县| 晋州市| 万源市| 南丰县| 苍溪县| 钦州市| 万安县| 云梦县| 西林县| 隆安县| 甘孜县| 中阳县| 饶阳县| 宝清县| 乐亭县| 东阳市| 旅游| 昆明市| 墨竹工卡县| 盐城市| 年辖:市辖区| 淮南市| 通榆县| 安溪县| 翁牛特旗| 师宗县| 民权县| 五常市| 滦平县| 陈巴尔虎旗| 莎车县| 太仆寺旗| 宁化县| 监利县| 彰武县|