歡迎光臨睢寧新聞網(wǎng)!
關(guān)鍵字搜索

當(dāng)前位置: 主頁(yè) > 要聞 >

拉緊AI法律“韁繩” 期待完善監(jiān)管體系

時(shí)間:2024-03-14 08:52來(lái)源:工人日?qǐng)?bào) 作者:睢寧新聞網(wǎng) 點(diǎn)擊:

  人工智能發(fā)展帶來(lái)新安全風(fēng)險(xiǎn)挑戰(zhàn),利用AI技術(shù)造假、詐騙等問(wèn)題浮現(xiàn)

  拉緊AI法律“韁繩” 期待完善監(jiān)管體系

  閱讀提示

  人工智能技術(shù)在不斷更新迭代,對(duì)應(yīng)用領(lǐng)域的新風(fēng)險(xiǎn)需更重視。受訪專(zhuān)家表示,人工智能的健康發(fā)展離不開(kāi)技術(shù)和法律的合力,需要針對(duì)不同風(fēng)險(xiǎn)等級(jí)采取不同的監(jiān)管措施。

  用AI工具生成文本、合成假視頻,編造不實(shí)信息以引流;利用AI技術(shù)“換臉”“變聲”,實(shí)施電信詐騙……加速發(fā)展的人工智能技術(shù)在改變?nèi)祟?lèi)社會(huì)、改變世界的同時(shí),帶來(lái)的負(fù)面影響和潛在風(fēng)險(xiǎn)逐漸顯現(xiàn)出來(lái)。

  在剛剛過(guò)去的全國(guó)兩會(huì)上,不少代表委員關(guān)注到人工智能的安全與合規(guī)問(wèn)題,從技術(shù)、法律等角度就促進(jìn)人工智能健康發(fā)展發(fā)出了建議和呼吁。

  在人工智能加速發(fā)展的當(dāng)下,如何拉緊法律“韁繩”成為社會(huì)關(guān)注問(wèn)題。受訪專(zhuān)家指出,人工智能的健康發(fā)展離不開(kāi)技術(shù)和法律的合力,呼吁建立健全完整的人工智能技術(shù)法律體系,針對(duì)發(fā)展中不同風(fēng)險(xiǎn)等級(jí)采取不同的監(jiān)管措施。

  技術(shù)應(yīng)用門(mén)檻降低帶來(lái)新風(fēng)險(xiǎn)

  去年以來(lái),已有多地警方提醒公眾防范不法分子利用AI技術(shù)“換臉”“換聲”進(jìn)行的新型電信詐騙。在內(nèi)蒙古包頭市公安局披露的一起案件中,詐騙團(tuán)伙在AI技術(shù)的“掩護(hù)”下,佯裝為一名企業(yè)家的“好友”,撥打其微信視頻,稱(chēng)需要用其公司賬戶(hù)“走一下賬”。

  在視頻中確認(rèn)了“好友”面孔和聲音的該企業(yè)家,將款項(xiàng)匯了過(guò)去。在撥打好友電話后,才發(fā)現(xiàn)視頻里的“好友”系偽裝。

  人工智能已經(jīng)從概念加速應(yīng)用落地,算法歧視、信息繭房等法律甚至倫理等問(wèn)題隨之而來(lái)。全國(guó)工商聯(lián)副主席、奇安信科技集團(tuán)董事長(zhǎng)齊向東也指出,生成式人工智能技術(shù)可以快速生成釣魚(yú)郵件、編寫(xiě)惡意軟件與代碼,AI欺詐事件頻繁發(fā)生。

  360集團(tuán)創(chuàng)始人周鴻祎將人工智能技術(shù)引發(fā)的安全風(fēng)險(xiǎn)分為技術(shù)安全、內(nèi)容安全和人類(lèi)安全。其中,內(nèi)容安全是對(duì)大模型的控制、濫用、誤用和惡意應(yīng)用等。

  AI為何能給不法分子可乘之機(jī)?北京科技大學(xué)自動(dòng)化學(xué)院教授、北京人工智能學(xué)會(huì)理事曾慧在接受記者采訪時(shí)指出,AI正深度“潛入”人們的工作和生活,由于算法是開(kāi)源的,制作AI工具的技術(shù)門(mén)檻降低了,“相較以前,獲取和使用AI工具也變得更加簡(jiǎn)單了”。

  記者搜索發(fā)現(xiàn),在一些平臺(tái),輸入圖片就可以輕松“換臉”,無(wú)須花費(fèi)太多也可以自行訓(xùn)練和制定聲音,男聲甚至可以變?yōu)榕。商家稱(chēng),遠(yuǎn)程安裝10分鐘即可直接點(diǎn)開(kāi)使用。

  “就目前來(lái)看,AI生成的‘真實(shí)’并非毫無(wú)破綻。一些高度‘偽裝’的內(nèi)容對(duì)設(shè)備和技術(shù)則有更高要求。”曾慧指出。

  多位受訪者表示,人工智能還在不斷更新迭代,對(duì)應(yīng)用領(lǐng)域的新風(fēng)險(xiǎn)需更重視。

  AI應(yīng)用有法可依但并不完善

  “按照相關(guān)規(guī)劃,我們還處于建立人工智能法律法規(guī)體系的初步階段,應(yīng)該說(shuō),AI的應(yīng)用并非無(wú)法可依,但還遠(yuǎn)不夠完善。”北京志霖律師事務(wù)所合伙人謝陽(yáng)律師在接受記者采訪時(shí)指出。

  2017年,國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》(以下簡(jiǎn)稱(chēng)《規(guī)劃》),其中提出,“在大力發(fā)展人工智能的同時(shí),必須高度重視可能帶來(lái)的安全風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn)”!兑(guī)劃》提出,到2030年建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。

  推動(dòng)人工智能健康發(fā)展和規(guī)范應(yīng)用的政策陸續(xù)鋪開(kāi)。全國(guó)兩會(huì)前,《生成式人工智能服務(wù)安全基本要求》發(fā)布,從語(yǔ)料安全、模型安全等多個(gè)維度規(guī)定了生成式人工智能服務(wù)在安全方面的基本要求。《生成式人工智能服務(wù)管理暫行辦法》則在2023年8月15日起施行,其中提到,提供者應(yīng)當(dāng)依法承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,履行網(wǎng)絡(luò)信息安全義務(wù)。

  謝陽(yáng)介紹,根據(jù)《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》,網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者應(yīng)當(dāng)遵守法律法規(guī),“其責(zé)任和義務(wù)散見(jiàn)于網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、消費(fèi)者權(quán)益保護(hù)法、個(gè)人信息保護(hù)法、侵權(quán)責(zé)任法、未成年人保護(hù)法等法律法規(guī)中。”

  金杜律師事務(wù)所高級(jí)合伙人張毅律師指出,目前已出臺(tái)的算法管理規(guī)定仍有不足,例如,未對(duì)服務(wù)“提供者”等概念進(jìn)行明確劃分;尚未設(shè)立統(tǒng)一的算法監(jiān)管機(jī)構(gòu),對(duì)綜合型算法監(jiān)管易產(chǎn)生監(jiān)管競(jìng)合,對(duì)新型算法監(jiān)管易出現(xiàn)監(jiān)管真空;生成式人工智能技術(shù)迭代快、應(yīng)用多樣,也帶來(lái)了更多新挑戰(zhàn)。

  多位受訪專(zhuān)家表示,算法侵害還面臨著“維權(quán)難”的困境,存在“取證難”“舉證難”“認(rèn)定難”“追責(zé)難”等問(wèn)題。“在實(shí)踐中,將侵害結(jié)果追溯到具體的行為主體也還面臨著障礙。”謝陽(yáng)指出。

  AI健康發(fā)展離不開(kāi)技術(shù)與法律合力

  人工智能是引領(lǐng)未來(lái)的戰(zhàn)略性技術(shù),如何最大限度發(fā)揮出向上向善的力量,對(duì)人們生活和社會(huì)發(fā)展很重要。受訪專(zhuān)家認(rèn)為,在人工智能的健康發(fā)展過(guò)程中,離不開(kāi)技術(shù)和法律的合力。

  “應(yīng)借助AI能力,加速網(wǎng)絡(luò)安全技術(shù)創(chuàng)新、安全防護(hù)體系創(chuàng)新。”齊向東認(rèn)為,應(yīng)鼓勵(lì)各個(gè)行業(yè)的龍頭公司和網(wǎng)絡(luò)安全公司合作,把AI安全技術(shù)融入數(shù)字化場(chǎng)景當(dāng)中,進(jìn)行有效的安全防護(hù)。

  周鴻祎建議,制定保障通用大模型安全的標(biāo)準(zhǔn)體系,推動(dòng)通用大模型開(kāi)展安全評(píng)測(cè)、接入安全服務(wù),降低通用大模型安全風(fēng)險(xiǎn)。

  張毅認(rèn)為,應(yīng)盡快推進(jìn)人工智能法的制定和出臺(tái),以人工智能法及配套的監(jiān)管工具為核心,形成完整的人工智能技術(shù)法律體系。同時(shí),參考其他成熟的監(jiān)管思路,將人工智能和算法技術(shù)按風(fēng)險(xiǎn)等級(jí)進(jìn)行劃分,并針對(duì)不同等級(jí)采取不同的監(jiān)管措施。

  “任何規(guī)范的最終落腳點(diǎn)是能追責(zé),追責(zé)的前提之一是要留痕。”謝陽(yáng)認(rèn)為,應(yīng)進(jìn)一步完善制度供給,可以通過(guò)法律法規(guī)來(lái)施行強(qiáng)制的行業(yè)標(biāo)準(zhǔn),以做到留痕,事前預(yù)防、事中規(guī)制、事后救濟(jì)等問(wèn)題可迎刃而解。“可以采用試點(diǎn)模式,提前試點(diǎn)相關(guān)的監(jiān)管措施,待時(shí)機(jī)成熟時(shí)再予以推廣適用。”他建議。

  “應(yīng)拓展算法侵害行為的維權(quán)路徑與責(zé)任模式,增強(qiáng)用戶(hù)的維權(quán)力量。”張毅建議,在算法侵權(quán)的訴訟中采取“過(guò)錯(cuò)推定”歸責(zé)原則,實(shí)行“舉證責(zé)任倒置”。用戶(hù)僅承擔(dān)受到算法損害的責(zé)任,由算法服務(wù)商對(duì)算法和損害之間無(wú)因果關(guān)系以及無(wú)過(guò)錯(cuò)承擔(dān)舉證責(zé)任,“應(yīng)增強(qiáng)源頭治理,形成責(zé)任閉環(huán)”。(記者 趙琛 李潤(rùn)釗 楊召奎)

------分隔線----------------------------