《電子技術應用》
您所在的位置:首頁 > 通信與網絡 > 業界動態 > 深度偽造對國家安全的挑戰及應對

深度偽造對國家安全的挑戰及應對

2021-10-28
來源:信息安全與通信保密雜志社
關鍵詞: 安全 人工智能

  深刻了解及應對深度偽造對國家安全的挑戰

  人工智能的快速進步給社會發展帶來諸多機遇,但其被惡意使用的風險也逐漸顯現。作為人工智能深度學習領域的一個分支,深度偽造技術在近幾年迅速興起,為國家間的政治抹黑、軍事欺騙、經濟犯罪甚至恐怖主義行動等提供了新工具,給政治安全、經濟安全、社會安全、國民安全等國家安全領域帶來了諸多風險。

  應對深度偽造技術的濫用及其安全挑戰,需要加強研發預警檢測手段,推進立法管制,加強宣傳教育,推進國際安全合作治理。

  隨著計算能力大幅提升、大數據爆炸式增長以及深度學習算法的創新突破,人工智能正迎來第三次發展浪潮。人工智能既給社會發展帶來了巨大機遇,同時也帶來了諸多風險,人工智能對國家安全的影響已成為世界各國的重要關切和研究議程。

  深度偽造(Deepfake)這一概念近年來也日益受到關注。2019 年初,臉譜網上流傳一則關于特朗普的假視頻,視頻中的“特朗普”批評了比利時在氣候變化問題上的立場,而實際上這并非特朗普本人。

  此前,德國研究團隊也利用這一技術制作出了包括普京、小布什等國家首腦的假視頻。

  2019 年 1 月,卡耐基國際和平研究所發表《國家如何應對深度偽造亂象》一文,指出深度偽造技術正在給各國政府和企業帶來破壞性影響。美國國會近來也專門就深度偽造技術的影響舉行聽證會,表明深度偽造技術在美國大選之年引發多方高度關注。

  筆者注意到,國內對深度偽造技術的應用及其影響給予的重視尚不夠,且缺乏較系統的研究。

  本文擬介紹深度偽造技術興起的背景和特點,深入分析其對政治安全、經濟安全、社會安全、國民安全等領域帶來的新挑戰,并給出相應的治理對策,拋磚引玉,以推動國內對深度偽造技術發展應用的進一步研究討論。

  深度偽造興起的背景與特點

  1.1深度偽造興起的背景

  深度偽造(Deepfake) 這一概念最早出現在 2017 年底,起初是一名為“deepfakes”的紅迪網(Reddit)用戶在網上發布了一段利用名人面孔合成的色情視頻,引發各界關注。深度偽造是深度學習(deep learning)與偽造(fake)二者的組合詞,一開始專指用基于人工智能尤其是深度學習的人像合成技術。

  隨著技術的進步,深度偽造技術已經發展為包括視頻偽造、聲音偽造、文本偽造和微表情合成等多模態視頻欺騙技術(見圖 1)。深度偽造背后的支撐技術是深度學習,具體來說主要是“生成性對抗網絡”(Generative Adversarial Network,GAN) 和卷積神經網絡(ConvolutionalNeural Network,CNN)。

  用于深度學習算法的真實數據或模擬數據越多,合成的視、音頻等深度偽造產品的逼真程度就越高,在這些假視頻和音頻中能夠讓人說現實中沒有說過的話、做現實中沒有做過的事,甚至達到以假亂真的程度,沖擊著人們“眼見為實”的傳統認知。

  微信圖片_20211028185013.jpg

  圖 1 基于多模態的深度偽造技術

  1.2深度偽造的技術原理

  視頻偽造:人工智能換臉

  視頻偽造是深度偽造技術最為主要的代表,制作假視頻的技術也被業界稱為人工智能換臉技術(AI face swap)。其核心原理是利用生成對抗網絡或者卷積神經網絡等算法將目標對象的面部“嫁接”到被模仿對象上。由于視頻是連續的圖片組成,因此只需要把每一張圖片中的臉替換,就能得到變臉的新視頻。

  具體而言,首先將模仿對象的視頻逐幀轉化成大量圖片,然后將目標模仿對象面部替換成目標對象面部。最后,將替換完成的圖片重新合成為假視頻,而深度學習技術可以使這一過程實現自動化。

  音頻偽造:語音合成

  深度偽造的另一大代表就是音頻偽造,目前實現音頻偽造最為常見的方法是“語音克隆”技術,該技術已廣泛應用在蘋果 Siri 等個性化虛擬助手中。具體而言,實現語音克隆主要有兩種方法,一是說話者自適應(speaker adaption),二是說話者編碼(speaker encoding)。每個人的語速、語調等聲道信息都可以表示成一個聲音模型。

  其中,說話者編碼是根據說話人的少數聲音對標準聲道模型進行微調,以模擬出該說話人的聲音。而說話者自適應則根據說話人的少量音頻,從一個多人語音模型中找出該講話人的聲音特征。

  其他偽造技術

  除了視頻和音頻偽造之外,廣義的深度偽造還包括文本偽造和微表情偽造。現階段,文本偽造的主要技術支撐是自然語言處理(Natural Language Processing,NLP),先使用卷積神經網絡從視頻中識別并提取字幕,然后通過自然語言處理技術生成偽造文本。

  微表情偽造則主要利用圖像合成技術,先將大量面部表情數據手動注釋為相應的情緒,再根據 39 種面部微表情從基礎注釋中判斷出微表情特征組合所代表的情緒,進而實現對微表情的偽造。

  1.3深度偽造的特點

  算法自動生成,制作成本和門檻較低

  事實上,偽造技術很早以前就已經出現,以前的圖像處理技術(Photoshop)就能制作虛假的圖像。此次深度偽造技術的特別之處在于,它背后的核心驅動力量是深度學習算法,具有自動生成目標圖形圖像的顯著特性。由于這一技術主要是代碼組成的軟件,算法突破后本身的制作成本非常低,且一旦做出來就可以幾乎以零成本進行擴散。

  此外,隨著技術的擴散和程序化,制作深度偽造產品的門檻也在不斷降低。例如,起初深度偽造視頻的技術僅僅以源代碼公布在社交編程及代碼托管(Github)網站上,想實現假視頻偽造需要操作者有較高的技術水平。

  但很快,網上就出現了可供下載的 FakeApp、Faceswap、DeepNude 等換臉軟件,只需要按照軟件提示輸入幾張圖片就可以快速制造假視頻。換言之,掌握了這些軟件和素材的人理論上可以制作出任何一個人說任何話、做任何事的虛假視頻和音頻,且這個過程都是自動化的。

  產品逼真而多元,識別難度大

  深度偽造技術的產品涵蓋假視頻、音頻、文本、微表情等,十分多元。深度偽造技術的擴散可能導致世界上充斥各種各樣的偽造信息,而且這種假信息正在變得越來越“真實”。深度學習的一大特性就是,提供訓練的樣本數據越多,對目標對象的模擬就會越準確,偽造出來的假視頻和音頻等產品就會顯得越逼真。

  目前,流傳在網上的假視頻主要是關于明星、政客等公眾人物,就是因為他們的照片和視頻在網上可以輕易獲取,用作偽造視頻的原材料。

  起初,深度偽造產品還可以通過五官、眨眼頻率等特征分辨出來,隨著這類技術的算法會不斷演化,從 2017 年深度偽造技術剛誕生時用的卷積神經網絡到現在最新的生成對抗網絡,無論是實現智能“換臉”的計算能力還是逼真程度都有了很大提升,已經讓大眾越來越難辨真假。

  未來,基于眨眼頻率、聲音、微表情、文本等特征的多模態特征融合的假視頻制作技術將是一個可能的發展趨勢,普通公眾識別深度偽造作品的難度也會越來越大。

  與社交媒體結合,傳播速度快

  基于深度偽造技術制作的假視頻、音頻等產品迎合了大眾的獵奇心理,很容易借助臉譜網、推特、微信、微博等社交媒體的效力,在全世界快速傳播。互聯網將世界連為一體,各類信息能夠在轉瞬之間傳遍全球,自然也包括假消息。

  深度偽造產品借助網絡社交媒體的漣漪效應,很可能會大規模擴散。假消息越是搞怪、離奇、恐怖,就越能吸人眼球,帶來的流量就越大,社交媒體就會傳播得越快,以訛傳訛的效應就會愈加明顯,造成破壞性影響的速度也會越快。在人們尚未來得及做出反應的時候,破壞性后果可能就已經造成。

  目前,Youtube 上已經出現了大量關于特朗普、奧巴馬等政治人物的虛假視頻②,Reddit、Pornhub 等網站上也出現了大量好萊塢女明星換臉后的虛假成人電影等,且這些假視頻的點擊量十分驚人。

  深度偽造給國家安全帶來的挑戰

  誠然,深度偽造技術存在著一些正面使用的前景,例如為商業發展、藝術創作、醫療行業等領域提供了新的發展空間。

  但鑒于其以假亂真的技術本質以及目前的發展趨勢,這項技術對于國家安全可能帶來更多挑戰,如果被不法分子出于政治或惡意牟利動機使用,將給政治安全、經濟安全、社會安全、國民安全等領域帶來諸多風險和威脅。

  2.1深度偽造給政治安全帶來的風險

  深度偽造技術惡意使用的最大風險可能發生在政治領域。這一技術如果被外國競爭對手利用,極有可能會用于抹黑國家領導人,煽動恐怖和暴力情緒,破壞國家政治穩定。

  政治人物遭到深度偽造產品的抹黑是首當其沖的挑戰

  深度偽造技術為抹黑政治人物提供了新的強大工具,利用深度偽造技術制作關于政治人物的虛假負面視頻無疑會破壞其在民眾中的形象。

  由于政治人物需要經常出現在公眾的視野,其公開的照片和視頻很容易被獲取并用來制作假視頻。例如,一段由特朗普總統在臉譜網上分享的關于美國眾議院議長南希?佩洛西(Nancy Pelosi)的視頻就獲得了250 萬次點擊量。視頻中,佩洛西如同喝醉了一般,神志不清,說話磕巴,舉止怪異。此外,美國前總統奧巴馬的臉也被用來制作假視頻,攻擊特朗普是個“十足的笨蛋”。該視頻在網上已經獲得了480萬次的瀏覽量。

  此外,如前所述,社交媒體上已經流傳著大量關于特朗普、普京等國家領導人的假視頻。盡管現在這些視頻還能夠辨別真假,大家對此只是當做娛樂一笑了之。

  但是,隨著深度偽造技術的日益精進,這些假視頻會變得越來越逼真,普通人通過肉眼想要區分真假將變得越來越困難,那時候對于政治人物形象和名譽的破壞將會愈加嚴重。

  政治制度也容易受到深度偽造的嚴重沖擊

  近年來,社交媒體上流傳的假消息已經引起了諸多政治爭議和風波②。如今,深度偽造技術讓假消息以更加可信的方式呈現在社會公眾面前,就可能會進一步引發公民對于政治系統的信任赤字。

  例如,這類技術可以用在領導人選舉上,一方候選人或敵對國家制作虛假視頻來對候選人進行政治原則、生活作風等方面的抹黑,無疑會破壞被選舉人形象和選舉制度的公正性,從而威脅國內政治制度的合法性。

  已有專家擔心,深度偽造技術會對即將到來的 2020 年美國大選造成極大威脅,稱如果說 2016 年美國大選是俄羅斯操縱的“假新聞大選”,那么 2020 年大選就可能成為被深度偽造操縱的“深度偽造大選”。

  不難理解,關于總統候選人的假視頻通過社交軟件廣泛擴散,無疑對美國民主選舉制度造成極大破壞。因為,民主制度的基礎在于選民的知情同意,“通過公開、理性的辯論,產生人民的集體智慧引領國家正確前進”,但在深度偽造技術驅動的假消息泛濫的情況下,選民距離可觀察的實情和真相將會越來越遠,就可能會造成思維混亂。

  在這種情況下,政府的公信力將難以維持,民主制度的根基就會被動搖乃至瓦解,美國等民主國家的政治系統就可能會因此陷入混亂。

  正因如此,美國總統大選佛羅里達州候選人、共和黨參議員盧比奧將這一技術的威力與核武器相提并論,美國國會近期也表示,將在 2020 大選之前對深度偽造技術進行調查,并展開相關立法行動。

  此外,利用深度偽造技術制作關于政府對公民施加殘暴行為的假視頻,可能會激起民憤,輕則引發集會、示威、游行等行為,重則激起暴力活動,造成社會動蕩,威脅政治系統穩定性。

  深度偽造技術也可能被用來破壞國家間關系

  深度偽造技術可能會成為信息戰的強大武器,破壞國家間的正常關系。歷史上,利用假消息煽動國家間的政治沖突這一現象并不鮮見。

  早在 1898 年,美國緬因州號在哈瓦那港爆炸,美國的一家小報就曾利用誤導性的事件來煽動公眾與西班牙開戰。如今,深度偽造技術為進行這類操作提供了更加多樣化和逼真的新工具。

  例如,這類技術被第三方行為體用于制作國家首腦或代表人物的假視頻,宣布一些本不存在的外交政策,就可能會破壞涉事國領導人之間的互信和兩國關系。

  例如,如果一段有關伊朗官員策劃在伊拉克某省采取秘密行動殺害遜尼派領導人的音頻,無疑會激化伊朗和伊拉克之間的矛盾,或是一段顯示美國大兵在伊斯蘭國家焚燒古蘭經的視頻在網上流傳,可能加劇信奉伊斯蘭教的國家對美國的怨恨。

  再比如,前文所提到的特朗普批評比利時政府在氣候變化問題上的立場這一假視頻,如果日后技術進步到讓人難辨真假的話,就會對美國和比利時的關系產生負面影響。

  此外,深度偽造技術還可能為某些國家干涉他國內政提供新的由頭。曾經,美國以“大規模殺傷性武器”為由,繞過聯合國安理會單方面對伊拉克進行軍事打擊,最后發現的卻是“洗衣粉”。如今,有了這一技術,制造冠冕堂皇的理由和“證據”無疑將變得更加容易。

  2.2深度偽造對經濟安全帶來的風險

  深度偽造技術為破壞企業形象提供了新工具

  企業是市場中的核心單元,而深度偽造對破壞企業形象可能帶來難以估量的負面影響,如果深度偽造技術篡改企業高層的說話內容、散播虛假消息,或通過合成假視頻直接抹黑企業負責人,無疑會破壞這家企業在公眾心中的形象,進而影響公司的名聲和經濟利益。

  2019 年上半年爆出的新城控股董事長猥褻女童事件,就嚴重破壞了這家企業的公眾形象,使其深陷輿論漩渦,資產迅速縮水,最后不得不大舉拋售項目。

  而未來,深度偽造技術可以制作關于企業高層負責人丑聞的假視頻,作為證據起訴公司負責人或引發輿論關注,就可能使當事人百口難辯。

  深度偽造給金融市場穩定性帶來了新的風險

  深度偽造還可能為引發金融市場動蕩提供了新的不穩定源。例如,一些人通過偽造多個知名經濟學家同時唱衰經濟的視頻,或者重要的銀行遭遇恐怖襲擊的假視頻,并將之投放到網絡上,就很有可能造成市場恐慌,使得投資者大量拋售手中的股票,而肇事者就可以從中做空獲利。

  危險在于,在這種情況下市場的反應速度往往比當事人澄清的速度更快,這一點從幾年前的一個真實案例中可窺見一斑。2013 年 4 月 23 日,美聯社推特賬號在被黑客攻擊后主動發布了一條假新聞,稱“白宮發生兩次爆炸,奧巴馬受傷”,導致道瓊斯指數暴跌 140 余點,

  瞬間蒸發掉了 1365 億美元。直到新聞被證偽,市場才逐漸恢復正常。

  由此可見,一條策劃良好的假文本新聞就足以引起很大的金融震蕩。不難預見,利用深度偽造技術制造更為逼真的假視頻和假音頻新聞會給金融穩定和經濟安全帶來更嚴峻的挑戰。

  2.3深度偽造給社會安全帶來的風險

  假消息的泛濫可能會造成社會信任危機

  從本質上來看,深度偽造技術惡意使用所帶來的最根本影響在于,它會進一步模糊真相與假象之間的界限,使大家對一切事物都產生懷疑,從而可能造成全社會范圍內的信任危機。

  千百年來,人們在與世界交互中所形成的傳統觀念是“眼見為實”(Seeing is believing),但假如一切都可以被偽造,而沒有足夠的技術手段進行區分,真相與假象之間的界限就會變得日益模糊,使得“眼見也不一定為實”。由于像FakeApp 換臉軟件和 Lyrebird 變聲軟件等應用程序操作簡便,十分容易擴散。

  因此,這種假視頻、假音頻可以被普通人使用電腦或手機等大眾電子設備制作出來,并通過社交媒體廣泛傳播,從而可能使全社會陷入一場真相與假象之間混雜不清的困境之中,造成“真相的終結”,推動人類社會真正進入“后真相時代”。

  區分不清政治人物的真假消息,選民就無法有效選舉,民主制度就難以為繼;社會信用赤字,借貸、保險、投資等市場行為就將受到影響,社會金融、互助體系等都將受到嚴重沖擊,人的精神世界也可能會面臨一場深層次的危機。

  給現有法律體系帶來新挑戰

  深度偽造技術能夠自動生成高可信度的假視頻和假音頻,如果被別有用心的人利用,將給現有法律體系尤其是取證領域帶來很大的挑戰。法律講究證據,而錄像和錄音材料常常作為重要的舉證支撐,法官要根據原告和被告的證詞以及相應的舉證材料對案件進行評判。例如,敘利亞戰爭中用視頻記錄下來的戰爭罪行就成為了定罪的重要依據。

  但在深度偽造技術迅速發展和應用的情形下,如果沒有足夠的技術手段來區分假視頻、假音頻等深度偽造產品的真實性,就會對原有法律體系帶來很大挑戰。

  具體而言,這類風險主要有以下三方面:

  一是犯罪分子為了嫁禍他人利用深度偽造技術進行誣陷,可能帶來冤假錯案。

  二是犯罪分子為了逃避法律制裁,堅稱原告提供的舉證材料是利用深度偽造技術制作的虛假材料,而如果沒有辦法證偽其觀點,可能會使犯罪分子逃脫法網制裁。

  三是現有法律尚不能約束深度偽造產品在社交媒體上的廣泛傳播,對于造成重大負面影響的匿名假視頻、假音頻制作者也無法進行有效追責。

  尤其是當人工智能技術越來越多地用于法院時,如果正向的檢測技術跟不上深度偽造的技術步伐,而人眼又無法區分這些材料的真偽性,那么就可能造成案件的誤判,嚴重影響司法公正和受害人利益。鑒于深度偽造的成本和門檻呈現出越來越低的趨勢,日后的這類風險值得警惕。

  滋生“深度偽造恐怖主義”

  對于恐怖分子等非國家行為體而言,深度偽造技術無疑是一個強大、低成本且易獲取的工具。一般而言,恐怖分子的武裝力量、資金和其他資源十分有限,其目標往往不在于物理空間的攻城掠地,而是試圖通過引發社會恐慌,達到自身的政治或其他目的,而深度偽造技術與恐怖主義的這一特點和訴求有著天然的契合點。

  恐怖主義可能借著這一技術利器,更方便快捷地開展恐怖行動,甚至“不戰而屈人之兵”,不采取物理層面的恐怖措施就能達到預期的恐怖效果。

  例如,“伊斯蘭國”(ISIS) 可以利用這一技術制作虛假視頻,描繪美國士兵屠殺平民、恐怖分子砍頭等血腥場景,并通過社交媒體迅速傳播,以激起世界憤怒、仇恨和恐慌,幫助其從全世界招募人員或其他地區作案。

  筆者預測,恐怖分子與深度偽造技術的聯姻,可能會帶來新一輪恐怖主義浪潮,這種新型的恐怖形式可被稱為“網絡恐怖主義”的高級階段——“深度偽造恐怖主義”,即利用深度偽造技術制作虛假的視頻、音頻等假消息,并借助虛擬的網絡和社交媒體傳遍世界各地,實現其恐怖目的,這無疑會深刻威脅到社會安全。

  2.4深度偽造給國民安全帶來的風險

  國民安全是國家安全的核心內容,維護國民的安全和利益是實現國家安全的根本所在。一旦基于深度偽造技術制作的假視頻、假音頻等大規模傳開,就可能會深刻威脅到國民在生命、財產和名譽方面的安全。

  威脅國民生命安全

  深度偽造技術制造出的假消息可能會煽動暴力沖突,從而深刻威脅公民的生命安全。近年來,因假消息引發的暴力現象并不鮮見。

  在2018 年,印度就有 20 多人因為在 WhatsApp 社交平臺上被謠傳綁架小孩或涉及其他罪案而遭受暴力致死。

  在印度,社交軟件 WhatsApp 幾乎成為了民主主義傳播謠言和煽動暴力的溫床。

  類似的假消息還有印度總理莫迪被聯合國教科文組織評為世界最佳總統、巴基斯坦士兵將兩位印度俘虜斬首等。

  現階段,這類假消息的主要載體還只是文字,分辨的難度并不大。但隨著深度偽造技術的不斷發展和應用,利用假視頻、假音頻等假消息載體煽動暴力引發事故的風險將會越來越大。

  造成國民財產損失

  深度偽造技術可能會被不法分子用于制作虛假視頻,提供虛假證據,進行詐騙、勒索等違法行為,威脅公民的財產安全。例如,語音克隆技術能夠在采集目標人物幾句話的基礎上,就通過算法生成這個人的全套語音,讓人難辨真假。

  筆者曾經也收到過利用語音合成技術偽造朋友的聲音對我進行電話詐騙的情況,聲音逼真得幾乎與真人無異。目前,已經出現利用假視頻、假音頻進行碰瓷、詐騙的現實案例。

  不難預見,隨著深度偽造技術的不斷發展和進步,這一現象將會有增無減。例如,日后如果有人利用這一技術制作虛假綁票視頻,逼迫受害人家屬支付高昂費用,而當事人的家屬或朋友無法區分真假,無疑將對其造成很大的財產損失。

  損害國民的名譽和心理

  深度偽造還容易對個人的名譽和精神造成很大損害。自深度偽造在近些年出現以來,制作虛假的色情視頻成為這一技術最為常見的惡意應用,而這些假視頻已經成為污名化女性和進行“色情報復”的新武器。

  利用該技術能夠實現“移花接木”,將女性的臉轉移到色情明星的身體上,偽造逼真的色情場景。

  目前,已經有很多女性成了這類假視頻的受害者,導致受害人精神焦慮甚至自殺。例如,今年 4 月,印度記者拉娜?阿尤布(Rana Ayyub)因揭露印度古吉拉特暴亂中官員的黑幕和不作為,就遭遇了利用這一技術進行的“色情報復”和死亡威脅,使其遭受巨大的精神折磨,最后不得不斷網乃至住院治療。

  更為嚴重的是,這類操作的技術門檻正在變得越來越低。今年上半年,網上就流傳著一鍵生成裸照的軟件“深度裸露”(DeepNude),只要輸入一張完整的女性圖片就可自動生成相應的裸照,引起了軒然大波。

  未來,一鍵生成假視頻的軟件也可能在網上擴散。如果不加管控,越來越多的個人和家庭將會受到傷害。因為,一個偽造的婚外情視頻在一些情況下就足以使當事人名譽掃地,家庭破裂。

  此外,還有利用這一技術進行游走在法律邊緣的惡搞行為。目前,網上已經出現很多惡搞名人的假視頻。例如,2019 年 7 月,以色列一家公司利用人工智能換臉技術合成了一段扎克伯格關于臉書技術壟斷的虛假視頻并上傳到“照片墻”(Instagram),造成了極為惡劣的影響。我國知名演員六小齡童先生也被惡搞,在視頻中變成了時尚潮男。這些真實中不存在的荒謬場景在假視頻中卻幾乎無所不能,無疑會給當事人造成很大的精神困擾。

  除了上述幾個領域的風險之外,深度偽造對軍事安全、網絡安全等其他國家安全領域也會帶來一定風險,例如,在軍事領域,可以利用這一技術制作虛假的戰斗命令,實現對敵方部隊的戰術欺騙,或生成敵方重要目標的面容來解鎖重要設施的人臉識別系統等。

  防范和應對深度偽造的幾點思考

  綜上分析,深度偽造給國家安全的各個領域都帶來了諸多風險。但目前世界各國多在大力推動人工智能技術的快速發展和應用,而對其惡意使用的風險重視不夠。

  筆者認為,為了防范和應對深度偽造技術的潛在風險,各國政府可以在提升風險意識的基礎上,從技術工具、法律監管、公民教育以及國際合作等方面建立相應的治理框架,從而最大限度地化解風險,最大程度運用人工智能維護國家安全和人民福祉。

  3.1加強政策界與技術界之間的交流與合作

  各國政府需要意識到深度偽造給國家安全帶來的風險的嚴重性和緊迫性,抓緊研發應對深度偽造亂象的技術工具和政策手段。

  一是要建立政策界與技術界之間的常態化交流機制。

  當前,政策規范的速度往往滯后于技術發展的速度,這會帶來技術濫用卻不受約束的風險。

  在 2017 年發布的《阿西洛馬人工智能原則》中,特別強調了“人工智能研究者與政策制動者之間應該存在具有建設性的健康的信息交流”。

  人工智能正以極快的速度影響社會,深度偽造技術的風險也在逐漸顯現。想要應對這些風險和安全挑戰,最為緊迫的就是要加強政策社群與技術社群之間的常態化交流機制,使得政策制定者了解深度偽造技術的最新進展和問題,技術界了解指定深度偽造政策的實際需求,然后合作解決社會面臨的緊迫問題。

  二是要政府加大對預警檢測技術的資助力度。

  在深度偽造這一問題上,最為關鍵的就是預警檢測技術工具的研發。只要能夠使得預警檢測技術領先于偽造技術,以上所提到的所有風險很大程度上都可以得到緩解。盡管深度偽造技術正在迅速發展和應用,但任何偽造產品都很難做到與真實物品完全一樣。

  例如,假圖像難以描述光的微小變化,假音頻難以完全掌控人的節奏和語調,假視頻人物中的眨眼頻率與正常人存在差異。

  因此,需要加快對深度偽造預警檢測技術的研發,并盡快推廣應用③。目前,已經有一些針對深度偽造技術的技術手段。例如,針對假視頻的檢測方法有神經網絡檢測法、眨眼頻率分析法等。針對音頻的檢測技術有基于相位法、基頻統計量法等。

  但是,這些方法還遠未成熟②,且深度偽造技術也正在迅速發展進化。要想使得預警檢測手段追趕上偽造手段的步伐,政府推動和資助是必不可少的。

  三是政府要鼓勵反制深度偽造領域的科技創新。

  政府可以通過發布深度偽造技術相關的自然科學基金、社會科學基金等科研項目,依托高等院校、科研機構、企業研究所等平臺,資助研發應對深度偽造技術危害國家安全的技術和政策手段。

  此外,還可以借鑒美國防部高級研究計劃局(DARPA) 通過“挑戰賽”的方式解決棘手問題的做法,通過舉辦“反制深度偽造挑戰賽”等技術競賽的方式促進這一領域的科技創新,并將成果應用于解決社會問題。

  3.2推進對深度偽造的立法與監管

  當前,世界各國普遍面臨著法律規范的速度滯后于技術發展步伐的挑戰。為應對深度偽造技術的潛在風險,需要盡快進行前瞻布局,推進針對假消息的立法與監管。

  一是需要明確深度偽造產品生產主體的法律責任,從源頭上防止假消息的出現。

  深度偽造技術本身是中性的,關鍵在于它背后的使用者和使用場景。因此,一方面,要通過立法禁止政府官員和權威機構創作、傳播利用深度偽造技術合成的不真實信息。對于利用深度偽造技術危害社會和國家安全的個人和組織,要依法進行相應懲罰,對企圖利用這一技術犯罪的人形成威懾。另一方面,要盡快明確深度偽造技術的不正當使用場景,形成限制深度偽造技術的“負面清單”,并對違法者予以懲戒。

  二是要強化傳播媒介尤其是社交媒體的法律和社會責任,從傳播過程中阻止深度偽造產品的擴散。

  鑒于假視頻和音頻最可能首先出現在社交媒體平臺上,且傳播速度極快,范圍極廣。而互聯網和社交媒體往往將相同或類似興趣的人群聚集在一起形成網絡社群,虛假、偏見和歧視的消息也更加容易在這里傳播并固化。

  因此,從法律層面明確社交媒體在避免深度偽造的假消息危害國家安全方面就尤為重要。通過法律規范,明確社交媒體需要在發布前甄別假消息的責任,建立假消息篩查機制,加強內容審核,禁止上傳可能危害國家安全或造成負面社會影響的假消息。

  對于沒有明顯危害的娛樂性深度偽造產品要進行標注,告知用戶其虛假本質,防止這類假消息的傳播造成惡劣的社會影響和政治風波。對于未能盡到這些義務而造成重大負面社會影響的責任主體,需要進行法律追責。

  三是要建立必要的危機應對機制,在發現假消息肆意傳播時要快速響應,避免其惡劣影響的擴大化。

  為此,政府部門應加強與社交媒體、新聞機構、非政府組織等機構的合作與交流,共享在深度偽造技術領域的信息渠道,確保在重大假消息出現時能及時處置和有效應對。

  3.3提升公民對信息的警惕和批判意識

  政府需要通過宣傳和教育,提高公眾對于深度偽造技術和產品的警惕意識和批判意識。

  一是要教育和引導公民提升警惕意識,避免在遇到深度偽造產品時上當受騙。

  政府應當通過組織關于“深度偽造”的電視宣傳、主題教育等手段,提醒公民在面對出現在眼前的消息時,不能輕易相信“眼見為實”或“耳聽為實”,而是要采取“三思而信”、多渠道映照以及有效技術手段去識別假視頻、假音頻等虛假消息,從而切實維護自身的生命財產安全。例如,在面對涉及自身或身邊朋友的綁票視頻時,應當先去電話或當面詢問對方的近況,就能夠有效避免上當受騙。

  二是要給公民提供適當的技術工具。

  隨著深度偽造技術的出現和持續發展,一般民眾可能會越來越難區分信息的真假。這時,政府就需要聯合企業主動為公眾提供一些簡單易操作且可靠的技術援助。

  例如,可以在研發有效檢測手段的基礎上,在瀏覽器中安裝“火眼金睛”“真相衛士”等應用插件,自動檢測視頻、音頻等消息的真實性并告知用戶,使用戶能快速獲知信息是真實的還是偽造的,避免上當受騙和遭受其他損失。

  三是要教育公民在社交媒體上審慎制作和傳播假消息。

  隨著自媒體時代的來臨和深度偽造技術的擴散,人人都可以利用手機或電腦等電子產品制作假視頻、假音頻等假消息,并能通過微博、微信等社交媒體進行傳播。

  當前,基于深度偽造技術制作的虛假視頻、音頻等假消息正在社交媒體上廣泛傳播,公民如果不假思索地跟著轉載、點贊,就可能會加速和擴大假消息的破壞性影響。

  因此,政府需要教育和引導公民仔細甄別消息的真假,在轉載和評論時要保持必要的審慎,避免成為協助假消息擴散的“幫兇”。

  3.4推動對深度偽造的全球治理

  一個假消息泛濫成災時代的到來,對任何國家恐怕都不是福音。在全球化背景下,風險也隨著人員和信息的流動向全球擴散,深度偽造技術的影響范圍注定會超越單一國家,對世界各國都構成重大挑戰。

  在此背景下,只有加強國家間合作,共同規范這一技術的使用,合理打擊假消息的制造和傳播者,才能維護世界的共同安全與福祉。筆者認為,以下幾項措施需要特別重視。

  一是要將深度偽造全球治理納入人工智能全球治理的框架。隨著深度偽造技術的迅速發展,恐怖分子可能利用這一技術進行跨國犯罪,深度偽造產品的泛濫對全世界來說都是災難,沒有哪個國家能夠獨善其身,推動對深度偽造技術的全球治理符合各國的共同利益。

  而深度偽造是人工智能技術惡用的顯著體現。未來生命研究所 2018 年發布的《人工智能的惡意使用:預測、預防和緩解》報告中就指出,人工智能技術存在被惡意使用的風險,深度偽造技術就是其中的一大代表。

  因此,治理深度偽造本質上是對人工智能惡意使用的防范和規制,推動人工智能全球治理的過程中,要把深度偽造這一問題作為重點納入考量范圍。

  二是要加強在打擊假消息方面的國際合作,尤其是打擊利用深度偽造技術進行跨國犯罪和跨國恐怖主義的行為。

  2016 年歐洲刑警組織出臺的《網絡有組織犯罪威脅評估報告》就指出, 利用深度偽造技術進行犯罪將成為一大趨勢。

  從目前的發展來看,這一趨勢正在逐漸成型,利用深度偽造技術和產品進行政治抹黑、經濟犯罪、恐怖襲擊等危害國家和國際安全的行為正在日益增多。

  為了應對這一風險,各國需要合力建立相關機制,有效打擊犯罪分子利用這一技術進行跨國作案。

  三是要強化跨國互聯網企業對于管控深度偽造產品的法律和社會責任,尤其是對假消息傳播的管控。

  目前,深度偽造的主要產品是假視頻,而這些假視頻已經在臉譜網、推特、WhatsApp、微信、微博等跨國社交媒體上廣泛傳播,造成了很多負面影響,很多明星和政治人物深受其害。

  因此,國家間需要加強合作,強化這些跨國社交媒體在假消息管控上的法律和社會責任,避免假消息利用社交媒體在世界范圍內肆意擴散,維護國家安全和世界繁榮穩定。




電子技術圖片.png

本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:[email protected]
主站蜘蛛池模板: 亚洲欧美在线免费 | 欧美同性videos在线可播放 | 久久精品视频大全 | 国产成人亚洲欧美三区综合 | 欧美另类综合 | 精品国产品欧美日产在线 | 久久精品亚洲精品国产欧美 | 亚洲一级毛片中文字幕 | 精品国产三级a在线观看 | 国产婷婷成人久久av免费高清 | theav视频在线观看 | 国产欧美日韩不卡在线播放在线 | 国产不卡一区二区三区免费视 | 久久免费99精品久久久久久 | 久久观看 | 亚洲网站视频在线观看 | 国产精品爱久久久久久久 | 曰韩美女一级视频 | 日韩欧美精品在线视频 | 国产精品久久久久久久久免费 | 在线观看国产精品入口 | 九九视频在线观看视频 | 国产成人精品午夜 | 久久九九免费视频 | 国产精品密蕾丝视频 | fc2成年手机免费共享视频 | 国产精品久久久久久久久免费hd | 日韩成人毛片高清视频免费看 | 一区二区三区不卡在线观看 | 欧美一级黄视频 | 香蕉依依精品视频在线播放 | 99热免费| 免费成人一级片 | 高清在线一区二区三区亚洲综合 | 午夜性a一级毛片 | 国产精品色午夜视频免费看 | 性欧美高清come | 情侣自拍啪啪 | 国产精品观看 | 国产爱啪啪 | 欧美一级特黄乱妇高清视频 |