人工智慧技術是雙刃劍 如果用於犯罪危害更廣

環球tech 發佈 2020-08-07T06:25:38+00:00

人工智慧是技術,可以造福人類,但是,如果落入壞人之手,也能夠通過很多方式給人們造成傷害。首先就已經在現實中出現的「Deepfakes」,這種應用通過使用合成的音頻和視頻來模仿他人,已經存在敗壞公眾人物名譽、影響公眾輿論,以及敲詐勒索等電信詐騙等行為。

人工智慧是技術,可以造福人類,但是,如果落入壞人之手,也能夠通過很多方式給人們造成傷害。一組研究人員決定對未來15年內可能出現的人工智慧犯罪應用進行排名。

倫敦大學學院(UCL)的科學家們根據學術論文、新聞和流行文化列出了20種人工智慧犯罪,並請來幾十位專家討論每種威脅的嚴重性。參與者被要求根據可能造成的傷害、犯罪獲利的可能性、犯罪的難易程度以及制止犯罪的難易程度進行排序。

首先就已經在現實中出現的「Deepfakes」,這種應用通過使用合成的音頻和視頻來模仿他人,已經存在敗壞公眾人物名譽、影響公眾輿論,以及敲詐勒索等電信詐騙等行為。

雖然「Deepfakes」聽起來沒有殺手機器人那麼令人膽戰心驚,但是這項技術非常容易造成傷害,而且很難被發現和阻止。因此,與其他人工智慧工具相比,專家認為「Deepfakes」的威脅程度最高。

倫敦大學學院(UCL)的研究人員表示,「Deepfakes」變得越來越複雜,越來越讓人難分真假,這將會導致公眾對傳播內容產生廣泛的不信任。

人工智慧的其他五個應用也進入了「高度擔憂」的類別。由於無人駕駛汽車逐漸開始進入公眾的日常生活中,研究人員認為,無人駕駛汽車也會存在潛在的被用作危險品的運輸裝置或者本身就可能造成恐怖威脅。

此外還有應用了人工智慧技術的網絡釣魚攻擊,也會讓人防不勝防。

當然軍用機器人,或者故意操縱資料庫以引起偏見,聽起來威脅度很高,但是研究團隊認為,當今時代這類應用大規模推廣的難度很高,所以反而實際威脅相對較小。

倫敦大學學院的馬修·考德威爾是此次研究報告的第一作者,他表示,與傳統犯罪不同,數字領域的犯罪會很容易共享、複製甚至出售,這使得犯罪技術很容易傳播,這才是最危險的,這也是為何要做這項研究的原因。

關鍵字: