国产天天看天天片_亚洲欧美一级特黄大片录像_中文字幕乱码无遮挡精品视频_欧美一区二区三区粉红视频!

您的位置:首頁 > 要聞 >

世界球精選!和AI網聊10分鐘被騙430萬驚呆全網 官方:AI詐騙成功率接近100%

2023-05-23 15:52:28 來源:

防不勝防,10分鐘就被AI騙走430萬!

這是這兩天震驚全網的真實詐騙案件。


(資料圖)

據(jù)包頭警方發(fā)布,一公司老板接到朋友的微信視頻電話,由于長相和聲音確認都是“本人”,他絲毫沒有懷疑就把錢打了過去。

結果一問朋友,對方根本不知道此事。這人才知道,原來詐騙者DeepFake了他朋友的面部和聲音。

消息一出,直接沖上熱搜第一。網友們紛紛表示:離大譜?。〔桓医与娫捔恕?/p>

也有人提出質疑:AI這么好訓練?這需要掌握個人的大量信息吧。

不過,雖說是看上去離譜的小概率事件,但據(jù)相關統(tǒng)計,AI技術新騙局來襲后,詐騙成功率竟接近100%。

畢竟連那些直播賣貨“楊冪”“迪麗熱巴”、B站歌手“孫燕姿”“林俊杰”都不是真的。

△圖源抖音@娛樂日爆社,疑似直播間用楊冪的AI換臉帶貨

10分鐘被AI騙走430萬

據(jù)微信號平安包頭介紹,一個月前,福州市一科技公司法人代表郭某,突然接到好友的微信視頻。

聊天過程中,這個“好友”透露,自己朋友在外地投標,需要430萬保證金,且公對公賬戶過賬,所以想用郭某公司的賬戶走一下賬。

背景介紹之后,“好友”就找郭某要了銀行卡號,而后甩出一張銀行轉賬底單的截圖告訴郭某,已經把錢打到了郭某的賬戶上。

結果因為已經視頻聊天以及各種“物證”,郭某并沒有過多懷疑,甚至也沒去核實錢款是否到賬。

幾分鐘之后郭某就分兩筆將錢打了個過去,本想去跟好友報備一下:“事情已經辦妥”。

然而,好友緩緩打出來一個問號。

好在郭某反應比較快,第一時間報警。于是在警方和銀行聯(lián)動下,僅用時10分鐘就成功攔截了330多萬元被騙資金。

有網友表示,AI正成為騙子高手新一代工具。

還有網友調侃道,我沒錢,哪個都騙不了我。(等等,好友有錢也不行doge)

而在這起案件背后,核心涉及了AI換臉以及語音合成這兩個技術。

大眾所熟知的AI換臉方面,現(xiàn)在即便一張2D照片,就能讓口型動起來。據(jù)此前新華每日電訊消息,合成一個動態(tài)視頻,成本也僅在2元至10元。

當時涉案嫌疑人表示:“客戶”往往是成百上千購買,牟利空間巨大。

至于面向更精準、更實時的大型直播平臺,視頻實時換臉的全套模型購買價格在3.5萬元,而且不存在延遲、也不會有bug。

至于像語音合成方面,技術效果也是越來越逼真,新模型和開源項目涌現(xiàn)。

前段時間,微軟新模型VALL·E炸場學術圈:只需3秒,就可以復制任何人的聲音,甚至連環(huán)境背景音都能模仿。

而具備語音合成功能的工具Bark,更是曾登頂GitHub榜首,除了聲色接近真人,還能加入背景噪音和高度擬真的笑聲、嘆息和哭泣聲等。

在各類社交網絡上,各種小白教程也層出不窮。

要是結合虛擬攝像頭,可能就更加防不勝防。

只需一個軟件應用程序,就可以在視頻通話中使用任意視頻資源。

△圖源微博@啞巴

點擊接通后,對方完全不會看到播放、暫停視頻等具體操作,只會看到視頻播放的效果,“接通后看到的就是美女了”:

△圖源微博@啞巴

這樣一來,不僅視頻可以通過虛擬攝像頭,隨意拍攝甚至更換,甚至連說話方式都可以真人定制:

△圖源微博@啞巴

核心技術門檻的降低,也就給了犯罪分子可乘之機。

AI新騙局成功率接近100%

事實上,AI加持下的新型網絡詐騙,并不止這一種操作。

無論是國內還是國外,都有不少用AI換臉的詐騙案例,小到在網絡購物、兼職刷單等方面騙點小錢,大到冒充客服、投資理財人員等身份,獲取銀行卡賬號密碼直接轉一大筆賬,都有出現(xiàn)。

在國內,據(jù)南京警方消息,此前就出現(xiàn)過一起被QQ視頻AI詐騙3000元的案例。

當事人小李表示,自己的大學同學小王通過QQ跟自己借3800元,稱自己很著急,因為表姐住院了。

小李懷疑了小王的身份,而小王很快給她傳來了一個4~5秒左右的動態(tài)QQ視頻,不僅背景在醫(yī)院,而且還打了聲招呼。

這讓小李打消了疑慮并轉了3000元,然而隨后發(fā)現(xiàn)對方已經將她刪除拉黑,發(fā)現(xiàn)視頻原來是AI偽造的。

目前包括北京反詐、武漢市反電信網絡詐騙中心等官方公眾號平臺,都警告了AI技術新騙局的嚴重性,甚至表示“詐騙成功率接近100%”。

可別以為這些詐騙現(xiàn)象只在國內出現(xiàn),國外的語音詐騙同樣花樣百出。

一種方式是用AI合成語音騙取電話轉賬。

據(jù)Gizmodo介紹,英國最近就同樣發(fā)生了一起涉及金額高達22萬英鎊(折合人民幣約192.4萬元)的詐騙案件。

一位當?shù)啬茉垂镜腃EO,在不知情的情況下被騙子“DeepFake”了自己的聲音。隨后,騙子用他這段聲音,電話轉賬了22萬英鎊到自己的匈牙利賬戶。

據(jù)CEO表示,他后來自己聽到這段AI合成語音時都驚訝了,因為這段語音不僅模仿出了他平時說話的語調,甚至還帶有一點他的口癖,有點像是某種“微妙的德國口音”。

另一種則是用合成語音冒充親友身份。

據(jù)nbc15報道,美國一位名叫Jennifer DeStefano的母親,最近接到了一個自稱是“綁匪”的詐騙電話,對方稱劫持了她15歲的女兒,要求這位母親交出100萬美元的贖金。

電話那頭傳來了女兒的“呼救聲”,不僅聲音、就連哭聲都非常相似。幸運的是她的丈夫及時證明了女兒是安全的,這次詐騙才沒能成功。

現(xiàn)在,不僅是詐騙,在AI技術加持下,就連楊冪、迪麗熱巴們都在今天引發(fā)了熱議。

原來,這是商家們想出的新“搞錢之道”,那就是在直播的時候,用AI換臉等技術“Deepfake”一下楊冪、迪麗熱巴、Angelababy等明星的臉,這樣大家就會誤以為是明星本人在帶貨,從而拉升直播流量。

然而,這類行為目前還不能被直接判定為侵權。據(jù)21世紀經濟報道,北京云嘉律師事務所律師趙占領表示:

平臺對于平臺內商家的侵權行為不承擔直接侵權的責任,而是否構成幫助侵權,主要是看平臺對于商家的侵權行為是否屬于明知或應知。

但對于如何判定平臺對用戶、權利人的投訴是否明知或應知,在一般情況下很難認定。

顯然,在AI技術越來越火熱的當下,相關法律也還需要進一步完善。

One More Thing

就在昨天夜里,最近火爆全網的“AI孫燕姿”本人,也就是歌手孫燕姿,出來回應了。

她發(fā)布了一篇名為《我的AI》的英文版文章,這是她團隊的中文翻譯全文:

然后,網友們看到后的評論是醬嬸的:

參考鏈接:

[1]https://mp.weixin.qq.com/s/Ije3MyQxN-kkw4jCE5Wieg

[2]https://mp.weixin.qq.com/s/kcbNlaFe_-ebYNlfoGcIoA

[3]https://gizmodo.com/deepfake-ai-scammer-money-wiring-china-1850461160

[4]https://www.nbc15.com/2023/04/10/ive-got-your-daughter-mom-warns-terrifying-ai-voice-cloning-scam-that-faked-kidnapping/

[5]https://weibo.com/1796087453/JEaCeaOK6

[6]https://weibo.com/1420862042/4904325194975650

關鍵詞:

[責任編輯:xwzkw]

相關閱讀