耳聽可能為虛 眼見未必是實
變臉又換聲“外孫”來騙錢
一位老人接到電話,對方自稱是其戰(zhàn)友,說自己因生病想借錢。老人熟悉這位戰(zhàn)友的聲音,先后匯款2000元、8000元到對方銀行賬戶。沒想到,錢剛到對方賬戶,“戰(zhàn)友”就消失了,老人這才發(fā)現(xiàn)自己被騙了……近日,一則“聲音合成”騙局登上了熱搜。
隨著AI(人工智能)合成技術日益發(fā)展,一些不法分子也開始利用其合成音視頻實施詐騙。“AI換臉換聲”難度大嗎?能有多逼真?
詐騙
“外孫”打電話來要錢
“你姥姥接到了一個電話,是你表哥的聲音,說是闖了禍,問你姥姥、姥爺要錢。”不久前,正在國外留學的小張從媽媽口中得知,姥姥接到了一通電話,有人用“表哥”的聲音說,自己把同學打進醫(yī)院了,要賠十幾萬元。“表哥”以此向姥姥、姥爺要錢,還讓他們千萬不要告訴自己的媽媽——也就是小張的大姨。
“我姥姥、姥爺大吃一驚,但還是信了。不過,覺得不能不告訴其他人,于是告訴了我媽。”小張解釋道,兩位老人日常是獨自生活,只有小張的母親每周去看望幾次。由于兩位老人習慣于什么電話都接,此前就遇到過詐騙電話,這讓一家人始終提心吊膽。
小張覺得電話那頭是騙子,“聲音肯定是合成的”。初步推斷后,小張給正在外地上學的表哥打了多個電話,終于取得了聯(lián)系,果然表哥對于姥姥接到的電話也全然不知。
“雞飛狗跳折騰了一圈,安撫了惴惴不安的我媽,叮囑了不聽勸的姥姥、姥爺。一到涉及晚輩的事,這兩位老人就跟喝了迷魂湯似的。”小張無奈地說,除了“AI合成語音詐騙”,欺騙性更強的“AI合成視頻詐騙”更讓人擔憂。對于這些騙局,小張感到十分憤怒,但又不知該如何杜絕。
亂象
假博主只為真“圈錢”
保護好了手機號,就能避免被人利用AI技術“圈錢”嗎?在互聯(lián)網(wǎng)上,還有很多博主利用假視頻來吸引流量、虛假宣傳。
“有福氣的奶奶您來了……”一個幼童雙手合十,講著一大段“正能量”語錄,這樣不符合常理的視頻,卻獲得頗高人氣。打開評論區(qū),有不少頭像為中老年人的賬號留言稱贊“小孫子說得好”。
“這類視頻播放高,漲粉快。”相關視頻博主介紹,除了兒童形象,智者老人、外國人等形象說語錄的視頻也受歡迎。“粉絲以中老年人為主。”
“很多人問我,為什么不回國發(fā)展,要在中國待著……”視頻中,一位名叫“Wendy”的“外國女孩”用流利的中文侃侃而談。和她用著“同一張臉”的賬號有好幾個,有的叫“阿琳娜”,有的叫“娜塔莎”。事實上,這些賬號的“臉”都來自一位烏克蘭網(wǎng)紅博主Olga Loiek,不久前她發(fā)布視頻稱,她的面孔被他人盜用,并利用AI技術生成了視頻。
在短視頻平臺上,這類假冒外國人的賬號還有不少。他們或發(fā)表雞湯語錄,或討論爭議性話題,以此為噱頭來吸粉。3月27日,抖音發(fā)布《關于不當利用AI生成虛擬人物的治理公告》,針對站內(nèi)仍有不當使用AI技術生成虛擬人物發(fā)布內(nèi)容的賬號進行處置,但目前平臺上依然存在相關賬號和視頻。
點進這些賬號的主頁,其中很多寫著“收徒”“合作”,并附有聯(lián)系方式。記者加上一個微信后,對方發(fā)來了數(shù)字人生成教程的信息,其中包括AI最新玩法等內(nèi)容,報價1288元。這位商家還向記者強調(diào),AI和短視頻結(jié)合的“威力”很大。“現(xiàn)在流量就是鈔票,你會搞流量還怕不能盈利嗎?”
體驗
一句話即可克隆一萬句
利用AI技術來換臉換聲、合成視頻的難度大嗎?實際上,使用門檻和技術門檻都不高。
記者以“AI克隆聲音”“AI視頻生成”等為關鍵詞在電商平臺搜索,出現(xiàn)不少提供相關服務的商家。有些提供專業(yè)的聲音定制模型,價格需要幾百元到數(shù)千元不等。有些則直接出售相關教程,部分價格低至9.8元。商家表示,這類教程適合于對AI這類工具該興趣的人,并且要愿意學習和摸索。
即便是沒有任何技術背景也沒關系,目前市面上已經(jīng)有多款軟件可以快速實現(xiàn)AI換臉、AI克隆聲音、數(shù)字人生成等功能。在一款生成視頻數(shù)字人的軟件中,提供了電商、金融理財、醫(yī)療保健、教育培訓等領域的數(shù)字人視頻素材,輸入文字即可合成配音。此外,還可以利用照片定制專屬的數(shù)字人形象,生成視頻。
這類幾分鐘即可生成的AI換臉視頻、數(shù)字人視頻制作較為粗糙,看起來“一眼假”,但卻在很多短視頻平臺上被網(wǎng)友信以為真。一位制作相關視頻的博主直言:“很多年輕人都迷糊,中老年人更分辨不出來了。”
AI克隆聲音實現(xiàn)起來更為簡單。記者下載了一款可以AI克隆聲音的軟件。打開后根據(jù)提示,只需要提供某人一句話的聲音素材,即可生成“專屬克隆聲音”,隨后輸入任何文字,發(fā)出的都是這個人的聲音。記者體驗發(fā)現(xiàn),多款軟件都可以輕松克隆。盡管有部分軟件提示“若使用他人聲音,請確認已獲取他人授權”,但平臺并無法限制聲音來源。
測試
10位老人均未能正確分辨
記者在采訪中了解到,有不少老人沒聽過AI合成的聲音,想象不出其與真人說話的相似程度。為此,記者利用三款軟件,分別生成了一段語音,又錄制了一段真人語音,隨機向10位老人進行了測試。
“第一段挺柔和的,像是真人說話”“最后一段接近人的嗓音”……老人們聽完四段語音,從中選擇“真人聲音”,并且給出了判斷的理由。結(jié)果顯示,參與測試的老人都沒能成功辨別出“真人”。
即便是熟悉的人的聲音,老人也很容易被迷惑。記者特意用蔡大爺孫女的聲音,同樣制作了一組語音來測試。第一段合成語音播放后,蔡大爺立刻說:“這是我孫女說的!”四段語音播放完畢,蔡大爺對每一段都感到熟悉和親切,“我聽著都是她真人說的,不像有電腦合成的。”
AI合成的聲音、照片、視頻,有辦法辨別嗎?記者了解到,語音可以流暢度、自然度來分辨出來,照片、視頻則可以通過瞳孔、耳朵等細節(jié)來判定。不過,據(jù)多位AI技術從業(yè)人員介紹,隨著技術發(fā)展,AI圖像“手部不自然”“光線錯亂”等問題,正在逐漸得到改善,“現(xiàn)在越來越真了。”
在實際生活中,老年人也很難按照這樣的標準來判斷。王阿姨表示,由于自己聽力不好,電話里的聲音聽不太清,很容易被蒙騙。同樣的,王阿姨在和子女視頻時,也只是看個大概,“哪兒仔細看過耳朵眼睛啊!”
北京反詐中心官方公眾號也曾發(fā)布提醒,在涉及轉(zhuǎn)賬交易等行為時,要格外留意,可以通過電話、視頻等方式確認對方是不是本人;在無法確認對方身份時,可以將到賬時間設定為“2小時到賬”或者“24小時到賬”,以預留處理時間。同時,要謹防各種信息泄露。 本報記者 相旭陽
(北京晚報)