AI詐騙,防不勝防。
此前,知名經濟學家管清友發文稱,有人冒充自己薦股。
(資料圖片)
然而一波未平,一波又起。有網友不可置信,表示剛剛與管清友進行視頻。管清友無奈道:“現在騙子的技術含量這么高了嗎?”
AI換臉詐騙層出不窮
不法分子開始利用AI換臉,冒充知名人士薦股了。
近日,管清友曬出一則截圖。一位網友評論道:“剛剛和我視頻了,長得和你一樣,難道推薦股票的不是你?”管清友表示:“現在騙子的技術含量這么高了嗎?”
東北證券首席經濟學家付鵬也遇到了類似的情況。他回復管清友:“兄弟,我也遇到了。惟妙惟肖,微信還能通話然后語音都做了AI化,非常逼真,后臺可能是文本轉語音,文本還沒達到完全學習個人屬性的程度,多少熟悉的人還是能分辨出真假的。一定要防止AI仿真后詐騙。”
AI詐騙近期有爆發趨勢。此前,“平安包頭”微信公眾號公布了一起使用智能AI技術進行電信詐騙的案件。
從事件經過來看,福州市某科技公司法人代表郭先生的好友突然通過微信視頻聯系到他,好友告訴郭先生,自己的朋友在外地投標,需要430萬元保證金,且需要公對公賬戶過賬,所以想要借用郭先生公司的賬戶走一下賬。基于視頻聊天信任的前提下,郭先生沒有核實錢是否到賬,先后分兩筆把430萬元給對方打了過去。錢款轉賬后,郭先生撥打好友電話,對方說沒有這回事。
警惕新型詐騙方式
業內人士提醒,此前不法分子多打著基金經理、經濟學家的名義,利用假的網站、微信公眾號、App、服務電話等進行虛假宣傳,提供證券投資咨詢服務非法牟利,誘騙投資者進行投資,后續需警惕不法分子利用AI技術詐騙。
“不僅經濟學家,不少知名基金經理在網上都有公開的照片和視頻,相關影像材料很容易被騙子利用。”上述業內人士說。
中國互聯網協會強調,在AI時代,文字、聲音、圖像和視頻都有可能是深度合成的。在轉賬匯款、資金往來這樣的典型場景,要通過回撥對方手機號等額外通信方式核實確認,不要僅憑單一溝通渠道未經核實就直接轉賬匯款。
國海富蘭克林基金建議,防止詐騙最重要的就是要提高防范意識,不輕易提供人臉、指紋等個人信息給陌生人。同時,網絡轉賬前要多留個心眼,可以通過電話、見面等多種溝通渠道核驗對方身份,不要未經核實隨意轉賬匯款,更不要輕易透露自己的身份證、銀行卡、驗證碼等信息。多數AI假臉由于是通過睜眼照片生成的,極少甚至不會眨眼。如果跟你視頻的“人”一直不眨眼,就該提高警惕性了。此外,電話聯系時如有疑問,不妨問幾個雙方共同知道的小秘密,這也能降低騙子的成功率。
針對金融領域的詐騙,新華基金表示,基金公司內部人員不會以任何途徑和形式向客戶推薦股票,更不會代客炒股。另外,基金公司也不會做出向客戶承諾保底、收益共享、代理買賣股票、與其他機構合作代理買賣股票等行為。只有清楚地意識到這一點,才能從根本上識破不法分子設下的圈套。警惕“返傭”、警惕“保本”“保收益”等關鍵詞。
“宣傳產品高收益的人大概率可以確定是騙子。”滬上一位基金研究員表示,投資人切莫被夸大的說辭和不可溯源的業績所迷惑。推薦股票的也基本確定可以為騙子,無論是基金公司從業人員、還是經濟學家等都不能薦股。
此外,上述研究員建議,股票、基金等關注度越來越高,一些不法分子打著知名人士的名義行騙。對于一些普通投資者來說,容易被忽悠,因此反詐宣傳教育迫在眉睫。比如機構可以開設“反詐教育專欄”,定期向投資者普及典型案例。
標簽: