【社會新聞】
眼見不一定真實! AI換臉技術詐騙係金ㄟ! 竹市警攜手網紅里長短視頻提醒慎防新型態騙術
眼見不一定真實! AI換臉技術詐騙係金ㄟ! 竹市警攜手網紅里長短視頻提醒慎防新型態騙術
2024-04-12

 

▲竹市警察局邀請網紅里長何芝寧(左)拍攝防詐宣導短片,提醒市民朋友要保持「眼見不一定為實、影像不一定是真」的警覺,慎防AI換臉詐騙!(圖/竹市警察局提供)

 

【勁報記者羅蔚舟/新竹報導】
AI換臉技術詐騙係金ㄟ!千萬小心別被騙!AI人工智慧的進步,讓深偽技術(Deep fake)變得更加成熟,深偽技術可以將影片中的人臉替換成另一張臉,最常見的應用是電影製作;然而,近年詐騙手法不斷翻新,不肖人士可能利用AI換臉進行詐騙,為提升新竹市民對這種新型態騙術的警覺性,新竹市警察局邀請網紅里長何芝寧拍攝防詐宣導短片,提醒市民朋友慎防AI換臉詐騙。

 

▲在AI「深偽技術」的發展下,竹市警察局提醒市民朋友要保持「眼見不一定為實、影像不一定是真」的警覺,慎防AI換臉詐騙!(圖/竹市警察局提供)

 

宣導短片的開場,竟然係網紅里長何芝寧推廣「零風險、高報酬、穩賺不賠」投資管道的片段?!為讓市民朋友親眼見證AI換臉技術的真實性,新竹市警察局刑警大隊特地拍攝假投資推廣影片,再利用深偽技術將影片中的人臉換成芝寧里長,幾可亂真假冒甜美里長推廣投資管道,乍看之下真的會不小心上當!短視頻中同時呈現換臉前(後)的影片,讓民眾高度感知換臉技術確實存在。

 

▲竹市警察局邀請網紅里長何芝寧(左)拍攝防詐宣導短片,若在網路上看到可疑影片或與親友視訊聯繫時,可運用4個方法防止AI換臉詐騙。(圖/竹市警察局提供)

 

短片最後,由刑警大隊小編及芝寧里長提醒大家,若在網路上看到可疑影片或與親友視訊聯繫時,可運用4個方法防止AI換臉詐騙:1.事先約定視訊通關密語;2.視訊時請對方在臉部前方揮揮手或搖搖頭;3.直接打電話給對方再次確認身分;4.撥打165反詐騙專線查證。

 

▲竹市警察局邀請網紅里長何芝寧(左)拍攝防詐宣導短片,若在網路上看到可疑影片或與親友視訊聯繫時,可運用4個方法防止AI換臉詐騙。(圖/竹市警察局提供)

 

新竹市警察局表示,社交媒體盛行,多數人都是使用網路聯繫,如果沒有保管好自己的身份資訊及帳號密碼,就有可能發生Facebook、Instagram、 Line等社交帳號遭盜用的情形,連帶的也會增加親友被詐騙的機會。

 

▲竹市警察局邀請網紅里長何芝寧(左)拍攝防詐宣導短片,提醒市民朋友慎防AI換臉詐騙,如果有任何疑問,都可以撥打165反詐騙專線查證!(圖/竹市警察局提供)

 

局長邱紹洲強調,科技發展一日千里,民眾對任何社交平臺或通訊軟體所收到的訊息,都要有查證的意識及行動,並謹記在AI「深偽技術」的發展下,要保持「眼見不一定為實、影像不一定是真」的警覺,如果有任何疑問,都可以撥打165反詐騙專線查證!

台鐵
高鐵
即時新聞:
勞動部桃竹苗分署
輔英科大
新北市文化局
中油高雄
國台交
東海大學
修平科大 
華盛頓中學
郵政金融卡
花博
希望廣場
台灣農業故事館
北市農業主題網
台灣區製茶工會
台灣好行
空氣品質監測網