会员登录
行业资讯

AI换脸技术成诈骗新手段,监管新规来了

发布日期:2025-10-11 浏览量:44


最近这段时间,关于AI换脸诈骗的新闻是真的不少。前几天我还在新闻里看到,有个公司的财务被骗了430万,骗子就是用AI换脸技术伪装成公司老板,在视频通话里要求转账。这事儿听着挺离谱的,但确实就这么发生了。


4eab4f4a-b4c0-4768-974e-26b571d2af5e.jpeg


说实话,现在的AI技术是真的厉害。只要有几张照片,甚至几段视频,就能做出一个跟真人一模一样的假视频。不仅脸能换,声音也能模仿得像模像样。这要是被坏人利用,普通人根本防不胜防。


我有个朋友就差点中招。前段时间她在微信上收到"老同学"的消息,说遇到点急事儿需要借钱。对方还发了视频过来,看着确实是本人。好在我朋友比较谨慎,打电话过去确认了一下,才发现是骗子搞的鬼。后来想想都后怕,要是当时直接转账,那钱就打水漂了。


这类案件现在真的太多了。有的骗子冒充领导给下属打视频电话,有的假扮亲戚朋友借钱应急,还有的伪造名人视频做虚假广告。老百姓对这些高科技手段真的不太了解,很容易就上当了。


针对这个问题,相关部门最近出台了新规定,要求所有AI生成的内容都必须打上水印。这个规定简单来说就是,以后不管是AI换脸视频、AI生成的图片,还是AI写的文章,都得有明显的标识,让大家一眼就能看出来这是机器做的,不是真人。


我觉得这个政策出得挺及时的。虽然说AI技术本身没什么问题,关键看怎么用,但确实需要有一些规矩来约束。就像菜刀可以做饭也可以伤人,所以需要法律来管制一样。


不过也有人担心,这个水印到底能不能防住那些一心想搞诈骗的人。毕竟道高一尺魔高一丈,技术在进步,破解的方法可能也会跟着出现。我倒觉得,有总比没有强,起码能拦住一部分人,也能提高大家的防范意识。


说到底,咱们自己也得多留个心眼。现在这个时代,视频电话里看到的不一定是真人,收到的照片不一定是实拍的,听到的声音也可能是AI合成的。遇到涉及钱财的事儿,千万别着急,多方核实一下总没错。


特别是给家里老人提个醒,他们对这些新技术了解得少,更容易被骗。平时多跟父母讲讲这些新型诈骗手段,告诉他们不管谁在视频里要钱,都先打个电话确认一下。这点小心思能避免很多麻烦。


技术是把双刃剑,用好了能让生活更方便,用歪了就会害人。希望这次的新规能真正起到作用,也希望大家都能提高警惕,别让骗子有可乘之机。毕竟辛辛苦苦赚的钱,谁也不想莫名其妙就被骗走了对吧?



上一篇:震撼!设计师用AI三天完成传统需要三个月的建筑设计

下一篇:sora视频是如何生成的?

携手打造AI创新生态,共创行业未来
  • 扫一扫添加客服