日夕导航

如何识破千层套路?AI换脸诈骗的防范指南


文章编号:14263 / 更新时间:2024-03-02 23:31:55 / 浏览:

随着科技的不断进步,人工智能(AI)的应用场景日益丰富。比如一键进行换脸操作,可以让人与自己喜欢的偶像合影;通过AI技术大叔瞬间变身为萝莉或御姐。AI让孙燕姿刚出道就火遍全球,曾经遥不可及的AI技术如今正迅速融入人们的日常生活。我们也需要警惕,骗子们看准了AI技术的机会,开始利用它来玩弄真假,比如利用AI技术制造虚假视频,声称与你对话的可能并非本人。

如何识破千层套路?AI换脸诈骗的防范指南

最近,包头警一起利用AI实施电信诈骗的典型案例。有人伪装成好友突然视频通话,福州的郭先生确认了长相和声音后,还是在短短10分钟内被骗走了430原来,骗子利用智能AI换脸和拟声技术假冒郭先生的好友,成功实施了诈骗。幸运的是,在接到报警后,福州和包头警方迅速启动了止付机,成功阻止了336.84万元的资金被转走。

这起案件曝光后,讨论 #AI诈骗正在全国蔓延# 的话题迅速登上热搜榜,引发了广泛关注。要如防范AI诈骗中常见的手法呢?在AI时代,眼见和耳闻也未必可信,迷惑性大大增强。骗子们运用AI技术结合套路和剧本,制造出各种诈骗手,大家务必要保持警惕。防范诈骗需要主动出击,眼界要高于骗子。

监管应当先行,避免AI技术的滥用。需要明确的是,尽管AI换脸技一种新事物,但并不意味着监管空白或无法监管。针对日益更新的AI诈骗技术,国家互联网信息办公室、工业和信息化部、公安部于2022年1125日联合发布了《互联网信息服务深度合成管理规定》,规定自2023年1月10日起生效。该规定要求深度合成服务提供者在生成或编辑信息内容时,必须添加不影响常使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等功能服务的,应当做出显著标示,以避免公众混淆或误认。该规定要求任何织和个人不得利用技术手段删除、篡改或隐藏相关标识。

今年4月11日,国家网信办起草了《生成式人工智能服务管理办法》的征求意见稿,其中到AI生成的内容必须真实准确。同时,明确禁止非法获取、披露和利用个人信息、隐私以及商业机密。

温馨提示: 使用AI换脸或类似技术高风险,可能导致法律问题和侵权纠纷。即使仅用于娱乐或恶搞照片,也可能触犯肖像权、名誉权,造成严重后果,甚至构成侮辱或诽谤罪。建家合法使用该技术,一旦遭遇类似利用AI换脸技术实施犯罪的情况,应当第一时间固定证据,并及时向司法机关报案。

策划:程立葳>文字:连雨欣
制图:袁羽(漫画除外)
参考资料:公安部网安局微信号、新华社、人民日报、光明日报、东南网等


相关标签: 千层套路该怎么破用AI换脸来诈骗

本文地址:https://www.rixiy.com/article/94a77ca9de0fff28d427.html

上一篇:探秘中国古代飞行器神话画画中的奇迹...
下一篇:用机智与爱,畅游孩子的世界...

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="https://www.rixiy.com/" target="_blank">日夕导航</a>