滥用AI技术制作色情低俗内容或假冒他人实施诈骗等违法行为层出不穷,大学师生也遇到了AI换脸诈骗。
据《每日经济新闻》10月14日报道,电子科技大学人工智能专业研究生校外导师高某收到一条诈骗短信,内容是一段借助AI换脸技术合成的酒店房间不雅视频,视频中被换脸的正是他本人,因而突然陷入诈骗危机……
浙江财经大学安全保卫部发布的案例通报显示,此前高校研究生小张接到自称好友的视频通话,画面里对方声音、相貌均与好友本人无异,对方称在外地出差,因公司合同需紧急转账20万元,但账户受限,请求小张帮忙周转。小张信以为真完成转账,事后才发现好友账号系被AI换脸技术伪造。
AI换脸诈骗,单笔损失近2亿元
麦可思研究此前在开展在校大学生消费情况研究时,了解过大学生遭遇诈骗的情况。数据显示,仅44%的受访大学生表示清晰地了解校园诈骗行为,有两成大学生表示不太了解或者完全不了解。这样的警惕性显然不足以应对AI技术“高度赋能”诈骗手段的现状了。
AI换声、换脸成为新型诈骗的重灾区。公安部数据显示,2025年一季度全国AI换脸诈骗案环比增长45%。据光明视评消息,2023年基于AI的深度伪造(例如换脸、换声等)欺诈暴增了3000%。
诸如换脸这类的AI深度伪造技术已实现高度仿真效果,不仅能精准复刻面部表情与声音,更能模拟细微的语气变化和肢体动作,Check Point《AI安全报告2025》明确指出:“依赖直觉或肉眼甄别真伪的时代已经过去。在实时换脸、语音克隆和视频合成技术的加持下,真假边界正在快速消失。”与此同时,全自动化AI诈骗系统正推动犯罪形态革新,售价仅2万美元的AI工具即可模仿任意声音、进行多轮自然对话,并支持跨语言实时诈骗,其内置的智能解析模块能24小时动态调整话术,形成高度个性化的欺诈脚本。数据显示,2024年全球67.4%的钓鱼事件已深度整合AI技术,标志着网络攻击进入“以假乱真、无孔不入”的新阶段。
AI技术“深度参与”的诈骗案件中,涉案金额上百万元的并不罕见,甚至还有受骗过亿的案件。
2024年上半年,香港警方披露了一起涉案金额达2亿港元(约1.8亿元人民币)的AI换脸诈骗案:某跨国公司香港分部职员,受邀参与总部高管发起的视频会议。会上,诸位高管入会发言,谈论了一宗秘密收购计划并给中层布置了任务。会后,这名参会职员按照高管要求,将2亿港元转入若干账户。最后发现,这次视频会议仅该名职员是真实存在的,其余均为AI换脸伪造的虚拟数字人。
AI诈骗,如何防范?
为了打击AI诈骗犯罪,我国正着力构建覆盖AI生成内容全链条的法治化治理体系。在技术规范层面,2025年9月1日施行的《人工智能生成合成内容标识办法》明确要求对文本、音视频等生成内容添加显式标识(如文字提示、水印)和隐式标识(元数据嵌入),并禁止恶意篡改或隐匿标识。《生成式人工智能服务管理暂行办法》规定服务提供者需对输入数据及生成结果进行技术或人工审核,深度合成服务必须核验用户身份。
在国家加强AI技术规范运用的背景下,高校也需加强反诈教育和宣传,提升大学师生的风险意识,增强辨别伪造信息的能力。麦可思开展的研究显示,当前高校防诈工作主要包括:55%的高校开展警校联动讲座,54%实施师生日常提醒,47%设置财产安全必修课,34%通过官网官微推送防诈信息,形成多维防控体系。
结合新华社、中国大学生在线网等权威媒体报道,以及部分高校实际案例,我们总结了高校应对AI诈骗可以采取的一些措施,以供读者参考:
高校构建智能防御体系
1)部署终端防护工具
师生可以安装国家反诈中心APP,开启“AI实时防护”功能,该系统基于深度学习算法可实时识别视频通话中的异常微表情(如眨眼频率异常、面部肌肉不自然收缩),对AI换脸视频的拦截准确率较高。
2)建立校园网络安全屏障
学校的教务系统、财务平台等关键系统可采取“动态验证码+生物特征”双重认证,防止AI伪造凭证入侵。
强化个人安全操作习惯
1)警惕虚拟聊天
如遇涉及财产等视频通话内容时,可以要求对方完成指定动作序列(如连续3次快速眨眼、用手指在鼻梁画圈),真人皮肤会产生0.02mm级形变,AI视频常出现纹理撕裂;核查背景环境细节,如询问“你身后书架第三本书是什么?”,AI生成视频对复杂场景的还原度较低。
2)保护个人隐私
不在社交平台发布含个人生物特征的照片(如证件照、课堂视频),避免被用于AI训练。
制定应急响应和处置机制
1)建立快速止损通道
高校财务部门可以开通“AI诈骗专项冻结通道”,接到可疑转账报告后,2小时内完成账户冻结并启动溯源程序。
师生遭遇诈骗后,立即使用“国家反诈中心APP”举报功能,并提供相关信息以便协助警方破案。
2)开展模拟攻防演练
定期组织“双盲情景对抗”训练,如一些高校开展的角色扮演攻防演练,让学生身临其境地体验诈骗过程,提升应对突发诈骗的实战能力。
提升法律意识,加强AI素养培养
1)了解法律惩戒措施
根据《中华人民共和国反电信网络诈骗法》第三十八条,组织、策划、实施、参与电信网络诈骗活动或者为电信网络诈骗活动提供帮助,构成犯罪的,依法追究刑事责任。因此,师生需警惕“兼职开发AI模型”之类的陷阱。
2)构建举报激励机制
高校可设立“反诈先锋奖”,对成功阻止AI诈骗的师生给予学分奖励,并将反诈成效纳入社会实践考核等。
建立“AI诈骗线索众包平台”,师生上传可疑视频可兑换网络安全课程学分,形成全民反诈生态。
3)课程建设
开设《人工智能安全》必修课,教授视频鉴伪技术原理。
开发VR反诈实训系统,模拟AI换脸、语音克隆等场景,学生通过手柄操作可实时进行技术对抗。
主要参考文献:
[1] 新华社、中国大学生教育在线网站、荆楚网、新湖南等.
[2] AI技术滥用调查:明星可被“一键换装”. 每日经济新闻. 20251014.
[3] AI诈骗,围猎空巢老人. 界面新闻. 20251011.
[4] 以假乱真的AI诈骗,如何防范?. 新华社. 20250408.