AI假图检测:Deepfake层出不穷,怎么才能“有图有真相”?
合合技术团队 2024-09-15 16:31:24 阅读 53
目录
一、AI时代的诈骗升级:真假马斯克
二、图像篡改入侵商业安全领域
三、眼见不为实?我们如何找到“真相”
每次有令人眼花缭乱的AI图片和视频出现,都会引发大家的提问:我们该怎么鉴别真假?
四、来试一试,守护你的AIGC安全
随着AIGC技术的迅猛发展,互联网上涌现出各种逼真的篡改照片和视频。“有图有真相”已经成为历史。而证件、票据、账单、流水等文件P图这些更为常见的伪造活动,也在AI技术的加持下如虎添翼,成为不少企业与机构的头疼难题。
其中,在我们的日常生活里,影像资料广为流传的名人是典型重灾区,新技术也成为诈骗犯手中的利器。举个例子:如果上网看到某知名互联网大佬的闭门会投资建议视频,你会心动吗?
一、AI时代的诈骗升级:真假马斯克
最近,《纽约时报》报道,AI生成的埃隆·马斯克形象已经出现在数千条虚假广告中,导致数十亿美元的诈骗案件,且已有人因此上当受骗,损失惨重。
去年底,82岁的退休老人蒂夫·博尚普在网络上看到了一段关于马斯克的“真实采访”。在这段视频中,“马斯克”支持一项承诺快速回报的激进投资机会,口型与声音都高度同步,看起来极为真实。老人随后联系到该广告背后的公司,并按照指导开设了账户。在接下来的几周里,老人在一系列交易中花光了自己的退休资金,最终投资了超过69万美元(约495万人民币)。这笔钱最终全部被骗子卷走,老人损失惨重。
AIGC技术出现以来,类似的“盗版名人”诈骗案件已经屡见不鲜。诈骗犯通常会先寻找一个真实的视频,然后使用AI工具将目标人物的声音替换成复制品,并利用口型同步技术编辑目标人物的口型,使视频看起来更加真实可信。
监测深度伪造视频的机构Sensity近日进行了一项调查,通过分析2000多段深度伪造视频,发现马斯克已经成为这类视频中最常见的“发言人”。自去年年底以来,马斯克的形象出现在近1/4的深度伪造诈骗视频中,其中针对加密货币的视频他的出现率更是高达90%。除了马斯克之外,沃伦·巴菲特、杰夫·贝索斯等名人也深受骗子的青睐。
AI一键换头技术将我们引入了“后真相时代”。
二、图像篡改入侵商业安全领域
近几年来,篡改伪造公章、信函、保单、证件照的违法行为已经层出不穷。
P图是常见的图像篡改手段之一。在学术界,用篡改技术进行学术造假会扰乱评价机制;在产业界及日常生活,篡改证件、票据、合同、银行保单、资质证书、交易记录等重要材料的截图若被利用,可能会造成财产损失。
随着AIGC技术的进展,在AI的辅助下,改造、生成图像的门槛更低,也令造假更为容易。
去年年底,最高人民检察院发布的典型案例中介绍,诈骗者冒用某电力公司名义与信息公司签订产品购销合同购买电子产品,并通过P图方式在购销合同及验收单上加盖其自行伪造的电力公司的公章,骗取该公司按合同约定交付的价值数百万元电子产品。
面对图像篡改的入侵,商业安全也受到了严重的威胁。
三、眼见不为实?我们如何找到“真相”
AI技术,尤其是最近的GAN和Difussion Model,能够创造出高仿真度的虚假照片。这些图片使虚假宣传、非法取证、网络诈骗的发生风险急剧上升,让人和机器都“真假难辨”。当个人证照、社交媒体动态都被滥用,个人隐私保护同样遭受严重威胁。
每次有令人眼花缭乱的AI图片和视频出现,都会引发大家的提问:我们该怎么鉴别真假?
当肉眼不再能成为鉴别工具,通过科技手段进行对抗存在必要性。
AI造假检测技术,是AIGC时代的一道安全防线。
TextIn的图像篡改检测技术采用神经网络模型捕捉图像在篡改过程中留下的细微痕迹,基于百万级的数据学习图像被篡改后统计特征的变化,能够智能判断图片是否被篡改,支持检测复制粘贴、拼接、擦除等多种篡改形式与混合篡改,还可定位修改区域,以热力图形式展示图像区域篡改置信度。
针对人脸伪造检测,TextIn基于CNN+ViT技术框架,通过大批量不同来源、生成技术的Deepfake样本训练,提供随伪造技术同步成长的防伪手段。
目前,人脸伪造检测提供训练域内90%+识别准确率,并且通过强大的AI泛化性能,对从未见过的Deepfake技术生成的伪造人脸样本,也具备85%+的域外识别准确率。
四、来试一试,守护你的AIGC安全
如有检测图像篡改与人脸伪造的需要,立刻对手边有问题的照片、截图进行识别分析。
有一定自动化调用需求的用户,可以通过TextIn API接入SaaS服务,将其集成到任意工作流中,包括身份认证、视频会议、内容审核等,对人像进行实时分析,返回检测结果,并在存在风险时告警,以自动触发后续其他保护机制。
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。