公众表示,人工智能可以很容易地为投资计划克隆贵宾的声音
武吉阿曼商业犯罪调查部主任拿督斯里Ramli Mohamed Yoosuf说,利用人工智能工具,一个15秒的音频片段就可以克隆出一个人近乎完美的声音。
他说,随着人工智能技术的不断发展,复制人的声音的相关软件或工具也变得越来越复杂。
他说,事实证明,这对网络骗子来说是一个福音,他们会更加积极地推广不存在的投资计划,利用深度伪造的图像和视频,将知名政客和商人的形象与人工智能生成的声音拼接在一起。
“只要一个人的声音的15秒音频文件,人工智能就可以把它变成一段很长的对话,并被操纵,说出骗子想要他们说的话。这就是人工智能的先进程度。
拉姆利说:“其中一些深度造假是如此真实,以至于只有视频中的人才能分辨出它是否(不是真的)。”
他补充说,互联网用户应该始终对经常发布在社交媒体平台上的此类视频保持警惕和怀疑。
“当然,像总理这样的高级官员在视频和音频与他本人和他的声音惊人地相似的情况下宣传投资计划是很牵强的,也不太可能。
“此外,这些知名人士不可能每次出现这样的假视频就站出来反驳,”他说。
拉姆利是对马来西亚证券委员会(SC)发布的最新警告做出回应的,该警告针对的是利用人工智能制造的深度伪造来模仿知名人士和知名公司的投资骗局。
最高法院表示,骗子利用深度假视频欺骗毫无戒心的社交媒体用户,让他们注册不存在的投资计划,并从他们那里吸走资金。
该公司表示,正在与社交媒体平台和执法机构合作,删除此类视频,并对幕后主使采取行动。
马来西亚理科大学政策研究中心犯罪学家拿督P. Sundramoorthy博士强调了教育公众与深度造假相关的风险以及识别和向当局报告的重要性。
“这些深度造假骗局可以利用人们对知名人士和公司的信任,骗子们利用这些信任来谋取私利。
他说:“当局应该让科技公司和人工智能开发商参与进来,制定解决方案,减轻对深度造假技术的滥用。”
网络安全专家Fong Choong Fook表示,随着网络诈骗的不断增加,公众应该警惕来自社交媒体的任何东西。
“在相信这样的内容之前,停下来,思考和处理。向相关机构核实。
“如今,人工智能的复杂性使得人们几乎不可能仅仅通过观看来确定这些视频是真是假。为了安全起见,我们必须对我们在网络空间遇到的一切进行核实和确认。”
注册欺诈审查员雷蒙·拉姆(Raymon Ram)表示,人工智能驱动的工具和软件旨在检测深度造假,并分析视频以寻找操纵的迹象。他敦促互联网用户了解与人工智能相关的事情,因为这是他们的“第一道防线”。
“首先,了解什么是深度造假以及它们是如何工作的。要谨慎对待主动提出的提议,尤其是那些看起来好得令人难以置信的提议。交叉核对来自多个可靠来源的信息,”他补充道。
最近几个月在社交媒体上发布的深度假视频中,有总理拿督斯里安华、商业大亨郭富城和各种投资大师的视频。
×本文来自作者[涵凝]投稿,不代表哎微号立场,如若转载,请注明出处:https://m.iawzb.cn/zskp/202508-7376.html
评论列表(4条)
我是哎微号的签约作者“涵凝”!
希望本篇文章《15秒内的深度假象》能对你有所帮助!
本站[哎微号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:公众表示,人工智能可以很容易地为投资计划克隆贵宾的声音 武吉阿曼商业犯罪调查部主任拿督斯里Ramli Mohamed Yoosuf说,利用人工智...