会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 IBM研究发现:​ AI语音克隆可劫持合法通话进行诈骗!

IBM研究发现:​ AI语音克隆可劫持合法通话进行诈骗

时间:2024-06-29 23:59:06 来源:带水拖泥网 作者:深度 阅读:200次

IBM研究发现:​ AI语音克隆可劫持合法通话进行诈骗

**划重点:

**

1. 🚨 IBM研究发现,研语音利用生成式AI工具,现​行诈黑客可以相对轻松地劫持语音通话,克隆可劫构成新的持合威胁。

2. 💳 对金融机构等使用电话验证身份的法通组织而言,使用低成本AI工具,话进骗子能够轻松冒充他人的研语音声音,窃取资金和其他敏感信息。现​行诈

3. 🛡️ "音频劫持"是克隆可劫一种新的威胁,威胁行为者可在进行中的持合对话中使用语音克隆操纵大型语言模型。

CSS站长资源(ChinaZ.com) 2月4日 消息:近期,法通IBM研究人员发现了一种相对简单的话进方法,可以利用生成式AI工具劫持语音通话。研语音这一发现引发了对金融机构等依赖电话验证身份的现​行诈组织的担忧。利用低成本的克隆可劫AI工具,骗子们现在可以轻松地冒充他人的声音,劫持正在进行的对话,以窃取资金和其他敏感信息。

图源备注:图片由AI生成,图片授权服务商Midjourney

这项新的威胁被IBM的研究人员称为“音频劫持”,威胁行为者可以使用语音克隆在进行中的对话中操纵大型语言模型。为了实施这一威胁,威胁行为者需要首先在受害者的手机上安装恶意软件或者破坏无线语音通话服务,然后连接到他们自己的AI工具。

具体而言,AI聊天机器人接收一个简单的提示,告诉它在听到特定关键短语时如何回应。在这个案例中,短语是“银行账户”。聊天机器人扫描每个通过被侵入的电话或语音通话服务传递的对话,寻找这个关键词。一旦它听到了,聊天机器人就被指示用受害者的克隆声音说出不同的短语。在这种情况下,机器人将受害者的银行账号替换为攻击者的账号,使得存款进入错误的账户。

IBM安全部首席威胁情报架构师Chenta Lee在报告中指出:“LLM的修改不仅限于财务信息,还可以修改会话中的医疗信息,如血型和过敏;它还可以命令分析师买卖股票;它还可以指示飞行员重新规划飞行路线。”

尽管在IBM的实验中,研究人员仍然面临一些障碍,比如语音克隆的响应有时会有延迟,因为它需要访问文本到语音API和告诉它做什么的聊天机器人。此外,并非所有语音克隆都令人信服。

为了对抗这一威胁,报告建议任何发现自己接到可疑电话的人重新用自己的话转述并重复对方说过的内容,以验证准确性。这将使聊天机器人困扰,因为它们仍然难以理解基本的会话提示。

(责任编辑:资讯)

相关内容
  • 首发骁龙8 Gen4!曝小米15系列10月发售
  • 苹果头显制造成本曝光 Vision Pro零部件成本超1500美元
  • Sora对国内大厂是机会还是挑战?
  • 3月4日发布!Redmi G Pro 2024首搭狂暴引擎PC版
  • 替换万物3D!Meta 推ReplaceAnything3D可用文本引导3D场景编辑
  • YOLOv9官网体验入口 AI目标检测深度学习工具下载地址
  • 苹果头显制造成本曝光 Vision Pro零部件成本超1500美元
  • 逻辑推理大翻车!GPT-4、Gemini被曝重大缺陷,LLM严重降智
推荐内容
  • 比利时设陷阱诱捕300万只大闸蟹 避免过度繁殖问题
  • 小伙江滩滑雪不慎掉入江中:冷静面对 成功脱险
  • 普渡大学发布Talk2Drive框架 为自动驾驶汽车提供智能指令解析能力
  • 雅迪回应启动造车:没有涉足新能源汽车制造计划
  • 每月几十搞定!用户晒联通1000M宽带:这上下行速度飞起
  • 比亚迪建欧洲家工厂 已在匈牙利交付首批乘用车