当前位置:首页资讯社科技资讯ChatGPT在测试期间突然模仿用户的声音说话

ChatGPT在测试期间突然模仿用户的声音说话

毛骨悚然!ChatGPT 在测试期间突然未经允许模仿用户的声音与用户进行对话,目前 OpenAI 已经采取安全措施防范这种情况。OpenAI 称 ChatGPT 高级语音模式有专门的系统检测模型是否生成未经授权的声音,确保模型只能使用系统预设的声音,同时还有个名为输出分类器来检测模型是否偏离了预设声音。

想想看当你正在和人工智能应用进行语音交谈时,突然人工智能的声音不是预设的声音,而是模仿你的声音说话,听起来是不是让人毛骨悚然。

日前 OpenAI 就透露 ChatGPT 在测试期间出现了这种意外情况,ChatGPT 在和用户进行对话时,因为某种原因突然模仿用户的声音说话。

ChatGPT在测试期间突然模仿用户的声音说话

此次测试是 OpenAI 雇佣的红队成员 (进行对抗性测试并找出问题) 测试期间发现的,随后 OpenAI 对系统进行溯源,OpenAI 称 ChatGPT 的高级语音模式在嘈杂的输入环境中可能会出现这种无意识情况。

正常情况下 ChatGPT 高级实时语音模式在未获得用户同意的情况下,不能模仿用户的声音,这种本身就有安全机制,但测试暴露的问题则是安全机制有漏洞。

OpenAI 解释称有个专门的系统用来检测模型是否正在生成未经授权的音频,即 OpenAI 设置的机制就是模型只能使用预先设置好的声音,同时还有个名为输出分类器来检测模型是否偏离了预设的声音。

无论是哪种情况只要出现 “违规” 系统应该就会进行修正,但此次红队测试的案例表明人工智能通过某种方式突破了限制,OpenAI 并未透露修正的情况,但该公司强调已经采取了安全措施用来防止再次出现这种情况。

理论上说只要出现这种问题想要彻底解决就是非常困难的,毕竟模型在长期对话中总是可能找到某种方式突破安全边界,现在缝缝补补可能也只是减少发生的概率,想要彻底杜绝应该比较困难。

除笔记和教程外,其它资源均收集于互联网,版权争议与本站无关,其它资源仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容,否则,一切后果请用户自负。
本站如果侵犯你的利益,请务必携带权利证明请发送邮箱到doraera@163.com ,我们会第一时间为您处理。

给TA打赏
共{{data.count}}人
人已打赏
科技资讯

CrowdStrike被评选为最史诗级失败奖获得者

2024-8-13 9:06:35

科技资讯

Microsoft Defender存在缺陷可被绕过安全警告

2024-8-13 9:18:51

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索