发布时间:04-23
编辑:
如何阻止身边的麦克风“监听”你?
您有没有注意到关注您看到的在线广告与您最近与朋友和家人谈论过的事情非常相关?如今,麦克风几乎嵌入到所有事物中,从手机、手表、电视到语音助手,它们总能听您说的话。计算机不断使用神经网络和人工智能来处理语音,以获得您的信息。如果您想防止这种情况发生,您该怎么做呢?
哥伦比亚工程公司的研究人员开发了一种新系统,可以产生耳语般安静的声音,您可以在任何房间,任何情况下播放,以阻止智能设备监视您。而且它很容易在计算机和智能手机等硬件上实现,使人们能够保护他们的声音隐私。
“实现这一目标的一个关键技术挑战是让一切运行得足够快。”计算机科学助理教授Carl Vondrick说,“我们的算法能够在80%的时间内阻止流氓麦克风正确听到您说的话,这是我们测试平台上最快、最准确的算法。即使我们对流氓麦克风一无所知,例如它的位置,甚至是在它上面运行的计算机软件,它也可以正常运行。它基本上可以通过无线的方式伪装了一个人的声音,并将其隐藏在这些监听系统中,而不会给房间里的人们之间的对话带来不便。”
保持领先地位
虽然该团队在破坏自动语音识别系统方面的结果,理论上在人工智能中是可能的。但足够快地实现它们并用于实际应用仍然是一个主要瓶颈。问题在于,“现在”(在这个特定时刻)打断一个人说话的声音,并不是一秒钟后会打断言语的声音。当人们说话时,他们的声音会不断变化,因为他们说的词不同,说话速度非常快。这些变化使得机器几乎不可能跟上一个人说话的快节奏。
“我们的算法能够通过预测一个人接下来会说什么的特征来跟上,给它足够的时间来产生正确的语音片段,”该研究的第一作者,Vondrick实验室的博士生Mia Chiquier说。“到目前为止,我们的方法适用于大多数英语词汇,我们计划将算法应用于更多语言,并最终使语音片段听起来完全不可察觉。”
启动“预测性攻击”
研究人员需要设计一种算法:可以实时破坏神经网络;可以在语音时连续生成;适用于语言中的大多数词汇。虽然早先的工作至少解决了这三项要求中的一项,但没有一项达到所有三项要求。Chiquier的新算法使用她所谓的“预测攻击”,这种信号可以破坏自动语音识别模型被训练为转录的任何单词。此外,当攻击声音通过无线播放时,它们需要足够响亮,以破坏任何可能很远的流氓“监听”麦克风。攻击声音需要承载与声音相同的距离。
研究人员的方法通过预测对信号或单词未来的攻击来实现实时性能,该攻击以两秒钟的输入语音为条件。该团队优化了攻击,使其音量与正常背景噪音相似,允许房间里的人自然交谈,而不会被自动语音识别系统成功监控。该小组成功地证明了他们的方法在具有自然环境噪声和复杂场景几何形状的真实房间内有效。
人工智能伦理
“对于研究人员来说,人工智能技术的伦理问题是一个基本问题,但它似乎属于一个单独的思维过程。就像我们终于制造了一辆驾驶汽车,但忘记了设计方向盘和刹车一样,“宾夕法尼亚大学计算机和信息科学教授,机器学习的领先研究员Jianbo Shi说。“作为一个团体,我们需要'有意识地'思考我们从最早的研究设计阶段开始开发的人工智能技术对人类和社会的影响。”Mia Chiquier和Carl Vondrick的研究提出了一个问题:“如何使用AI来保护我们免受意外AI使用的侵害?”他们的工作使我们中的许多人朝着以下方向思考:不要问合乎伦理的人工智能能为我们做什么,而是要问我们能为合乎伦理的人工智能做什么?”一旦我们相信这个方向,人工智能伦理的研究就会同样有趣和有创意。”
The study is titled “Real-Time Neural Voice Camouflage.”
Authors are: Mia Chiquier, Chengzhi Mao, and Carl Vondrick; Department of Computer Science; Columbia Engineering
信息源于:eurekalert
我对产品很感兴趣,请尽快联系我!
请问我所在的地区有商家吗?
我想详细了解购买流程!
购买该产品享受八折优惠,还能得到技术支持?
我想购买请电话联系我!
购买所需要的费用有哪些?
产品很好,请尽快联系我详谈!
声明:该文观点仅代表作者本人,音频应用发布平台仅提供信息存储空间服务。加微信:254969084带你进群学习!百家号免费发布
发布
电话
微博
公众号
回顶部