无论是我们的家里还是身上或多或少都会携带智能语音设备,如今甚至连儿童玩具也越来越智能了。但是当我们与这些虚拟助手交谈的时候,背后倾听的人究竟是谁?我们是否还有隐私可言?
作者 | James Vlahos
译者 | 弯月
责编 | 屠敏
出品 | CSDN(ID:CSDNnews)
以下为译文:
“血案”引发的智能设备隐私问题
2015年11月21日,James Bates和三位朋友观看了阿肯色州野猪队与密西西比州斗牛犬队的比赛。Bates居住在阿肯色州本顿维尔市,他和他的朋友们喝着啤酒和伏特加,观看了一场紧张的橄榄球比赛。后来,野猪队以51-50输掉了比赛,Bates的一位朋友悻悻而归,而Bates和其余两位朋友去后院的热水浴缸里继续饮酒。据Bates事后说,凌晨1点左右的时候他上床睡觉了,而他的两位朋友(其中一人名叫Victor Collins)打算在他家中过夜。次日清晨,Bates起床后却发现两位朋友不见了。可是,当他打开后门,才发现热水浴缸中漂浮着一具尸体,此人正是Collins。
这在当地是一起严峻的死亡事件,但如果不是由于本顿维尔市警方在调查死因的时候,将世界上最强大的公司亚马逊也卷了进来的话,可能Victor Collins的死永远也不会引起国际的关注。Collins的死亡引发了一场关于语音计算时代隐私的争论,这些讨论让大科技公司感到不安。
橄榄球比赛的次日清晨,Bates报了警。警方发现了打斗的痕迹,觉得很可疑——地上散落着热水浴缸的头枕、把手以及两个破碎的瓶子。Collins的一只眼睛乌青,嘴唇肿胀,而浴缸中的水也被血染红了。Bates说,他不知道发生了什么事情,但警方觉得很可疑。 2016年2月22日,警方以谋杀罪逮捕了Bates。
在搜查犯罪现场时,调查人员注意到了亚马逊的Echo。由于警察认为Bates可能没有说实话,所以他们想试试看Echo是否可能在无意间记录了有关真相。2015年12月,调查人员向亚马逊提出了搜查令,要求亚马逊提供“录音、转录记录或其他文本记录形式的电子数据”。
亚马逊提交了Echo记录的一份事务记录,但没有提供任何音频数据。亚马逊在提交给法庭的一份文件中称:“鉴于第一修正案的重要性与隐私权的问题,逮捕令应予以撤销。”Bates的律师Kimberly Weber用更为通俗的语言阐述了这一论点:“一份理应改善你的生活的圣诞礼物,如今却变成了你的罪证。”
亚马逊的Echo带有麦克风、能够收录到各个房间的声音。苹果、Google和微软的智能家居产品,以及我们所有手机中配备麦克风的AI也一样。作家Adam Clark Estes曾说过:“购买智能扬声器,实际上等同于花钱让一家大型科技公司监视你。”
亚马逊对此做出了反击,认为其产品受到了不公平的诽谤。没错,他们的设备时刻在听候指令,但绝不会传输听到的所有内容。只有当设备听到有人叫它“Alexa”时,才会将语音发送到云端进行分析。Bates不太可能会明目张胆地说出自己的罪行。例如:“Alexa,我该如何把尸体藏起来?”但可以想象这台设备可能收录了一些调查人员感兴趣的东西。例如,如果有人有意激活Echo(如播放歌曲等正常的要求),而设备可能录下了当时的背景声音,比如有人争吵的声音等。如果Bates在凌晨1点之后向Echo发出了任何请求,那么就证明他所说的上床睡觉的时间有误。
2016年8月,一名法官接受了亚马逊可能持有有利证据的观点,批准了第二次搜查令,准许警方获取亚马逊之前保留的信息。就在双方陷入僵局的时候,情况发生了突变——Bates坚持认为自己无罪,所以他和他的律师表示,他们并不反对警察获取这些信息。于是,亚马逊表示妥协,但要求警方永远不能透漏Echo记录的有关犯罪的任何内容。然而,2017年12月,检察官提出了驳回此案的动议,称Collins的死亡有不止一种合理的解释。但该案件引发的监视问题掀起了轩然大波,久久无法散去。
各大科技公司坚持认为,他们没有使用虚拟助手和家用小工具来监视他们的用户,这些工具只在收到明确指示时,才会接收指令。至少就外部的检验结果而言,这种说法似乎属实。但这并不意味着挑战传统隐私观念的监听没有发生,或不可能发生。
科技公司的隐私保卫战
家用设备威胁到我们的隐私观念的方式有很多种。一种是通过监听改善语音识别系统。当你按下Hello Barbie这款芭比娃娃闪闪发光的束衣扣时,她的数字耳朵就会竖起来。当你说“OK,Google”的时候,Google的语音助手也会被激活。亚马逊的Alexa最喜欢有人叫她的名字。但是一旦这些设备被激活,接下来会发生什么呢?
苹果向来以保护隐私为傲,据称Siri会尽可能地满足使用iPhone或HomePod的用户。在将用户所说的话发送到云进行其他分析时,会对用户的信息进行编码。为了便于语音识别系统学习更好地理解人的声音,这些信息会被保存六个月。在这之后,为了帮助改善Siri,这些数据在去除有关用户的信息后,会被保存在另一个副本中长达两年。
大多数其他公司并没有采取本地处理的方式,而是会将所有音频传输到云端,通过更强大的计算资源进行处理。然后,由计算机判断用户的意图并遵从用户的命令。在这之后,这些公司本可以删除请求和系统的响应,但通常他们都不会这样做。原因就在于这些都是数据。在AI会话中,你拥有的数据越多就越有利。
几乎所有的机器人厂商,从业余爱好者到大型科技公司的人工智能向导,都会审核人们与这些机器人之间的互动内容。目的是为了查看哪些方面做得不错,哪些方面需要改进,以及用户感兴趣的讨论内容或希望完成的事项。这种审核流程有多种形式。
聊天记录有可能是匿名的,因此审阅者看不到用户的姓名。有些审阅者只能看到汇总的数据。例如,他们有可能发现,有些机器人经常在对话中把天聊死,从而他们可以知道需要调整语句。微软和Google以及其他公司的设计师也会收到有关最受欢迎的用户查询的详细报告,所以他们知道需要添加哪些内容。
但是,在这种审核的过程中,也可能接触到非常私密的信息。在我访问过的一家会话计算公司的办公室里,员工向我展示了他们每天收到的邮件里都会列出用户与某家公司聊天应用之间的最新交换信息。
他们的员工打开了一封这样的电子邮件,并点击了播放的图标。我通过清晰的数字音频,听到了一个孩子的自言自语:“我只是一个男孩,我有一件绿色的恐龙衬衫……而且,巨大的脚……我家里有很多玩具和一把椅子……母亲只是一个女孩,我认识我的妈妈,她可以做任何她想做的事情。每天早上我起来的时候她已经去上班了,但晚上她会回家。”
这段录音并没有任何不妥之处。但是当我听到这段录音时,心里隐隐感到一阵不安,仿佛看见有个小男孩的房间里徘徊。这次经历让我意识到当我们通过电话或智能家居设备与虚拟助手交谈时,我们假设自己完全是匿名,另一端只有一台电脑,是吗?并不一定哦,很可能有人在监听、做笔记、学习。
有时监听也会在不经意期间发生。2017年10月4日,Google邀请记者参加旧金山SFJazz中心一款产品的发布会。由设计师Isabelle Olsson负责宣布全新推出的Google Home Mini,这是一款只有百吉饼大小的设备,是Google为了回应亚马逊的Echo Dot而推出的产品。Olsson说:“家庭是一个特别私密的地方,人们对他们选择的东西都非常挑剔。”展示结束后,Google把Mini赠送给了与会者。其中一位名叫Artem Russakovskii的作家将这款赠品带回了家,但随后他对自己的此举感到十分懊悔。
在使用了几天Mini后,Russakovskii上网查看了他的语音搜索记录。结果却震惊地发现,这款设备已经录制了几千段小音频——该设备本不应该录制这些音频。后来,他在Android Police网站写道:“由于硬件的缺陷,不知不觉中我受到了来自Google Home Mini一天24小时不间断的监视。”他向Google投诉,Google在5小时内派来了一名代表,换掉了他的故障设备中的两个部件。
与其他类似的设备一样,你可以通过“OK,Google”或按下设备顶部的按钮激活Mini。Russakovskii写道,但问题在于该设备有“臆想症”:它会幻想有人按了激活按钮。后来,Google表示,这个问题仅影响了促销活动中发放出去的少数几台设备。再后来,Google通过软件更新修复了这个问题。为了进一步消除用户的恐惧,Google宣布永久禁用所有Mini的触控功能。
然而,这种回应措施并不足以满足电子隐私信息中心的要求。2017年10月13日,该倡导组织在一封信中强烈要求消费者产品安全委员会召回Mini,理由是它“允许Google在未经消费者知情或同意的情况下,拦截和记录用户在家中的私人谈话”。
没有任何信息表明Google在故意窃听。尽管如此,如果连Google这样的公司都会犯这样的错误,那么随着语音设备的剧增,其他公司更容易犯同样的错误。
你是否真的被监听了?
如果你想知道政府机构或黑客是否能够听到你与语音设备之间的谈话,那么请考虑一下你对着这些设备说完话后,接下来会发生什么。有隐私保护意识的苹果会保留你的语音,但会去掉你的姓名或用户ID。然后,给每个用户分配随机的数字字符串,在6个月后还会断开对话与数字字符串之间的关联。
与此同时,Google和亚马逊会全权保留讲话者与其对话之间的联系。任何用户都可以登录他们的Google或亚马逊账号,查看所有查询的列表。我曾试过Google,我可以听到其上的所有录音。例如,点击2017年8月29日上午9点34分的播放图标,我听到自己问:“铅笔刀用德语怎么说?”虽然这些语音记录都可以删除,但是必须由用户动手。Google用户政策声明中说:“Google Home和Google助手的对话历史记录会一直被保存下来,直到你动手删除为止。”
这是隐私方面的新问题吗?然也。Google和其他搜索引擎同样会保留你输入的所有Web查询,除非你动手删除。所以你可能认为,语音存档只不过是同样的现象而已。但是对某些人来说,语音记录感觉更具侵略性。另外,还有一个问题。录音常常会把背景中其他人的声音也记录下来,比如你的伴侣、朋友和孩子等。
对于执法机构来说,如果想获取本地存储的录音或数据(保存在你的手机、计算机或智能家居设备上的数据),则需要拿到搜查令。但是,在语音传输到云之后,隐私保护就被大幅削弱了。纽约福德姆法学院法律和信息政策中心主任Joel Reidenberg表示,“有关隐私的合理预期法律标准已经失效了。根据第四项修正方案,如果你安装语音设备,而且会向第三方传输数据,那么就相当于你放弃了隐私权。”根据Google透明度报告,2017年美国政府机构曾要求其提供17万多用户账号的数据。(该报告没有说明这些请求中有多少是语音数据,有多少是网络查询或其他信息的日志。)
如果你没有在家中从事任何违法行为,也不用担心被诬告,那么也许你不需要担心政府可能会要求提供你的语音数据。但是,如果有些公司持有你的录音数据,那么仍然有一种普遍存在的风险。黑客可以利用你的账号和密码,窃听你在家中私下发出的请求。
各大科技公司声称他们没有恶意窃听,但黑客并不会以窃听为耻。虽然各个公司通过密码保护和数据加密来打击窃听活动,但安全研究人员的测试以及黑客的破坏表明,这些保护措施远非万无一失。
有一种在线的毛绒动物玩具CloudPets,其中有小猫咪、大象、独角兽,还有泰迪熊。孩子们可以对着这些毛绒玩具录制简短的语音信息,这些信息可以通过蓝牙传送到附近的智能手机上。然后,再发送到远方的父母或其他亲戚手中,无论他们在市里上班,还是在世界的另一个角落战斗。反过来,父母也可以在手机上录制一条消息,并发送到毛绒玩具上进行播放。
看似这是一个温馨甜蜜的场景。然而,问题在于CloudPet将80多万名用户的认证信息,以及儿童和成人之间记录的200万条消息保存在了在线数据库中。2017年,黑客获取了很大一部分数据,甚至向该公司提出了勒索赎金。
安全研究员Paul Stone发现了另一个问题:CloudPets毛绒玩具与配套的智能手机应用之间的蓝牙配对中没有使用加密,也不需要身份验证。他购买了一只独角兽的毛绒玩具进行测试,发现很轻易就可以入侵该设备。
在Stone在网上发布了一段示范视频中,他的独角兽玩具大喊:“杀呀!杀呀!”同时他开启了麦克风录制,该毛绒玩具瞬间变成了监听器。Stone在他的博客上写道:“蓝牙LE通常的范围在10-30米。所以别人站在你家门外就可以轻松地连接到玩具上,上传录音,并通过麦克风接收音频。”
毛绒玩具可能不过是黑客的玩具目标,但其中展示的脆弱性同样会出现在为成年人设计的互联网语音设备上。安全研究员Troy Hunt记录了CloudPets的违规行为,他表示,“虽然这种风险与我们每天所面对的风险——大量数据的产生和上传到网上的风险——并没有不同,但这种风险牵扯到了孩子,我们就不能容忍。”
其他研究人员也发现了很多侵犯隐私的技术方式。想象一下,有人可以通过交谈控制你的手机或其他语音AI设备,如果被你听到了,那么这种计划就会失败。但是如果这种攻击你听不到呢?中国浙江大学的一个研究小组在2017年发表的一篇论文就针对这种情况展开了调查。这些研究人员设计了一种名叫海豚攻击的场景,黑客可以通过安装在受害者办公室或家中的扬声器发出未经授权的命令。黑客还可以在将在受害者经过时,将一种便携式的扬声器放到受害者身上。关键在于,这些命令可以发出20千赫以上的超声波信号,虽然人耳听不到这些信号,但是研究人员可以轻易地通过操纵音频,让数字设备接受这些指令。
在实验室的测试中,这些科学家成功地攻击了亚马逊、苹果、Google、微软和三星的语音设备。他们欺骗这些语音AI访问了恶意网站、发送短信和电子邮件、调暗屏幕,并降低音量帮助隐藏攻击。研究人员通过这些设备非法地监听了电话以及视频通话,这意味着黑客也可以窃听,甚至可以看到受害者周围的情况。他们甚至还入侵了奥迪SUV的导航系统。
科技是把双刃剑
大多数人不希望黑客、警察或公司监听他们。但是最后一种情况可能会让大家从另一个角度考虑监听的问题。如上所述,为了提高语音设备,会话设计师会查看聊天日志,有时他们感觉在听到某些内容时有必要采取一定的行动。
以美泰公司的芭比娃娃为例。在设计的过程中,他们遇到了一系列困惑的假设情况。例如,如果一个孩子告诉芭比娃娃“我爸爸打我妈妈”,该怎么办?芭比娃娃的设计者认为无视这类的音频在道德上是不正确的。但是,如果他们将听到的内容报告给警方,那么他们实际上就成了独裁者。在艰难的讨论之后,他们认为芭比娃娃应该做出反应说:“你应该把这些话告诉你信任的某个大人。”
然而,美泰公司似乎希望做得更好。在关于Hello Barbie的常见问题解答中,他们写道:“我们不会实时监控儿童和玩具之间的对话。但是事后,我们可能会审查某些对话,以便帮助我们测试和改进产品。如果我们在这类审查中发现任何有关孩子或其他人安全的问题,我们也会按照要求,根据具体情况与执法机构和法律程序合作。”
大型科技公司也面临同样的难题。由于他们的虚拟助理每周需要处理数百万个语音查询,因此他们无法让员工监控每个用户的对话。但这些公司确实对系统进行了训练,以收录用户可能提到的某些高度敏感事宜,例如,我在测试Siri的时候说:“我想自杀。”她回答说:“如果你想自杀,那么你可以跟全美预防自杀生命线的某个人谈谈。”而且Siri还提供了电话号码,并拨打了电话。
在此向Siri表示感谢。但是问题在于,让这些虚拟助手照顾我们就意味着这些角色所承担的责任不清不楚,还有一定的局限性。如果你告诉Siri你喝醉了,有时她会打电话帮你叫出租车。但是,如果她没有,而且你出了车祸,那么苹果公司是否应该因为Siri没有说这些话而负责?
什么时候语音设备应该采取行动?如果Alexa无意中听到某人尖叫着:“救命,救命啊,有人要杀我!”,那么她应该自动报警吗?
通信行业顾问分析师Robert Harris认为上述场景并不牵强,他认为语音设备引发了新的道德和法律问题。他表示:“个人助理会对他们的知识负责吗?这样的功能将来有可能会成为一种负担。”
人工智能监控的使用清楚地表明,你应该谨慎地使用深入生活的每种技术。了解语音设备的激活方式和时间。如果有必要,你应该找到保存的语音数据并删除。如果你对这些设备持有疑问,尤其是那些隐私政策不清不楚的公司的产品,那么请拔掉插座。
原文:https://www.theguardian.com/technology/2019/mar/26/smart-talking-are-our-devices-threatening-our-privacy
本文为CSDN翻译,转载请注明来源出处。
声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。
本文链接:https://www.ebaa.cn/17358.html