米鼠商城

多块好省,买软件就上米鼠网

最新项目

人才服务

靠谱的IT人才垂直招聘平台

亚马逊、谷歌接连暴雷,AI语音隐私问题凸显

  • qwertt
  • 3
  • 2019-07-17 05:02

点击右上角关注我,成为科技圈最靓的仔!

智东西(公众号:zhidxcom)文 | 年年

导语:随着AI语音技术的发展,个人隐私受到了巨大的挑战,你说的每句话都有可能正在被“偷听”。

智东西7月16日消息,随着AI语音技术的发展,用户的语音隐私问题愈加严重。不到半年,亚马逊Alexa(亚马逊智能语音助手)和Google Assistant(谷歌智能语音助手)相继被爆泄露用户语音信息,有些甚至是语音助手未被唤醒的情况下录制的用户语音。

亚马逊和谷歌在全球雇佣数千名员工专门审查和分析这些用户录音,它们的目的是为AI语音训练收集素材从而让AI更“聪明”。通过这些录音,有心之人可以定位你的身份、住址甚至是更私密的个人信息。在AI语音技术发展的过程中,隐私问题日益凸显。

目前各国已经开始意识到互联网时代公民的隐私问题,并相继酝酿出台了相关的隐私法案。不过AI语音等新技术的发展给各国法律不断提出新的挑战,如何进行更有效的隐私保护仍然是一个待解的问题。

一、AI语音技术上演“窃听风云”

今年4月11日,彭博社披露了亚马逊在全球雇佣数千名员工,收听Echo用户家中和办公室录制的对话。这些员工由亚马逊正式员工和承包商组成,他们签署了保密协议被禁止公开谈论这件事。

据彭博社文章,亚马逊布加勒斯特(罗马尼亚首都)办事处的两名工作人员说,他们每天工作9小时,每位员工每班解析多达1000个音频片段,这个办事处占据了罗马尼亚首都Globalworth大楼的前三层,但外面并没有明显的亚马逊标志。

无独有偶,7月12日,谷歌也被披露通过Google Assistant记录用户语音信息并发送给人类进行审查。据比利时广播公司VRT NWS称,内置Google Assistant的设备正在记录用户的对话和声音,更可怕的是,超过1000个录音已经遭到泄露。

VRT NWS听了超过一千个录音片段,发现这些录音包含用户的家庭对话、电话录音和更私密的对话信息,换句话说,在你以为的私密环境中谈论的内容其实已经被录音并被用于分析。

更严重的问题是,AI语音技术造成的隐私泄露问题远不止于此。

现在越来越多的人使用内置了智能语音技术的软件,大家会通过这些软件玩游戏、购物、搜索音乐和使用电子地图等。

当你用这些软件搜索或浏览特定内容的时候,你会发现在其他软件上也能看到类似的内容甚至是与内容有关的广告。

让人意外的是,即使你没有使用这些软件,而只是在日常生活中谈论了类似的内容,当你打开这些软件的时候也可能会看到相关的内容或者收到推送的广告。

例如你可能和朋友谈到中午想吃炸鸡,当你打开外卖软件的时候你可能就会看到推荐顶部恰巧显示了炸鸡店,或者谈到想购买某个物品,那么当你打开购物软件的时候可能就会收到这种物品的店铺推荐或物品广告。

这些问题的出现可能是有意的也可能只是偶然,但不管怎样,随着AI语音技术的发展,用户的个人隐私正面临愈加严峻的挑战。

二、收集用户数据为训练AI

按照亚马逊、谷歌和其他智能语音提供商的说法,搜集的用户录音只被用来训练AI语音系统,使之能够理解用户发出的语音命令。

“我们认真对待客户个人信息的安全和隐私,”亚马逊发言人在一封电子邮件声明中表示。“我们只会标注一小部分Alexa录音,以便改善客户体验。这些信息有助于我们训练语音识别和自然语言处理系统,这样Alexa可以更好地了解您的请求,并确保服务适合每个人。”

与亚马逊的Alexa非常相似,谷歌也会收集一些Google Assistant的录音并将其转录成文本。谷歌曾保证,只有一部分人能够接触这些录音,且只会被用来训练和改进AI语音系统,所有这些录音都不关联用户身份信息并且都已经做了失真处理。

但据VRT NWS的调查,泄露的录音有一部分是在Google Assistant没有被唤醒的情况下录制的,并且部分录音能够关联到用户的身份信息,谷歌将之归因为智能语音助手的“误唤醒”(false accept)。

“很少有内置Google Assistant的设备会遇到我们所说的’误唤醒’,”谷歌的用户隐私与数据产品经理David Monsees说到。“这意味着背景中存在一些噪音或谈话,我们的软件将之理解为唤醒词(如“Ok Google”)。我们有一些保护措施,以防止在您家中发生错误接受。”

与谷歌和亚马逊类似,苹果的Siri也有人工助手,他们负责判断Siri对用户命令的解释是否与用户所说的一致。据苹果安全白皮书称,他们审查的录音不关联用户个人识别信息,并与一个随机标识符绑定存储6个月。之后,数据将从随机识别信息中剥离出来,但可能会存储更长的时间,以提高Siri的语音识别能力。

三、企业承诺保护隐私但用户不信任

在被彭博社曝光之后,亚马逊发言人通过电子邮件写道:“对内部工具的访问受到高度控制,并且仅授予有限数量的员工,他们需要这些工具来处理极少量的交互样本,从而培训和改进智能语音服务。”“我们的政策严格禁止员工出于任何其他原因访问或使用用户数据,我们对系统的滥用采取零容忍政策。”

谷歌的David Monsees于泄漏事件发生后在博客中写道“我们正在对这个领域的保障措施进行全面审查,以防止这种不当行为再次发生。”“在产品开发中,我们秉持高标准的隐私和安全守则,并让我们的合作伙伴也遵守这些标准。我们还为您提供管理帐户中存储数据的工具,您可以完全切断将音频数据存储到Google帐户,也可以选择每3个月或18个月后自动删除数据。”

虽然智能语音技术提供商表达了对于隐私保护的决心和方案,但用户对于智能语音技术还是充斥着担忧和防备,尤其担心智能语音设备会偷听他们的讲话并进行录音,谁也不想自己的个人隐私被公之于众。

根据微软在今年4月23日发表的一份报告显示,41%的智能语音助手和智能语音技术用户表达了对信任、隐私和被动聆听的担忧。

亚马逊曾发起过一项叫Alexa for Hospitality的计划,将Echo音箱放入酒店客房,以便为客人提供服务。但根据Travel Weekly的消息,Best Western酒店首席执行官David Kong说这些设备的使用率很低,大多数客人在进入他们的房间时都会断开连接。

四、保护隐私成共识,隐私立法仍落后

作为当下全球炙手可热的高新技术,AI语音技术及相关产品正飞速发展,并逐渐深入人们的日常生活。

据Canalys发布的2019年一季度全球智能音箱产品统计报告显示,2019年一季度全球智能音箱产品出货量相比2018年一季度增长了131.4%达到2070万台,全球智能音箱安装量将自2018年的1.14亿台上升到2019年的2.079亿台,同比增长82.4%,中国内地将成为今年全球增长最快的市场。

不过,AI语音技术和相关产品的高速发展更加凸显了隐私问题的严重性。随着越来越多的智能语音设备进入人们的生活中,人机语音交互会变的更加频繁,交互内容也会更加多样,如果目前的隐私现状不能得到改善,这无疑会成为一颗随时可能引爆的地雷。

2018年5月25日,欧洲《通用数据保护条例》(GDPR)生效,条例规定用户数据收集方必须清楚地披露收集的任何数据,声明数据处理的合法基础和目的,保留数据的时间以及是否与任何第三方或欧盟以外的国家共享数据。条例还规定用户有权删除自身数据,如果数据泄露对用户隐私产生不利影响,企业必须在72小时内报告任何数据泄露。2019年1月21日,谷歌被曝因违反GDPR被法国国家数据保护委员会处以5000万欧元的罚款。

2015年10月,美国联邦通过《网络安全信息共享法》,在《隐私法》的基础上进一步规定了个人隐私、自由等私权利的保护。不过,美国也在酝酿出台更严格的全国性的隐私保护法案。今年2月27日,美国参议院提出《数据隐私法案》;3月14日,美国参议院提出《2019年商业人脸识别隐私法案》提案;4月11日,美国参议院提出《隐私权利法案》等。

2016年11月7日,中国全国人大常委会颁布《中华人民共和国网络安全法》,首次从立法层面对个人信息进行了定义和不完全列举。除此之外,世界上还有许多国家也在相继推进自己的隐私立法。

目前,关于个人隐私的保护立法各国都有推进,有的已经出台,有的还在起草酝酿阶段,这对消费者隐私保护来说是一个好消息。但是,由于技术日新月异,新技术的发展不断为各国隐私立法带来新的挑战,这时法案的补充、更新就显得尤为重要。

结语:隐私泄露为AI语音发展敲响警钟

虽然谷歌、亚马逊等厂家一再强调不会滥用用户数据并进行严格地保护,各国也相继出台了自己的个人隐私保护法案,但问题是用户数据泄露还是成为了现实,这为AI语音产业的发展敲响了警钟。

用户不愿看到AI带来便利的同时也带来信息泄露的困扰,用户更不能容忍为了训练AI而被“偷听”。就像许多新技术一样,AI发展的过程伴随着问题产生的过程,只不过这次遇到的,是严峻的隐私问题,隐私无小事。

没人愿意因为使用AI新技术而泄露个人信息,在AI技术的发展过程中,如何更有效的保护用户的信息是所有人需要思考的问题。



这里给大家推荐一个在线软件复杂项交易平台:米鼠网 https://www.misuland.com

米鼠网自成立以来一直专注于从事软件项目人才招聘软件商城等,始终秉承“专业的服务,易用的产品”的经营理念,以“提供高品质的服务、满足客户的需求、携手共创双赢”为企业目标,为中国境内企业提供国际化、专业化、个性化、的软件项目解决方案,我司拥有一流的项目经理团队,具备过硬的软件项目设计和实施能力,为全国不同行业客户提供优质的产品和服务,得到了客户的广泛赞誉。

猜你喜欢

评论留言