工程聚丙造粒厂家
免费服务热线

Free service

hotline

010-00000000
工程聚丙造粒厂家
热门搜索:
技术资讯
当前位置:首页 > 技术资讯

苹果Siri带有歧视意味的名词解释到底从哪来新日

发布时间:2020-01-16 02:38:45 阅读: 来源:工程聚丙造粒厂家

苹果CEO库克

北京时间12月4日消息,据科技网站Mashable报道,Siri摊上大事了,因为它在解释一个名词时带有明显的种族歧视倾向。这种情况到底是苹果故意而为还是出了什么别的问题呢?

众所周知,Siri的回答一直都挺逗的,但这家伙最近却因为一个词条的解释遭到了各界的批评。

黑人人权运动Black Lives Matter的参与者德雷·麦克森(DeRay Mckesson)在使用Siri时发现了一个严重的歧视问题,语音助手将单词“bitch”(母狗)定义为“黑人常用俚语”。下面笔者摘录了一些Twitter上的内容。

Siri搜索“Bitch”这个词显示的结果

“刚听到这个消息我还不信,试了一下我才发现还真是这样,苹果你够了。”

“我也遇到了这种情况,真恶心。”

首先,笔者想说的是这种问题不是Siri独有。苹果OS X内建的字典也有这种问题,此外,试试谷歌搜索你也会得到相同的解释,不过谷歌已经迅速对其进行了修改。笔者针对该问题询问了苹果和谷歌,不过两家公司都不予置评。

Siri到底吃错了什么药?

两家公司的名词解释词条都来自新牛津美语大辞典,但我们在牛津在线词典查询时,却发现它们对其加上了“无礼”的标签。而在Kindle版的新牛津美语大辞典上,这种歧视性的定义并没有出现。这到底是怎么回事呢?

由于这些词条来自牛津词典,所以两家公司都会调用其数据库API,而这些数据来自牛津大学出版社,这也就意味着其词条的更新速度和频率非常缓慢。

只要查询之前的网页快照,我们就能发现,这个侮辱性的词条之前确实存在,Siri背黑锅还真是因为数据升级缓慢?

这个问题也凸显了数据利用方面的问题。苹果和谷歌借助其他机构的数据来方便人们的搜索,虽然很便捷,但语音提问和传统的网页搜索是两码事,因此很容易出岔子。

对于赛事比分等结果,语音助手能很好的完成任务,但对于此类词条解释,苹果和谷歌还是要负起责任,加大检查力度。

当然,这也不是苹果第一次因为这类问题遭炮轰了。2013年,Siri就因为对“retard”(傻子)一词的错误定义而被骂的狗血喷头。今年早些时候俄罗斯版的Siri也因为对同性恋者的不尊重而广遭吐槽。不过最终苹果都对这些词条进行了修改。

挂号服务平台官网

网上预约挂号合作

名医汇

网上预约挂号收取服务费