科技新闻不知性别也能歧视 苹果信用卡额度差异揭算法歧视“隐变

科技新闻 2019-11-21134未知admin

  杰米·汉森比丈夫大卫·汉森的信用分数高,夫妇俩是均等份额共有房产,也是联合报税。然而,大卫的苹果信用卡额度竟是妻子的二十倍。不免让人质疑苹果信用卡对女性的性别歧视。

  而这不是特例。科技新闻科技新闻据BBC 11月18日报道,近日,连苹果公司联合创始人斯蒂夫·沃兹尼亚克也在社交媒体上发声称,他们夫妇的额度也相差了多达10倍,尽管夫妻俩压根就没有个人单独的银行账户或任何个人资产。

  人们误以为计算机并不存在偏见和歧视。图据BBC

  美国监管部门已经对此启动调查,运营苹果信用卡的高盛银行也受到了批评。这一事件让人们再次关注机器学习和算法存在的问题,他们在当代生活中扮演的角色,和“无意识”的性别、种族等歧视。

  算法歧视如何影响我们

  从交通、购物到生活的方方面面,算法的使用无疑已经渗透进了我们的日常生活。当代人的生活因算法而改变,很多情况下是更为便利快捷,得到了改善和提升,却也不免承担其弊病。

  人们一度误以为,计算机并不存在偏见,不会有歧视。然而,事实上,哪怕是无意识的,那些设立算法的人,那些给算法提供数据供其学习的人,还有那些数据本身,就存在偏见。因此,机器也能得出歧视性判断。

  斯蒂夫·沃兹尼亚克在大卫·汉森推文下评论称,他们夫妇的苹果信用卡额度也相差了多达10倍。

  要说算法的歧视和弊病,最典型的就是财务生活。银行使用机器学习技术来审批贷款申请,保险公司也主要以机器来衡量申请人的风险程度。对消费者来说,算法决定了他们付多少钱(如保险费),甚至决定了他们是否能得到这个产品或服务。

  以保险为例,国外所谓的“邮编彩票”就是指两个申请条件一模一样的人为房屋保险付的钱却不一样,如同买彩票。算法会用房屋所在的邮编来获得其所在地的犯罪率,进而评估房屋被盗窃等风险的几率,并以此设定保费的金额。

  在苹果信用卡案中,用户并不知道算法具体使用了哪些数据,是如何决定其额度,但很可能是使用了一些历史数据,而这些数据将一些人列为风险更高的族群。

  没具体信息也能导致歧视的“隐变量”

  据报道,负责苹果信用卡运营的高盛公司称,他们甚至根本没问过申请人的性别、种族、年纪等具体信息,因为询问这些信息是违法的。因此,信用卡额度的决定并不是基于申请人的性别。

  苹果今年8月和投行高盛合作推出信用卡,却被指控背后演算法存在性别歧视。图据BBC

  然而,这种说法忽略了“隐变量”。旧金山USF应用数据伦理中心主任瑞秋·托马斯指出:“即使你的算法没设置种族和性别数据,它依然可以在这些方面存在歧视。”

  例如,一个算法可能并不知道用户的性别,但它可能知道你是个小学老师——以女性为主导的行业。此外,算法获得的历史数据,可能是来自于警察或法官还在严重受种族影响而做出司法决定的时期。机器会从这些存在歧视的历史数据中学习,进而复制具歧视的决定。

  此外,在遇到一些没处理过的数据时,算法的表现可能会更糟糕。例如,面部和语音自动识别软件大多数都是来自于没口音的白人数据。因此,当它遇到那些不是白人,或有地方口音的人时,就会遭遇识别困难。如果你在打电话的时候遇到“智障”机器语音系统,难以沟到令人发怒的话,就会明白算法的这种漏洞。

  算法歧视,可有破解之法?

  算法的公正性早成了热议话题,但至今没能达成共识。

  方式一:让这些大公司公开其算法。然而,这些算法是价值很高的商业资产,是那些公司付着高薪,请专业人才花费数年才开发出来的。没有公司想把自家苦练的绝技免费公之于众。科技新闻例如,要是能免费得到亚马逊的算法,大多数零售商都会高兴死了,但亚马逊愿意吗?

  另一个方式是提高算法的透明度。公司告知客户哪些数据是对其算法最为重要的,而其算法又是为什么做出某种决定。然而,在透露这些信息的最佳方式上,也没能达成共识。

  还有一个方式,让算法不基于具体的信息。为保险业提供软件服务的查尔斯·泰勒保险科技公司CEO杰森·萨侯塔指出,现在群体性保险政策越来越多,保险公司通过雇主向某一类工作人员提供群体性的健康保险政策,被保人不需要填写个人信息,因为保险公司会整体考量这部分人的风险。但杰森·萨侯塔也指出,如果去除太多具体数据,保险申请人之间很难辨别区分度,这会导致产品的均质化。因此,他认为,人们应该知道为什么算法需要某些信息,而这些信息又会被如何使用。

  一旦发现了无意识造成的偏见,人们不能简单责怪这些数据,更重要的是找到方法解决偏见或歧视等问题。

  红星新闻记者 蒋伊晋 林容 编译

  编辑 张寻

莺歌燕舞新闻网 版权所有 Power by DedeCms 

联系QQ