苹果信用卡被指责性别歧视 AI算法真的有黑箱么?
北京日报客户端 | 作者 赵莹莹

2019-11-12 17:44


经济

被蒂姆·库克称为美国有史以来发行最成功的信用卡——Apple Card,又双叒叕“出事”了!日前,有用户抱怨,夫妻共同申请了Apple Card,但丈夫获得的信用额度却是妻子的20倍,涉嫌性别歧视。甚至,就连果公司联合创始人史蒂夫·沃兹尼亚克也表示被歧视了。“黑箱算法”和性别歧视真的存在么?

夫妻同申卡 丈夫信用额度是20倍

今年8月20日,美国消费者迎来了苹果与高盛合作发行的信用卡——Apple Card,高盛方面的数据显示,截至9月30日,上线仅仅40天,他们已经为苹果用户发放了共计100亿美元的信用额度,可谓是非常受欢迎了。

然而,体验时间不足三个月,Apple Card就遭到了苹果用户的花式吐槽。

日前,美国信息技术行业企业家汉松(Hansson)在推特表示他和妻子提交的是联合纳税申报表,居住在共同财产州(即实行夫妻共同财产制的州),而且已经结婚很长一段时间,但苹果的“黑箱算法”却认为他的信用额度应是妻子的20倍。

“显然,即使女性提前还清了全部欠款,也不会有良好的信用”。汉松在推特中提出了Apple Card存在性别歧视的问题。

很快,苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)也出声“应援”。史蒂夫·沃兹尼亚克透露,自己的信用卡额度是妻子的10倍,但我们没有独立的银行或信用卡账户,也没有任何独立的资产。这就是2019年的高科技。”

种种花式吐槽,对苹果和高盛来说,显然不是好消息。作为苹果公司发行的首张信用卡,Apple Card以不收取境外交易费、年费、转账手续费等费用,以及可为用户提供了一定的返现,而在竞争激烈的信用卡市场获得了不小的优势。根据高盛提交的文件,截至9月30日,他们已经为苹果用户发放了共计100亿美元的信用额度,Apple Card的持卡人贷款余额(即未还款金额)共计7.36亿美元。而这时距离Apple Card上线仅仅过去了40天。

技术所限  AI算法确有歧视

AI算法真的存在“黑箱”么?

就此,记者采访了奇安信行业安全研究中心主任裴智勇。裴智勇表示,客观上看,目前AI算法确实存在一定的歧视,但它通常不是人工智能的设计者故意为之,而是技术本身的局限性所导致。具体点说,人工智能的学习过程不完备,或者是学习样本的不均衡,以及算法设计本身不够完美,就会导致歧视。

举例来说,在进行算法训练时,若使用的都是白色人种或黄色人种的照片,那么,到实际使用时,遇到黑色人种,就会出现问题。

生活中,每个人的信用卡额度都不尽相同。到底什么指标才是真正影响信用卡额度的指标?互联网金融、产业经济研究员江瀚就在公号撰文给出了四条指标。

一是财产。对于大多数信用卡的使用来说,财产的多寡是直接衡量信用额度的指标,也是比什么都重要的基础性指标。

二是学历和年龄水平。学历和年龄直接代表着未来财富状况,从统计学的大概率角度来看,高学历又年轻的用户往往未来取得高薪酬的概率会比低学历高龄用户概率大很多。

三是所在地区的平均收入水平。一般情况下,不同地域之间有着非常不同的收入差额,商业银行在给授信的时候,往往会根据这个进行调整。

四是工作单位情况。对于银行来说,工作单位的情况并不是高收入就好,而是高稳定性,所以才会出现,一些高收入的互联网公司特别是互联网创业公司往往并不会给很高的授信,反而是类似于公务员、教师以及央企员工的授信会给很高。

图片来源:视觉中国

 


编辑:赵莹莹


打开APP阅读全文