推特举办算法偏见竞赛,负责人:我们无法单独解决伦理挑战
近日,Twitter发起了一场黑客竞赛,来寻找其自动裁剪图像的算法中可能存在的偏见和潜在危害。Twitter在声明中说,这是业内第一个针对算法偏见的竞赛。
Twitter将公开其图像自动裁剪算法的全部代码,邀请全社会有兴趣的人们来参与寻找该算法的危害,第一名将获得3500美元奖金。
Twitter表示,希望建立一个专注于机器学习伦理的社区,邀请社会参与,主动发现算法伦理问题。Twitter机器学习伦理团队负责人发文称:''我们无法单独解决这些挑战。”
1
Twitter图像自动裁剪算法偏向白人而非黑人
所谓自动裁剪图像算法,是指用户在Twitter上传照片时,算法会自动识别并预测人们对图片中哪个区域感兴趣,进行裁剪生成缩略图在页面中展示。
对于同样一幅图片,黄色方框是算法为不同纵横比的设备生成不同的缩略图。图自Twitter研究团队论文
争议起源于去年秋天,一名加拿大的学生发现,他上传和同学的合照时,Twitter的缩略图总是显示他的脸,而不是肤色较深的同学,这引发了网友的关注。此后,大量用户提出了同样的质疑,该算法存在种族和性别偏见,在裁剪多人照片时会更多裁掉黑人。
面对争议,今年五月,Twitter的研究团队发表了一篇论文,通过实验证实了该算法在裁剪图片时的确偏向白人而非黑人,偏向女性而非男性。该研究团队更进一步提出,评估技术伦理需要特别考虑其社会危害。Twitter是一个有着巨大影响力的平台,当一幅图片被数百万次传播时,这种危害会产生深远的社会影响,将加重社会偏见,使边缘化群体更为边缘。
随后,Twitter取消了在手机App上自动裁剪照片的功能。
2
举办黑客竞赛,发现算法危害将获奖励
这并不是终点。近日,Twitter发起竞赛,将公开该算法模型的全部代码,邀请所有有兴趣的工程师和黑客报名参赛,寻找代码中可能存在的偏见,并展示算法可能带来的危害。按Twitter官方的说法,这一举动是开创性的。在计算机领域,大大小小的黑客比赛并不鲜见,但大多针对安全漏洞等问题,针对算法偏见的,这还是头一次。
根据赛制,Twitter将算法的伦理危害分成十类。例如,图像识别错误地将黑人标记为大猩猩,这是“诋毁”;对黑人名字的搜索更有可能产生关于逮捕记录的结果,这是“刻板印象”;面部识别系统无法识别亚洲人的面孔,这是“误识别”。
参与者应根据代码,识别出该算法具有哪种具体的危害,并估计危害发生的可能性、影响的用户规模等,最终由评委给出分数。该竞赛设置了不同的奖项,第一名将获得3500美元奖金。
Twitter在声明中提到:“发现机器学习模型的偏见是很难的。很多时候,当意外的道德危害被发现时,技术已经走向社会公众了。”因此,Twitter发起这场竞赛,希望邀请社会参与,主动发现算法的伦理问题。
Twitter表示,希望建立一个专注于机器学习伦理的社区,来“帮助发现比我们自己所能解决的更广泛的问题”。
据了解,谷歌、亚马逊、Facebook等科技巨头一般都会在公司设立专门的技术伦理团队,以评估技术的伦理道德危害。公司的伦理部门通常以内部评估的方式工作,就像此前Twitter研究团队内部实验证实算法偏见一样。而此次,Twitter声称“正在尝试一些更激进的方法”来解决机器学习的伦理问题。
对于举办算法偏见黑客竞赛,Twitter 的“机器学习道德、透明度和问责制团队”的负责人Rumman Chowdhury在推文中写道:“因为我们相信人们应该因发现这些问题而获得奖励,我们无法单独解决这些挑战。”
编译/综合:南都见习记者李娅宁