编码歧视 Coded Bias(2020)
<div class="quote"><blockquote>麻省理工学院媒体实验室的研究员乔伊·波罗瓦尼发现了人脸识别技术的缺陷,本纪录片对于算法的偏见进行了探讨。</blockquote></div><p style="text-align: center;"></p><p><b>编码歧视 Coded Bias (2020)</b></p><p>导演: Shalini Kantayya</p><p>编剧: Shalini Kantayya</p><p>类型: 纪录片</p><p>制片国家/地区: 美国 / 中国大陆 / 英国</p><p>上映日期: 2020-01-30(圣丹斯电影节)</p><p>又名: Code for Bias</p><p>IMDb链接: tt11394170</p><p>https://movie.douban.com/subject/34909073/</p><p>麻省理工学院媒体实验室的研究员乔伊·波罗瓦尼发现了人脸识别技术的缺陷,本纪录片对于算法的偏见进行了探讨。</p><p>Exploring the fallout of MIT Media Lab researcher Joy Buolamwini’s startling discovery that facial recognition does not see dark-skinned faces accurately, and her journey to push for the first-ever legislation in the U.S. to govern against bias in the algorithms that impact us all.</p><p style="text-align: center;"></p><p>弗洛伊德之死掀起了美国乃至全球各地又一轮反对种族歧视的运动,人们对结构性不平等的认识也进一步提高了。尽管大众关注的焦点是美国警察的暴行,但也有许多学者、活动家和艺术家发出警告——全面的种族主义是如何通过通讯和监控技术在科技行业等其他领域被加剧的。</p><p>在沙里尼·坎塔亚的纪录片《编码歧视》中,导演跟随麻省理工学院媒体实验室研究员、算法正义联盟(algorithmic justice League)创始人乔伊·布兰维尼,发现了面部识别的一个根本问题:布兰维尼意识到计算机视觉软件无法跟踪她的脸,但当她戴上白色面具时,效果却很好。这是面部识别和人工智能系统中存在歧视的最新证据。</p><p>坎塔亚与布兰维尼一起采访了作家、研究人员和活动家,例如凯茜·奥尼尔、梅勒迪斯·布鲁萨德、萨菲亚·诺布尔和西莉·卡洛,探讨了面部识别或犯罪预测等软件目前存在的技术问题。这些技术常常与种族监控、优生学或人相学等黑暗的历史实践有关。</p><p>这部在圣丹斯电影节上放映的影片,以批判的眼光审视了假定的算法“客观性”,奥尼尔将其定义为“利用历史信息对未来做出预测”。虽然算法通常被看作是公正、客观且理性的,但它们可以重现创造者的偏见。</p><p>布鲁萨德说,我们给科技灌输了“神奇的思维”,这虽然赞扬了它的好处,却掩盖了它的负面影响。</p><p>《编码歧视》纪录片展现了算法歧视对现实世界产生负面影响的。影片描述了休斯顿的一个学区如何在其“增值”教师评价系统中使用秘密算法,该算法甚至将获奖教师归类为“差老师”;警察使用的面部识别软件也经常将黑人误判为嫌疑犯。</p><p>影片还展示了深深植根于我们生活中的技术如何增强了现有的不对称权力动态。影响人们生活的算法通常隐藏在“黑匣子”中,它们由大型科技公司建立,利用所有权保护政策来阻止公众了解其算法如何工作,公司正在收集我们的数据。</p><p></p><hr class="l"><p><b>百度网盘:</b></p><p>VIP可见</p><p>**** Hidden Message *****</p><p>VIP可见</p><p>**** Hidden Message *****</p><p></p><hr class="l"><p></p><p></p><hr class="l">
页:
[1]