U of T news
  • 遵循Ť新闻ü

用u牛逼工程学生的学习,麻省理工学院瞄准了偏向人工智能面部识别技术

在麻省理工学院媒体实验室展示的最新研究DEB Raji和研究人员需要更强的评价做法艾制品,以减轻性别和种族偏见(由Liz做照片)

一项研究 DEB的Raji, a fourth-year student in the University of Toronto’s Faculty of Applied Science & 工程, and researchers at the Massachusetts Institute of 技术 is underscoring the racial and gender biases found in facial-recognition services.

的Raji花了2018夏天在麻省理工学院的媒体实验室,在那里她通过审核领先的公司,如微软,IBM和亚马逊做商业的面部识别技术的实习生。研究人员发现,他们都有一个男人的倾向错误深色皮肤的女性。

但在特定的一个服务 - 亚马逊的rekognition - 显示偏见比其他的更高的水平。虽然它可以识别的浅肤色的人的性别有近100%的准确度,误判女性是男性的29%的时间百分比,而深色皮肤的女性每%的时间男子31。

rekognition最近被警方在佛罗里达州奥兰多市试点,在监控场景如相机扫描的面孔和匹配他们对那些在刑事数据库使用该服务。

“事实上,这项技术并不表征黑的面孔以及可能导致犯罪嫌疑人的误认,”说的Raji。 “亚马逊是由于一些舆论压力,考虑到高风险的场景中,他们使用这种技术。”

快速进步和人工智能(AI)的产品部署,这项新研究强调不仅需要测试系统性能,而且还针对代表性不足的群体的潜在偏见。

虽然算法应该是中立的,的Raji解释说,因为数据集 - 用来“训练”信息人工智能模型 - 从一个社会仍然日常偏见抓斗来源,这些偏见成为嵌入算法。

“比方说,我想什么健康的皮肤看起来像的例子。如果你现在谷歌,你会看到大部分光皮肤的女性,”说的Raji。 “你不会看到一个男人的页面,你不会看到一个深色皮肤的女人,直到你真的向下滚动。如果你给的是进入一个AI模式,采用这种世界观和适应基于这些偏见的决定“。

这些偏见应该叫出来,就像一个将容纳一个人的责任,说的Raji。 “还有,当你嵌入该偏置到算法与当人做出决定偏见这种增加的危险。有人会告诉你这是错的,无论是公众还是你的老板,”她说。

“艾未未,我们往往会免除这个责任。没有人会放一个算法在监狱里。”

的Raji对在机器学习偏差的主题激情的工作经历放置在启动clarifai AI,其中A和道德的话题在研究型公司定期讨论期间,来自于她的时间。

“这件事情,该公司注意到,正要处理非常明确的,而且它是个人与我产生共鸣,因为我是一个少数族裔的对象,”她说。

这也从她自己有种族偏见的技术的个人经验造成的。 “我会建立在黑客马拉松,并想知道为什么它不能检测我的脸,或者为什么一个自动化的龙头无法检测到我手里的东西,”她说。

的Raji分享她的计算机科学家和数字活动家,喜悦buolamwini,在麻省理工学院媒体实验室的经历。这导致了实习,并与Raji成为主要作者 在一张纸上,她提出在人工智能协会会议的发展人工智能的伦理道德和社会.

“我知道它看起来像我在三个月内写了一篇研究论文,”说的Raji。 “但这个问题已经渗透我的内心更长的时间。”

的Raji目前正在整理她在工程科学上学期和运行以学生为主导的倡议所谓的项目包括,这列车的学生传授电脑编程,在多伦多和密西沙加低收入社区。她也是在谷歌AI受指导者。作为一部分导师计划,她正在研究一种新的论点,专注于持有公司负责切实可行的解决方案。

“人们有时会说轻描淡写的紧迫性,‘好了,人工智能只是太新了,’”说的Raji。 “但如果你正在建一座桥,将在行业允许你偷工减料,使那些各种各样的借口?”