您的当前位置:云资讯 > 科技 > 正文

这个AI学习了4.5万幅画之后 让你秒变梵高画作主角

时间:2019-09-06 12:09:14 浏览:

由AI Portraits算法生成的图像

AI Portraits算法生成的油画、水彩画和水墨风格的肖像作品

此外,这些是不允许我们微笑的肖像。正如创作者所解释的那样:“我们鼓励您使用该工具进行试验,以探索算法模型的偏见。例如,尝试在输入图像中微笑或大笑。你看到了什么?模型是否会产生没有微笑或大笑的肖像?肖像大师很少画微笑的人,因为微笑和大笑通常与风俗画中更滑稽的一面联系起来,而且像微笑这样的外在表现似乎会扭曲被画者的脸。AI无法重现我们的笑容,这让我们对艺术史有所了解。”

这也说明了“输入偏见,输出偏见”的关键AI原则。这意味着你从AI系统中得到什么,实际上取决于你输入了什么。换句话说,AI在某种程度上并非是“客观的”。这是个我们很多人还没有意识到的现实,很大程度上是因为算法决策系统的开发者和营销者把它们作为工具,以此来帮助我们更公正地做出选择。

算法偏见问题

到目前为止,我们知道打造“无偏见AI”依然只是梦想,因为我们已经看到了一个又一个关于算法偏见如何损害人们生活的例子。

亚马逊放弃了一种招聘算法,因为该算法显示男性简历比女性简历更受欢迎。研究人员得出结论,法庭判决中使用的算法对白人比对黑人更宽容。一项研究发现,抵押贷款算法歧视拉美裔和非裔美国借款人。

跨性别Uber司机的账户被冻结,因为该公司的面部识别系统不善于识别正在变性的人的面孔。另外三种面部识别系统被发现,与有色人种相比,白人更容易识别。我可以继续举出很多例子,但你应该明白了。这是相当令人沮丧的,我们能修好它吗?

科技行业知道,人类的偏见会渗透到AI系统中,像IBM这样的公司,正在发布“消除偏见工具包”来解决这个问题。这些方法提供了扫描AI系统偏见的方法,比如,通过检查它们所训练的数据来调整它们,使它们更公平。

但技术去偏见并不等同于公平。在某些情况下,它会导致更多的社会危害。例如,考虑到面部识别技术现在被用于警察监控中,主要针对有色人种,也许我们并不想让它在识别黑人方面发挥太大作用。

这就是为何我认为我们需要新的法律保护来保护我们免受有偏见AI系统伤害的原因,并在10位AI专家的帮助下起草了算法权利法案。其中的要求包括透明度、知情同意、纠正机制以及对出错算法系统的独立监督等。

不过,现实情况是,这些保护措施要被企业内部化可能还需要一段时间,更不用说写入法律了。与此同时,对我们来说,充分意识到AI带来的风险至关重要。一个能把自拍变成炫酷肖像的有趣网站不会把我们带到那里,但正因为它既有趣又酷,为此可以成为一个非常有效的教育工具。 

(选自:Vox 作者:Sigal Samuel 编译:网易智能 参与:小小)

相关文章:

sitemap | 网站地图

免责声明:本站内容均来自网络或网友投稿,如有侵权请联系管理员,我们会第一时间为您处理或者删除侵权内容!谢谢您的合作!

Copyright © 2018 云资讯 All Rights Reserved.

Top