「Fairness in A.I.」想必即使是老奶奶也听闻过何为人工智能,那么今天就来说说有偏见的AI。

尽管多多少少在任何场景下都会存在不公平,但是在政治正确的大环境下人类的任务之一就是尽量的解决它,人工智能当然也要一样呀!

那么如果存在不公平的人工智能,会出现什么问题呢?

本月关于生成对抗网络(GAN)的一篇论文就提到:在本文中,我们表明,在数据沿某些轴(例如性别,种族)表现出偏见的情况下,GAN的故障模式会加剧所生成数据中的偏见。

所以说,首先是人来控制输入的训练数据,如果这个人本身就存在偏见的话,那么对应的人工智能就会成为有偏见的人2.0呢。

详情论文指路:arxiv.org/abs/2001.09528
#老奶奶都能懂的论文导读 @mature

Follow

@AIfish 什么!居然是同行吗!抱住!

· · Web · 0 · 0 · 0
Sign in to participate in the conversation
alive.bar

你好,欢迎使用 alive.bar 社交媒体实例。 alive.bar 仅仅是一个服务器位于美国的网站,它使用了「长毛象(Mastodon)」服务。