返回栏目
首页人工智能 • 正文

奥巴马被强制“洗脑”后,AI在艺术作品中犯了种族偏见的大忌

发布时间:  来源:河洛网

本文由雷锋网转载,必要时转载到雷锋网官网申请授权。

奥巴马被强制“洗脑”后,AI在艺术作品中犯了种族偏见的大忌

你能识别哪个艺术作品是AI创作的吗?

即使是最有经验的艺术家,有时也无法区分AI艺术作品和人类艺术作品。 在巴塞尔艺术展上,53%的观众认为这些作品都来自人类。

实际上,它来自罗格大学( Rutgers University )的艺术和人工智能实验室团队创建的神经网络AI。

AI识别古典艺术作品的创作风格和手法,学会了将其融合创作新的艺术作品。 以上作品的创作素材来自15世纪到20世纪1000多个艺术家的80000多幅绘画,这些绘画与印象派绘画、立体派绘画、文艺复兴初期绘画等不同风格有关。

AI毫不逊色于人的创作能力,迅速、高效,广泛应用于艺术生成领域。 但是,随着AI作品的增加,我们“ 我们必须考虑被称为黑盒&rdquo的问题; 在艺术创作过程中,对AI算法有偏见吗?

最近,来自美国Fujitsu AI Lab的研究者发表了最新的论文:《艺术史视角下的艺术偏见的生成》

他们在论文中表明,AI在艺术创作过程中不考虑社会伦理的影响,表现出明显的偏见。

AI艺术创作背后的三大偏见在论文中,研究者通过因果模型DAG测试了现有的AI艺术创作工具和作品,发现了是否有偏见。

为了确保研究的正确性,他们调查了学术论文的AI模型、在线AI平台和相关应用,研究了艺术风格(文艺复兴艺术、印象主义、表现主义、后印象主义和浪漫主义)、流派(风景画、肖像画) 卡萨特,文森特·; 梵高,古斯塔夫·多雷,吉诺·; 塞里尼)等多种类型的AI艺术作品受到好评。

在一次测试中,他们发现AI生成艺术工具Abacus有小丑·等明显的性偏见迪科西摩( Piero di Cosimo )的画《年轻人的肖像》是长头发的年轻男性,但被识别为女性( iii-iv )

( ii ) ( iv )是( I )和( iii )的性别翻译。

还有可能与种族歧视偏见有关的AI工具。 用户可以以其他艺术家的风格重新绘制图像的平台,例如GoArt。 在表现主义的创作中,GoArt把克莱门汀·从亨特( Clementine Hunter )的黑人女族长的脸从黑色变成了红色。

德西德里欧·是达·; 塞蒂加纳( Desiderio da Settignano )在文艺复兴时期创作的白色雕刻“乔维内特”由于表现主义的转换,脸色没有变红。

另外,与GoArt相似的AI工具Deepart在艺术风格的认识上也有明显的缺陷。 根据以下中心图:“玛丽·; 埃里森先生”(现实主义风格)转移到左图,没有表现主义的艺术特征。

右图是表现主义作品:恩斯特·; 路德维希·基尔内尔的“露娜”。

无论是AI绘画,还是写作,还是制作音乐。 其基本原理是首先通过庞大的数据集训练,学习相关知识,然后通过AI模型,完成训练和输出。

研究者们认为,对上述输出有偏见是因为训练数据集不平衡。 主要出现在两点。 一是数据集的收集受到了人为偏好的影响。 例如,他们发现了AI应用程序Portraits。 那个使用的45000张文艺复兴时期的肖像画大部分是白人。

第二,数据集的标签可能不匹配,或者模型在学习标签和注释数据集的过程中可能有偏差。 根据注释者的不同,喜好、文化和信仰也不同,可能会反映在创建的数据标签中。

最后的研究者还警告AI研究者和实践者在检查、设计和应用过程中必须充分考虑社会政治背景因素,错误地建模或忽略数据集创建的一些细节,AI生成艺术在人们的社会、文化和政治方面

目前,无论是行业还是学术界,AI算法中可能存在的偏见都引起了多次种族歧视的浪潮,因此备受广泛关注。

奥巴马被洗脑,AI种族偏见引起了争论,近年来,随着研究的突破,计算机视觉技术得到了飞跃性的发展。

因此,不仅在艺术生成领域,AI在更广泛的图像识别和合成中也存在偏见的风险,特别是与面部图像有关。 例如,今年上半年,杜克大学推出的PLUSE算法被指出存在种族歧视,在社交平台上掀起了巨大的浪潮。

波动的原因是,PULSE将前美国黑人总统巴拉克·作为奥巴马( Barack Obama )的画像变成了白人。

PULSE是一种新的超分辨率算法,具有将低分辨率图像转换为高分辨率图像(生成真实不存在的人)的功能,但其输出结果有明显的肤色偏好。

不仅仅是奥巴马,在网民们的测试中,美国国会议员亚历山大·奥卡西& Middot Cortez ( Le Xandria-o Casio Cortez )、女演员刘玉玲( Lucy Liu )等的肤色也从PULSE变成了白色

Cortez

由此很多网民认为AI有根深蒂固的种族偏见。

当时,PULSE的作者也承认,该算法很可能在按比例放大像素化图像时生成具有白人特征的人的脸。 然后他说: “ 这种偏见很可能是StyleGAN从数据集继承的。 ”

其实,这个问题在机器学习中极为普遍。 其主要原因是用于训练AI的数据集通常是人口统计学上占优势的白人。 如果数据集中没有出现黑人或没有出现黑人,则会影响AI模型的性能,成为白人的概率更高。 除此之外,AI在面部识别算法中也多次引起种族争论。

那么数据集有偏差,必然会导致算法的偏见,如何有效地改善数据集呢?

作为避免数据集偏差的方法AI研究的基础,如何修改和完善数据集一直受到研究者的关注。

其实,除了频繁引起争论的种族偏差、性别偏差外,数据集在研究过程中也存在测量偏差、排除偏差、相关偏差等一系列问题。 但是,近年来,关于如何解决数据偏见的问题,也开发了通过少量数据表述提高模型的泛化能力、降低人为表述的偏差等应对措施。

一般来说,防止数据偏差是一个持续的过程,有时很难知道数据和模型什么时候产生偏差,根据数据集有不同的标准。 但是,相关的研究者总结了以下共同的指导方针,有助于我们早期发现和减少偏差。

注意常见的用例和潜在的异常值,确保数据科学家和数据标签团队多样。

创建数据标签的黄金标准,确保测量小组评论的正确性和一致性。

对于可能发生数据偏差的项目,请使用多次路径注释。 例如情感分析、内容审计、意图识别。

通过收集更多与机密组相关的培训数据来解决不公平的问题。

谷歌、IBM、Microsoft等发布了分析各种数据类型偏差的工具和指南。

【编辑推荐】

    相关文章Related

    返回栏目>>

    河洛网首页

    Copyright © 2019 河洛网 版权所有 dahuimr@163.com