这是真“学废了”!AI已经学会了性别歧视:重男轻女 全球最新

来源: CNMO手机中国 时间:2023-02-16 11:15:56


(资料图片)

最近,ChatGPT的爆火又让AI(人工智能)的话题摆在了大家的面前。关于AI技术的现状和前景,不少科技圈大佬都发表了自己的看法。不过,看起来无所不能的AI,似乎已经在某些方面开始走弯路了。据CNMO了解,根据模型测试,AI已经学会了性别歧视,而且还是很常见的“重男轻女”。

AI

据媒体报道,清华大学交叉信息研究院助理教授于洋,曾在去年带领团队做了一个针对“预测某种职业为何种性别”的AI模型性别歧视水平评估项目。测试模型包含GPT-2,即ChatGPT的前身。结果显示,GPT-2有70.59%的概率将教师预测为男性,将医生预测为男性的概率则为64.03%。

ChatGPT

不仅如此,在本项目中,团队测试的AI模型还使用了谷歌开发的bert和Facebook开发的roberta。让人意外的是,所有受测AI对于测试职业的性别预判,结果倾向都为男性。于洋对此表示:“它(AI)会重男轻女,爱白欺黑(即种族歧视)”。类似的案例在2015年也有出现,当时Google Photos应用误把两名黑人标注为“大猩猩”,随后谷歌立即道歉,并表示将调整算法以修复问题。

CNMO了解到,早在2019年,联合国教科文组织便发表了一份题为《如果我能,我会脸红》的报告,指出当时大多数AI语音助手存在性别偏见。

综合来看,关于AI算法中含有性别、种族歧视的案例并不鲜见,但要消除这些偏见并非易事。就如微软纽约研究院的高级研究员Hanna Wallach此前所说:只要机器学习的程序是通过社会中已存在的数据进行训练的,那么只要这个社会还存在偏见,机器学习也就会重现这些偏见。

X 关闭

热门推荐

【环球新视野】高山流水是成语吗

2023-02-16   太平洋生活网

系统发掘校园周边优质教育资源|快播报

2023-02-16   中国教育新闻网

天问一号两年创多项纪录

2023-02-16   中国产业经济信息网

硬核科幻与硬核制造的双向奔赴

2023-02-16   中国产业经济信息网

深耕湿地保护 中国节能为润泽美丽中国添彩

2023-02-16   中国产业经济信息网

Java 发展史

2023-02-16   腾讯云

小学阶段的植树问题

2023-02-16   万能网

副中心两大交通枢纽2024年底竣工

2023-02-16   北京青年报官网

头尖适合什么发型 世界关注

2023-02-15   北流生活

增组词_增组词|全球快播报

2023-02-15   万能网

如何制作假孕肚

2023-02-15   太平洋礼物网

举怎么组词_举的组词

2023-02-15   万能网

保龄球几个孔_保龄球3个孔

2023-02-15   万能网

陕汽3000辆新能源重卡成功签约

2023-02-15   中国产业经济信息网

好吃糙米的制作方法步骤

2023-02-15   互联网

建立引领智慧教育潮流的评价体系 视讯

2023-02-15   中国教育新闻网

断肠人在天涯是什么意思

2023-02-14   万能网

今天,甜蜜中,有“新风”!

2023-02-14   北京昌平

AWS简单搭建使用EKS一

2023-02-14   腾讯云

世界今日报丨t_mac

2023-02-14   互联网

排序算法的演进

2023-02-14   腾讯云

学后感想心得体会

2023-02-14   互联网

联合国国际组织职业发展规划实训项目结业仪式举行

2023-02-14   中国网·中国发展门户网

Copyright   2015-2022 中国行业信息网版权所有  备案号:   联系邮箱:29 59 11 57 8@qq.com