登录
首页 >  科技周边 >  人工智能

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

来源:搜狐

时间:2023-09-03 10:27:22 456浏览 收藏

对于一个科技周边开发者来说,牢固扎实的基础是十分重要的,golang学习网就来带大家一点点的掌握基础知识点。今天本篇文章带大家了解《用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具》,主要介绍了,希望对大家的知识积累有所帮助,快点收藏起来吧,否则需要时就找不到了!

IT之家 9 月 2 日消息,Meta 公司为了缓解当前很多计算机视觉模型对女性、有色人种存在系统性偏见问题,近日推出了名为 FACET 的全新 AI 工具,用于识别计算机视觉系统中的种族和性别偏见。

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

FACET 工具目前经过 3 万张图片、含 5 万人图像的训练,特别增强了性别和肤色方面的感知,可以用于评估计算机视觉模型在各种特征。

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

经过训练后,FACET工具能够回答复杂问题。例如,当识别到对象为男性时,它可以进一步识别出滑板运动员,以及浅色或深色皮肤

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

Meta 以 FACET 来评测该公司所开发的 DINOv2 模型与 SEERv2 模型,以及 OpenAI 的 OpenCLIP 模型,整体而言,OpenCLIP 在性别上的表现优于其它模型,而 DINOv 则在年龄与肤色上有较佳的判断力。

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

FACET 的开源将有助于研究人员执行类似的标竿测试,以理解自己的模型中所存在的偏见,亦可用来监控为了解决公平问题而采取的缓解措施所造成的影响。IT之家在此附上 Meta 新闻稿地址,感兴趣的用户可以深入阅读。 FACET的开源将有助于研究人员进行类似的基准测试,以了解他们模型中存在的偏见,并监测采取公平解决措施所带来的影响。IT之家在此提供Meta新闻稿的链接,有兴趣的用户可以深入阅读

理论要掌握,实操不能落!以上关于《用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具》的详细介绍,大家都掌握了吧!如果想要继续提升自己的能力,那么就来关注golang学习网公众号吧!

声明:本文转载于:搜狐 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>