登录
首页 >  科技周边 >  人工智能

当你的简历被AI自动筛掉,人类该如何确保算法正义?

来源:搜狐

时间:2023-11-04 20:07:21 474浏览 收藏

今天golang学习网给大家带来了《当你的简历被AI自动筛掉,人类该如何确保算法正义?》,其中涉及到的知识点包括等等,无论你是小白还是老手,都适合看一看哦~有好的建议也欢迎大家在评论留言,若是看完有所收获,也希望大家能多多点赞支持呀!一起加油学习~

本文是乔伊·布兰维尼(Joy Buolamwini)的《揭开人工智能的面纱:我在机器世界中保护人类的使命》的节选。内容经过了部分编辑。

当你的简历被AI自动筛掉,人类该如何确保算法正义? (来源:STEPHANIE ARNETT/MITTR | ENVATO)

“X 风险”一词是人工智能带来的潜在生存风险的缩写。虽然我的研究支持人工智能系统因为过于危险不应该被集成到武器系统中,但这并不是人工智能系统本身(作为超级智能体)构成了生存风险。

人工智能系统可能会错误地将某人识别为犯罪嫌疑人,而那些用于警务的机器人以及有故障的自动驾驶汽车,都可能使你的生命处于危险之中。

可悲的是,人工智能系统无需拥有超级智能,就能对个人生命产生致命的后果。造成明显危害的现有人工智能系统,比假设的“有意识的”人工智能系统更危险,因为它们是真实存在的。

如果一些公司声称自己担心人工智能会带来生存风险,那么它们可以不发布自己认为可能终结人类的人工智能工具,以此来表明其保护人类的承诺。

我支持阻止创造致命的人工智能系统。政府应关注人工智能致命的潜在危害,并采取“阻止杀手机器人运动”所倡导的保护措施,禁止致命的自主系统和数字非人化

这场运动旨在解决人工智能的潜在致命用途,而不会做出过于夸张的行动。

尽管人们很容易将身体暴力视为最终的伤害形式,但这样做很容易让人忘记人类社会持续的结构性暴力。

通过使用人工智能拒绝某个或某些人获得医疗保健、住房和就业机会,这会让个人伤害和几代人的创伤永久化。

考虑到我的“性别阴影”研究揭示了世界上一些领先的科技公司的算法偏见,我担心人工智能带来的问题和新的漏洞,以及我们是否能够以有利于创造未来的方式,避免人工智能对边缘化和弱势群体造成过度的负担

当我想到生存风险时,我想到的是现在受到伤害的人,以及那些面临人工智能系统伤害风险的人。我想到了被“排除在外”的风险和现实。

当医院使用人工智能进行分诊,让你得不到应有的护理,或者使用临床算法阻止你接受能被挽救生命的器官移植时,你可能会处于“被排除在外”的状态下。当你根据算法决策被拒绝贷款时,你也可能会被排除在外。

当你的简历被人工智能自动过滤掉,你被剥夺了参与竞争那些人工智能系统无法取代的剩余工作的机会时。

当租户筛选算法拒绝你获得住房时,你可能会被排除在外。所有这些例子都是真实的。没有人能免于被排除在外,那些已经被边缘化的人面临着更大的风险。 当房屋租赁筛选算法拒绝你获得住房时,你可能会被排除在外。这些例子都是真实存在的。没有人能够幸免于被排除在外,那些已经被边缘化的人面临着更大的风险

这就是为什么我的研究不能局限于业内人士、人工智能研究人员,甚至是善意的影响者。是的,学术会议是重要的场所。对许多学者来说,发表论文是具体研究探索的顶点。

在我看来,在纽约大学汇报“性别阴影”是个催化剂。我感到有动力将研究付诸实践,超越与人工智能从业者的交流,超越学术演讲,超越私人晚宴

仅仅与学者和业内人士接触是不够的。我们需要确保每一个面临人工智能危害风险的人都能参与到算法正义的斗争中来

支持:Ren

好了,本文到此结束,带大家了解了《当你的简历被AI自动筛掉,人类该如何确保算法正义?》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多科技周边知识!

声明:本文转载于:搜狐 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>