登录
首页 >  科技周边 >  人工智能

反对盲目信任人工智能的六个因素

来源:51CTO.COM

时间:2023-05-23 11:37:25 157浏览 收藏

从现在开始,我们要努力学习啦!今天我给大家带来《反对盲目信任人工智能的六个因素》,感兴趣的朋友请继续看下去吧!下文中的内容我们主要会涉及到等等知识点,如果在阅读本文过程中有遇到不清楚的地方,欢迎留言呀!我们一起讨论,一起学习!

反对盲目信任人工智能的六个因素

就我们而言,ChatGPT正在对各行各业产生影响,改变着世界。无论如何,并非这些进展从根本上是确定的。我们不能忽视这样一个事实,即人工智能缺乏内在的道德指南针或事实核查系统来指导其决策,尽管它在许多领域提供了令人兴奋的新机会。

随着人工智能日益成为世界的中心,我们应该始终对所听到的所有内容进行事实核实。相信人工智能无条件并盲目地使用并不明智,因为有些工具可能会操纵数据、错误地理解上下文并过于自信地犯错。

反对人工智能盲目信任的6个因素

1、安全

最明显和最根本的是安全。“不伤害”基本原则的意义在于,背叛会带来严重而无法逆转的影响。一名司机在2018年的一次车祸中遇难,事故是因为他所驾驶的自动驾驶特斯拉汽车与混凝土护栏发生碰撞。2019年的一篇研究论文试图证明,有策略地在道路上绘制的线条可能会劫持人工智能算法,或导致其撞毁车辆,尽管这个案例是一个灾难性的异常值。

2、稳健性和安全性

核心在于限制访问、维护信息的完整性和保持一致的可访问性,从而提高安全性。数以千计的算法利用了人工智能在稳健性和安全性方面的弱点。这些恶意攻击继续被想象。重要的是,模拟智能工程师会根据需要为每项新的安全措施定制安全比例,即使没有完全的保护措施也可以实现。人工智能可能会被设计缺陷或特定对抗性攻击的弱点所愚弄或削弱。如果这是真的,那么也有可能劫持某人的轮椅进入安全区域。

3、隐私

防止伤害也是隐私原则的核心。有太多信息泄露,所有这些都为不法分子提供机会,可以在未经个人同意的情况下识别或分析——了解其幸福、金钱和个人生活的数据。81%的美国人认为数据收集的好处大于风险,这令人担忧。然而,研究人员发现,有色人种和少数民族群体受到伤害的风险高于其他人群。由于其代表性不充分,因此在前文提到的泄露情况后,更有效地将信息匿名化。

4、简单性和合理性

关于基于计算机的智能,简单性是一个广泛的特征。用户至少知道其正在与人工智能而不是人类进行交互。在极端情况下,所有专业周期和信息将得到报告、可供访问并具有意义。英国考试评分丑闻是缺乏透明度造成的典型示例。该算法在决定分数时考虑了学校历史数据和与该学生得分相同的其他学生人数,而非仅仅以学生个人的成绩为依据。

5、道德与环境

道德和公平必须成为人工智能的目标。其必须遵守既定和强制执行的社会规范,也称为法律。这很简单,但在技术上具有挑战性。真正的情况开始于公共权力执行过时或采取自由企业战略。找到正确的道德平衡,人工智能工程师和所有者需要考虑利益相关者的利益、手段和目的、隐私权以及数据收集等方面。不仅仅是在工作场所,大型科技企业经常被指责延续性别歧视。翻译:对于积极分子和研究人员来说,“女性”语音伙伴标准化了将女性视为员工和父母的观点。 重写:积极分子和研究人员认为,“女性”语音伙伴将女性作为员工和父母的视角标准化。

6、问责制

职责确保可以针对先前引用的不同组件调查框架。许多组织目前都在内部开发负责任的人工智能来筛选和预防利益损失。但是,其可能不允许外部控制或审查。在这方面,Clearview AI就是一个例子。该企业私有的面部识别技术胜过市场上的其他所有技术,但由所有者自行决定其使用。成千上万的人可能会处于危险之中,如果该技术被犯罪组织或专制政权利用。

今天带大家了解了的相关知识,希望对你有所帮助;关于科技周边的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~

声明:本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>