登录
首页 >  科技周边 >  人工智能

人工智能写作检测工具不靠谱,美国宪法竟被认为是机器人写的

来源:51CTO.COM

时间:2023-08-15 22:25:56 151浏览 收藏

大家好,我们又见面了啊~本文《人工智能写作检测工具不靠谱,美国宪法竟被认为是机器人写的》的内容中将会涉及到等等。如果你正在学习科技周边相关知识,欢迎关注我,以后会给大家带来更多科技周边相关文章,希望我们能一起进步!下面就开始本文的正式内容~

人工智能写作检测工具不靠谱,美国宪法竟被认为是机器人写的

7 月 16 日消息,近日有网友发现,如果将美国最重要的法律文件美国宪法输入一些专门用来检测人工智能写作的工具中,会得到一个令人惊讶的结果:美国宪法几乎肯定是由人工智能写的。这似乎是不可能的,除非詹姆斯・麦迪逊是时间旅行者。那么为什么这些 AI 检测工具会出现这样的错误呢?外媒 Arstechnica 采访了几位专家,以及 AI 检测工具 GPTZero 的开发者,来揭开其中的原因。

在教育领域,人工智能写作引发了不少争议。教师多年来一直使用传统教学方法,将论文作为评估学生对特定主题掌握程度的工具。目前的证据显示,许多老师尝试使用AI工具来检测由AI生成的写作,但可靠性值得怀疑。由于存在误报的情况,AI 检测工具如 GPTZero、ZeroGPT 和 OpenAI 的文本分类器都不靠谱,不能用来判断文章是否是由大型语言模型(LLM)生成的。

当将美国宪法的一部分输入 GPTZero 时,GPTZero 会称这段文字“很可能完全由 AI 写成”。在过去半年中,社交媒体上多次传播了其他AI检测工具显示相似结果的截图。实际上,如果输入《圣经》中的一些内容,也会出现同样的情况。为了解释这些工具犯下如此明显的错误的原因,我们首先需要了解它们的工作原理。

据IT之家了解,不同的人工智能写作检测器使用略有不同的检测方法,但基本原理相似:通过一个人工智能模型,在大量文本(包括数百万个写作示例)和一套假定的规则(用来确定写作是更可能由人类还是人工智能生成)上进行了训练。

例如,GPTZero 的核心是一个神经网络,它在“一个大型、多样化的语料库上进行了训练,该语料库包括人类写作和人工智能生成的文本,重点是英语散文”。接下来,该系统使用“困惑度”和“突发性”等属性来评估文本并进行分类。

在机器学习中,困惑度是衡量一段文本与一个人工智能模型在训练过程中所学习内容之间偏离程度的指标。测量困惑度的思路是,当人工智能模型写作时,它们会自然地选择它们最熟悉的内容,这些内容来自于它们的训练数据。输出越接近训练数据,困惑度就越低。人类则是更混乱的写作者,人类也可以用低困惑度来写作,尤其是当模仿法律或某些类型的学术写作中使用的正式风格时。而且,我们使用的很多短语都出奇地常见。

举个例子,我们尝试猜测下一个词是什么:“我想要一杯______”。”大多数人会用“水”、“咖啡”或“茶”来填空。一个在大量英语文本上进行训练的语言模型也会这样做,因为这些短语在英语写作中经常出现,这些结果中的任何一个都会有很低的困惑度。

GPTZero 测量的文本的另一个属性是“突发性”,它是指某些单词或短语快速连续出现或在文本中“突发”的现象。本质上,突发性评估整个文本中句子长度和结构的可变性。人类作家经常表现出动态的写作风格,导致文本具有可变的句子长度和结构,而人工智能生成的文本往往更加一致和统一。然而,突发性也不是检测人工智能生成内容的万无一失的指标。与“困惑度”一样,也有例外。人类作家可能会以高度结构化、一致的风格写作,从而导致突发性得分较低。相反,人工智能模型可以经过训练,在句子长度和结构上模拟更接近人类的可变性,从而提高其突发性得分。事实上,随着人工智能语言模型的改进,研究表明它们的写作看起来越来越像人类的写作。

以上就是《人工智能写作检测工具不靠谱,美国宪法竟被认为是机器人写的》的详细内容,更多关于人工智能的资料请关注golang学习网公众号!

声明:本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>