JS数组去重方法全解析
时间:2025-08-19 16:06:29 268浏览 收藏
JS数组去重是前端开发中常见的需求,旨在剔除数组中的重复元素,保留唯一项。本文深入探讨了多种高效的JS数组去重方法,并针对不同场景给出最佳实践。**Set对象**因其基于哈希表,平均时间复杂度仅为O(N),成为基本类型去重的首选方案。**filter结合indexOf**方法虽然兼容性好,但时间复杂度较高,适合小规模数组。**reduce结合Map**则兼具O(N)的时间复杂度和灵活性,适用于自定义去重逻辑或处理对象数组。对于对象数组,需基于唯一标识属性或组合键进行去重。同时,文章还强调了在去重过程中保持原始顺序的重要性,并分析了Set、filter+indexOf和reduce+Map三种方法在保持顺序方面的优势。
最高效的JS数组去重方法是利用Set对象,因其底层基于哈希表,平均时间复杂度为O(N),性能最优;2. filter结合indexOf方法兼容性好但时间复杂度为O(N^2),适合小规模数组;3. reduce结合Map同样具有O(N)时间复杂度,灵活性高,适用于需要自定义去重逻辑或处理对象数组的场景;4. 对于对象数组去重,需基于唯一标识属性(如id)或组合键使用filter加Set/Map,或利用Map覆盖机制保留最后出现的元素;5. Set、filter+indexOf和reduce+Map三种方法在现代JavaScript环境中均能保持元素的原始顺序,其中Set在实际引擎实现中按插入顺序迭代,确保去重后顺序一致;综上,优先推荐使用Set进行基本类型去重,在需要兼容性或复杂逻辑时选用reduce加Map方案,对象数组则依据属性定义唯一性标准进行处理,所有方法均能有效保持原始顺序。
JS数组去重,说白了,就是把一个数组里重复的元素给剔除掉,只留下那些独一无二的。这事儿在前端开发里挺常见的,比如你从后端拿到一份数据列表,里面可能因为各种原因出现了重复项,这时候你就得想办法把它“洗干净”。选择哪种方法,其实挺看你的具体场景和对性能、代码简洁度的偏好。
利用Set对象去重是最现代也最直接的方式。Set是ES6引入的一种新的数据结构,它最大的特点就是成员的值都是唯一的。所以,把数组扔进Set里走一圈,再把它变回数组,基本上就搞定了。
const originalArray = [1, 2, 2, 'hello', 'world', 'hello', null, null, undefined, undefined, NaN, NaN, {}, {}]; const uniqueArrayBySet = [...new Set(originalArray)]; console.log(uniqueArrayBySet); // 结果:[1, 2, 'hello', 'world', null, undefined, NaN, {}, {}] // 注意:Set在处理NaN时,会认为所有NaN都是同一个值,但对于对象,它会认为两个空对象字面量({})是不同的,因为它们的引用地址不同。
这种方法代码量极少,可读性也好,对于基本数据类型(数字、字符串、布尔值、null、undefined、NaN)去重非常高效和准确。但记住一点,它对对象的去重是基于引用地址的,两个内容完全一样的对象,如果内存地址不同,Set会把它们当作两个不同的元素。
除了Set,我们也可以利用数组自身的filter()
方法结合indexOf()
来去重。这个方法相对传统,理解起来也比较直观:遍历数组,如果当前元素是它第一次出现,就保留它。
const originalArray = [1, 2, 2, 'hello', 'world', 'hello', null, null, undefined, undefined, NaN, NaN]; const uniqueArrayByFilter = originalArray.filter((item, index, self) => { // indexOf会返回元素在数组中第一次出现的索引 // 如果当前元素的索引和它第一次出现的索引相同,说明它是第一次出现,就保留 return self.indexOf(item) === index; }); console.log(uniqueArrayByFilter); // 结果:[1, 2, 'hello', 'world', null, undefined, NaN] // 注意:indexOf在处理NaN时,会有些“奇怪”,因为NaN !== NaN,所以indexOf(NaN)总是-1,可能导致多个NaN被保留。 // 同样,它也无法直接处理对象去重。
这种方式的优点是兼容性好,在老旧浏览器环境里也能跑。但它的性能在数组元素较多时会明显下降,因为indexOf
在每次迭代时都要从头开始搜索,导致时间复杂度上升。
再者,如果我们需要更精细的控制,或者要兼顾性能和顺序,reduce()
方法结合Map
或普通JavaScript对象来做查找表也是个不错的选择。
const originalArray = [1, 2, 2, 'hello', 'world', 'hello', null, null, undefined, undefined, NaN, NaN]; const seenMap = new Map(); // 或者用一个普通对象 {} const uniqueArrayByReduce = originalArray.reduce((accumulator, currentItem) => { // Map的key可以是任何类型,包括NaN,并且对NaN的判断是正确的 if (!seenMap.has(currentItem)) { seenMap.set(currentItem, true); accumulator.push(currentItem); } return accumulator; }, []); console.log(uniqueArrayByReduce); // 结果:[1, 2, 'hello', 'world', null, undefined, NaN] // 这个方法能正确处理NaN,并且保持了元素的原始顺序。
这种方法在性能上通常比filter
+indexOf
要好,因为它利用了哈希表的O(1)查找特性。同时,它也灵活,可以扩展去处理更复杂的去重逻辑,比如对象数组去重。
哪种JS数组去重方法更高效?性能考量与选择
谈到效率,这事儿就得具体分析了。在我看来,大多数时候,Set
方法是你的首选。为什么呢?因为它底层实现通常是哈希表(或者说,是高度优化的数据结构),查找和插入的平均时间复杂度都是O(1)。这意味着,即使你的数组有几万甚至几十万个元素,它的处理速度也相当快,总的时间复杂度接近O(N)——也就是线性时间,数组多大,就大致花多少时间。
相比之下,filter()
结合indexOf()
的效率就没那么理想了。indexOf()
在数组中查找元素,最坏情况下需要遍历整个数组。所以,在filter
的每次迭代里,你又进行了一次潜在的O(N)操作,整个过程下来,时间复杂度就变成了O(N^2)。当数组规模小的时候,这点差异你可能感觉不到,但一旦数组达到几千甚至上万个元素,你就会明显感觉到页面卡顿,甚至浏览器崩溃。这种方法,我个人是不太推荐在生产环境中大规模使用的,除非你明确知道数组规模很小且不会增长。
至于reduce()
结合Map
(或者普通对象)的方案,它的性能表现和Set
非常接近,平均时间复杂度也是O(N)。因为它同样利用了哈希表的快速查找能力。在某些老旧环境不支持Set,或者你需要更精细控制(比如你想在去重时对元素做一些额外处理)的场景下,这个方法就显得尤为有用。它能很好地平衡性能和灵活性。
所以,如果问我哪种最快,我通常会毫不犹豫地指向Set
。如果兼容性是首要考量,或者你需要处理的对象类型比较特殊,reduce
加Map
会是更稳妥的选择。
如何处理对象数组去重?深入探讨复杂数据类型的挑战
处理对象数组去重,这可就不是简单地用Set或者indexOf
能搞定的了。因为JavaScript在比较对象时,默认是比较它们的内存地址(引用),而不是它们的内容。所以,即使两个对象长得一模一样,比如{id: 1, name: 'A'}
和另一个{id: 1, name: 'A'}
,它们在内存中是两个独立的个体,Set会认为它们是不同的。
这时候,我们就需要定义一个“唯一性”的标准。通常,我们会基于对象的一个或多个属性来判断它们是否重复。比如,如果你的对象都有一个id
属性,并且id
是唯一的,那么我们就可以根据id
来去重。
一个比较常见的做法是结合filter()
和Set
(或者Map
)来记录已经“见过”的id
:
const users = [ { id: 1, name: 'Alice', age: 30 }, { id: 2, name: 'Bob', age: 25 }, { id: 1, name: 'Alice', age: 30 }, // 重复项 { id: 3, name: 'Charlie', age: 35 }, { id: 2, name: 'Bob', age: 26 } // id重复,但age不同 ]; const seenIds = new Set(); const uniqueUsers = users.filter(user => { // 如果这个id之前没见过 if (!seenIds.has(user.id)) { seenIds.add(user.id); // 把它标记为已见过 return true; // 保留这个用户对象 } return false; // 否则,丢弃 }); console.log(uniqueUsers); // 结果: // [ // { id: 1, name: 'Alice', age: 30 }, // { id: 2, name: 'Bob', age: 25 }, // { id: 3, name: 'Charlie', age: 35 } // ]
这种方式非常实用,因为它允许你自定义去重的逻辑。如果对象的唯一性需要由多个属性共同决定,比如id
和type
,你可以组合它们作为Set的key,例如user.id + '-' + user.type
。
另一种稍微复杂但更通用的方法是利用Map
来存储对象,以某个属性(或组合属性)作为key,对象本身作为value。这在需要保留“最新”或“最旧”的重复项时特别有用。
const users = [ { id: 1, name: 'Alice', age: 30 }, { id: 2, name: 'Bob', age: 25 }, { id: 1, name: 'Alice', age: 30 }, { id: 3, name: 'Charlie', age: 35 }, { id: 2, name: 'Bob', age: 26 } // id重复,但age不同,我们希望保留最新的(即这个) ]; const uniqueMap = new Map(); users.forEach(user => { // 以id作为key,每次遇到重复id,新的对象会覆盖旧的,从而保留最后一个 uniqueMap.set(user.id, user); }); const uniqueUsersFromMap = Array.from(uniqueMap.values()); // 或者 [...uniqueMap.values()] console.log(uniqueUsersFromMap); // 结果: // [ // { id: 1, name: 'Alice', age: 30 }, // { id: 2, name: 'Bob', age: 26 }, // 注意,这里保留了age为26的Bob // { id: 3, name: 'Charlie', age: 35 } // ]
这种Map
的方式,不仅能去重,还能灵活控制保留哪个重复项(比如最后一个出现的)。当然,如果你需要根据所有属性都完全一致才算重复,那么JSON.stringify()
可以临时作为key,但要注意它的局限性:属性顺序不同会生成不同的字符串,且不能处理循环引用。
去重时如何保持原始顺序?兼顾效率与数据完整性
去重的时候,很多时候我们不仅要剔除重复项,还希望剩下的元素能保持它们在原始数组中的相对顺序。这其实是个挺重要的细节,因为数据的顺序有时会承载特定的业务含义。
幸运的是,我们前面提到的一些主流去重方法,在现代JavaScript环境中,大多都能很好地保持原始顺序。
Set
方法: 在ES6规范中,Set
的迭代顺序并没有明确规定。但在实际的现代JavaScript引擎实现中(比如V8,也就是Chrome和Node.js用的),Set
是会保持元素插入顺序的。所以,如果你用[...new Set(arr)]
,结果数组的顺序会和原始数组中第一次出现的元素顺序一致。这对我来说,是Set能成为首选去重方法的重要原因之一,因为它同时兼顾了简洁、高效和顺序。filter()
结合indexOf()
: 这个方法是天然保持顺序的。它的逻辑就是“如果当前元素是它第一次出现,我就保留它”。自然而然地,保留下来的元素,它们的相对顺序和原始数组是完全一致的。所以,如果你对性能要求不是特别极致,或者数组规模不大,这个方法在保持顺序方面是完全可靠的。reduce()
结合Map
(或对象): 这种方式也能够完美地保持原始顺序。在reduce
的迭代过程中,我们是按照原始数组的顺序一个接一个地处理元素的。当一个元素被判断为不重复并被push
到累加器数组中时,它就是按照原始顺序被添加进去的。Map本身也保持了key的插入顺序,这进一步保证了最终结果的顺序性。
// 示例:使用reduce + Map 保持顺序 const disorderedArr = ['apple', 'banana', 'apple', 'orange', 'banana', 'grape']; const uniqueAndOrdered = disorderedArr.reduce((acc, item) => { if (!seenMap.has(item)) { // 假设seenMap已定义 seenMap.set(item, true); acc.push(item); } return acc; }, []); console.log(uniqueAndOrdered); // ['apple', 'banana', 'orange', 'grape'] - 顺序完全保留
所以,你不需要为了保持顺序而额外做太多工作。选择Set或者reduce
+Map
通常就能满足你的需求,它们在保持顺序的同时,也提供了不错的性能。只有在极少数需要兼容非常老旧的Set实现,或者对filter
+indexOf
的O(N^2)性能有严格限制时,你才需要特别去权衡。但就我个人经验而言,现代开发中,Set的方案几乎是万金油。
本篇关于《JS数组去重方法全解析》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于文章的相关知识,请关注golang学习网公众号!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
133 收藏
-
187 收藏
-
436 收藏
-
151 收藏
-
464 收藏
-
401 收藏
-
422 收藏
-
130 收藏
-
265 收藏
-
115 收藏
-
285 收藏
-
216 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 511次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 498次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 484次学习