正题开始
数组去重,即从一个数组中移除所有重复的元素,确保每个元素只出现一次,是这一类问题的核心。
const uniqueArray = array.filter((item, index, self) => { return self.indexOf(item) === index; });该方法利用 filter() 遍历数组,对于每个元素,通过 indexOf() 查找其在原数组中的第一个索引。如果当前元素的索引与正在遍历的索引相同,说明这是该元素在数组中的首次出现,保留该元素;否则,忽略该元素。
const uniqueArray = array.reduce((acc, current) => { return acc.includes(current) ? acc : [...acc, current]; }, []);这里使用 reduce() 函数将数组累积到一个新的数组(acc)中。在每次迭代中,检查当前元素是否已存在于累积数组中。若不存在,则将其添加至累积数组;否则,跳过该元素。
const uniqueArray = [...new Set(array)];这种方法简洁高效,利用 ES6 的 Set 数据结构自动去除重复元素的特性,再通过扩展运算符将 Set 转换回数组。Set 是一种特殊的集合,不允许重复元素存在,因此插入过程会自动过滤重复项。
const uniqueArray = Array.from(new Map(array.map(item => [item, item])).values());尽管不如直接使用 Set 直观,但此方法同样有效。它首先将数组映射为键值对相同的 Map,由于 Map 键的唯一性,重复的数组元素会被自动忽略。然后通过 Array.from() 和 Map.values() 将 Map 的值(即无重复元素)转换回数组。
const uniqueArray = []; for (let i = 0; i < array.length; i++) { let isDuplicate = false; for (let j = 0; j < i; j++) { if (array[i] === array[j]) { isDuplicate = true; break; } } if (!isDuplicate) { uniqueArray.push(array[i]); } }这种方法最直观也最基础,通过外层循环遍历数组,内层循环检查当前元素是否与之前的所有元素重复。如果没有重复,则将其添加到结果数组中。虽然理解简单,但时间复杂度较高,不适用于大型数据集。
const uniqueArray = []; const hashTable = {}; for (let i = 0; i < array.length; i++) { const item = array[i]; if (!hashTable[item]) { uniqueArray.push(item); hashTable[item] = true; } }这种方法利用对象作为哈希表,以数组元素作为键。在遍历过程中,若元素尚未作为对象的键存在,则添加到结果数组并将其设置为哈希表的键。由于对象属性查找的时间复杂度接近 O(1),这种方法在处理大量数据时比双重循环更为高效。