
SparseArray是单纯数组的结合.被称为稀疏数组,对数据保存的时候,不会有额外的开销.结构如下:

这就是二者的结构,我们需要看一下二者到底有什么差异...
首先是插入:
HashMap的正序插入:
HashMap<Integer, String>map = new HashMap<Integer, String>(); long start_map = System.currentTimeMillis(); for(int i=0;i<MAX;i++){ map.put(i, String.valueOf(i)); } long map_memory = Runtime.getRuntime().totalMemory(); long end_map = System.currentTimeMillis()-start_map; System.out.println("<---Map的插入时间--->"+end_map+"<---Map占用的内存--->"+map_memory); 执行后的结果:<---Map的插入时间--->914 <---Map占用的内存--->28598272SparseArray的正序插入:
SparseArray<String>sparse = new SparseArray<String>(); long start_sparse = System.currentTimeMillis(); for(int i=0;i<MAX;i++){sparse.put(i, String.valueOf(i)); } long sparse_memory = Runtime.getRuntime().totalMemory(); long end_sparse = System.currentTimeMillis()-start_sparse; System.out.println("<---Sparse的插入时间--->"+end_sparse+"<---Sparse占用的内存--->"+sparse_memory);//执行后的结果:<---Sparse的插入时间--->611<---Sparse占用的内存--->23281664 我们可以看到100000条数据量正序插入时SparseArray的效率要比HashMap的效率要高.并且占用的内存也比HashMap要小一些..这里的正序插入表示的是i的值是从小到大进行的一个递增..序列取决于i的值,而不是for循环内部如何执行... System.out.println("<------------- 数据量100000 散列程度小 Map 倒序插入--------------->"); HashMap<Integer, String>map_2 = new HashMap<Integer, String>(); long start_map_2 = System.currentTimeMillis(); for(int i=MAX-1;i>=0;i--){ map_2.put(MAX-i-1, String.valueOf(MAX-i-1)); } long map_memory_2 = Runtime.getRuntime().totalMemory(); long end_map_2 = System.currentTimeMillis()-start_map_2; System.out.println("<---Map的插入时间--->"+end_map_2+"<---Map占用的内存--->"+map_memory_2);//执行后的结果: <------------- 数据量100000 Map 倒序插入---------------> <---Map的插入时间--->836<---Map占用的内存--->28598272 SparseArray倒序插入:System.out.println("<------------- 数据量100000 散列程度小 SparseArray 倒序插入--------------->");SparseArray<String>sparse_2 = new SparseArray<String>();long start_sparse_2 = System.currentTimeMillis();for(int i=MAX-1;i>=0;i--){sparse_2.put(i, String.valueOf(MAX-i-1));}long sparse_memory_2 = Runtime.getRuntime().totalMemory();long end_sparse_2 = System.currentTimeMillis()-start_sparse_2;System.out.println("<---Sparse的插入时间--->"+end_sparse_2+"<---Sparse占用的内存--->"+sparse_memory_2);//执行后的结果<------------- 数据量100000 SparseArray 倒序插入---------------><---Sparse的插入时间--->20222<---Sparse占用的内存--->23281664 通过上面的运行结果,我们仍然可以看到,SparseArray与HashMap无论是怎样进行插入,数据量相同时,前者都要比后者要省下一部分内存,但是效率呢?我们可以看到,在倒序插入的时候,SparseArray的插入时间和HashMap的插入时间远远不是一个数量级.由于SparseArray每次在插入的时候都要使用二分查找判断是否有相同的值被插入.因此这种倒序的情况是SparseArray效率最差的时候. public void put(int key, E value) {int i = ContainerHelpers.binarySearch(mKeys, mSize, key); //二分查找.if (i >= 0) { //如果当前这个i在数组中存在,那么表示插入了相同的key值,只需要将value的值进行覆盖..mValues[i] = value;} else { //如果数组内部不存在的话,那么返回的数值必然是负数.i = ~i; //因此需要取i的相反数.//i值小于mSize表示在这之前. mKey和mValue数组已经被申请了空间.只是键值被删除了.那么当再次保存新的值的时候.不需要额外的开辟新的内存空间.直接对数组进行赋值即可.if (i < mSize && mValues[i] == DELETED) {mKeys[i] = key;mValues[i] = value;return;}//当需要的空间要超出,但是mKey中存在无用的数值,那么需要调用gc()函数.if (mGarbage && mSize >= mKeys.length) {gc();// Search again because indices may have changed.i = ~ContainerHelpers.binarySearch(mKeys, mSize, key);}//如果需要的空间大于了原来申请的控件,那么需要为key和value数组开辟新的空间.if (mSize >= mKeys.length) {int n = ArrayUtils.idealIntArraySize(mSize + 1);//定义了一个新的key和value数组.需要大于mSizeint[] nkeys = new int[n];Object[] nvalues = new Object[n];// Log.e("SparseArray", "grow " + mKeys.length + " to " + n);//对数组进行赋值也就是copy操作.将原来的mKey数组和mValue数组的值赋给新开辟的空间的数组.目的是为了添加新的键值对.System.arraycopy(mKeys, 0, nkeys, 0, mKeys.length);System.arraycopy(mValues, 0, nvalues, 0, mValues.length);//将数组赋值..这里只是将数组的大小进行扩大..放入键值对的操作不在这里完成.mKeys = nkeys;mValues = nvalues;}//如果i的值没有超过mSize的值.只需要扩大mKey的长度即可.if (mSize - i != 0) {// Log.e("SparseArray", "move " + (mSize - i));System.arraycopy(mKeys, i, mKeys, i + 1, mSize - i);System.arraycopy(mValues, i, mValues, i + 1, mSize - i);}//这里是用来完成放入操作的过程.mKeys[i] = key;mValues[i] = value;mSize++;}} 这就是SparseArray插入函数的源码.每次的插入方式都需要调用二分查找.因此这样在倒序插入的时候会导致情况非常的糟糕,效率上绝对输给了HashMap学过数据结构的大家都知道.Map在插入的时候会对冲突因子做出相应的决策.有非常好的处理冲突的方式.不需要遍历每一个值.因此无论是倒序还是正序插入的效率取决于处理冲突的方式,因此插入时牺牲的时间基本是相同的. System.out.println("<------------- 数据量100000 Map查找--------------->"); HashMap<Integer, String>map = new HashMap<Integer, String>(); for(int i=0;i<MAX;i++){map.put(i, String.valueOf(i)); } long start_time =System.currentTimeMillis(); for(int i=0;i<MAX;i+=100){map.get(i); } long end_time =System.currentTimeMillis()-start_time; System.out.println(end_time);//执行后的结果 <!---------查找的时间:175------------> SparseArray的查找: System.out.println("<------------- 数据量100000 SparseArray 查找--------------->"); SparseArray<String>sparse = new SparseArray<String>(); for(int i=0;i<10000;i++){sparse.put(i, String.valueOf(i)); } long start_time =System.currentTimeMillis(); for(int i=0;i<MAX;i+=10){sparse.get(i); } long end_time =System.currentTimeMillis()-start_time; System.out.println(end_time); //执行后的结果 <!-----------查找的时间:239----------------> 我这里也简单的对查找的效率进行了测试.对一个数据或者是几个数据的查询.二者的差异还是非常小的.当数据量是100000条.查100000条的效率还是Map要快一点.数据量为10000的时候.这就差异性就更小.但是Map的查找的效率确实还是赢了一筹.