浅谈Android的ART虚拟机

Android操作系统从2007年最初发布至今,已成为市场份额超过iOS的全球第一大移动操作系统。


越用越慢的Android系统

随着Android用户的不断增多,它的一个重大弱点也一直为人所诟病:随着使用时间的增长,系统会变得越来越慢。很多中高端的Android手机即使在硬件配置上比同时期的iPhone还要高不少,仍然会在长期使用之后变得反应迟钝。

关于Android系统运行慢的原因众说纷纭,其中大家公认的一个因素,就是Android使用的Dalvik虚拟机的性能问题。

因此Google在2014年推出了新的虚拟机ART,在Android4.4系统中提供给用户试用,力图从根本上改善系统卡顿的问题 ,并且从Android5.0开始废弃了Dalvik,全面推行ART。

随着越来越多Android5.0及以上机型的面世,很多终端用户已经用上了配备ART虚拟机的Android系统。系统是否真的变快了,这还需要经过用户的考验,我们先看一下ART有哪些技术上的改进。

Dalvik和ART

众所周知,Android系统是以Linux为内核构建的。Google为了降低应用的开发难度,并将其适配到不同硬件配置的设备上,在Linux内核之上构建了一个虚拟机,Android应用使用java开发,运行在虚拟机之上。

Dalvik就是Android4.4及之前使用的虚拟机,它使用的是JIT(Just-In-Time)技术来进行代码转译,每次执行应用的时候,Dalvik将程序的代码编译为机器语言执行。随着硬件水平的不断发展以及人们对更高性能的需求,Dalvik虚拟机的不足日益突出。而应运而生的ART(Android RunTime)虚拟机,其处理机制根本上的区别是:它采用AOT(Ahead-Of-Time)技术,会在应用程序安装时就转换成机器语言,不再在执行时解释,从而优化了应用运行的速度。在内存管理方面,ART也有比较大的改进,对内存分配和回收都做了算法优化,降低了内存碎片化程度,回收时间也得以缩短。

下图是Google发布的使用不同性能测试工具时Dalvik和ART的得分对比:


ART运作原理

1) 内存管理

内存管理的优化是ART的一大改进。

ART虚拟机首先会从系统空间中取得足够的空间,这些空间在没有使用的时候并不占用物理内存,在使用的时候才分配物理内存,在不需要的时候及时归还给系统。ART 将分配到的空间根据需要托管给不同的算法进行管理,主要提供了如下几种分配算法来进行内存分配,它们的定义可以在ART源码定义中看到:

enum AllocatorType {

kAllocatorTypeBumpPointer,  // Use BumpPointer allocator, has entrypoints.

kAllocatorTypeTLAB,  // Use TLAB allocator, has entrypoints.

kAllocatorTypeRosAlloc,  // Use RosAlloc allocator, has entrypoints.

kAllocatorTypeDlMalloc,  // Use dlmalloc allocator, has entrypoints.

kAllocatorTypeNonMoving,  // Special allocator for non moving objects, doesn't have entrypoints.

kAllocatorTypeLOS,  // Large object space, also doesn't have entrypoints.

};

其中后二种是没有跳转表(entrypoints)的,我们主要了解一下前面4种的分配策略:

RosAlloc(Rows of slots Allocator)的分配策略:在Ros Alloc Space分配对象,是一种线性分配方式,将一个大的连续空间划分为多个片,每个片中只能分配固定大小的内存。这种分配方式有一个更加细粒度的结构,可以锁定独立的对象。

BumpPointer:在Bump Pointer Space中分配对象。每一次申请时,分配需要的size,返回end地址的值。然后将end后移sized,作为下一次申请的地址。这种分配采用不计数申请的方式,直到发生out of memory。采用Moving GC的方式进行回收。

TLAB(Thread Local Allocation Block):在由Bump Pointer Space提供的线程局部分配缓冲区中分配对象,按线程进行管理。每一个线程,从Bump Pointer Space中申请一个block,在线程内使用Bump Pointer的分配策略。由于每一个线程独立在自己的block中分配内存,避免了同步,可以提高效率。

DLMalloc:这是原Dalvik使用的算法 。在Dl Malloc Space分配对象,将memory划分成很多小的数据块,每一个块的前8个或者16个字节作为Header,使用链表来管理空闲的数据块。

使用这些不同算法来分配内存,与Dalvik相比可以有效的减少碎片化,由于碎片化减少,相应也就减少了GC的次数。除此之外,像TLAB这样的算法引入,也减少了申请内存时线程之间的竞争。

在内存回收方面,ART也提供了几种GC算法,GC算法与内存分配算法相对应,关系如下表:


ART在回收memory时,会依据进程状态选择不同的算法。除此之外,ART在GC时采用了读写锁的机制,减少了进程被挂起的时间,因此较之于Dalvik,GC时线程挂起的时间也相应缩短。

2) 代码执行

我们引用一张Google的图来看一下Android对apk的执行流程(图片从上往下阅读):


Java文件在编译成class文件,然后经过Android平台的dx工具转换为Dex文件后,同Native code(JNI)和资源一起打包成apk,apk安装到手机后解压出Dex文件。Dalvik会通过dexopt工具将Dex优化,成为Odex文件,Odex文件的效率比Dex高,但其中大部分代码仍然需要每次执行时编译;而ART则会将Dex通过dex2oat工具编译得到一个ELF文件,它是一个可执行的文件。

关于Java代码的执行过程,以一段简单的代码为例:

int a = 1;

int b = 2;

public int test() {

① int x = a;

② int y = b;

int z = a + b;

return z;

}

在执行这段Java代码时,Dalvik虚拟机先要把test()方法的每句代码转译成Dex代码,对其中的① ② 两句赋值语句,执行时需要在虚拟机中进行“指令读取—识别指令—跳转—实例操作”的解析过程;而ART中Java代码都被以方法为单位编译成汇编指令,执行上面这个方法的时候,① ② 两句代码只需要直接拷贝两个寄存器的值,各需要一条汇编指令就可以完成,省去了跳转、指令读取的过程,执行效率也就大大提高了。

总结

虚拟机从Dalvik换成ART后,Android系统的性能得到了一定程度的提升。不过ART与Dalvik相比也存在一些缺点,比较明显的表现就是,apk经过dex2oat预编译之后,占用的空间增加,因此Android ROM占用的空间更大。手机在安装下载的apk时,安装时间也明显变长。但在手机硬件配置越来越高的今天,与获得更佳的系统性能相比,这个缺点也就不那么引人注目了。


文/点融黑帮(简书作者)
原文链接:http://www.jianshu.com/p/1f779586efdc

上一篇: VR进校园 谷歌英国为学子提供VR授课服务

下一篇: Android 插件还能这么玩!新系统的 4 个效率工具推荐

分享到: 更多