APK
的诞生
上述之前在其他文章里面也常见的图,而这张图讲述一个APK
的诞生流程,可以分为以下的几个流程
-
aapt
工具将资源文件转化出对应的R
文件和编译好的文件,但是这类资源文件中不包含assets
目录下的文件。 -
aidl
工具将aidl
文件转化为Java
代码。 -
Java Compiler
工具将上述两者以及我们书写好的源代码进行整合生成我们所熟悉的Class
文件。 -
dex
工具将会将第三方库和Class
文件转化二进制dex
文件。 -
apkbuilder
工具将编译好的资源文件、源码的二进制文件以及assets
下的资源文件内联最后生成我们见到的apk
文件。 -
signer
工具用于签名使用(因为签名工具并不局限于Jarsigner
) -
zipalign
工具帮助优化资源索引。
aapt
/ 资源编译阶段
aapt
工具位于Android
目录下的build-tools
中具体使用方法请参考AAPT2
AAPT2
支持编译res
文件目录下的资源。调用AAPT2
进行编译时,每次调用都应传递一个资源文件作为输入。然后,AAPT2
会解析该文件并生成一个扩展名为.flat
的中间二进制文件。而这个二进制文件就对应着图中的Compiled Resources
。
aapt2 compile project_root/module_root/src/main/res/values-en/strings.xml -o compiled/
复制代码
上面的个人感觉比较坑的地方,
compile
后面跟着的路径必须是完整的,但而-o
后面的又用的相对路径。最后的结果就是如上面所说会生成一个以.flat
为后缀的二进制文件。
下面给出各种不同文件类型下将会得到的输出:
输入 | 输出 |
---|---|
XML 资源文件(如 String 和 Style),它们位于 res/values/ 目录下。 | 以 *.arsc.flat 作为扩展名的资源表。 |
其他所有资源文件 | 除 res/values/ 目录下的文件以外的其他所有文件都将转换为扩展名为 *.flat 的二进制 XML 文件。此外,默认情况下,所有 PNG 文件都会被压缩,并采用 *.png.flat 扩展名。如果选择不压缩 PNG,您可以在编译期间使用 --no-crunch 选项。 |
另外aapt
工具的link
链接功能还会生成我们一个R
的文件用于资源的唯一标示。
aapt2 link path-to-input-files [options] -o outputdirectory/outputfilename.apk
--manifest AndroidManifest.xml
复制代码
通过定向的链接的可以实现增量链接的效果。
Android Studio
自带工具,点开APK
就能够直接解析。
我们可以将整个int
数值分为4个字节:
- 第一位字节
0x7f
表示packageID
,用来限定资源的来源。应用资源是0x7f
,系统资源是0x01
- 次一位字节
01
表示typeID
,用来表示资源类型,如drawable
、layout
、menu
等,下一个资源的typeID
则会是02
- 后2字节
0000
指的是每一个资源在对应的typeID
中出现的顺序。(给出的存储空间范围比较大)
但是我们在APK
解析的文件中会找到这样的一个文件resources.arsc
,这个文件的生成同样伴随aapt
的链接而来。
抛去纯数值的文件不讲,着重看一下layout
文件能够发现v17
、watch-v20
。。其实为布局显示时留出了不同版本选择空间,如果你再看一下mipmap
或者drawable
还会为不同的屏幕尺寸留出了选择的余地。
Q1:R.java和resources.arsc文件作用是什么?
A1:resources.arsc
为应用程序在运行时同时支持不同大小、密度的屏幕以及不同语言等提供可能。R
文件为资源设置了唯一标示,从而可以让应用程序能够根据设备的当前配置信息来快速索引到匹配资源。
Java Compile + Dex
/ 代码编译
项目中其实我们更多时候已经用Android Studio
提供的Build
功能完成了,而这一样的能力提供方就包括Gradle
。
Gradle
是干嘛用的?
在 关于Python的小小分享曾分享过这样一张图。
其实Gradle
的其中一项能力就是为我们提供不同三方库之间的依赖关系,而基础就是Java
,所以在Build
的这样过程中我们经常会看到类似这样的一个Task
。
在正式接触Gradle
的打包流程之前有必要了解一下什么是Gradle
,先看下面的一段xml
文件内容。
org.springframework
spring-context
junit
junit
复制代码
如果你曾经做过后端开发,那么开发中肯定是经常接触到这样的xml
文件编写,但这个文件格式书写辨识能力来自于与他具有相同能力的同伴maven
。
dependencies {
compile('org.springframework:spring-context:2.5.6')
testCompile('junit:junit:4.7')
}
复制代码
而像Gradle
是基于自己定义的语法来完成依赖解析,呈现方式上更是一目了然。那说到这里我还是没去介绍Gradle
这个工具他的作用到底是什么?往简单了说,就是一个项目自动构建工具呗。但是这样的一个工具在我们的开发过程中到底占到怎么一个不可或缺的位置呢?我们来纵观一下一个apk
的打包流程就可以直到他干了什么事情了。
在写代码的时候我们关注点是什么?通常会有以下几类:
- 源代码文件:包括
Kotlin
、Java
、C
、AIDL
等等文件。 - 资源文件:图片、视频、布局等等文件。
-
R
文件,各类资源的唯一标识。
完成以上内容的编写,我们可能结束了代码编写,然后用了一下Android Studio
中提供的各项能力。
如果不出所料,你的项目就飞快的在你的测试机上开始开心的运行了。
可能到这里你还没有感觉,但如果看了这张图呢?
是否能切实的感受到Gradle
所提供的强大能力了,因为对我们我们开发者而言其实只干了一件运行按钮的触发操作,但是背后Gradle
给我们所带来的收益是无穷无尽的。
在这里我们知道他很有用了,但是为什么还要提一下他的兄弟Maven
呢?主要是为了让你转化手头的构建工具,根据官网的构建速度对比。
具体请参考文档Gradle vs Maven:性能比较
因为公司里一般的项目都是组件化的,而且接入方会很多很多很多,所以我们拿一个大型构建的时间对比可能更服人心。对于干净的构建,Gradle的速度提高了2-3倍,对于增量更改,Gradle的速度提高了约7倍,而对Gradle任务输出进行缓存时,Gradle的速度提高了3倍。 如此之高的构建效率提升对我们开发者而言肯定也是有利有“弊”的,比如说我作为一个抖音开发者,原本抖音的构建工具使用的是Maven
他的增量编译构建速度原本20分钟完成一次,那说明我现在有20分钟的摸鱼时间了,但是如果我一天要编译10次20次呢?总体这样折算下来一天的工作效率可以说骨折式缩短,可能因为编译效率过低,导致你无法按时完成需求年终奖一无所有。但是用了Gradle
以后,效率翻倍,每次增量编译只用10分钟就完成了,虽然摸鱼时间短了,但是效率上来了,老板说你表现优异又给你加了3个月的奖金。
回归这个主题的内容,Gradle
是怎么为我们提供能力的?
Proguard
+ Dex
Dex
工具就是将Class
文件转换成二进制这里就不做介绍
在关于proguard
的内容上,对于8成的开发者阮大概最熟悉的内容就是混淆了。
Q1:混淆带给我们的好处有什么?
A1: 为什么我们要混淆?很简单,不想让第三者轻易获得我们开发的app
源码,那他的第一个优势就出来了,让代码失去直观的语义,让一部分想窃取公司机密的外部业余黑客望而却步。其实这个工具还给我们带来了第二个优势,就是代码内容缩短,在整体的包体积缩小起到了至关重要的作用。
那Proguard
只有这么点作用吗??显然并不是这样的。
从图中可以得知,Proguard
针对的部分是抛去系统库的,所以在混淆的图中能够发现android.support
的库还是清晰的显示着,个人考虑是因为如果加上系统库进行混淆的话,可能引来奇怪的Bug
。
我们将整体分为4个部分:
shrink
—— 代码删减optimize
—— 指令优化obfuscate
—— 代码混淆preverify
—— 代码校验
Shrink
作为代码删减肯定是有删减的入口的。ProGuard
会根据Configuration Roots
开始标记, 同时根据Roots
为入口开始发散。标记完成以后, 删除未被标记的类或成员。最终得到的是精简的ClassPool
。
Q1:那这些Roots
的来源是什么呢?
A1:Roots
包括类,方法字段,方法指令, 来源主要有2种。
- 通过
keep
同时allowshrinking
不为true
。计算class_specification
中类限定和限定成员 - 通过
keepclasseswithmembers
关键字allowshrinking
不为true
。如果类限定和成员限定都存在。计算class_specification
中类限定和成员限定。
Q2:删除的是那些代码?
A2: 其实删除的内容就是在全局范围内并没有调用点并且没有用keep
去保留的方法或者类。
Optimize
Optimize
会在该阶段通过对 代码指令、 堆栈, 局部变量以及数据流分析。来模拟程序运行中尽可能出现的情况来优化和简化代码. 为了数据流分析的需要Optimize
会多次遍历所有字节码ProGuard
会开启多线程来加快速度。
具体的优化策略详见于ProGuard 初探的 Optimize 部分
Obfuscate
代码混淆想来是我们最为常见的部分了。
混淆部分一共会带来两部分的收益:
- 代码失去直观的语义(因为我们的方法或者函数命名时都会有一定的规则)
- 代码内容缩短,缩小整体的包体积
Preverify
对代码进行预校验。 主要校验StackMap / StackMapTable
属性。android
虚拟机字节码校验不基于StackMap /StackMapTable
。
具体内容详见于 ProGuard 初探
D8
是
Dex
的替代产品
这一解析器的引入非常重要的目的是为了适应Java 8
上新概念Lambda
。Java
底层是通过invokedynamic
指令来实现,由于Dalvik/ART
并没有支持invokedynamic
指令或者对应的替代功能。简单的来说,就是Android
的dex
编译器不支持invokedynamic
指令,导致Android
不能直接支持Java 8
。
所以Android
做的事情就是间接支持,将Lambda
变化为可以解析的语法然后执行。
将代码编译以后,我们能够发现生成的代码中会同时生成以Lambda
来标识的类,这就是说明了他的解析方案,而代码的实现方式就是我们在Java 7
中常见的方案了。
不过你觉得新产品的提升会止步于此吗?
- 编译速度的提升
-
编译产生的
dex
文件体积缩小
R8
是
Proguard
+Dex
的替代产品
R8
中包含了D8
+R8
R8
作为Proguard
的替代产品,继承了原有的功能并且做出了拓展。
那在R8
这个工具上,开发者又做出了什么样的突破呢?
从图中能够比较直观地看到,R8作为集成物,将ProGuard
+Dex
的能力集成,不仅在编译效率上提升,并且包大小的体积也有一定的收益
apkbuilder
的话就是一个集成工具了不做讲解了
签名
为什么Android
的程序需要签名呢?是否经常遇到这样的情况,同一个项目两个台机器上运行到同一部手机中,我们经常会碰到关于签名不同的报错。然后我们的做法可能就是删除,然后重新安装,这样就能解决问题了,但其实导致这个问题的原因是签名,如果两台机器使用了同样的签名,这个问题就自动解除了。
签名为我们带来了什么样的好处呢?
- 使用特殊的key签名可以获取到一些不同的权限
- 验证数据保证不被篡改,防止应用被恶意的第三方覆盖
通过Android Studio
的Generate Signed Bundle or APK
方法可以看到上述的两种签名的方法:Jar Signature
和Full APK Signature
,那这两种签名方式又有什么区别呢?
Jar Signature
/ v1
签名通过Jar Signature
在APK
的表现形式又是怎么样的呢?
v1签名过程很简单,一共分为了三个部分:
- 对非目录文件以及过滤文件进行摘要,存储在
MANIFEST.MF
文件中。 - 对
MANIFEST.MF
文件的进行摘要以及对MANIFEST.MF
文件的每个条目内容进行摘要,存储在CERT.SF
文件中。 - 使用指定的私钥对
CERT.SF
文件计算签名,然后将签名以及包含公钥信息的数字证书写入CERT.RSA
。
从这个实现流程上其实能够明显感觉出来这个签名模式肯定是存在问题的,因为最后的签名数据相当于说向外暴露了。只要稍微注意一下数据就能够把一个APK
反编译改完以后再编译回来。
Full APK Signature
/ v2
我们知道了Jar Signature
的签名方式,那现在这个新的签名方式又是如何实现的呢?
APK
签名方案v2
是一种全文件签名方案,该方案能够发现对APK
的受保护部分进行的所有更改,从而有助于加快验证速度并增强完整性保证。
使用APK
签名方案v2
进行签名时,会在APK
文件中插入一个APK
签名分块,该分块位于“ZIP
中央目录”部分之前并紧邻该部分。在“APK
签名分块”内,v2
签名和签名者身份信息会存储在APK
签名方案v2
分块中。
APK 签名方案 v2 验证
- 找到“APK 签名分块”并验证以下内容:
- “APK 签名分块”的两个大小字段包含相同的值。
- “ZIP 中央目录结尾”紧跟在“ZIP 中央目录”记录后面。
- “ZIP 中央目录结尾”之后没有任何数据。
- 找到“APK 签名分块”中的第一个“APK 签名方案 v2 分块”。如果 v2 分块存在,则继续执行第 3 步。否则,回退至使用 v1 方案验证 APK。
- 对“APK 签名方案 v2 分块”中的每个 signer 执行以下操作:
- 从 signatures 中选择安全系数最高的受支持 signature algorithm ID。安全系数排序取决于各个实现/平台版本。
- 使用 public key 并对照 signed data 验证 signatures 中对应的 signature。(现在可以安全地解析 signed data 了。)
- 验证 digests 和 signatures 中的签名算法 ID 列表(有序列表)是否相同。(这是为了防止删除/添加签名。)
- 使用签名算法所用的同一种摘要算法计算 APK 内容的摘要。
- 验证计算出的摘要是否与 digests 中对应的 digest 一致。
- 验证 certificates 中第一个 certificate 的 SubjectPublicKeyInfo 是否与 public key 相同。
- 如果找到了至少一个 signer,并且对于每个找到的 signer,第 3 步都取得了成功,APK 验证将会成功。
那问题来了,这个这个v2
的整块数据是如何计算出来的呢?
v2的详细计算过程请见于 APK 签名方案 v2 分块
- 每个部分都会被拆分成多个大小为 1MB 的连续块。每个部分的最后一个块可能会短一些。
- 每个块的摘要均通过字节 0xa5 + 块的长度 + 块的内容进行计算。
- 顶级摘要通过字节 0x5a + 块数 + 块的摘要的连接进行计算。
摘要以分块方式计算,以便通过并行处理来加快计算速度。
v3(Android 9 及更高版本)
v3新版本签名中加入了证书的旋转校验,即可以在一次的升级安装中使用新的证书,新的私钥来签名APK。当然这个新的证书是需要老证书来保证的,类似一个证书链。
详细内容见于:Android P v3签名新特性
v4(Android 11)
此方案会在单独的文件 (apk-name.apk.idsig) 中生成一种新的签名,但在其他方面与 v2 和 v3 类似。没有对 APK 进行任何更改。此方案支持 ADB 增量 APK 安装。设备上安装大型(2GB 以上)APK 可能需要很长的时间,ADB(Android 调试桥)增量 APK 安装可以安装足够的 APK 以启动应用,同时在后台流式传输剩余数据,从而加快 APK 安装速度。
zipalign
zipalign
是一种归档对齐工具,可对 Android 应用 (APK) 文件提供重要的优化。 其目的是要确保所有未压缩数据的开头均相对于文件开头部分执行特定的对齐。具体来说,它会使 APK 中的所有未压缩数据(例如图片或原始文件)在 4 字节边界上对齐。
使用时间点
必须在应用构建过程中的两个特定时间点之一使用 zipalign,具体在哪个时间点使用,取决于所使用的应用签名工具:
- 如果使用的是 jarsigner,则只能在为 APK 文件签名之后执行 zipalign。
- 如果使用的是 apksigner,则只能在为 APK 文件签名之前执行 zipalign。如果您在使用 apksigner 为 APK 签名之后对 APK 做出了进一步更改,签名便会失效。
自此,一个可以运行的APK
就诞生了。
APK
运行在Android
手机上
既然我们要开始在手机上运行了,那基本还要用上adb
的工具了,这里温习一个安装的命令adb install
在Android
里我们需要了解的的就是Dalvik
和ART
两个虚拟机了。
但是我们得先了解一下为什么当年在有JVM
的情况下,还要自己造出一个DVM
来满足需求呢?
先思考一个问题,为什么Android
程序明明是用Java
写的,能够直接在JVM
上运行,还要自己再写一个DVM
呢??
可能很多文章都这样说,因为通过JVM
来运行,虽然能够一份代码到处跑,但是显然从性能上跟不上直接通过寄存器来完成所有的数据操作的。但是我之前听说过一个故事,是谷歌被Oracle
限制了JVM
的使用 , 所以才造了一个DVM
。然后效果又比用JVM
好,就开始流行起来了。
那为什么JVM
会比DVM
运行起来慢呢?
JVM | DVM |
---|---|
基于栈开发 | 基于寄存器开发 |
java文件 | dex文件 |
按需加载 | 一次性加载 |
在没有引入multiDex
之前的DVM
是一次性加载,可能加载速度上会比JVM
慢,但是加载完毕以后,整体效率高,这基于的是几个方面:
- 按需加载,导致加载不够实时。
- 基于栈开发,对应的二进制指令更加复杂。
既然Davlik
听起来已经这么好了,为什么还要再开发一套ART
的虚拟机呢?
其实他的优化角度有这几个层面:
- 采用AOT(Ahead-Of-Time,预编译)编译技术,它能将Java字节码直接转换成目标机器的机器码。
- 更为高效和细粒度的垃圾回收机制(GC)。
AOT(Ahead-Of-Time,预编译)编译技术
JIT(Just in Time)
运行时进行字节码到本地机器码的编译
缺点:
- 每次启动应用都需要重新编译
- 运行时比较耗电(因为经常有编译的过程)
AOT(Ahead of Time)
在应用安装时就将字节码编译成本地机器码
缺点:
- 应用安装和系统升级之后的应用优化比较耗时(重新编译,把程序代码转换成机器语言)
- 优化后的文件会占用额外的存储空间(缓存转换结果)
JIT + AOT
为什么要出现这样的方案呢?其实我们看不管是单纯的JIT
或是AOT
方案都有自己的优缺点,为什么这么说呢。
这是一个流量的时代,而一个安装包的体积大小、安装时间经常就会成为用户安装时的软肋,原因见于 App竞品技术分析 (3)减小安装包的体积。这就体现了JIT
方案的优势,因为安装时没有了编译的过程,安装速度相比较而言就更快。但是运行后呢?JIT
的优势就断崖式下降了,这个时候有AOT
的话,能够再下一次启动时来加速我们的程序执行效率,但是AOT
的触发条件是什么?
当手机长期处于空闲或者充电状态的时候,系统才会进行执行 AOT 过程进行编译,生成的机器码缓存为文件,所以说这个AOT
在无人干预的情况下是一个非常不可控的过程。
更为高效和细粒度的垃圾回收机制(GC)
关于GC
又可以分为这样的几个层面:
- 内存分配器
- 垃圾回收算法
- 超大对象存储空间的支持
- Moving GC策略
- GC调度策略的多样性
这里我们只对GC
垃圾回收算法做一个讲解。首先我们先做一个回顾,在关于JVM,你必须知道的那些玩意儿 中我曾经提到过关于JVM
内的三种垃圾回收算法,复制收集、标记清理、标记整理三种算法,但对于JVM
而言是有将堆区通过自己的规则整体成一个生命周期。然后他与会有很多很多的垃圾回收器,比如说Serial收集器、ParNew收集器、G1回收器。。。。
但那是对于JVM
而言的,而DVM
的出场姿势又是什么样的呢?
对于DVM
而言,很简单的处理方式就是和最开始的 JVM 垃圾收集器一样Stop The World
,然后套上自己的清理算法,先标记使用中的数据,再把无用数据清理掉。这也就导致了用户体验到了难以用语言描述的卡顿感。
而ART
是如何在保持着Stop The World
的观念的同时又提高了性能的呢?ART
需要垃圾收集器做的工作,拆分给应用程序本身完成,这一项任务其实就是标记了。这里做一个盲猜,ART
的实现应该是通过添加了类似于使用标记位的东西,通过不断更新这个值,等需要进行清理时,数据的标识其实已经处于一个完备的状态了,可能麻烦的问题就在于这个标记位的设定了。对于清理过程的减负,Google
又引入了一项名叫packard pre-cleaning
预清理的技术来减轻需要GC
的数量来提高效率。
作者:ClericYi
链接:https://juejin.im/post/6875482712078024711