Android启动过程深入解析
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Android启动过程深入解析相关的知识,希望对你有一定的参考价值。
参考技术A 当按下android设备电源键时究竟发生了什么?Android的启动过程是怎么样的?
什么是Linux内核?
桌面系统linux内核与Android系统linux内核有什么区别?
什么是引导装载程序?
什么是Zygote?
什么是X86以及ARM linux?
什么是init.rc?
什么是系统服务?
当我们想到Android启动过程时,脑海中总是冒出很多疑问。本文将介绍Android的启动过程,希望能帮助你找到上面这些问题的答案。
Android是一个基于Linux的开源操作系统。x86(x86是一系列的基于intel 8086 CPU的计算机微处理器指令集架构)是linux内核部署最常见的系统。然而,所有的Android设备都是运行在ARM处理器(ARM 源自进阶精简指令集机器,源自ARM架构)上,除了英特尔的Xolo设备(http://xolo.in/xolo-x900-features)。Xolo来源自凌动1.6GHz x86处理器。Android设备或者嵌入设备或者基于linux的ARM设备的启动过程与桌面版本相比稍微有些差别。这篇文章中,我将解释Android设备的启动过程。深入linux启动过程是一篇讲桌面linux启动过程的好文。
当你按下电源开关后Android设备执行了以下步骤。
此处图片中step2中的一个单词拼写错了,Boot Loaeder应该为Boot Loader(多谢@jameslast 提醒)
第一步:启动电源以及系统启动
当电源按下,引导芯片代码开始从预定义的地方(固化在ROM)开始执行。加载引导程序到RAM,然后执行。
第二步:引导程序
引导程序是在Android操作系统开始运行前的一个小程序。引导程序是运行的第一个程序,因此它是针对特定的主板与芯片的。设备制造商要么使用很受欢迎的引导程序比如redboot、uboot、qi bootloader或者开发自己的引导程序,它不是Android操作系统的一部分。引导程序是OEM厂商或者运营商加锁和限制的地方。
引导程序分两个阶段执行。第一个阶段,检测外部的RAM以及加载对第二阶段有用的程序;第二阶段,引导程序设置网络、内存等等。这些对于运行内核是必要的,为了达到特殊的目标,引导程序可以根据配置参数或者输入数据设置内核。
Android引导程序可以在bootablebootloaderlegacyusbloader找到。
传统的加载器包含的个文件,需要在这里说明:
init.s初始化堆栈,清零BBS段,调用main.c的_main()函数;
main.c初始化硬件(闹钟、主板、键盘、控制台),创建linux标签。
更多关于Android引导程序的可以在这里了解。
第三步:内核
Android内核与桌面linux内核启动的方式差不多。内核启动时,设置缓存、被保护存储器、计划列表,加载驱动。当内核完成系统设置,它首先在系统文件中寻找”init”文件,然后启动root进程或者系统的第一个进程。
第四步:init进程
init是第一个进程,我们可以说它是root进程或者说有进程的父进程。init进程有两个责任,一是挂载目录,比如/sys、/dev、/proc,二是运行init.rc脚本。
init进程可以在/system/core/init找到。
init.rc文件可以在/system/core/rootdir/init.rc找到。
readme.txt可以在/system/core/init/readme.txt找到。
对于init.rc文件,Android中有特定的格式以及规则。在Android中,我们叫做Android初始化语言。
Action(动作):动作是以命令流程命名的,有一个触发器决定动作是否发生。
语法
1
2
3
4
5
; html-script: false ]
on <trigger>
<command>
<command>
<command>
Service(服务):服务是init进程启动的程序、当服务退出时init进程会视情况重启服务。
语法
1
2
3
4
5
; html-script: false ]
service <name> <pathname> [<argument>]*
<option>
<option>
...
Options(选项)
选项是对服务的描述。它们影响init进程如何以及何时启动服务。
咱们来看看默认的init.rc文件。这里我只列出了主要的事件以及服务。
Table
Action/Service
描述
on early-init
设置init进程以及它创建的子进程的优先级,设置init进程的安全环境
on init
设置全局环境,为cpu accounting创建cgroup(资源控制)挂载点
on fs
挂载mtd分区
on post-fs
改变系统目录的访问权限
on post-fs-data
改变/data目录以及它的子目录的访问权限
on boot
基本网络的初始化,内存管理等等
service servicemanager
启动系统管理器管理所有的本地服务,比如位置、音频、Shared preference等等…
service zygote
启动zygote作为应用进程
在这个阶段你可以在设备的屏幕上看到“Android”logo了。
第五步
在Java中,我们知道不同的虚拟机实例会为不同的应用分配不同的内存。假如Android应用应该尽可能快地启动,但如果Android系统为每一个应用启动不同的Dalvik虚拟机实例,就会消耗大量的内存以及时间。因此,为了克服这个问题,Android系统创造了”Zygote”。Zygote让Dalvik虚拟机共享代码、低内存占用以及最小的启动时间成为可能。Zygote是一个虚拟器进程,正如我们在前一个步骤所说的在系统引导的时候启动。Zygote预加载以及初始化核心库类。通常,这些核心类一般是只读的,也是Android SDK或者核心框架的一部分。在Java虚拟机中,每一个实例都有它自己的核心库类文件和堆对象的拷贝。
Zygote加载进程
加载ZygoteInit类,源代码:/frameworks/base/core/java/com/android/internal/os/ZygoteInit.java
registerZygoteSocket()为zygote命令连接注册一个服务器套接字。
preloadClassed “preloaded-classes”是一个简单的包含一系列需要预加载类的文本文件,你可以在/frameworks/base找到“preloaded-classes”文件。
preloadResources() preloadResources也意味着本地主题、布局以及android.R文件中包含的所有东西都会用这个方法加载。
在这个阶段,你可以看到启动动画。
第六步:系统服务或服务
完成了上面几步之后,运行环境请求Zygote运行系统服务。系统服务同时使用native以及java编写,系统服务可以认为是一个进程。同一个系统服务在Android SDK可以以System Services形式获得。系统服务包含了所有的System Services。
Zygote创建新的进程去启动系统服务。你可以在ZygoteInit类的”startSystemServer”方法中找到源代码。
核心服务:
启动电源管理器;
创建Activity管理器;
启动电话注册;
启动包管理器;
设置Activity管理服务为系统进程;
启动上下文管理器;
启动系统Context Providers;
启动电池服务;
启动定时管理器;
启动传感服务;
启动窗口管理器;
启动蓝牙服务;
启动挂载服务。
其他服务:
启动状态栏服务;
启动硬件服务;
启动网络状态服务;
启动网络连接服务;
启动通知管理器;
启动设备存储监视服务;
启动定位管理器;
启动搜索服务;
启动剪切板服务;
启动登记服务;
启动壁纸服务;
启动音频服务;
启动耳机监听;
启动AdbSettingsObserver(处理adb命令)。
第七步:引导完成
一旦系统服务在内存中跑起来了,Android就完成了引导过程。在这个时候“ACTION_BOOT_COMPLETED”开机启动广播就会发出去。
深入解析Hyperledger Fabric启动的全过程
在这篇文章中,使用fabric-samples/first-network
中的文件进行fabric网络(solo类型的网络)启动全过程的解析。如有错误欢迎批评指正。
至于Fabric网络的搭建这里不再介绍,可以参考这一篇文章Hyperledger Fabric环境搭建过程
fabric网络:单机,solo类型,两个组织,分别有两个节点
首先看一下该文件夹内有哪些文件:
base connection-org2.json docker-compose-cli.yaml docker-compose-org3.yaml
byfn.sh connection-org2.yaml docker-compose-couch-org3.yaml eyfn.sh
channel-artifacts connection-org3.json docker-compose-couch.yaml org3-artifacts
configtx.yaml connection-org3.yaml docker-compose-e2e-template.yaml README.md
connection-org1.json crypto-config.yaml docker-compose-etcdraft2.yaml scripts
connection-org1.yaml docker-compose-ca.yaml docker-compose-kafka.yaml
将本次用不到的文件删除,剩余的文件:
.
├── base
│?? ├── docker-compose-base.yaml
│?? └── peer-base.yaml
├── channel-artifacts
├── configtx.yaml
├── crypto-config.yaml
├── docker-compose-cli.yaml
├── docker-compose-couch.yaml
├── docker-compose-e2e-template.yaml
1.证书的生成
在Fabric网络环境中,第一步需要生成各个节点的证书文件,所用到的配置文件为crypto-config.yaml
,说明一下文件内各字段的意义:
OrdererOrgs: #定义一个Order组织
- Name: Orderer #order节点的名称,当前网络模式为solo类型,所以只定义了一个Order节点
Domain: example.com #order节点的域
Specs: #暂时用不到
- Hostname: orderer
- Hostname: orderer2
- Hostname: orderer3
- Hostname: orderer4
- Hostname: orderer5
PeerOrgs: #定义Peer组织
- Name: Org1 #声明Peer组织名称为Org1
Domain: org1.example.com #Org1组织的域
EnableNodeOUs: true #暂时没搞清楚该字段的意义
Template: #在这里可以定义所生成的Org1组织中的Peer节点证书数量,不包括Admin
Count: 2 #表明需要生成两个Peer节点的证书,如果需要其他数量的Peer节点,只需要更改这里的数量。
Users: #在这里可以定义所生成的Org1组织中类型为User的证书数量,不包括Admin
Count: 1 #生成用户的证书的数量
- Name: Org2 #声明第二个Peer组织名称为Org2,如果需要更多的Peer组织证书,只需要按该模板添加即可。
Domain: org2.example.com #与以上相同
EnableNodeOUs: true
Template:
Count: 2
Users:
Count: 1
我们这里就使用两个组织,每个组织分别有两个节点和一个User。接下来我们使用该文件生成对应数量的证书:
#路径需要更改为自己的路径
cd ~/go/src/github.com/hyperledger/fabric/scripts/fabric-samples/first-network/
#在这里可能会报错,通常是权限问题,可以添加sudo重新执行
cryptogen generate --config=./crypto-config.yaml
#执行完毕后,当前文件夹下会出现一个新的文件夹:crypto-config,在该文件夹下就是刚刚生成的证书.
文件夹内证书不再详解,会在另一篇文章中专门解释Fabric-ca的内容。
2 生成创世区块,通道配置,锚节点配置文件
在这里需要用到configtxgen
这个二进制文件。
2.1生成创世区块
#首先进入文件夹
cd ~/go/src/github.com/hyperledger/fabric/scripts/fabric-samples/first-network/
#执行命令生成创世区块
configtxgen -profile TwoOrgsOrdererGenesis -channelID mychannel -outputBlock ./channel-artifacts/genesis.block
#如果没有channel-artifacts这个文件夹,则需要手动去创建
如果没有出现错误的话,在channel-artifacts
文件夹中可以看至生成的genesis.block
文件。
2.2生成通道配置信息
#执行命令生成通道配置信息
configtxgen -profile TwoOrgsChannel -outputCreateChannelTx ./channel-artifacts/channel.tx -channelID mychannel
同样,在channel-artifacts
文件夹中可以看至生成的channel.tx
文件。
2.3生成锚节点配置文件
#首先生成Org1的锚节点配置文件
configtxgen -profile TwoOrgsChannel -outputAnchorPeersUpdate ./channel-artifacts/Org1MSPanchors.tx -channelID mychannel -asOrg Org1MSP
#生成Org2的锚节点配置文件
configtxgen -profile TwoOrgsChannel -outputAnchorPeersUpdate ./channel-artifacts/Org2MSPanchors.tx -channelID mychannel -asOrg Org2MSP
所有需要的配置文件全部建立完成,在channel-artifacts
中应该有以下几个文件:
channel.tx genesis.block Org1MSPanchors.tx Org2MSPanchors.tx
3相关文件说明
这一部分涉及相关配置文件的解析,如果想直接手动启动网络的话可以直接看第4部分
网络的启动涉及到多个文件,本文按以下顺序进行分析:
.
├── base
│?? ├── docker-compose-base.yaml #1
│?? └── peer-base.yaml #2
├── channel-artifacts
├── configtx.yaml #5
├── crypto-config.yaml
├── docker-compose-cli.yaml #3
├── docker-compose-couch.yaml #4
├── docker-compose-e2e-template.yaml 该文件中定义了fabric-ca的配置信息。我们这里用不到,会在讲解Fabric-Ca的文章中说明
3.1 docker-compose-base.yaml
文件详解
先看一下文件内容:
version: '2' #docker版本
services: #服务,可以包括若干个容器实例
orderer.example.com: #定义一个名称为orderer.example.com的服务
container_name: orderer.example.com #当前容器名称
extends: #扩展,代表需要加载的文件或服务
file: peer-base.yaml
service: orderer-base
volumes: #挂载的卷 [本机路径下的文件或目录]:[容器中所映射到的地址]
#比如本机下的channel-artifacts/genesis.block文件可以在容器中/var/hyperledger/orderer/orderer.genesis.block访问
- ../channel-artifacts/genesis.block:/var/hyperledger/orderer/orderer.genesis.block
- ../crypto-config/ordererOrganizations/example.com/orderers/orderer.example.com/msp:/var/hyperledger/orderer/msp
- ../crypto-config/ordererOrganizations/example.com/orderers/orderer.example.com/tls/:/var/hyperledger/orderer/tls
- orderer.example.com:/var/hyperledger/production/orderer
ports: #所映射的端口 [本机端口]:[容器端口]
- 7050:7050
peer0.org1.example.com: #定义一个名称为peer0.org1.example.com的服务
container_name: peer0.org1.example.com #当前容器名称
extends: #同上
file: peer-base.yaml
service: peer-base
environment: #定义环境变量
- CORE_PEER_ID=peer0.org1.example.com #peer节点的id
- CORE_PEER_ADDRESS=peer0.org1.example.com:7051 #peer节点的访问地址
- CORE_PEER_LISTENADDRESS=0.0.0.0:7051 #peer节点的监听地址
- CORE_PEER_CHAINCODEADDRESS=peer0.org1.example.com:7052 #peer节点的链码访问地址
- CORE_PEER_CHAINCODELISTENADDRESS=0.0.0.0:7052 #peer节点的链码监听地址 指定为0.0.0.0则自动进行探测
- CORE_PEER_GOSSIP_BOOTSTRAP=peer1.org1.example.com:8051 #gossip为共识机制
- CORE_PEER_GOSSIP_EXTERNALENDPOINT=peer0.org1.example.com:7051 #gossip外部节点,表明为锚节点
- CORE_PEER_LOCALMSPID=Org1MSP
volumes: #同上,挂载卷
- /var/run/:/host/var/run/
- ../crypto-config/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/msp:/etc/hyperledger/fabric/msp
- ../crypto-config/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls:/etc/hyperledger/fabric/tls
- peer0.org1.example.com:/var/hyperledger/production
ports: #同上,端口
- 7051:7051
peer1.org1.example.com:
container_name: peer1.org1.example.com
extends:
file: peer-base.yaml
service: peer-base
...
...
3.2 peer-base.yaml
文件详解
version: '2'
services:
peer-base: #定义一个名称为peer-base的服务
image: hyperledger/fabric-peer:$IMAGE_TAG #该服务所依赖的镜像
environment: #定义环境变量
- CORE_VM_ENDPOINT=unix:///host/var/run/docker.sock
- CORE_VM_DOCKER_HOSTCONFIG_NETWORKMODE=$COMPOSE_PROJECT_NAME_byfn #定义网络工作模式,这里使用的是bridge方式
- FABRIC_LOGGING_SPEC=INFO #定义日志级别为INFO
#- FABRIC_LOGGING_SPEC=DEBUG
- CORE_PEER_TLS_ENABLED=true #使用TLS
- CORE_PEER_GOSSIP_USELEADERELECTION=true #使用选举LEADER的方式
- CORE_PEER_GOSSIP_ORGLEADER=false #不指定LEADER
- CORE_PEER_PROFILE_ENABLED=true #使用profile
- CORE_PEER_TLS_CERT_FILE=/etc/hyperledger/fabric/tls/server.crt #TLS证书路径
- CORE_PEER_TLS_KEY_FILE=/etc/hyperledger/fabric/tls/server.key #TLS密钥路径
- CORE_PEER_TLS_ROOTCERT_FILE=/etc/hyperledger/fabric/tls/ca.crt #TLS根证书路径
working_dir: /opt/gopath/src/github.com/hyperledger/fabric/peer #工作目录,即进入容器所在的默认位置
command: peer node start #启动容器后所运行的第一条命令:启动Peer节点
orderer-base: #定义一个名称为orderer-base的服务
image: hyperledger/fabric-orderer:$IMAGE_TAG #该服务所依赖的镜像
environment: #环境变量
- FABRIC_LOGGING_SPEC=INFO #日志级别
- ORDERER_GENERAL_LISTENADDRESS=0.0.0.0 #orderer的监听地址
- ORDERER_GENERAL_GENESISMETHOD=file # 创世区块文件的类型为file
- ORDERER_GENERAL_GENESISFILE=/var/hyperledger/orderer/orderer.genesis.block #创世区块在容器中的路径
- ORDERER_GENERAL_LOCALMSPID=OrdererMSP #Orderer的本地MSPid
- ORDERER_GENERAL_LOCALMSPDIR=/var/hyperledger/orderer/msp #本地Msp文件夹
# enabled TLS
- ORDERER_GENERAL_TLS_ENABLED=true #使用TLS
- ORDERER_GENERAL_TLS_PRIVATEKEY=/var/hyperledger/orderer/tls/server.key #TLS私钥路径
- ORDERER_GENERAL_TLS_CERTIFICATE=/var/hyperledger/orderer/tls/server.crt #TLS证书路径
- ORDERER_GENERAL_TLS_ROOTCAS=[/var/hyperledger/orderer/tls/ca.crt] #TLS根证书路径
- ORDERER_KAFKA_TOPIC_REPLICATIONFACTOR=1 #以下为kafka集群的配置,本文中没有使用到
- ORDERER_KAFKA_VERBOSE=true
- ORDERER_GENERAL_CLUSTER_CLIENTCERTIFICATE=/var/hyperledger/orderer/tls/server.crt
- ORDERER_GENERAL_CLUSTER_CLIENTPRIVATEKEY=/var/hyperledger/orderer/tls/server.key
- ORDERER_GENERAL_CLUSTER_ROOTCAS=[/var/hyperledger/orderer/tls/ca.crt]
working_dir: /opt/gopath/src/github.com/hyperledger/fabric #工作目录,即进入容器所在的默认位置
command: orderer #启动容器后所运行的第一条命令:启动orderer
3.3 docker-compose-cli.yaml
文件详解
version: '2'
volumes: #声明挂载的卷
orderer.example.com:
peer0.org1.example.com:
peer1.org1.example.com:
peer0.org2.example.com:
peer1.org2.example.com:
networks: #声明一个名称为byfn的网络
byfn:
services:
orderer.example.com: #定义一个名称为orderer.example.com的服务
extends: #扩展,代表需要加载的文件或服务 即使用了其中的配置信息
file: base/docker-compose-base.yaml
service: orderer.example.com
container_name: orderer.example.com #当前容器名称
networks: #指定当前容器所加入的网络,如果需要加入多个网络,可以定义多个
- byfn
#以下同上
peer0.org1.example.com:
container_name: peer0.org1.example.com
extends:
file: base/docker-compose-base.yaml
service: peer0.org1.example.com
networks:
- byfn
peer1.org1.example.com:
container_name: peer1.org1.example.com
extends:
file: base/docker-compose-base.yaml
service: peer1.org1.example.com
networks:
- byfn
peer0.org2.example.com:
container_name: peer0.org2.example.com
extends:
file: base/docker-compose-base.yaml
service: peer0.org2.example.com
networks:
- byfn
peer1.org2.example.com:
container_name: peer1.org2.example.com
extends:
file: base/docker-compose-base.yaml
service: peer1.org2.example.com
networks:
- byfn
cli: #定义一个客户端容器,方便与各节点进行交互
container_name: cli #客户端容器名称
image: hyperledger/fabric-tools:$IMAGE_TAG #该服务所依赖的镜像
tty: true #使用伪终端
stdin_open: true #标准输入
environment: #环境变量
- GOPATH=/opt/gopath #指定go的路径
- CORE_VM_ENDPOINT=unix:///host/var/run/docker.sock
#- FABRIC_LOGGING_SPEC=DEBUG
- FABRIC_LOGGING_SPEC=INFO #日志级别
- CORE_PEER_ID=cli #当前节点的Id
- CORE_PEER_ADDRESS=peer0.org1.example.com:7051 #以下与peer-base.yaml相同,表示当前客户端容器默认与peer0.org1.example.com进行交互
- CORE_PEER_LOCALMSPID=Org1MSP
- CORE_PEER_TLS_ENABLED=true
- CORE_PEER_TLS_CERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls/server.crt #TLS-peer0.org1.example.com的证书路径
- CORE_PEER_TLS_KEY_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls/server.key #TLS-peer0.org1.example.com的密钥路径
- CORE_PEER_TLS_ROOTCERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls/ca.crt #TLS-peer0.org1.example.com的根证书路径
- CORE_PEER_MSPCONFIGPATH=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/users/[email protected]/msp @#TLS-组织1中Admin的MSP路径
working_dir: /opt/gopath/src/github.com/hyperledger/fabric/peer #工作目录,即进入容器所在的默认位置
command: /bin/bash #启动容器后所运行的第一条命令:使用bash
volumes: #挂载卷
- /var/run/:/host/var/run/
- ./../chaincode/:/opt/gopath/src/github.com/chaincode
- ./crypto-config:/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/
- ./scripts:/opt/gopath/src/github.com/hyperledger/fabric/peer/scripts/
- ./channel-artifacts:/opt/gopath/src/github.com/hyperledger/fabric/peer/channel-artifacts
depends_on: #依赖,需要首先按顺序启动以下容器,但是不会等待以下容器完全启动才启动当前容器
- orderer.example.com
- peer0.org1.example.com
- peer1.org1.example.com
- peer0.org2.example.com
- peer1.org2.example.com
networks: #指定当前容器所加入的网络
- byfn
3.4 docker-compose-couch.yaml
文件详解
在fabric网络中,可以使用默认的levelDb数据库,或者使用CouchDb,该文件主要是对CouchDb进行相关设置。
version: '2'
networks: #声明一个名称为byfn的网络
byfn:
services:
couchdb0: #定义一个couchdb0的服务
container_name: couchdb0 #指定该容器名称为couchdb0
image: hyperledger/fabric-couchdb #该容器所依赖的镜像
environment: #环境变量
- COUCHDB_USER= #couchdb0的用户名,这里设置为空,表明任何人都可登陆
- COUCHDB_PASSWORD= #couchdb0的登陆密码,这里设置为空
ports: #所映射的端口
- "5984:5984"
networks: #使用的网络
- byfn
peer0.org1.example.com: #定义一个peer0.org1.example.com的服务
environment:
- CORE_LEDGER_STATE_STATEDATABASE=CouchDB #指定该服务使用的标准数据库为CouchDB
- CORE_LEDGER_STATE_COUCHDBCONFIG_COUCHDBADDRESS=couchdb0:5984 #指定该服务使用的数据库访问地址
- CORE_LEDGER_STATE_COUCHDBCONFIG_USERNAME= #配置数据库用户名
- CORE_LEDGER_STATE_COUCHDBCONFIG_PASSWORD=#配置数据库密码
depends_on: #表明该服务依赖于couchdb0
- couchdb0
couchdb1: #以下同上
container_name: couchdb1
image: hyperledger/fabric-couchdb
...
...
3.5 configtx.yaml
文件详解
该文件中定义了fabric网络中的相关策略信息,内容相对比较多,这里只讲解所用到的部分。
Organizations: #组织信息
- &OrdererOrg #配置orderer的信息
Name: OrdererOrg #定义名称
ID: OrdererMSP #定义ID
MSPDir: crypto-config/ordererOrganizations/example.com/msp #指定MSP的文件目录
Policies: #定义相关策略
Readers: #可读
Type: Signature
Rule: "OR('OrdererMSP.member')" #具体策略:允许OrdererMSP中所有member读操作
Writers: #可写
Type: Signature
Rule: "OR('OrdererMSP.member')"
Admins: #admin
Type: Signature
Rule: "OR('OrdererMSP.admin')"
- &Org1 #配置组织一的信息
Name: Org1MSP #定义组织一的名称
ID: Org1MSP #定义组织一的ID
MSPDir: crypto-config/peerOrganizations/org1.example.com/msp #指定MSP的文件目录
Policies: #定义相关策略
Readers: #可读
Type: Signature
Rule: "OR('Org1MSP.admin', 'Org1MSP.peer', 'Org1MSP.client')" #Org1MSP中的admin,peer,client均可进行读操作
Writers: #可写
Type: Signature
Rule: "OR('Org1MSP.admin', 'Org1MSP.client')" #Org1MSP中的admin,client均可进行读操作
Admins: #同上
Type: Signature
Rule: "OR('Org1MSP.admin')"
AnchorPeers: #指定Org1的锚节点,只有锚节点可以与另一个组织进行通信
- Host: peer0.org1.example.com #指定Org1的锚节点的地址
Port: 7051 #指定Org1的锚节点的端口
- &Org2 #同上
Name: Org2MSP
ID: Org2MSP
MSPDir: crypto-config/peerOrganizations/org2.example.com/msp
Policies:
Readers:
Type: Signature
Rule: "OR('Org2MSP.admin', 'Org2MSP.peer', 'Org2MSP.client')"
Writers:
Type: Signature
Rule: "OR('Org2MSP.admin', 'Org2MSP.client')"
Admins:
Type: Signature
Rule: "OR('Org2MSP.admin')"
AnchorPeers:
- Host: peer0.org2.example.com
Port: 9051
Capabilities: #这一区域主要是定义版本的兼容情况
Channel: &ChannelCapabilities
V1_3: true
Orderer: &OrdererCapabilities
V1_1: true
Application: &ApplicationCapabilities
V1_3: true
V1_2: false
V1_1: false
Application: &ApplicationDefaults #同上,定义具体的策略
Organizations:
Policies:
Readers:
Type: ImplicitMeta
Rule: "ANY Readers"
Writers:
Type: ImplicitMeta
Rule: "ANY Writers"
Admins:
Type: ImplicitMeta
Rule: "MAJORITY Admins"
Capabilities:
<<: *ApplicationCapabilities
################################################################################
#
Orderer: &OrdererDefaults
OrdererType: solo #定义网络类型为solo
Addresses: #定义orderer的地址
- orderer.example.com:7050
BatchTimeout: 2s #定义创建一个区块的超时时间
BatchSize:
MaxMessageCount: 10 #区块内最大消息数
AbsoluteMaxBytes: 99 MB #区块内消息所占的最大空间
PreferredMaxBytes: 512 KB
Organizations:
Policies:
Readers:
Type: ImplicitMeta
Rule: "ANY Readers"
Writers:
Type: ImplicitMeta
Rule: "ANY Writers"
Admins:
Type: ImplicitMeta
Rule: "MAJORITY Admins"
BlockValidation: #区块的验证策略
Type: ImplicitMeta
Rule: "ANY Writers"
################################################################################
Channel: &ChannelDefaults
Policies:
Readers: #定义谁可以调用交付区块的API
Type: ImplicitMeta
Rule: "ANY Readers"
Writers: #定义谁可以调用广播区块的API
Type: ImplicitMeta
Rule: "ANY Writers"
Admins: #定义谁可以修改配置信息
Type: ImplicitMeta
Rule: "MAJORITY Admins"
Capabilities:
<<: *ChannelCapabilities
Profiles:
TwoOrgsOrdererGenesis:
<<: *ChannelDefaults
Orderer:
<<: *OrdererDefaults
Organizations:
- *OrdererOrg
Capabilities:
<<: *OrdererCapabilities
Consortiums:
SampleConsortium:
Organizations:
- *Org1
- *Org2
TwoOrgsChannel:
Consortium: SampleConsortium
<<: *ChannelDefaults
Application:
<<: *ApplicationDefaults
Organizations:
- *Org1
- *Org2
Capabilities:
<<: *ApplicationCapabilities
4启动网络
到了这一步,可以启动网络了。
#首先进入``fabric-samples/first-network``文件夹。
cd ~/go/src/github.com/hyperledger/fabric/scripts/fabric-samples/first-network/
#启动容器
sudo docker-compose -f docker-compose-cli.yaml up -d
执行以下命令查看容器是否启动成功:
sudo docker ps
#如果可以看到如下信息说明启动成功
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
17d79586b1b7 hyperledger/fabric-tools:latest "/bin/bash" 30 seconds ago Up 28 seconds cli
0f4adb6b578e hyperledger/fabric-orderer:latest "orderer" 57 seconds ago Up 29 seconds 0.0.0.0:7050->7050/tcp orderer.example.com
e2795ea9d43b hyperledger/fabric-peer:latest "peer node start" 57 seconds ago Up 30 seconds 0.0.0.0:10051->10051/tcp peer1.org2.example.com
247a6e4fdd62 hyperledger/fabric-peer:latest "peer node start" 57 seconds ago Up 30 seconds 0.0.0.0:9051->9051/tcp peer0.org2.example.com
ad4af3309e8c hyperledger/fabric-peer:latest "peer node start" 57 seconds ago Up 31 seconds 0.0.0.0:8051->8051/tcp peer1.org1.example.com
f6d25896b517 hyperledger/fabric-peer:latest "peer node start" 58 seconds ago Up 40 seconds 0.0.0.0:7051->7051/tcp peer0.org1.example.com
4.1创建通道
创建通道需要进入cli容器:
sudo docker exec -it cli bash
#看到光标前的信息变为
[email protected]:/opt/gopath/src/github.com/hyperledger/fabric/peer#
#则成功进入容器
首先配置环境变量:
#当前cli容器默认配置是节点peer0,所以不需要其他配置信息
ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem
#创建通道信息
peer channel create -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/channel.tx --tls true --cafile $ORDERER_CA
#看到如下信息说明创建通道成功
2019-06-20 13:05:55.829 UTC [channelCmd] InitCmdFactory -> INFO 001 Endorser and orderer connections initialized
2019-06-20 13:05:55.926 UTC [cli.common] readBlock -> INFO 002 Received block: 0
#将生成的文件移动到channel-artifacts文件夹中
mv mychannel.block channel-artifacts/
4.2加入通道
#因为当前cli容器使用的是peer0的配置,所以可以直接将peer0加入通道
peer channel join -b channel-artifacts/mychannel.block
#更新环境变量使其他节点也加入通道
#=========peer1.org1=========== 注意这里端口要与上面文件中配置的端口号相同
CORE_PEER_ADDRESS=peer1.org1.example.com:8051
#=========peer0.org2============
CORE_PEER_LOCALMSPID="Org2MSP"
CORE_PEER_TLS_ROOTCERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org2.example.com/peers/peer0.org2.example.com/tls/ca.crt
CORE_PEER_MSPCONFIGPATH=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org2.example.com/users/[email protected]/msp
CORE_PEER_ADDRESS=peer0.org2.example.com:9051
peer channel join -b channel-artifacts/mychannel.block
#=========peer1.org2=============
CORE_PEER_ADDRESS=peer1.org2.example.com:10051
peer channel join -b channel-artifacts/mychannel.block
#退出容器
exit
4.3更新锚节点
#重新进入容器
sudo docker exec -it cli bash
#更新环境变量
ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem
#========Org1================
peer channel update -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/Org1MSPanchors.tx --tls true --cafile $ORDERER_CA
#========Org2================
peer channel update -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/Org2MSPanchors.tx --tls true --cafile $ORDERER_CA
#退出容器
exit
4.4安装链码
#链码的安装仍然需要在所有节点上进行操作
#进入容器
sudo docker exec -it cli bash
#更新环境变量
ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem
#=========peer0.org1===========
#这里很有可能会出现路径不存在的错误,解决方法是在容器内找到对应的链码所在位置,然后替换当前链码路径
##比如本文中链码路径为/opt/gopath/src/github.com/chaincode/chaincode_example02/go
##则可以将以下命令的链码路径更改为github.com/chaincode/chaincode_example02
peer chaincode install -n mycc -v 1.0 -p github.com/hyperledger/fabric/examples/chaincode/go/chaincode_example02
#实例化链码 该步骤创建了a,b两个账户,其中a账户余额定义为100,b账户余额定义为200
peer chaincode instantiate -o orderer.example.com:7050 --tls true --cafile $ORDERER_CA -C mychannel -n mycc -v 1.0 -c '"Args":["init","a","100","b","200"]' -P "OR ('Org1MSP.member','Org2MSP.member')"
#这一步执行完毕后可以在其他节点上也安装链码,具体环境变量配置见本文中4.2
4.5调用链码
#以peer0.org1为例
#首先进入cli容器
sudo docker exec -it cli bash
#执行以下命令进行查询a账户余额
peer chaincode query -C mychannel -n mycc -c '"Args":["query","a"]'
#如果命令行输出100说明链码成功调用.
#接下来我们发起一笔交易:通过peer0.org1节点将a账户余额转账给b20
peer chaincode invoke -o orderer.example.com:7050 --tls true --cafile $ORDERER_CA -C mychannel -n mycc -c '"Args":["invoke","a","b","10"]'
#然后登陆peer1.org1节点进行查询
CORE_PEER_ADDRESS=peer1.org1.example.com:8051
peer chaincode query -C mychannel -n mycc -c '"Args":["query","a"]'
#如果输出结果为:80
说明Fabric网络手动搭建成功
#退出容器
exit
最后关闭网络:
sudo docker-compose -f docker-compose-cli.yaml down --volumes
#删除生成的文件,下次启动网络需要重新生成
sudo rm -r channel-artifacts crypto-config
5总结
本文并没有使用CouchDb作为fabric网络的数据库,准备放到下一篇多机搭建Fabric网络中一起讲解。到这里,整个网络的手动搭建过程已经完成,希望大家能够有所收获。
以上是关于Android启动过程深入解析的主要内容,如果未能解决你的问题,请参考以下文章
Android Binder原理ServiceManager的启动过程