Android启动过程深入解析

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Android启动过程深入解析相关的知识,希望对你有一定的参考价值。

参考技术A 当按下android设备电源键时究竟发生了什么?

Android的启动过程是怎么样的?

什么是Linux内核?

桌面系统linux内核与Android系统linux内核有什么区别?

什么是引导装载程序?

什么是Zygote?

什么是X86以及ARM linux?

什么是init.rc?

什么是系统服务?

当我们想到Android启动过程时,脑海中总是冒出很多疑问。本文将介绍Android的启动过程,希望能帮助你找到上面这些问题的答案。

Android是一个基于Linux的开源操作系统。x86(x86是一系列的基于intel 8086 CPU的计算机微处理器指令集架构)是linux内核部署最常见的系统。然而,所有的Android设备都是运行在ARM处理器(ARM 源自进阶精简指令集机器,源自ARM架构)上,除了英特尔的Xolo设备(http://xolo.in/xolo-x900-features)。Xolo来源自凌动1.6GHz x86处理器。Android设备或者嵌入设备或者基于linux的ARM设备的启动过程与桌面版本相比稍微有些差别。这篇文章中,我将解释Android设备的启动过程。深入linux启动过程是一篇讲桌面linux启动过程的好文。

当你按下电源开关后Android设备执行了以下步骤。

此处图片中step2中的一个单词拼写错了,Boot Loaeder应该为Boot Loader(多谢@jameslast 提醒)

第一步:启动电源以及系统启动

当电源按下,引导芯片代码开始从预定义的地方(固化在ROM)开始执行。加载引导程序到RAM,然后执行。

第二步:引导程序

引导程序是在Android操作系统开始运行前的一个小程序。引导程序是运行的第一个程序,因此它是针对特定的主板与芯片的。设备制造商要么使用很受欢迎的引导程序比如redboot、uboot、qi bootloader或者开发自己的引导程序,它不是Android操作系统的一部分。引导程序是OEM厂商或者运营商加锁和限制的地方。

引导程序分两个阶段执行。第一个阶段,检测外部的RAM以及加载对第二阶段有用的程序;第二阶段,引导程序设置网络、内存等等。这些对于运行内核是必要的,为了达到特殊的目标,引导程序可以根据配置参数或者输入数据设置内核。

Android引导程序可以在bootablebootloaderlegacyusbloader找到。

传统的加载器包含的个文件,需要在这里说明:

init.s初始化堆栈,清零BBS段,调用main.c的_main()函数;

main.c初始化硬件(闹钟、主板、键盘、控制台),创建linux标签。

更多关于Android引导程序的可以在这里了解。

第三步:内核

Android内核与桌面linux内核启动的方式差不多。内核启动时,设置缓存、被保护存储器、计划列表,加载驱动。当内核完成系统设置,它首先在系统文件中寻找”init”文件,然后启动root进程或者系统的第一个进程。

第四步:init进程

init是第一个进程,我们可以说它是root进程或者说有进程的父进程。init进程有两个责任,一是挂载目录,比如/sys、/dev、/proc,二是运行init.rc脚本。

init进程可以在/system/core/init找到。

init.rc文件可以在/system/core/rootdir/init.rc找到。

readme.txt可以在/system/core/init/readme.txt找到。

对于init.rc文件,Android中有特定的格式以及规则。在Android中,我们叫做Android初始化语言。

Action(动作):动作是以命令流程命名的,有一个触发器决定动作是否发生。

语法

1

2

3

4

5

; html-script: false ]

on <trigger>

<command>

<command>

<command>

Service(服务):服务是init进程启动的程序、当服务退出时init进程会视情况重启服务。

语法

1

2

3

4

5

; html-script: false ]

service <name> <pathname> [<argument>]*

<option>

<option>

...

Options(选项)

选项是对服务的描述。它们影响init进程如何以及何时启动服务。

咱们来看看默认的init.rc文件。这里我只列出了主要的事件以及服务。

Table

Action/Service

描述

on early-init

设置init进程以及它创建的子进程的优先级,设置init进程的安全环境

on init

设置全局环境,为cpu accounting创建cgroup(资源控制)挂载点

on fs

挂载mtd分区

on post-fs

改变系统目录的访问权限

on post-fs-data

改变/data目录以及它的子目录的访问权限

on boot

基本网络的初始化,内存管理等等

service servicemanager

启动系统管理器管理所有的本地服务,比如位置、音频、Shared preference等等…

service zygote

启动zygote作为应用进程

在这个阶段你可以在设备的屏幕上看到“Android”logo了。

第五步

在Java中,我们知道不同的虚拟机实例会为不同的应用分配不同的内存。假如Android应用应该尽可能快地启动,但如果Android系统为每一个应用启动不同的Dalvik虚拟机实例,就会消耗大量的内存以及时间。因此,为了克服这个问题,Android系统创造了”Zygote”。Zygote让Dalvik虚拟机共享代码、低内存占用以及最小的启动时间成为可能。Zygote是一个虚拟器进程,正如我们在前一个步骤所说的在系统引导的时候启动。Zygote预加载以及初始化核心库类。通常,这些核心类一般是只读的,也是Android SDK或者核心框架的一部分。在Java虚拟机中,每一个实例都有它自己的核心库类文件和堆对象的拷贝。

Zygote加载进程

加载ZygoteInit类,源代码:/frameworks/base/core/java/com/android/internal/os/ZygoteInit.java

registerZygoteSocket()为zygote命令连接注册一个服务器套接字。

preloadClassed “preloaded-classes”是一个简单的包含一系列需要预加载类的文本文件,你可以在/frameworks/base找到“preloaded-classes”文件。

preloadResources() preloadResources也意味着本地主题、布局以及android.R文件中包含的所有东西都会用这个方法加载。

在这个阶段,你可以看到启动动画。

第六步:系统服务或服务

完成了上面几步之后,运行环境请求Zygote运行系统服务。系统服务同时使用native以及java编写,系统服务可以认为是一个进程。同一个系统服务在Android SDK可以以System Services形式获得。系统服务包含了所有的System Services。

Zygote创建新的进程去启动系统服务。你可以在ZygoteInit类的”startSystemServer”方法中找到源代码。

核心服务:

启动电源管理器;

创建Activity管理器;

启动电话注册;

启动包管理器;

设置Activity管理服务为系统进程;

启动上下文管理器;

启动系统Context Providers;

启动电池服务;

启动定时管理器;

启动传感服务;

启动窗口管理器;

启动蓝牙服务;

启动挂载服务。

其他服务:

启动状态栏服务;

启动硬件服务;

启动网络状态服务;

启动网络连接服务;

启动通知管理器;

启动设备存储监视服务;

启动定位管理器;

启动搜索服务;

启动剪切板服务;

启动登记服务;

启动壁纸服务;

启动音频服务;

启动耳机监听;

启动AdbSettingsObserver(处理adb命令)。

第七步:引导完成

一旦系统服务在内存中跑起来了,Android就完成了引导过程。在这个时候“ACTION_BOOT_COMPLETED”开机启动广播就会发出去。

深入解析Hyperledger Fabric启动的全过程

在这篇文章中,使用fabric-samples/first-network中的文件进行fabric网络(solo类型的网络)启动全过程的解析。如有错误欢迎批评指正。
至于Fabric网络的搭建这里不再介绍,可以参考这一篇文章Hyperledger Fabric环境搭建过程
fabric网络:单机,solo类型,两个组织,分别有两个节点
首先看一下该文件夹内有哪些文件:

base                  connection-org2.json    docker-compose-cli.yaml           docker-compose-org3.yaml
byfn.sh               connection-org2.yaml    docker-compose-couch-org3.yaml    eyfn.sh
channel-artifacts     connection-org3.json    docker-compose-couch.yaml         org3-artifacts
configtx.yaml         connection-org3.yaml    docker-compose-e2e-template.yaml  README.md
connection-org1.json  crypto-config.yaml      docker-compose-etcdraft2.yaml     scripts
connection-org1.yaml  docker-compose-ca.yaml  docker-compose-kafka.yaml

将本次用不到的文件删除,剩余的文件:

.
├── base
│?? ├── docker-compose-base.yaml
│?? └── peer-base.yaml
├── channel-artifacts
├── configtx.yaml
├── crypto-config.yaml
├── docker-compose-cli.yaml
├── docker-compose-couch.yaml
├── docker-compose-e2e-template.yaml

1.证书的生成

在Fabric网络环境中,第一步需要生成各个节点的证书文件,所用到的配置文件为crypto-config.yaml,说明一下文件内各字段的意义:

OrdererOrgs:    #定义一个Order组织
  - Name: Orderer    #order节点的名称,当前网络模式为solo类型,所以只定义了一个Order节点
    Domain: example.com    #order节点的域
    Specs:      #暂时用不到
      - Hostname: orderer
      - Hostname: orderer2
      - Hostname: orderer3
      - Hostname: orderer4
      - Hostname: orderer5

PeerOrgs:      #定义Peer组织
  - Name: Org1      #声明Peer组织名称为Org1
    Domain: org1.example.com    #Org1组织的域
    EnableNodeOUs: true    #暂时没搞清楚该字段的意义
    Template:       #在这里可以定义所生成的Org1组织中的Peer节点证书数量,不包括Admin
      Count: 2      #表明需要生成两个Peer节点的证书,如果需要其他数量的Peer节点,只需要更改这里的数量。
    Users:        #在这里可以定义所生成的Org1组织中类型为User的证书数量,不包括Admin
      Count: 1    #生成用户的证书的数量

  - Name: Org2   #声明第二个Peer组织名称为Org2,如果需要更多的Peer组织证书,只需要按该模板添加即可。
    Domain: org2.example.com  #与以上相同 
    EnableNodeOUs: true
    Template:
      Count: 2
    Users:
      Count: 1

我们这里就使用两个组织,每个组织分别有两个节点和一个User。接下来我们使用该文件生成对应数量的证书:

#路径需要更改为自己的路径
cd ~/go/src/github.com/hyperledger/fabric/scripts/fabric-samples/first-network/  
#在这里可能会报错,通常是权限问题,可以添加sudo重新执行
cryptogen generate --config=./crypto-config.yaml
#执行完毕后,当前文件夹下会出现一个新的文件夹:crypto-config,在该文件夹下就是刚刚生成的证书.

文件夹内证书不再详解,会在另一篇文章中专门解释Fabric-ca的内容。

2 生成创世区块,通道配置,锚节点配置文件

在这里需要用到configtxgen这个二进制文件。

2.1生成创世区块

#首先进入文件夹
cd ~/go/src/github.com/hyperledger/fabric/scripts/fabric-samples/first-network/  
#执行命令生成创世区块 
configtxgen -profile TwoOrgsOrdererGenesis -channelID mychannel -outputBlock ./channel-artifacts/genesis.block
#如果没有channel-artifacts这个文件夹,则需要手动去创建

如果没有出现错误的话,在channel-artifacts文件夹中可以看至生成的genesis.block文件。

2.2生成通道配置信息

#执行命令生成通道配置信息
configtxgen -profile TwoOrgsChannel -outputCreateChannelTx ./channel-artifacts/channel.tx -channelID mychannel

同样,在channel-artifacts文件夹中可以看至生成的channel.tx文件。

2.3生成锚节点配置文件

#首先生成Org1的锚节点配置文件
configtxgen -profile TwoOrgsChannel -outputAnchorPeersUpdate ./channel-artifacts/Org1MSPanchors.tx -channelID mychannel -asOrg Org1MSP
#生成Org2的锚节点配置文件
configtxgen -profile TwoOrgsChannel -outputAnchorPeersUpdate ./channel-artifacts/Org2MSPanchors.tx -channelID mychannel -asOrg Org2MSP

所有需要的配置文件全部建立完成,在channel-artifacts中应该有以下几个文件:

channel.tx  genesis.block  Org1MSPanchors.tx  Org2MSPanchors.tx

3相关文件说明

这一部分涉及相关配置文件的解析,如果想直接手动启动网络的话可以直接看第4部分
网络的启动涉及到多个文件,本文按以下顺序进行分析:

.
├── base
│?? ├── docker-compose-base.yaml   #1
│?? └── peer-base.yaml    #2
├── channel-artifacts   
├── configtx.yaml      #5
├── crypto-config.yaml
├── docker-compose-cli.yaml   #3
├── docker-compose-couch.yaml  #4
├── docker-compose-e2e-template.yaml    该文件中定义了fabric-ca的配置信息。我们这里用不到,会在讲解Fabric-Ca的文章中说明

3.1 docker-compose-base.yaml文件详解

先看一下文件内容:

version: '2'     #docker版本

services:        #服务,可以包括若干个容器实例

  orderer.example.com:     #定义一个名称为orderer.example.com的服务
    container_name: orderer.example.com    #当前容器名称
    extends:     #扩展,代表需要加载的文件或服务
      file: peer-base.yaml       
      service: orderer-base
    volumes:     #挂载的卷     [本机路径下的文件或目录]:[容器中所映射到的地址]
        #比如本机下的channel-artifacts/genesis.block文件可以在容器中/var/hyperledger/orderer/orderer.genesis.block访问
        - ../channel-artifacts/genesis.block:/var/hyperledger/orderer/orderer.genesis.block
        - ../crypto-config/ordererOrganizations/example.com/orderers/orderer.example.com/msp:/var/hyperledger/orderer/msp
        - ../crypto-config/ordererOrganizations/example.com/orderers/orderer.example.com/tls/:/var/hyperledger/orderer/tls
        - orderer.example.com:/var/hyperledger/production/orderer
    ports:  #所映射的端口  [本机端口]:[容器端口]
      - 7050:7050

  peer0.org1.example.com:        #定义一个名称为peer0.org1.example.com的服务
    container_name: peer0.org1.example.com    #当前容器名称
    extends:   #同上
      file: peer-base.yaml
      service: peer-base
    environment:         #定义环境变量
      - CORE_PEER_ID=peer0.org1.example.com    #peer节点的id
      - CORE_PEER_ADDRESS=peer0.org1.example.com:7051    #peer节点的访问地址
      - CORE_PEER_LISTENADDRESS=0.0.0.0:7051     #peer节点的监听地址
      - CORE_PEER_CHAINCODEADDRESS=peer0.org1.example.com:7052   #peer节点的链码访问地址
      - CORE_PEER_CHAINCODELISTENADDRESS=0.0.0.0:7052  #peer节点的链码监听地址 指定为0.0.0.0则自动进行探测
      - CORE_PEER_GOSSIP_BOOTSTRAP=peer1.org1.example.com:8051 #gossip为共识机制
      - CORE_PEER_GOSSIP_EXTERNALENDPOINT=peer0.org1.example.com:7051  #gossip外部节点,表明为锚节点
      - CORE_PEER_LOCALMSPID=Org1MSP
    volumes:   #同上,挂载卷
        - /var/run/:/host/var/run/
        - ../crypto-config/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/msp:/etc/hyperledger/fabric/msp
        - ../crypto-config/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls:/etc/hyperledger/fabric/tls
        - peer0.org1.example.com:/var/hyperledger/production
    ports:   #同上,端口
      - 7051:7051

  peer1.org1.example.com:
    container_name: peer1.org1.example.com
    extends:
      file: peer-base.yaml
      service: peer-base
      ...
      ...

3.2 peer-base.yaml文件详解

version: '2'

services:
  peer-base:    #定义一个名称为peer-base的服务
    image: hyperledger/fabric-peer:$IMAGE_TAG    #该服务所依赖的镜像
    environment:       #定义环境变量
      - CORE_VM_ENDPOINT=unix:///host/var/run/docker.sock
      - CORE_VM_DOCKER_HOSTCONFIG_NETWORKMODE=$COMPOSE_PROJECT_NAME_byfn     #定义网络工作模式,这里使用的是bridge方式
      - FABRIC_LOGGING_SPEC=INFO     #定义日志级别为INFO
      #- FABRIC_LOGGING_SPEC=DEBUG
      - CORE_PEER_TLS_ENABLED=true   #使用TLS
      - CORE_PEER_GOSSIP_USELEADERELECTION=true    #使用选举LEADER的方式
      - CORE_PEER_GOSSIP_ORGLEADER=false    #不指定LEADER
      - CORE_PEER_PROFILE_ENABLED=true     #使用profile
      - CORE_PEER_TLS_CERT_FILE=/etc/hyperledger/fabric/tls/server.crt   #TLS证书路径
      - CORE_PEER_TLS_KEY_FILE=/etc/hyperledger/fabric/tls/server.key  #TLS密钥路径
      - CORE_PEER_TLS_ROOTCERT_FILE=/etc/hyperledger/fabric/tls/ca.crt #TLS根证书路径
    working_dir: /opt/gopath/src/github.com/hyperledger/fabric/peer   #工作目录,即进入容器所在的默认位置
    command: peer node start   #启动容器后所运行的第一条命令:启动Peer节点 

  orderer-base:      #定义一个名称为orderer-base的服务
    image: hyperledger/fabric-orderer:$IMAGE_TAG    #该服务所依赖的镜像
    environment:    #环境变量
      - FABRIC_LOGGING_SPEC=INFO  #日志级别
      - ORDERER_GENERAL_LISTENADDRESS=0.0.0.0    #orderer的监听地址
      - ORDERER_GENERAL_GENESISMETHOD=file   # 创世区块文件的类型为file
      - ORDERER_GENERAL_GENESISFILE=/var/hyperledger/orderer/orderer.genesis.block   #创世区块在容器中的路径
      - ORDERER_GENERAL_LOCALMSPID=OrdererMSP   #Orderer的本地MSPid
      - ORDERER_GENERAL_LOCALMSPDIR=/var/hyperledger/orderer/msp  #本地Msp文件夹
      # enabled TLS
      - ORDERER_GENERAL_TLS_ENABLED=true   #使用TLS
      - ORDERER_GENERAL_TLS_PRIVATEKEY=/var/hyperledger/orderer/tls/server.key   #TLS私钥路径
      - ORDERER_GENERAL_TLS_CERTIFICATE=/var/hyperledger/orderer/tls/server.crt      #TLS证书路径
      - ORDERER_GENERAL_TLS_ROOTCAS=[/var/hyperledger/orderer/tls/ca.crt]      #TLS根证书路径
      - ORDERER_KAFKA_TOPIC_REPLICATIONFACTOR=1   #以下为kafka集群的配置,本文中没有使用到
      - ORDERER_KAFKA_VERBOSE=true
      - ORDERER_GENERAL_CLUSTER_CLIENTCERTIFICATE=/var/hyperledger/orderer/tls/server.crt
      - ORDERER_GENERAL_CLUSTER_CLIENTPRIVATEKEY=/var/hyperledger/orderer/tls/server.key
      - ORDERER_GENERAL_CLUSTER_ROOTCAS=[/var/hyperledger/orderer/tls/ca.crt]
    working_dir: /opt/gopath/src/github.com/hyperledger/fabric    #工作目录,即进入容器所在的默认位置
    command: orderer  #启动容器后所运行的第一条命令:启动orderer

3.3 docker-compose-cli.yaml文件详解

version: '2'

volumes:   #声明挂载的卷
  orderer.example.com:
  peer0.org1.example.com:
  peer1.org1.example.com:
  peer0.org2.example.com:
  peer1.org2.example.com:

networks:   #声明一个名称为byfn的网络
  byfn:

services:

  orderer.example.com:   #定义一个名称为orderer.example.com的服务
    extends:    #扩展,代表需要加载的文件或服务  即使用了其中的配置信息
      file:   base/docker-compose-base.yaml      
      service: orderer.example.com   
    container_name: orderer.example.com   #当前容器名称
    networks:      #指定当前容器所加入的网络,如果需要加入多个网络,可以定义多个
      - byfn

    #以下同上
  peer0.org1.example.com:    
    container_name: peer0.org1.example.com
    extends:
      file:  base/docker-compose-base.yaml
      service: peer0.org1.example.com
    networks:
      - byfn

  peer1.org1.example.com:
    container_name: peer1.org1.example.com
    extends:
      file:  base/docker-compose-base.yaml
      service: peer1.org1.example.com
    networks:
      - byfn

  peer0.org2.example.com:
    container_name: peer0.org2.example.com
    extends:
      file:  base/docker-compose-base.yaml
      service: peer0.org2.example.com
    networks:
      - byfn

  peer1.org2.example.com:
    container_name: peer1.org2.example.com
    extends:
      file:  base/docker-compose-base.yaml
      service: peer1.org2.example.com
    networks:
      - byfn

  cli:    #定义一个客户端容器,方便与各节点进行交互
    container_name: cli    #客户端容器名称
    image: hyperledger/fabric-tools:$IMAGE_TAG   #该服务所依赖的镜像
    tty: true     #使用伪终端
    stdin_open: true    #标准输入
    environment:     #环境变量
      - GOPATH=/opt/gopath        #指定go的路径
      - CORE_VM_ENDPOINT=unix:///host/var/run/docker.sock
      #- FABRIC_LOGGING_SPEC=DEBUG
      - FABRIC_LOGGING_SPEC=INFO   #日志级别
      - CORE_PEER_ID=cli      #当前节点的Id
      - CORE_PEER_ADDRESS=peer0.org1.example.com:7051   #以下与peer-base.yaml相同,表示当前客户端容器默认与peer0.org1.example.com进行交互
      - CORE_PEER_LOCALMSPID=Org1MSP
      - CORE_PEER_TLS_ENABLED=true
      - CORE_PEER_TLS_CERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls/server.crt    #TLS-peer0.org1.example.com的证书路径
      - CORE_PEER_TLS_KEY_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls/server.key  #TLS-peer0.org1.example.com的密钥路径
      - CORE_PEER_TLS_ROOTCERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls/ca.crt    #TLS-peer0.org1.example.com的根证书路径
      - CORE_PEER_MSPCONFIGPATH=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/users/[email protected]/msp  @#TLS-组织1中Admin的MSP路径
    working_dir: /opt/gopath/src/github.com/hyperledger/fabric/peer      #工作目录,即进入容器所在的默认位置
    command: /bin/bash     #启动容器后所运行的第一条命令:使用bash
    volumes:      #挂载卷
        - /var/run/:/host/var/run/
        - ./../chaincode/:/opt/gopath/src/github.com/chaincode
        - ./crypto-config:/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/
        - ./scripts:/opt/gopath/src/github.com/hyperledger/fabric/peer/scripts/
        - ./channel-artifacts:/opt/gopath/src/github.com/hyperledger/fabric/peer/channel-artifacts
    depends_on:    #依赖,需要首先按顺序启动以下容器,但是不会等待以下容器完全启动才启动当前容器
      - orderer.example.com
      - peer0.org1.example.com
      - peer1.org1.example.com
      - peer0.org2.example.com
      - peer1.org2.example.com
    networks:      #指定当前容器所加入的网络
      - byfn

3.4 docker-compose-couch.yaml文件详解

在fabric网络中,可以使用默认的levelDb数据库,或者使用CouchDb,该文件主要是对CouchDb进行相关设置。

version: '2'

networks:  #声明一个名称为byfn的网络
  byfn:

services:
  couchdb0:    #定义一个couchdb0的服务
    container_name: couchdb0    #指定该容器名称为couchdb0
    image: hyperledger/fabric-couchdb    #该容器所依赖的镜像
    environment:    #环境变量
      - COUCHDB_USER=        #couchdb0的用户名,这里设置为空,表明任何人都可登陆
      - COUCHDB_PASSWORD=     #couchdb0的登陆密码,这里设置为空
    ports:    #所映射的端口
      - "5984:5984"
    networks:    #使用的网络
      - byfn

  peer0.org1.example.com:    #定义一个peer0.org1.example.com的服务
    environment:
      - CORE_LEDGER_STATE_STATEDATABASE=CouchDB   #指定该服务使用的标准数据库为CouchDB
      - CORE_LEDGER_STATE_COUCHDBCONFIG_COUCHDBADDRESS=couchdb0:5984      #指定该服务使用的数据库访问地址
      - CORE_LEDGER_STATE_COUCHDBCONFIG_USERNAME= #配置数据库用户名
      - CORE_LEDGER_STATE_COUCHDBCONFIG_PASSWORD=#配置数据库密码
    depends_on:      #表明该服务依赖于couchdb0
      - couchdb0

  couchdb1:      #以下同上
    container_name: couchdb1
    image: hyperledger/fabric-couchdb
   ...
   ...

3.5 configtx.yaml文件详解

该文件中定义了fabric网络中的相关策略信息,内容相对比较多,这里只讲解所用到的部分。

Organizations:    #组织信息
    - &OrdererOrg   #配置orderer的信息
        Name: OrdererOrg    #定义名称
        ID: OrdererMSP        #定义ID
        MSPDir: crypto-config/ordererOrganizations/example.com/msp   #指定MSP的文件目录
        Policies:   #定义相关策略
            Readers:    #可读
                Type: Signature      
                Rule: "OR('OrdererMSP.member')"   #具体策略:允许OrdererMSP中所有member读操作
            Writers:    #可写
                Type: Signature
                Rule: "OR('OrdererMSP.member')"
            Admins:    #admin
                Type: Signature
                Rule: "OR('OrdererMSP.admin')"

    - &Org1       #配置组织一的信息
        Name: Org1MSP    #定义组织一的名称
        ID: Org1MSP      #定义组织一的ID
        MSPDir: crypto-config/peerOrganizations/org1.example.com/msp  #指定MSP的文件目录
        Policies:    #定义相关策略
            Readers:    #可读
                Type: Signature
                Rule: "OR('Org1MSP.admin', 'Org1MSP.peer', 'Org1MSP.client')"  #Org1MSP中的admin,peer,client均可进行读操作
            Writers:  #可写
                Type: Signature
                Rule: "OR('Org1MSP.admin', 'Org1MSP.client')"    #Org1MSP中的admin,client均可进行读操作
            Admins:    #同上
                Type: Signature
                Rule: "OR('Org1MSP.admin')"
        AnchorPeers:    #指定Org1的锚节点,只有锚节点可以与另一个组织进行通信
            - Host: peer0.org1.example.com      #指定Org1的锚节点的地址 
              Port: 7051      #指定Org1的锚节点的端口
    - &Org2      #同上
        Name: Org2MSP
        ID: Org2MSP
        MSPDir: crypto-config/peerOrganizations/org2.example.com/msp
        Policies:
            Readers:
                Type: Signature
                Rule: "OR('Org2MSP.admin', 'Org2MSP.peer', 'Org2MSP.client')"
            Writers:
                Type: Signature
                Rule: "OR('Org2MSP.admin', 'Org2MSP.client')"
            Admins:
                Type: Signature
                Rule: "OR('Org2MSP.admin')"
        AnchorPeers:
            - Host: peer0.org2.example.com
              Port: 9051
Capabilities:      #这一区域主要是定义版本的兼容情况
    Channel: &ChannelCapabilities
        V1_3: true
    Orderer: &OrdererCapabilities
        V1_1: true
    Application: &ApplicationCapabilities
        V1_3: true
        V1_2: false
        V1_1: false
Application: &ApplicationDefaults      #同上,定义具体的策略
    Organizations:
    Policies:
        Readers:
            Type: ImplicitMeta
            Rule: "ANY Readers"
        Writers:
            Type: ImplicitMeta
            Rule: "ANY Writers"
        Admins:
            Type: ImplicitMeta
            Rule: "MAJORITY Admins"
    Capabilities:
        <<: *ApplicationCapabilities
################################################################################
#
Orderer: &OrdererDefaults
    OrdererType: solo      #定义网络类型为solo
    Addresses:      #定义orderer的地址
        - orderer.example.com:7050
    BatchTimeout: 2s    #定义创建一个区块的超时时间
    BatchSize:
        MaxMessageCount: 10   #区块内最大消息数
        AbsoluteMaxBytes: 99 MB   #区块内消息所占的最大空间
        PreferredMaxBytes: 512 KB
    Organizations:
    Policies:
        Readers:
            Type: ImplicitMeta
            Rule: "ANY Readers"
        Writers:
            Type: ImplicitMeta
            Rule: "ANY Writers"
        Admins:
            Type: ImplicitMeta
            Rule: "MAJORITY Admins"
        BlockValidation:    #区块的验证策略
            Type: ImplicitMeta
            Rule: "ANY Writers"
################################################################################
Channel: &ChannelDefaults
    Policies:
        Readers:   #定义谁可以调用交付区块的API
            Type: ImplicitMeta
            Rule: "ANY Readers"
        Writers:   #定义谁可以调用广播区块的API
            Type: ImplicitMeta
            Rule: "ANY Writers"
        Admins:  #定义谁可以修改配置信息
            Type: ImplicitMeta
            Rule: "MAJORITY Admins"
    Capabilities:
        <<: *ChannelCapabilities

Profiles:
    TwoOrgsOrdererGenesis:
        <<: *ChannelDefaults
        Orderer:
            <<: *OrdererDefaults
            Organizations:
                - *OrdererOrg
            Capabilities:
                <<: *OrdererCapabilities
        Consortiums:
            SampleConsortium:
                Organizations:
                    - *Org1
                    - *Org2
    TwoOrgsChannel:
        Consortium: SampleConsortium
        <<: *ChannelDefaults
        Application:
            <<: *ApplicationDefaults
            Organizations:
                - *Org1
                - *Org2
            Capabilities:
                <<: *ApplicationCapabilities

4启动网络

到了这一步,可以启动网络了。

#首先进入``fabric-samples/first-network``文件夹。
cd ~/go/src/github.com/hyperledger/fabric/scripts/fabric-samples/first-network/
#启动容器
sudo docker-compose -f docker-compose-cli.yaml up -d

执行以下命令查看容器是否启动成功:

sudo docker ps
#如果可以看到如下信息说明启动成功
CONTAINER ID        IMAGE                               COMMAND             CREATED             STATUS              PORTS                      NAMES
17d79586b1b7        hyperledger/fabric-tools:latest     "/bin/bash"         30 seconds ago      Up 28 seconds                                  cli
0f4adb6b578e        hyperledger/fabric-orderer:latest   "orderer"           57 seconds ago      Up 29 seconds       0.0.0.0:7050->7050/tcp     orderer.example.com
e2795ea9d43b        hyperledger/fabric-peer:latest      "peer node start"   57 seconds ago      Up 30 seconds       0.0.0.0:10051->10051/tcp   peer1.org2.example.com
247a6e4fdd62        hyperledger/fabric-peer:latest      "peer node start"   57 seconds ago      Up 30 seconds       0.0.0.0:9051->9051/tcp     peer0.org2.example.com
ad4af3309e8c        hyperledger/fabric-peer:latest      "peer node start"   57 seconds ago      Up 31 seconds       0.0.0.0:8051->8051/tcp     peer1.org1.example.com
f6d25896b517        hyperledger/fabric-peer:latest      "peer node start"   58 seconds ago      Up 40 seconds       0.0.0.0:7051->7051/tcp     peer0.org1.example.com

4.1创建通道

创建通道需要进入cli容器:

sudo docker exec -it cli bash
#看到光标前的信息变为
[email protected]:/opt/gopath/src/github.com/hyperledger/fabric/peer# 
#则成功进入容器

首先配置环境变量:

#当前cli容器默认配置是节点peer0,所以不需要其他配置信息
ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem
#创建通道信息
peer channel create -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/channel.tx --tls true --cafile $ORDERER_CA
#看到如下信息说明创建通道成功
2019-06-20 13:05:55.829 UTC [channelCmd] InitCmdFactory -> INFO 001 Endorser and orderer connections initialized
2019-06-20 13:05:55.926 UTC [cli.common] readBlock -> INFO 002 Received block: 0
#将生成的文件移动到channel-artifacts文件夹中
mv mychannel.block channel-artifacts/

4.2加入通道

#因为当前cli容器使用的是peer0的配置,所以可以直接将peer0加入通道 
 peer channel join -b channel-artifacts/mychannel.block
#更新环境变量使其他节点也加入通道
#=========peer1.org1===========  注意这里端口要与上面文件中配置的端口号相同
CORE_PEER_ADDRESS=peer1.org1.example.com:8051  
#=========peer0.org2============
CORE_PEER_LOCALMSPID="Org2MSP"
CORE_PEER_TLS_ROOTCERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org2.example.com/peers/peer0.org2.example.com/tls/ca.crt
CORE_PEER_MSPCONFIGPATH=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org2.example.com/users/[email protected]/msp
CORE_PEER_ADDRESS=peer0.org2.example.com:9051
peer channel join -b channel-artifacts/mychannel.block 
#=========peer1.org2=============
CORE_PEER_ADDRESS=peer1.org2.example.com:10051
peer channel join -b channel-artifacts/mychannel.block
#退出容器
exit

4.3更新锚节点

#重新进入容器
sudo docker exec -it cli bash
#更新环境变量
ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem
#========Org1================
peer channel update -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/Org1MSPanchors.tx --tls true --cafile $ORDERER_CA
#========Org2================
peer channel update -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/Org2MSPanchors.tx --tls true --cafile $ORDERER_CA
#退出容器
exit

4.4安装链码

#链码的安装仍然需要在所有节点上进行操作
#进入容器
sudo docker exec -it cli bash
#更新环境变量
ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem
#=========peer0.org1=========== 
#这里很有可能会出现路径不存在的错误,解决方法是在容器内找到对应的链码所在位置,然后替换当前链码路径
##比如本文中链码路径为/opt/gopath/src/github.com/chaincode/chaincode_example02/go
##则可以将以下命令的链码路径更改为github.com/chaincode/chaincode_example02

peer chaincode install -n mycc -v 1.0 -p github.com/hyperledger/fabric/examples/chaincode/go/chaincode_example02
#实例化链码 该步骤创建了a,b两个账户,其中a账户余额定义为100,b账户余额定义为200
peer chaincode instantiate -o orderer.example.com:7050 --tls true --cafile $ORDERER_CA -C mychannel -n mycc -v 1.0 -c '"Args":["init","a","100","b","200"]' -P "OR      ('Org1MSP.member','Org2MSP.member')"
#这一步执行完毕后可以在其他节点上也安装链码,具体环境变量配置见本文中4.2

4.5调用链码

#以peer0.org1为例
#首先进入cli容器
sudo docker exec -it cli bash
#执行以下命令进行查询a账户余额
peer chaincode query -C mychannel -n mycc -c '"Args":["query","a"]'
#如果命令行输出100说明链码成功调用.

#接下来我们发起一笔交易:通过peer0.org1节点将a账户余额转账给b20
peer chaincode invoke -o orderer.example.com:7050  --tls true --cafile $ORDERER_CA -C mychannel -n mycc -c '"Args":["invoke","a","b","10"]'
#然后登陆peer1.org1节点进行查询
CORE_PEER_ADDRESS=peer1.org1.example.com:8051 
peer chaincode query -C mychannel -n mycc -c '"Args":["query","a"]'
#如果输出结果为:80
说明Fabric网络手动搭建成功
#退出容器
exit

最后关闭网络:

sudo docker-compose -f docker-compose-cli.yaml down --volumes 
#删除生成的文件,下次启动网络需要重新生成
sudo rm -r channel-artifacts crypto-config

5总结

本文并没有使用CouchDb作为fabric网络的数据库,准备放到下一篇多机搭建Fabric网络中一起讲解。到这里,整个网络的手动搭建过程已经完成,希望大家能够有所收获。

以上是关于Android启动过程深入解析的主要内容,如果未能解决你的问题,请参考以下文章

Android Binder原理ServiceManager的启动过程

Android Binder原理系统服务的注册过程

Android深入四大组件Service的启动过程

深入解析Hyperledger Fabric启动的全过程

Android深入四大组件Content Provider的启动过程

Android应用进程启动过程(前篇)