fabric解析

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了fabric解析相关的知识,希望对你有一定的参考价值。

参考技术A core.yaml (peer节点的配置)
configtx.yaml(通道配置,用于生成创世区块,通道配置块等文件)
orderer.yaml(排序节点的配置)
【当Peer节点作为服务端启动时,会按照优先级从高到低的顺序依次尝试从命令行参数、环境变量或配置文件中读取配置信息。这里,我们主要通过配置文件的方式来对Peer进行配置。】

文件读取路径为$FABRIC_CFG_PATH/core.yaml;
如果没找到,则尝试查找当前目录下的./core.yaml文件;
如果还没有找到,则尝试查找默认的/etc/hyperledger/fabric/core.yaml文件。
在结构上,core.yaml文件中一般包括logging、peer、vm、chaincode、ledger五大部分,其中,与MSP配置相关的主要是peer部分

配置------>·mspConfigPath:
MSP目录所在的路径,可以为绝对路径,或相对配置目录的路径,一般建议为/etc/hyperledger/fabric/msp;本例中,写的是相对路径msp
配置------->localMspId:
Peer所关联的MSP的ID,一般为组织单位名称,需要与联盟配置中的名称一致;

orderer节点对应的配置文件是orderer.yaml。

Orderer节点可以组成集群来在Fabric网络中提供排序服务。类似地,支持从命令行参数、环境变量或配置文件中读取配置信息。

当从环境变量中读入配置时,需要以ORDERER_前缀开头,例如配置文件中的general.ListenAddress项,对应到环境变量ORDERER_GENERAL_LISTENADDRESS。

在结构上,orderer.yaml文件中一般包括General、FileLedger、RAMLedger、Kafka四大部分,其中,涉及MSP配置的部分在General。

其中,LocalMSPDir,LocalMSPID为配置本地msp的主要部分:
配置------>LocalMSPDir:
MSP目录所在的路径,可以为绝对路径或相对路径,一般建议为$FABRIC_CFG_PATH/msp;
配置------>localMspId:
Orderer所关联的MSP的ID,需要与联盟配置中的组织的MSP名称一致;

深入解析Hyperledger Fabric启动的全过程

在这篇文章中,使用fabric-samples/first-network中的文件进行fabric网络(solo类型的网络)启动全过程的解析。如有错误欢迎批评指正。
至于Fabric网络的搭建这里不再介绍,可以参考这一篇文章Hyperledger Fabric环境搭建过程
fabric网络:单机,solo类型,两个组织,分别有两个节点
首先看一下该文件夹内有哪些文件:

base                  connection-org2.json    docker-compose-cli.yaml           docker-compose-org3.yaml
byfn.sh               connection-org2.yaml    docker-compose-couch-org3.yaml    eyfn.sh
channel-artifacts     connection-org3.json    docker-compose-couch.yaml         org3-artifacts
configtx.yaml         connection-org3.yaml    docker-compose-e2e-template.yaml  README.md
connection-org1.json  crypto-config.yaml      docker-compose-etcdraft2.yaml     scripts
connection-org1.yaml  docker-compose-ca.yaml  docker-compose-kafka.yaml

将本次用不到的文件删除,剩余的文件:

.
├── base
│?? ├── docker-compose-base.yaml
│?? └── peer-base.yaml
├── channel-artifacts
├── configtx.yaml
├── crypto-config.yaml
├── docker-compose-cli.yaml
├── docker-compose-couch.yaml
├── docker-compose-e2e-template.yaml

1.证书的生成

在Fabric网络环境中,第一步需要生成各个节点的证书文件,所用到的配置文件为crypto-config.yaml,说明一下文件内各字段的意义:

OrdererOrgs:    #定义一个Order组织
  - Name: Orderer    #order节点的名称,当前网络模式为solo类型,所以只定义了一个Order节点
    Domain: example.com    #order节点的域
    Specs:      #暂时用不到
      - Hostname: orderer
      - Hostname: orderer2
      - Hostname: orderer3
      - Hostname: orderer4
      - Hostname: orderer5

PeerOrgs:      #定义Peer组织
  - Name: Org1      #声明Peer组织名称为Org1
    Domain: org1.example.com    #Org1组织的域
    EnableNodeOUs: true    #暂时没搞清楚该字段的意义
    Template:       #在这里可以定义所生成的Org1组织中的Peer节点证书数量,不包括Admin
      Count: 2      #表明需要生成两个Peer节点的证书,如果需要其他数量的Peer节点,只需要更改这里的数量。
    Users:        #在这里可以定义所生成的Org1组织中类型为User的证书数量,不包括Admin
      Count: 1    #生成用户的证书的数量

  - Name: Org2   #声明第二个Peer组织名称为Org2,如果需要更多的Peer组织证书,只需要按该模板添加即可。
    Domain: org2.example.com  #与以上相同 
    EnableNodeOUs: true
    Template:
      Count: 2
    Users:
      Count: 1

我们这里就使用两个组织,每个组织分别有两个节点和一个User。接下来我们使用该文件生成对应数量的证书:

#路径需要更改为自己的路径
cd ~/go/src/github.com/hyperledger/fabric/scripts/fabric-samples/first-network/  
#在这里可能会报错,通常是权限问题,可以添加sudo重新执行
cryptogen generate --config=./crypto-config.yaml
#执行完毕后,当前文件夹下会出现一个新的文件夹:crypto-config,在该文件夹下就是刚刚生成的证书.

文件夹内证书不再详解,会在另一篇文章中专门解释Fabric-ca的内容。

2 生成创世区块,通道配置,锚节点配置文件

在这里需要用到configtxgen这个二进制文件。

2.1生成创世区块

#首先进入文件夹
cd ~/go/src/github.com/hyperledger/fabric/scripts/fabric-samples/first-network/  
#执行命令生成创世区块 
configtxgen -profile TwoOrgsOrdererGenesis -channelID mychannel -outputBlock ./channel-artifacts/genesis.block
#如果没有channel-artifacts这个文件夹,则需要手动去创建

如果没有出现错误的话,在channel-artifacts文件夹中可以看至生成的genesis.block文件。

2.2生成通道配置信息

#执行命令生成通道配置信息
configtxgen -profile TwoOrgsChannel -outputCreateChannelTx ./channel-artifacts/channel.tx -channelID mychannel

同样,在channel-artifacts文件夹中可以看至生成的channel.tx文件。

2.3生成锚节点配置文件

#首先生成Org1的锚节点配置文件
configtxgen -profile TwoOrgsChannel -outputAnchorPeersUpdate ./channel-artifacts/Org1MSPanchors.tx -channelID mychannel -asOrg Org1MSP
#生成Org2的锚节点配置文件
configtxgen -profile TwoOrgsChannel -outputAnchorPeersUpdate ./channel-artifacts/Org2MSPanchors.tx -channelID mychannel -asOrg Org2MSP

所有需要的配置文件全部建立完成,在channel-artifacts中应该有以下几个文件:

channel.tx  genesis.block  Org1MSPanchors.tx  Org2MSPanchors.tx

3相关文件说明

这一部分涉及相关配置文件的解析,如果想直接手动启动网络的话可以直接看第4部分
网络的启动涉及到多个文件,本文按以下顺序进行分析:

.
├── base
│?? ├── docker-compose-base.yaml   #1
│?? └── peer-base.yaml    #2
├── channel-artifacts   
├── configtx.yaml      #5
├── crypto-config.yaml
├── docker-compose-cli.yaml   #3
├── docker-compose-couch.yaml  #4
├── docker-compose-e2e-template.yaml    该文件中定义了fabric-ca的配置信息。我们这里用不到,会在讲解Fabric-Ca的文章中说明

3.1 docker-compose-base.yaml文件详解

先看一下文件内容:

version: '2'     #docker版本

services:        #服务,可以包括若干个容器实例

  orderer.example.com:     #定义一个名称为orderer.example.com的服务
    container_name: orderer.example.com    #当前容器名称
    extends:     #扩展,代表需要加载的文件或服务
      file: peer-base.yaml       
      service: orderer-base
    volumes:     #挂载的卷     [本机路径下的文件或目录]:[容器中所映射到的地址]
        #比如本机下的channel-artifacts/genesis.block文件可以在容器中/var/hyperledger/orderer/orderer.genesis.block访问
        - ../channel-artifacts/genesis.block:/var/hyperledger/orderer/orderer.genesis.block
        - ../crypto-config/ordererOrganizations/example.com/orderers/orderer.example.com/msp:/var/hyperledger/orderer/msp
        - ../crypto-config/ordererOrganizations/example.com/orderers/orderer.example.com/tls/:/var/hyperledger/orderer/tls
        - orderer.example.com:/var/hyperledger/production/orderer
    ports:  #所映射的端口  [本机端口]:[容器端口]
      - 7050:7050

  peer0.org1.example.com:        #定义一个名称为peer0.org1.example.com的服务
    container_name: peer0.org1.example.com    #当前容器名称
    extends:   #同上
      file: peer-base.yaml
      service: peer-base
    environment:         #定义环境变量
      - CORE_PEER_ID=peer0.org1.example.com    #peer节点的id
      - CORE_PEER_ADDRESS=peer0.org1.example.com:7051    #peer节点的访问地址
      - CORE_PEER_LISTENADDRESS=0.0.0.0:7051     #peer节点的监听地址
      - CORE_PEER_CHAINCODEADDRESS=peer0.org1.example.com:7052   #peer节点的链码访问地址
      - CORE_PEER_CHAINCODELISTENADDRESS=0.0.0.0:7052  #peer节点的链码监听地址 指定为0.0.0.0则自动进行探测
      - CORE_PEER_GOSSIP_BOOTSTRAP=peer1.org1.example.com:8051 #gossip为共识机制
      - CORE_PEER_GOSSIP_EXTERNALENDPOINT=peer0.org1.example.com:7051  #gossip外部节点,表明为锚节点
      - CORE_PEER_LOCALMSPID=Org1MSP
    volumes:   #同上,挂载卷
        - /var/run/:/host/var/run/
        - ../crypto-config/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/msp:/etc/hyperledger/fabric/msp
        - ../crypto-config/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls:/etc/hyperledger/fabric/tls
        - peer0.org1.example.com:/var/hyperledger/production
    ports:   #同上,端口
      - 7051:7051

  peer1.org1.example.com:
    container_name: peer1.org1.example.com
    extends:
      file: peer-base.yaml
      service: peer-base
      ...
      ...

3.2 peer-base.yaml文件详解

version: '2'

services:
  peer-base:    #定义一个名称为peer-base的服务
    image: hyperledger/fabric-peer:$IMAGE_TAG    #该服务所依赖的镜像
    environment:       #定义环境变量
      - CORE_VM_ENDPOINT=unix:///host/var/run/docker.sock
      - CORE_VM_DOCKER_HOSTCONFIG_NETWORKMODE=$COMPOSE_PROJECT_NAME_byfn     #定义网络工作模式,这里使用的是bridge方式
      - FABRIC_LOGGING_SPEC=INFO     #定义日志级别为INFO
      #- FABRIC_LOGGING_SPEC=DEBUG
      - CORE_PEER_TLS_ENABLED=true   #使用TLS
      - CORE_PEER_GOSSIP_USELEADERELECTION=true    #使用选举LEADER的方式
      - CORE_PEER_GOSSIP_ORGLEADER=false    #不指定LEADER
      - CORE_PEER_PROFILE_ENABLED=true     #使用profile
      - CORE_PEER_TLS_CERT_FILE=/etc/hyperledger/fabric/tls/server.crt   #TLS证书路径
      - CORE_PEER_TLS_KEY_FILE=/etc/hyperledger/fabric/tls/server.key  #TLS密钥路径
      - CORE_PEER_TLS_ROOTCERT_FILE=/etc/hyperledger/fabric/tls/ca.crt #TLS根证书路径
    working_dir: /opt/gopath/src/github.com/hyperledger/fabric/peer   #工作目录,即进入容器所在的默认位置
    command: peer node start   #启动容器后所运行的第一条命令:启动Peer节点 

  orderer-base:      #定义一个名称为orderer-base的服务
    image: hyperledger/fabric-orderer:$IMAGE_TAG    #该服务所依赖的镜像
    environment:    #环境变量
      - FABRIC_LOGGING_SPEC=INFO  #日志级别
      - ORDERER_GENERAL_LISTENADDRESS=0.0.0.0    #orderer的监听地址
      - ORDERER_GENERAL_GENESISMETHOD=file   # 创世区块文件的类型为file
      - ORDERER_GENERAL_GENESISFILE=/var/hyperledger/orderer/orderer.genesis.block   #创世区块在容器中的路径
      - ORDERER_GENERAL_LOCALMSPID=OrdererMSP   #Orderer的本地MSPid
      - ORDERER_GENERAL_LOCALMSPDIR=/var/hyperledger/orderer/msp  #本地Msp文件夹
      # enabled TLS
      - ORDERER_GENERAL_TLS_ENABLED=true   #使用TLS
      - ORDERER_GENERAL_TLS_PRIVATEKEY=/var/hyperledger/orderer/tls/server.key   #TLS私钥路径
      - ORDERER_GENERAL_TLS_CERTIFICATE=/var/hyperledger/orderer/tls/server.crt      #TLS证书路径
      - ORDERER_GENERAL_TLS_ROOTCAS=[/var/hyperledger/orderer/tls/ca.crt]      #TLS根证书路径
      - ORDERER_KAFKA_TOPIC_REPLICATIONFACTOR=1   #以下为kafka集群的配置,本文中没有使用到
      - ORDERER_KAFKA_VERBOSE=true
      - ORDERER_GENERAL_CLUSTER_CLIENTCERTIFICATE=/var/hyperledger/orderer/tls/server.crt
      - ORDERER_GENERAL_CLUSTER_CLIENTPRIVATEKEY=/var/hyperledger/orderer/tls/server.key
      - ORDERER_GENERAL_CLUSTER_ROOTCAS=[/var/hyperledger/orderer/tls/ca.crt]
    working_dir: /opt/gopath/src/github.com/hyperledger/fabric    #工作目录,即进入容器所在的默认位置
    command: orderer  #启动容器后所运行的第一条命令:启动orderer

3.3 docker-compose-cli.yaml文件详解

version: '2'

volumes:   #声明挂载的卷
  orderer.example.com:
  peer0.org1.example.com:
  peer1.org1.example.com:
  peer0.org2.example.com:
  peer1.org2.example.com:

networks:   #声明一个名称为byfn的网络
  byfn:

services:

  orderer.example.com:   #定义一个名称为orderer.example.com的服务
    extends:    #扩展,代表需要加载的文件或服务  即使用了其中的配置信息
      file:   base/docker-compose-base.yaml      
      service: orderer.example.com   
    container_name: orderer.example.com   #当前容器名称
    networks:      #指定当前容器所加入的网络,如果需要加入多个网络,可以定义多个
      - byfn

    #以下同上
  peer0.org1.example.com:    
    container_name: peer0.org1.example.com
    extends:
      file:  base/docker-compose-base.yaml
      service: peer0.org1.example.com
    networks:
      - byfn

  peer1.org1.example.com:
    container_name: peer1.org1.example.com
    extends:
      file:  base/docker-compose-base.yaml
      service: peer1.org1.example.com
    networks:
      - byfn

  peer0.org2.example.com:
    container_name: peer0.org2.example.com
    extends:
      file:  base/docker-compose-base.yaml
      service: peer0.org2.example.com
    networks:
      - byfn

  peer1.org2.example.com:
    container_name: peer1.org2.example.com
    extends:
      file:  base/docker-compose-base.yaml
      service: peer1.org2.example.com
    networks:
      - byfn

  cli:    #定义一个客户端容器,方便与各节点进行交互
    container_name: cli    #客户端容器名称
    image: hyperledger/fabric-tools:$IMAGE_TAG   #该服务所依赖的镜像
    tty: true     #使用伪终端
    stdin_open: true    #标准输入
    environment:     #环境变量
      - GOPATH=/opt/gopath        #指定go的路径
      - CORE_VM_ENDPOINT=unix:///host/var/run/docker.sock
      #- FABRIC_LOGGING_SPEC=DEBUG
      - FABRIC_LOGGING_SPEC=INFO   #日志级别
      - CORE_PEER_ID=cli      #当前节点的Id
      - CORE_PEER_ADDRESS=peer0.org1.example.com:7051   #以下与peer-base.yaml相同,表示当前客户端容器默认与peer0.org1.example.com进行交互
      - CORE_PEER_LOCALMSPID=Org1MSP
      - CORE_PEER_TLS_ENABLED=true
      - CORE_PEER_TLS_CERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls/server.crt    #TLS-peer0.org1.example.com的证书路径
      - CORE_PEER_TLS_KEY_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls/server.key  #TLS-peer0.org1.example.com的密钥路径
      - CORE_PEER_TLS_ROOTCERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls/ca.crt    #TLS-peer0.org1.example.com的根证书路径
      - CORE_PEER_MSPCONFIGPATH=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/users/[email protected]/msp  @#TLS-组织1中Admin的MSP路径
    working_dir: /opt/gopath/src/github.com/hyperledger/fabric/peer      #工作目录,即进入容器所在的默认位置
    command: /bin/bash     #启动容器后所运行的第一条命令:使用bash
    volumes:      #挂载卷
        - /var/run/:/host/var/run/
        - ./../chaincode/:/opt/gopath/src/github.com/chaincode
        - ./crypto-config:/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/
        - ./scripts:/opt/gopath/src/github.com/hyperledger/fabric/peer/scripts/
        - ./channel-artifacts:/opt/gopath/src/github.com/hyperledger/fabric/peer/channel-artifacts
    depends_on:    #依赖,需要首先按顺序启动以下容器,但是不会等待以下容器完全启动才启动当前容器
      - orderer.example.com
      - peer0.org1.example.com
      - peer1.org1.example.com
      - peer0.org2.example.com
      - peer1.org2.example.com
    networks:      #指定当前容器所加入的网络
      - byfn

3.4 docker-compose-couch.yaml文件详解

在fabric网络中,可以使用默认的levelDb数据库,或者使用CouchDb,该文件主要是对CouchDb进行相关设置。

version: '2'

networks:  #声明一个名称为byfn的网络
  byfn:

services:
  couchdb0:    #定义一个couchdb0的服务
    container_name: couchdb0    #指定该容器名称为couchdb0
    image: hyperledger/fabric-couchdb    #该容器所依赖的镜像
    environment:    #环境变量
      - COUCHDB_USER=        #couchdb0的用户名,这里设置为空,表明任何人都可登陆
      - COUCHDB_PASSWORD=     #couchdb0的登陆密码,这里设置为空
    ports:    #所映射的端口
      - "5984:5984"
    networks:    #使用的网络
      - byfn

  peer0.org1.example.com:    #定义一个peer0.org1.example.com的服务
    environment:
      - CORE_LEDGER_STATE_STATEDATABASE=CouchDB   #指定该服务使用的标准数据库为CouchDB
      - CORE_LEDGER_STATE_COUCHDBCONFIG_COUCHDBADDRESS=couchdb0:5984      #指定该服务使用的数据库访问地址
      - CORE_LEDGER_STATE_COUCHDBCONFIG_USERNAME= #配置数据库用户名
      - CORE_LEDGER_STATE_COUCHDBCONFIG_PASSWORD=#配置数据库密码
    depends_on:      #表明该服务依赖于couchdb0
      - couchdb0

  couchdb1:      #以下同上
    container_name: couchdb1
    image: hyperledger/fabric-couchdb
   ...
   ...

3.5 configtx.yaml文件详解

该文件中定义了fabric网络中的相关策略信息,内容相对比较多,这里只讲解所用到的部分。

Organizations:    #组织信息
    - &OrdererOrg   #配置orderer的信息
        Name: OrdererOrg    #定义名称
        ID: OrdererMSP        #定义ID
        MSPDir: crypto-config/ordererOrganizations/example.com/msp   #指定MSP的文件目录
        Policies:   #定义相关策略
            Readers:    #可读
                Type: Signature      
                Rule: "OR('OrdererMSP.member')"   #具体策略:允许OrdererMSP中所有member读操作
            Writers:    #可写
                Type: Signature
                Rule: "OR('OrdererMSP.member')"
            Admins:    #admin
                Type: Signature
                Rule: "OR('OrdererMSP.admin')"

    - &Org1       #配置组织一的信息
        Name: Org1MSP    #定义组织一的名称
        ID: Org1MSP      #定义组织一的ID
        MSPDir: crypto-config/peerOrganizations/org1.example.com/msp  #指定MSP的文件目录
        Policies:    #定义相关策略
            Readers:    #可读
                Type: Signature
                Rule: "OR('Org1MSP.admin', 'Org1MSP.peer', 'Org1MSP.client')"  #Org1MSP中的admin,peer,client均可进行读操作
            Writers:  #可写
                Type: Signature
                Rule: "OR('Org1MSP.admin', 'Org1MSP.client')"    #Org1MSP中的admin,client均可进行读操作
            Admins:    #同上
                Type: Signature
                Rule: "OR('Org1MSP.admin')"
        AnchorPeers:    #指定Org1的锚节点,只有锚节点可以与另一个组织进行通信
            - Host: peer0.org1.example.com      #指定Org1的锚节点的地址 
              Port: 7051      #指定Org1的锚节点的端口
    - &Org2      #同上
        Name: Org2MSP
        ID: Org2MSP
        MSPDir: crypto-config/peerOrganizations/org2.example.com/msp
        Policies:
            Readers:
                Type: Signature
                Rule: "OR('Org2MSP.admin', 'Org2MSP.peer', 'Org2MSP.client')"
            Writers:
                Type: Signature
                Rule: "OR('Org2MSP.admin', 'Org2MSP.client')"
            Admins:
                Type: Signature
                Rule: "OR('Org2MSP.admin')"
        AnchorPeers:
            - Host: peer0.org2.example.com
              Port: 9051
Capabilities:      #这一区域主要是定义版本的兼容情况
    Channel: &ChannelCapabilities
        V1_3: true
    Orderer: &OrdererCapabilities
        V1_1: true
    Application: &ApplicationCapabilities
        V1_3: true
        V1_2: false
        V1_1: false
Application: &ApplicationDefaults      #同上,定义具体的策略
    Organizations:
    Policies:
        Readers:
            Type: ImplicitMeta
            Rule: "ANY Readers"
        Writers:
            Type: ImplicitMeta
            Rule: "ANY Writers"
        Admins:
            Type: ImplicitMeta
            Rule: "MAJORITY Admins"
    Capabilities:
        <<: *ApplicationCapabilities
################################################################################
#
Orderer: &OrdererDefaults
    OrdererType: solo      #定义网络类型为solo
    Addresses:      #定义orderer的地址
        - orderer.example.com:7050
    BatchTimeout: 2s    #定义创建一个区块的超时时间
    BatchSize:
        MaxMessageCount: 10   #区块内最大消息数
        AbsoluteMaxBytes: 99 MB   #区块内消息所占的最大空间
        PreferredMaxBytes: 512 KB
    Organizations:
    Policies:
        Readers:
            Type: ImplicitMeta
            Rule: "ANY Readers"
        Writers:
            Type: ImplicitMeta
            Rule: "ANY Writers"
        Admins:
            Type: ImplicitMeta
            Rule: "MAJORITY Admins"
        BlockValidation:    #区块的验证策略
            Type: ImplicitMeta
            Rule: "ANY Writers"
################################################################################
Channel: &ChannelDefaults
    Policies:
        Readers:   #定义谁可以调用交付区块的API
            Type: ImplicitMeta
            Rule: "ANY Readers"
        Writers:   #定义谁可以调用广播区块的API
            Type: ImplicitMeta
            Rule: "ANY Writers"
        Admins:  #定义谁可以修改配置信息
            Type: ImplicitMeta
            Rule: "MAJORITY Admins"
    Capabilities:
        <<: *ChannelCapabilities

Profiles:
    TwoOrgsOrdererGenesis:
        <<: *ChannelDefaults
        Orderer:
            <<: *OrdererDefaults
            Organizations:
                - *OrdererOrg
            Capabilities:
                <<: *OrdererCapabilities
        Consortiums:
            SampleConsortium:
                Organizations:
                    - *Org1
                    - *Org2
    TwoOrgsChannel:
        Consortium: SampleConsortium
        <<: *ChannelDefaults
        Application:
            <<: *ApplicationDefaults
            Organizations:
                - *Org1
                - *Org2
            Capabilities:
                <<: *ApplicationCapabilities

4启动网络

到了这一步,可以启动网络了。

#首先进入``fabric-samples/first-network``文件夹。
cd ~/go/src/github.com/hyperledger/fabric/scripts/fabric-samples/first-network/
#启动容器
sudo docker-compose -f docker-compose-cli.yaml up -d

执行以下命令查看容器是否启动成功:

sudo docker ps
#如果可以看到如下信息说明启动成功
CONTAINER ID        IMAGE                               COMMAND             CREATED             STATUS              PORTS                      NAMES
17d79586b1b7        hyperledger/fabric-tools:latest     "/bin/bash"         30 seconds ago      Up 28 seconds                                  cli
0f4adb6b578e        hyperledger/fabric-orderer:latest   "orderer"           57 seconds ago      Up 29 seconds       0.0.0.0:7050->7050/tcp     orderer.example.com
e2795ea9d43b        hyperledger/fabric-peer:latest      "peer node start"   57 seconds ago      Up 30 seconds       0.0.0.0:10051->10051/tcp   peer1.org2.example.com
247a6e4fdd62        hyperledger/fabric-peer:latest      "peer node start"   57 seconds ago      Up 30 seconds       0.0.0.0:9051->9051/tcp     peer0.org2.example.com
ad4af3309e8c        hyperledger/fabric-peer:latest      "peer node start"   57 seconds ago      Up 31 seconds       0.0.0.0:8051->8051/tcp     peer1.org1.example.com
f6d25896b517        hyperledger/fabric-peer:latest      "peer node start"   58 seconds ago      Up 40 seconds       0.0.0.0:7051->7051/tcp     peer0.org1.example.com

4.1创建通道

创建通道需要进入cli容器:

sudo docker exec -it cli bash
#看到光标前的信息变为
[email protected]:/opt/gopath/src/github.com/hyperledger/fabric/peer# 
#则成功进入容器

首先配置环境变量:

#当前cli容器默认配置是节点peer0,所以不需要其他配置信息
ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem
#创建通道信息
peer channel create -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/channel.tx --tls true --cafile $ORDERER_CA
#看到如下信息说明创建通道成功
2019-06-20 13:05:55.829 UTC [channelCmd] InitCmdFactory -> INFO 001 Endorser and orderer connections initialized
2019-06-20 13:05:55.926 UTC [cli.common] readBlock -> INFO 002 Received block: 0
#将生成的文件移动到channel-artifacts文件夹中
mv mychannel.block channel-artifacts/

4.2加入通道

#因为当前cli容器使用的是peer0的配置,所以可以直接将peer0加入通道 
 peer channel join -b channel-artifacts/mychannel.block
#更新环境变量使其他节点也加入通道
#=========peer1.org1===========  注意这里端口要与上面文件中配置的端口号相同
CORE_PEER_ADDRESS=peer1.org1.example.com:8051  
#=========peer0.org2============
CORE_PEER_LOCALMSPID="Org2MSP"
CORE_PEER_TLS_ROOTCERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org2.example.com/peers/peer0.org2.example.com/tls/ca.crt
CORE_PEER_MSPCONFIGPATH=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org2.example.com/users/[email protected]/msp
CORE_PEER_ADDRESS=peer0.org2.example.com:9051
peer channel join -b channel-artifacts/mychannel.block 
#=========peer1.org2=============
CORE_PEER_ADDRESS=peer1.org2.example.com:10051
peer channel join -b channel-artifacts/mychannel.block
#退出容器
exit

4.3更新锚节点

#重新进入容器
sudo docker exec -it cli bash
#更新环境变量
ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem
#========Org1================
peer channel update -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/Org1MSPanchors.tx --tls true --cafile $ORDERER_CA
#========Org2================
peer channel update -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/Org2MSPanchors.tx --tls true --cafile $ORDERER_CA
#退出容器
exit

4.4安装链码

#链码的安装仍然需要在所有节点上进行操作
#进入容器
sudo docker exec -it cli bash
#更新环境变量
ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem
#=========peer0.org1=========== 
#这里很有可能会出现路径不存在的错误,解决方法是在容器内找到对应的链码所在位置,然后替换当前链码路径
##比如本文中链码路径为/opt/gopath/src/github.com/chaincode/chaincode_example02/go
##则可以将以下命令的链码路径更改为github.com/chaincode/chaincode_example02

peer chaincode install -n mycc -v 1.0 -p github.com/hyperledger/fabric/examples/chaincode/go/chaincode_example02
#实例化链码 该步骤创建了a,b两个账户,其中a账户余额定义为100,b账户余额定义为200
peer chaincode instantiate -o orderer.example.com:7050 --tls true --cafile $ORDERER_CA -C mychannel -n mycc -v 1.0 -c '"Args":["init","a","100","b","200"]' -P "OR      ('Org1MSP.member','Org2MSP.member')"
#这一步执行完毕后可以在其他节点上也安装链码,具体环境变量配置见本文中4.2

4.5调用链码

#以peer0.org1为例
#首先进入cli容器
sudo docker exec -it cli bash
#执行以下命令进行查询a账户余额
peer chaincode query -C mychannel -n mycc -c '"Args":["query","a"]'
#如果命令行输出100说明链码成功调用.

#接下来我们发起一笔交易:通过peer0.org1节点将a账户余额转账给b20
peer chaincode invoke -o orderer.example.com:7050  --tls true --cafile $ORDERER_CA -C mychannel -n mycc -c '"Args":["invoke","a","b","10"]'
#然后登陆peer1.org1节点进行查询
CORE_PEER_ADDRESS=peer1.org1.example.com:8051 
peer chaincode query -C mychannel -n mycc -c '"Args":["query","a"]'
#如果输出结果为:80
说明Fabric网络手动搭建成功
#退出容器
exit

最后关闭网络:

sudo docker-compose -f docker-compose-cli.yaml down --volumes 
#删除生成的文件,下次启动网络需要重新生成
sudo rm -r channel-artifacts crypto-config

5总结

本文并没有使用CouchDb作为fabric网络的数据库,准备放到下一篇多机搭建Fabric网络中一起讲解。到这里,整个网络的手动搭建过程已经完成,希望大家能够有所收获。

以上是关于fabric解析的主要内容,如果未能解决你的问题,请参考以下文章

搭建基于hyperledger fabric的联盟社区 --Fabric证书解析

深入解析Hyperledger Fabric启动的全过程

Fabric1.4源码中链码容器启动过程解析

Fabric1.4源码解析:客户端创建通道过程

Hyperledger Fabric 账本结构解析

Fabric 账本数据块结构解析:如何解析账本中的智能合约交易数据