fabric解析
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了fabric解析相关的知识,希望对你有一定的参考价值。
参考技术A core.yaml (peer节点的配置)configtx.yaml(通道配置,用于生成创世区块,通道配置块等文件)
orderer.yaml(排序节点的配置)
【当Peer节点作为服务端启动时,会按照优先级从高到低的顺序依次尝试从命令行参数、环境变量或配置文件中读取配置信息。这里,我们主要通过配置文件的方式来对Peer进行配置。】
文件读取路径为$FABRIC_CFG_PATH/core.yaml;
如果没找到,则尝试查找当前目录下的./core.yaml文件;
如果还没有找到,则尝试查找默认的/etc/hyperledger/fabric/core.yaml文件。
在结构上,core.yaml文件中一般包括logging、peer、vm、chaincode、ledger五大部分,其中,与MSP配置相关的主要是peer部分
配置------>·mspConfigPath:
MSP目录所在的路径,可以为绝对路径,或相对配置目录的路径,一般建议为/etc/hyperledger/fabric/msp;本例中,写的是相对路径msp
配置------->localMspId:
Peer所关联的MSP的ID,一般为组织单位名称,需要与联盟配置中的名称一致;
orderer节点对应的配置文件是orderer.yaml。
Orderer节点可以组成集群来在Fabric网络中提供排序服务。类似地,支持从命令行参数、环境变量或配置文件中读取配置信息。
当从环境变量中读入配置时,需要以ORDERER_前缀开头,例如配置文件中的general.ListenAddress项,对应到环境变量ORDERER_GENERAL_LISTENADDRESS。
在结构上,orderer.yaml文件中一般包括General、FileLedger、RAMLedger、Kafka四大部分,其中,涉及MSP配置的部分在General。
其中,LocalMSPDir,LocalMSPID为配置本地msp的主要部分:
配置------>LocalMSPDir:
MSP目录所在的路径,可以为绝对路径或相对路径,一般建议为$FABRIC_CFG_PATH/msp;
配置------>localMspId:
Orderer所关联的MSP的ID,需要与联盟配置中的组织的MSP名称一致;
深入解析Hyperledger Fabric启动的全过程
在这篇文章中,使用fabric-samples/first-network
中的文件进行fabric网络(solo类型的网络)启动全过程的解析。如有错误欢迎批评指正。
至于Fabric网络的搭建这里不再介绍,可以参考这一篇文章Hyperledger Fabric环境搭建过程
fabric网络:单机,solo类型,两个组织,分别有两个节点
首先看一下该文件夹内有哪些文件:
base connection-org2.json docker-compose-cli.yaml docker-compose-org3.yaml
byfn.sh connection-org2.yaml docker-compose-couch-org3.yaml eyfn.sh
channel-artifacts connection-org3.json docker-compose-couch.yaml org3-artifacts
configtx.yaml connection-org3.yaml docker-compose-e2e-template.yaml README.md
connection-org1.json crypto-config.yaml docker-compose-etcdraft2.yaml scripts
connection-org1.yaml docker-compose-ca.yaml docker-compose-kafka.yaml
将本次用不到的文件删除,剩余的文件:
.
├── base
│?? ├── docker-compose-base.yaml
│?? └── peer-base.yaml
├── channel-artifacts
├── configtx.yaml
├── crypto-config.yaml
├── docker-compose-cli.yaml
├── docker-compose-couch.yaml
├── docker-compose-e2e-template.yaml
1.证书的生成
在Fabric网络环境中,第一步需要生成各个节点的证书文件,所用到的配置文件为crypto-config.yaml
,说明一下文件内各字段的意义:
OrdererOrgs: #定义一个Order组织
- Name: Orderer #order节点的名称,当前网络模式为solo类型,所以只定义了一个Order节点
Domain: example.com #order节点的域
Specs: #暂时用不到
- Hostname: orderer
- Hostname: orderer2
- Hostname: orderer3
- Hostname: orderer4
- Hostname: orderer5
PeerOrgs: #定义Peer组织
- Name: Org1 #声明Peer组织名称为Org1
Domain: org1.example.com #Org1组织的域
EnableNodeOUs: true #暂时没搞清楚该字段的意义
Template: #在这里可以定义所生成的Org1组织中的Peer节点证书数量,不包括Admin
Count: 2 #表明需要生成两个Peer节点的证书,如果需要其他数量的Peer节点,只需要更改这里的数量。
Users: #在这里可以定义所生成的Org1组织中类型为User的证书数量,不包括Admin
Count: 1 #生成用户的证书的数量
- Name: Org2 #声明第二个Peer组织名称为Org2,如果需要更多的Peer组织证书,只需要按该模板添加即可。
Domain: org2.example.com #与以上相同
EnableNodeOUs: true
Template:
Count: 2
Users:
Count: 1
我们这里就使用两个组织,每个组织分别有两个节点和一个User。接下来我们使用该文件生成对应数量的证书:
#路径需要更改为自己的路径
cd ~/go/src/github.com/hyperledger/fabric/scripts/fabric-samples/first-network/
#在这里可能会报错,通常是权限问题,可以添加sudo重新执行
cryptogen generate --config=./crypto-config.yaml
#执行完毕后,当前文件夹下会出现一个新的文件夹:crypto-config,在该文件夹下就是刚刚生成的证书.
文件夹内证书不再详解,会在另一篇文章中专门解释Fabric-ca的内容。
2 生成创世区块,通道配置,锚节点配置文件
在这里需要用到configtxgen
这个二进制文件。
2.1生成创世区块
#首先进入文件夹
cd ~/go/src/github.com/hyperledger/fabric/scripts/fabric-samples/first-network/
#执行命令生成创世区块
configtxgen -profile TwoOrgsOrdererGenesis -channelID mychannel -outputBlock ./channel-artifacts/genesis.block
#如果没有channel-artifacts这个文件夹,则需要手动去创建
如果没有出现错误的话,在channel-artifacts
文件夹中可以看至生成的genesis.block
文件。
2.2生成通道配置信息
#执行命令生成通道配置信息
configtxgen -profile TwoOrgsChannel -outputCreateChannelTx ./channel-artifacts/channel.tx -channelID mychannel
同样,在channel-artifacts
文件夹中可以看至生成的channel.tx
文件。
2.3生成锚节点配置文件
#首先生成Org1的锚节点配置文件
configtxgen -profile TwoOrgsChannel -outputAnchorPeersUpdate ./channel-artifacts/Org1MSPanchors.tx -channelID mychannel -asOrg Org1MSP
#生成Org2的锚节点配置文件
configtxgen -profile TwoOrgsChannel -outputAnchorPeersUpdate ./channel-artifacts/Org2MSPanchors.tx -channelID mychannel -asOrg Org2MSP
所有需要的配置文件全部建立完成,在channel-artifacts
中应该有以下几个文件:
channel.tx genesis.block Org1MSPanchors.tx Org2MSPanchors.tx
3相关文件说明
这一部分涉及相关配置文件的解析,如果想直接手动启动网络的话可以直接看第4部分
网络的启动涉及到多个文件,本文按以下顺序进行分析:
.
├── base
│?? ├── docker-compose-base.yaml #1
│?? └── peer-base.yaml #2
├── channel-artifacts
├── configtx.yaml #5
├── crypto-config.yaml
├── docker-compose-cli.yaml #3
├── docker-compose-couch.yaml #4
├── docker-compose-e2e-template.yaml 该文件中定义了fabric-ca的配置信息。我们这里用不到,会在讲解Fabric-Ca的文章中说明
3.1 docker-compose-base.yaml
文件详解
先看一下文件内容:
version: '2' #docker版本
services: #服务,可以包括若干个容器实例
orderer.example.com: #定义一个名称为orderer.example.com的服务
container_name: orderer.example.com #当前容器名称
extends: #扩展,代表需要加载的文件或服务
file: peer-base.yaml
service: orderer-base
volumes: #挂载的卷 [本机路径下的文件或目录]:[容器中所映射到的地址]
#比如本机下的channel-artifacts/genesis.block文件可以在容器中/var/hyperledger/orderer/orderer.genesis.block访问
- ../channel-artifacts/genesis.block:/var/hyperledger/orderer/orderer.genesis.block
- ../crypto-config/ordererOrganizations/example.com/orderers/orderer.example.com/msp:/var/hyperledger/orderer/msp
- ../crypto-config/ordererOrganizations/example.com/orderers/orderer.example.com/tls/:/var/hyperledger/orderer/tls
- orderer.example.com:/var/hyperledger/production/orderer
ports: #所映射的端口 [本机端口]:[容器端口]
- 7050:7050
peer0.org1.example.com: #定义一个名称为peer0.org1.example.com的服务
container_name: peer0.org1.example.com #当前容器名称
extends: #同上
file: peer-base.yaml
service: peer-base
environment: #定义环境变量
- CORE_PEER_ID=peer0.org1.example.com #peer节点的id
- CORE_PEER_ADDRESS=peer0.org1.example.com:7051 #peer节点的访问地址
- CORE_PEER_LISTENADDRESS=0.0.0.0:7051 #peer节点的监听地址
- CORE_PEER_CHAINCODEADDRESS=peer0.org1.example.com:7052 #peer节点的链码访问地址
- CORE_PEER_CHAINCODELISTENADDRESS=0.0.0.0:7052 #peer节点的链码监听地址 指定为0.0.0.0则自动进行探测
- CORE_PEER_GOSSIP_BOOTSTRAP=peer1.org1.example.com:8051 #gossip为共识机制
- CORE_PEER_GOSSIP_EXTERNALENDPOINT=peer0.org1.example.com:7051 #gossip外部节点,表明为锚节点
- CORE_PEER_LOCALMSPID=Org1MSP
volumes: #同上,挂载卷
- /var/run/:/host/var/run/
- ../crypto-config/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/msp:/etc/hyperledger/fabric/msp
- ../crypto-config/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls:/etc/hyperledger/fabric/tls
- peer0.org1.example.com:/var/hyperledger/production
ports: #同上,端口
- 7051:7051
peer1.org1.example.com:
container_name: peer1.org1.example.com
extends:
file: peer-base.yaml
service: peer-base
...
...
3.2 peer-base.yaml
文件详解
version: '2'
services:
peer-base: #定义一个名称为peer-base的服务
image: hyperledger/fabric-peer:$IMAGE_TAG #该服务所依赖的镜像
environment: #定义环境变量
- CORE_VM_ENDPOINT=unix:///host/var/run/docker.sock
- CORE_VM_DOCKER_HOSTCONFIG_NETWORKMODE=$COMPOSE_PROJECT_NAME_byfn #定义网络工作模式,这里使用的是bridge方式
- FABRIC_LOGGING_SPEC=INFO #定义日志级别为INFO
#- FABRIC_LOGGING_SPEC=DEBUG
- CORE_PEER_TLS_ENABLED=true #使用TLS
- CORE_PEER_GOSSIP_USELEADERELECTION=true #使用选举LEADER的方式
- CORE_PEER_GOSSIP_ORGLEADER=false #不指定LEADER
- CORE_PEER_PROFILE_ENABLED=true #使用profile
- CORE_PEER_TLS_CERT_FILE=/etc/hyperledger/fabric/tls/server.crt #TLS证书路径
- CORE_PEER_TLS_KEY_FILE=/etc/hyperledger/fabric/tls/server.key #TLS密钥路径
- CORE_PEER_TLS_ROOTCERT_FILE=/etc/hyperledger/fabric/tls/ca.crt #TLS根证书路径
working_dir: /opt/gopath/src/github.com/hyperledger/fabric/peer #工作目录,即进入容器所在的默认位置
command: peer node start #启动容器后所运行的第一条命令:启动Peer节点
orderer-base: #定义一个名称为orderer-base的服务
image: hyperledger/fabric-orderer:$IMAGE_TAG #该服务所依赖的镜像
environment: #环境变量
- FABRIC_LOGGING_SPEC=INFO #日志级别
- ORDERER_GENERAL_LISTENADDRESS=0.0.0.0 #orderer的监听地址
- ORDERER_GENERAL_GENESISMETHOD=file # 创世区块文件的类型为file
- ORDERER_GENERAL_GENESISFILE=/var/hyperledger/orderer/orderer.genesis.block #创世区块在容器中的路径
- ORDERER_GENERAL_LOCALMSPID=OrdererMSP #Orderer的本地MSPid
- ORDERER_GENERAL_LOCALMSPDIR=/var/hyperledger/orderer/msp #本地Msp文件夹
# enabled TLS
- ORDERER_GENERAL_TLS_ENABLED=true #使用TLS
- ORDERER_GENERAL_TLS_PRIVATEKEY=/var/hyperledger/orderer/tls/server.key #TLS私钥路径
- ORDERER_GENERAL_TLS_CERTIFICATE=/var/hyperledger/orderer/tls/server.crt #TLS证书路径
- ORDERER_GENERAL_TLS_ROOTCAS=[/var/hyperledger/orderer/tls/ca.crt] #TLS根证书路径
- ORDERER_KAFKA_TOPIC_REPLICATIONFACTOR=1 #以下为kafka集群的配置,本文中没有使用到
- ORDERER_KAFKA_VERBOSE=true
- ORDERER_GENERAL_CLUSTER_CLIENTCERTIFICATE=/var/hyperledger/orderer/tls/server.crt
- ORDERER_GENERAL_CLUSTER_CLIENTPRIVATEKEY=/var/hyperledger/orderer/tls/server.key
- ORDERER_GENERAL_CLUSTER_ROOTCAS=[/var/hyperledger/orderer/tls/ca.crt]
working_dir: /opt/gopath/src/github.com/hyperledger/fabric #工作目录,即进入容器所在的默认位置
command: orderer #启动容器后所运行的第一条命令:启动orderer
3.3 docker-compose-cli.yaml
文件详解
version: '2'
volumes: #声明挂载的卷
orderer.example.com:
peer0.org1.example.com:
peer1.org1.example.com:
peer0.org2.example.com:
peer1.org2.example.com:
networks: #声明一个名称为byfn的网络
byfn:
services:
orderer.example.com: #定义一个名称为orderer.example.com的服务
extends: #扩展,代表需要加载的文件或服务 即使用了其中的配置信息
file: base/docker-compose-base.yaml
service: orderer.example.com
container_name: orderer.example.com #当前容器名称
networks: #指定当前容器所加入的网络,如果需要加入多个网络,可以定义多个
- byfn
#以下同上
peer0.org1.example.com:
container_name: peer0.org1.example.com
extends:
file: base/docker-compose-base.yaml
service: peer0.org1.example.com
networks:
- byfn
peer1.org1.example.com:
container_name: peer1.org1.example.com
extends:
file: base/docker-compose-base.yaml
service: peer1.org1.example.com
networks:
- byfn
peer0.org2.example.com:
container_name: peer0.org2.example.com
extends:
file: base/docker-compose-base.yaml
service: peer0.org2.example.com
networks:
- byfn
peer1.org2.example.com:
container_name: peer1.org2.example.com
extends:
file: base/docker-compose-base.yaml
service: peer1.org2.example.com
networks:
- byfn
cli: #定义一个客户端容器,方便与各节点进行交互
container_name: cli #客户端容器名称
image: hyperledger/fabric-tools:$IMAGE_TAG #该服务所依赖的镜像
tty: true #使用伪终端
stdin_open: true #标准输入
environment: #环境变量
- GOPATH=/opt/gopath #指定go的路径
- CORE_VM_ENDPOINT=unix:///host/var/run/docker.sock
#- FABRIC_LOGGING_SPEC=DEBUG
- FABRIC_LOGGING_SPEC=INFO #日志级别
- CORE_PEER_ID=cli #当前节点的Id
- CORE_PEER_ADDRESS=peer0.org1.example.com:7051 #以下与peer-base.yaml相同,表示当前客户端容器默认与peer0.org1.example.com进行交互
- CORE_PEER_LOCALMSPID=Org1MSP
- CORE_PEER_TLS_ENABLED=true
- CORE_PEER_TLS_CERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls/server.crt #TLS-peer0.org1.example.com的证书路径
- CORE_PEER_TLS_KEY_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls/server.key #TLS-peer0.org1.example.com的密钥路径
- CORE_PEER_TLS_ROOTCERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/peers/peer0.org1.example.com/tls/ca.crt #TLS-peer0.org1.example.com的根证书路径
- CORE_PEER_MSPCONFIGPATH=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org1.example.com/users/[email protected]/msp @#TLS-组织1中Admin的MSP路径
working_dir: /opt/gopath/src/github.com/hyperledger/fabric/peer #工作目录,即进入容器所在的默认位置
command: /bin/bash #启动容器后所运行的第一条命令:使用bash
volumes: #挂载卷
- /var/run/:/host/var/run/
- ./../chaincode/:/opt/gopath/src/github.com/chaincode
- ./crypto-config:/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/
- ./scripts:/opt/gopath/src/github.com/hyperledger/fabric/peer/scripts/
- ./channel-artifacts:/opt/gopath/src/github.com/hyperledger/fabric/peer/channel-artifacts
depends_on: #依赖,需要首先按顺序启动以下容器,但是不会等待以下容器完全启动才启动当前容器
- orderer.example.com
- peer0.org1.example.com
- peer1.org1.example.com
- peer0.org2.example.com
- peer1.org2.example.com
networks: #指定当前容器所加入的网络
- byfn
3.4 docker-compose-couch.yaml
文件详解
在fabric网络中,可以使用默认的levelDb数据库,或者使用CouchDb,该文件主要是对CouchDb进行相关设置。
version: '2'
networks: #声明一个名称为byfn的网络
byfn:
services:
couchdb0: #定义一个couchdb0的服务
container_name: couchdb0 #指定该容器名称为couchdb0
image: hyperledger/fabric-couchdb #该容器所依赖的镜像
environment: #环境变量
- COUCHDB_USER= #couchdb0的用户名,这里设置为空,表明任何人都可登陆
- COUCHDB_PASSWORD= #couchdb0的登陆密码,这里设置为空
ports: #所映射的端口
- "5984:5984"
networks: #使用的网络
- byfn
peer0.org1.example.com: #定义一个peer0.org1.example.com的服务
environment:
- CORE_LEDGER_STATE_STATEDATABASE=CouchDB #指定该服务使用的标准数据库为CouchDB
- CORE_LEDGER_STATE_COUCHDBCONFIG_COUCHDBADDRESS=couchdb0:5984 #指定该服务使用的数据库访问地址
- CORE_LEDGER_STATE_COUCHDBCONFIG_USERNAME= #配置数据库用户名
- CORE_LEDGER_STATE_COUCHDBCONFIG_PASSWORD=#配置数据库密码
depends_on: #表明该服务依赖于couchdb0
- couchdb0
couchdb1: #以下同上
container_name: couchdb1
image: hyperledger/fabric-couchdb
...
...
3.5 configtx.yaml
文件详解
该文件中定义了fabric网络中的相关策略信息,内容相对比较多,这里只讲解所用到的部分。
Organizations: #组织信息
- &OrdererOrg #配置orderer的信息
Name: OrdererOrg #定义名称
ID: OrdererMSP #定义ID
MSPDir: crypto-config/ordererOrganizations/example.com/msp #指定MSP的文件目录
Policies: #定义相关策略
Readers: #可读
Type: Signature
Rule: "OR('OrdererMSP.member')" #具体策略:允许OrdererMSP中所有member读操作
Writers: #可写
Type: Signature
Rule: "OR('OrdererMSP.member')"
Admins: #admin
Type: Signature
Rule: "OR('OrdererMSP.admin')"
- &Org1 #配置组织一的信息
Name: Org1MSP #定义组织一的名称
ID: Org1MSP #定义组织一的ID
MSPDir: crypto-config/peerOrganizations/org1.example.com/msp #指定MSP的文件目录
Policies: #定义相关策略
Readers: #可读
Type: Signature
Rule: "OR('Org1MSP.admin', 'Org1MSP.peer', 'Org1MSP.client')" #Org1MSP中的admin,peer,client均可进行读操作
Writers: #可写
Type: Signature
Rule: "OR('Org1MSP.admin', 'Org1MSP.client')" #Org1MSP中的admin,client均可进行读操作
Admins: #同上
Type: Signature
Rule: "OR('Org1MSP.admin')"
AnchorPeers: #指定Org1的锚节点,只有锚节点可以与另一个组织进行通信
- Host: peer0.org1.example.com #指定Org1的锚节点的地址
Port: 7051 #指定Org1的锚节点的端口
- &Org2 #同上
Name: Org2MSP
ID: Org2MSP
MSPDir: crypto-config/peerOrganizations/org2.example.com/msp
Policies:
Readers:
Type: Signature
Rule: "OR('Org2MSP.admin', 'Org2MSP.peer', 'Org2MSP.client')"
Writers:
Type: Signature
Rule: "OR('Org2MSP.admin', 'Org2MSP.client')"
Admins:
Type: Signature
Rule: "OR('Org2MSP.admin')"
AnchorPeers:
- Host: peer0.org2.example.com
Port: 9051
Capabilities: #这一区域主要是定义版本的兼容情况
Channel: &ChannelCapabilities
V1_3: true
Orderer: &OrdererCapabilities
V1_1: true
Application: &ApplicationCapabilities
V1_3: true
V1_2: false
V1_1: false
Application: &ApplicationDefaults #同上,定义具体的策略
Organizations:
Policies:
Readers:
Type: ImplicitMeta
Rule: "ANY Readers"
Writers:
Type: ImplicitMeta
Rule: "ANY Writers"
Admins:
Type: ImplicitMeta
Rule: "MAJORITY Admins"
Capabilities:
<<: *ApplicationCapabilities
################################################################################
#
Orderer: &OrdererDefaults
OrdererType: solo #定义网络类型为solo
Addresses: #定义orderer的地址
- orderer.example.com:7050
BatchTimeout: 2s #定义创建一个区块的超时时间
BatchSize:
MaxMessageCount: 10 #区块内最大消息数
AbsoluteMaxBytes: 99 MB #区块内消息所占的最大空间
PreferredMaxBytes: 512 KB
Organizations:
Policies:
Readers:
Type: ImplicitMeta
Rule: "ANY Readers"
Writers:
Type: ImplicitMeta
Rule: "ANY Writers"
Admins:
Type: ImplicitMeta
Rule: "MAJORITY Admins"
BlockValidation: #区块的验证策略
Type: ImplicitMeta
Rule: "ANY Writers"
################################################################################
Channel: &ChannelDefaults
Policies:
Readers: #定义谁可以调用交付区块的API
Type: ImplicitMeta
Rule: "ANY Readers"
Writers: #定义谁可以调用广播区块的API
Type: ImplicitMeta
Rule: "ANY Writers"
Admins: #定义谁可以修改配置信息
Type: ImplicitMeta
Rule: "MAJORITY Admins"
Capabilities:
<<: *ChannelCapabilities
Profiles:
TwoOrgsOrdererGenesis:
<<: *ChannelDefaults
Orderer:
<<: *OrdererDefaults
Organizations:
- *OrdererOrg
Capabilities:
<<: *OrdererCapabilities
Consortiums:
SampleConsortium:
Organizations:
- *Org1
- *Org2
TwoOrgsChannel:
Consortium: SampleConsortium
<<: *ChannelDefaults
Application:
<<: *ApplicationDefaults
Organizations:
- *Org1
- *Org2
Capabilities:
<<: *ApplicationCapabilities
4启动网络
到了这一步,可以启动网络了。
#首先进入``fabric-samples/first-network``文件夹。
cd ~/go/src/github.com/hyperledger/fabric/scripts/fabric-samples/first-network/
#启动容器
sudo docker-compose -f docker-compose-cli.yaml up -d
执行以下命令查看容器是否启动成功:
sudo docker ps
#如果可以看到如下信息说明启动成功
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
17d79586b1b7 hyperledger/fabric-tools:latest "/bin/bash" 30 seconds ago Up 28 seconds cli
0f4adb6b578e hyperledger/fabric-orderer:latest "orderer" 57 seconds ago Up 29 seconds 0.0.0.0:7050->7050/tcp orderer.example.com
e2795ea9d43b hyperledger/fabric-peer:latest "peer node start" 57 seconds ago Up 30 seconds 0.0.0.0:10051->10051/tcp peer1.org2.example.com
247a6e4fdd62 hyperledger/fabric-peer:latest "peer node start" 57 seconds ago Up 30 seconds 0.0.0.0:9051->9051/tcp peer0.org2.example.com
ad4af3309e8c hyperledger/fabric-peer:latest "peer node start" 57 seconds ago Up 31 seconds 0.0.0.0:8051->8051/tcp peer1.org1.example.com
f6d25896b517 hyperledger/fabric-peer:latest "peer node start" 58 seconds ago Up 40 seconds 0.0.0.0:7051->7051/tcp peer0.org1.example.com
4.1创建通道
创建通道需要进入cli容器:
sudo docker exec -it cli bash
#看到光标前的信息变为
[email protected]:/opt/gopath/src/github.com/hyperledger/fabric/peer#
#则成功进入容器
首先配置环境变量:
#当前cli容器默认配置是节点peer0,所以不需要其他配置信息
ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem
#创建通道信息
peer channel create -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/channel.tx --tls true --cafile $ORDERER_CA
#看到如下信息说明创建通道成功
2019-06-20 13:05:55.829 UTC [channelCmd] InitCmdFactory -> INFO 001 Endorser and orderer connections initialized
2019-06-20 13:05:55.926 UTC [cli.common] readBlock -> INFO 002 Received block: 0
#将生成的文件移动到channel-artifacts文件夹中
mv mychannel.block channel-artifacts/
4.2加入通道
#因为当前cli容器使用的是peer0的配置,所以可以直接将peer0加入通道
peer channel join -b channel-artifacts/mychannel.block
#更新环境变量使其他节点也加入通道
#=========peer1.org1=========== 注意这里端口要与上面文件中配置的端口号相同
CORE_PEER_ADDRESS=peer1.org1.example.com:8051
#=========peer0.org2============
CORE_PEER_LOCALMSPID="Org2MSP"
CORE_PEER_TLS_ROOTCERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org2.example.com/peers/peer0.org2.example.com/tls/ca.crt
CORE_PEER_MSPCONFIGPATH=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org2.example.com/users/[email protected]/msp
CORE_PEER_ADDRESS=peer0.org2.example.com:9051
peer channel join -b channel-artifacts/mychannel.block
#=========peer1.org2=============
CORE_PEER_ADDRESS=peer1.org2.example.com:10051
peer channel join -b channel-artifacts/mychannel.block
#退出容器
exit
4.3更新锚节点
#重新进入容器
sudo docker exec -it cli bash
#更新环境变量
ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem
#========Org1================
peer channel update -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/Org1MSPanchors.tx --tls true --cafile $ORDERER_CA
#========Org2================
peer channel update -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/Org2MSPanchors.tx --tls true --cafile $ORDERER_CA
#退出容器
exit
4.4安装链码
#链码的安装仍然需要在所有节点上进行操作
#进入容器
sudo docker exec -it cli bash
#更新环境变量
ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem
#=========peer0.org1===========
#这里很有可能会出现路径不存在的错误,解决方法是在容器内找到对应的链码所在位置,然后替换当前链码路径
##比如本文中链码路径为/opt/gopath/src/github.com/chaincode/chaincode_example02/go
##则可以将以下命令的链码路径更改为github.com/chaincode/chaincode_example02
peer chaincode install -n mycc -v 1.0 -p github.com/hyperledger/fabric/examples/chaincode/go/chaincode_example02
#实例化链码 该步骤创建了a,b两个账户,其中a账户余额定义为100,b账户余额定义为200
peer chaincode instantiate -o orderer.example.com:7050 --tls true --cafile $ORDERER_CA -C mychannel -n mycc -v 1.0 -c '"Args":["init","a","100","b","200"]' -P "OR ('Org1MSP.member','Org2MSP.member')"
#这一步执行完毕后可以在其他节点上也安装链码,具体环境变量配置见本文中4.2
4.5调用链码
#以peer0.org1为例
#首先进入cli容器
sudo docker exec -it cli bash
#执行以下命令进行查询a账户余额
peer chaincode query -C mychannel -n mycc -c '"Args":["query","a"]'
#如果命令行输出100说明链码成功调用.
#接下来我们发起一笔交易:通过peer0.org1节点将a账户余额转账给b20
peer chaincode invoke -o orderer.example.com:7050 --tls true --cafile $ORDERER_CA -C mychannel -n mycc -c '"Args":["invoke","a","b","10"]'
#然后登陆peer1.org1节点进行查询
CORE_PEER_ADDRESS=peer1.org1.example.com:8051
peer chaincode query -C mychannel -n mycc -c '"Args":["query","a"]'
#如果输出结果为:80
说明Fabric网络手动搭建成功
#退出容器
exit
最后关闭网络:
sudo docker-compose -f docker-compose-cli.yaml down --volumes
#删除生成的文件,下次启动网络需要重新生成
sudo rm -r channel-artifacts crypto-config
5总结
本文并没有使用CouchDb作为fabric网络的数据库,准备放到下一篇多机搭建Fabric网络中一起讲解。到这里,整个网络的手动搭建过程已经完成,希望大家能够有所收获。
以上是关于fabric解析的主要内容,如果未能解决你的问题,请参考以下文章