Neutube 搭建tips(含缺少libfftw3-3.dll解决方案)

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Neutube 搭建tips(含缺少libfftw3-3.dll解决方案)相关的知识,希望对你有一定的参考价值。

参考技术A

Qt creator 4.5

  

 Qt version:4.8.7

  

 先看第二步github,neurolabi->compile windows这个文件。

  

 注意到mingw是64位的,之前每次build都会出现缺少libfftw3-3.dll的提示,注意最好都用64位文件

  

 附上丢失的傅里叶变换

  

 链接: https://pan.baidu.com/s/1skNJXRR

  密码:t9ql

                                          

 neurolabi->compile windows->参照这个步骤做下来,现在的软件只有第一步里的awk需要自己include相应目录下的bin,添加到系统环境变量。添加完环境变量重启才可生效。

  

 3.第五步qmake之前添加好就不需要另外配置,一般Kits可以自动生成。

  

 (1)找到VC目录下的lib.exe,把第一步得到的三个.def复制到lib.exe相同目录下,注意不可移动lib.exe不然命令行进入无效。

  

 命令行要以管理员身份运行,否则无法cd到相应目录。如我的电脑就是cd到VS 2013->VC->bin

  

 (2)lib /def:libfftw3l-3.def-》lib /machine:x64 /def:libfftw3l-3.def

  

 lib /def:libfftw3-3.def-》lib /machine:x64 /def:libfftw3-3.def

  

 lib /def:libfftw3f-3.def-》lib /machine:x64 /def:libfftw3f-3.def

  

 因为的我是mingw64,不是mingw32,所以用的是64位的命令行,32位的同学用》之前的。

  

 (3)注意我们针对的是minGW调用FFTW的方式,想配置VS 2013+FFTW请查看其他教程。

  

 (4)剩余操作参考这篇博文: http://blog.csdn.net/wwoll/article/details/52960415 

  

 其中提到的.lib三个文件都生成了,加到pro相同目录下;

  

 .h文件提供的网盘链接里有;

  

 做完博文里的前三步就可以build先了

  

 .dll在你Qt creator build以后生成的文件夹里,最好三个.dll都加进来。

  

 如我加到了“D:\\NeuTu\\neurolabi\\build-gui-unknown-Debug”和“D:\\NeuTu\\neurolabi\\build-gui-unknown-Debug\\debug”

  

 最后开心的点一下“D:\\NeuTu\\neurolabi\\build-gui-unknown-Debug\\debug”目录下的.exe。

  

 大功告成!

搭建Hadoop集群Tips

6 HDFS安装过程

1)解压安装包

root@master:/usr/local# tar -zxvf hadoop-2.4.0.tar.gz

如果不是使用root用户解压,建议使用chown修改文件夹属性(比如当前用户为xiaoming)

xiaoming@master:/usr/local# sudo chown -R xiaoming:xiaoming hadoop

如果集群是64位操作系统,需要替换lib/native文件夹,否则会出现警告提示

2)修改配置文件

主要涉及的配置文件有7个:

/usr/local/hadoop/etc/hadoop/hadoop-env.sh
/usr/local/hadoop/etc/hadoop/yarn-env.sh
/usr/local/hadoop/etc/hadoop/slaves
/usr/local/hadoop/etc/hadoop/core-site.xml
/usr/local/hadoop/etc/hadoop/hdfs-site.xml
/usr/local/hadoop/etc/hadoop/mapred-site.xml
/usr/local/hadoop/etc/hadoop/yarn-site.xml

分两步安装,首先配置HDFS,然后配置YARN

配置HDFS需要修改文件包括hadoop-env.sh、slaves、core-site.xml和hdfs-site.xml

2.1)修改hadoop-env.sh

在文件底部添加

export JAVA_HOME=/usr/local/java/jdk1.7.0_79

2.2)修改slaves

slaves文件主要是设置从节点的名称

slave1
slave2
slave3
slave4

2.3)修改core-site.xml

参考官网文档在<Configuration></Configuration>中添加设置

  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://master:8020</value>
    <final>true</final>
  </property>
  <property>
    <name>io.file.buffer.size</name>
    <value>131072</value>
  </property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>

2.4)修改hdfs-site.xml

参考官网文档在<Configuration></Configuration>中添加设置

在NameNode中添加

<property>
    <name>dfs.namenode.name.dir</name>
    <value>/usr/local/hadoop/dfs/name</value>
  </property>
  <property>
    <name>dfs.blocksize</name>
    <value>67108864</value>
  </property>
  <property>
    <name>dfs.namenode.handler.count</name>
    <value>100</value>
  </property>
  <property>
    <name>dfs.namenode.hosts</name>
    <value>slave1,slave2,slave3,slave4</value>
  </property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>

在DataNode中添加

  <property>
    <name>dfs.datanode.data.dir</name>
    <value>/usr/local/hadoop/dfs/data</value>
  </property>

2.5)格式化HDFS

root@master:/usr/local/hadoop# hdfs namenode -format

2.6)启动集群

可以通过~/sbin/start-dfs.sh启动集群,也可以通过hadoop-daemon.sh start datanode单独启动各个节点

root@master:/usr/local/hadoop# start-dfs.sh

NameNode上jps命令

root@master:/usr/local/hadoop/sbin# jps
4760 NameNode
5103 SecondaryNameNode
13518 Jps

DataNode上jps命令

root@slave1:/usr/local/hadoop/sbin# jps
7258 Jps
3042 DataNode

2.7)上传文件

新建两个文本文件

root@master:/usr/local/hadoop# echo "hello world" >> file1
root@master:/usr/local/hadoop# echo "hello hadoop" >> file2

上传到HDFS

root@master:/usr/local/hadoop# hdfs dfs -put file* /

显示文件信息

root@master:/usr/local/hadoop# hdfs dfs -ls /
Found 2 items
-rw-r--r--   3 root supergroup         12 2016-06-02 20:02 /file1
-rw-r--r--   3 root supergroup         13 2016-06-02 20:02 /file2

 

以上是关于Neutube 搭建tips(含缺少libfftw3-3.dll解决方案)的主要内容,如果未能解决你的问题,请参考以下文章

启动Tecplot3602011时弹出:无法启动此程序,因为计算机中丢失libfftw-3dll.尝试重新安装以解决此问题.

搭建Hadoop集群Tips

搭建Hadoop集群Tips

搭建Hadoop集群Tips

tip笔记-虚拟化环境搭建定时任务

tip笔记-虚拟化环境搭建定时任务