搭建实用深度学习环境(Ubuntu16.10+Theano0.8.2+Tensorflow0.11.0rc1+Keras1.1.0)

在动手安装之前,首先要确定硬件,系统,准备安装软件的版本,确定这些软硬件之间是否相互支持或兼容。本文安装的主要环境和软件如下:

Ubuntu16.10+CUDA8.0(cudnn5.1,CNMEM)+Theano0.8.2+Tensorflow0.11.0rc1+Keras1.1.0

显卡型号为Quadro K6000

 

深度学习的另外一个比较常用的开发环境是CAFFE,由于之前的很多大牛基于CAFFE做了很多注明的模型,且已经发布到网上,故这套框架更适合于应用。但CAFFE安装起来异常复杂,需要安装非常多的依赖库,以及OpenCv等软件。而且CAFFE框架比较死板,很难修改,个人认为不太适合科研。故本文不涉及CAFFE相关内容。

 

首先,感谢运维小哥帮我安装ubuntu16.10系统。进入系统后,打开终端,开始安装操作。注意,下面操作命令通常要加sudo,如果切换到超级用户则不需要加。

 

1.   安装编译环境

主要是makecmake, gccg++,这是linux下最基本的开发环境,有些机器是安装好的,就不用装了。运行每一句终端显示都有反馈,可以根据反馈确定安装是否成功。

sudo apt-get install build-essential

apt install cmake

 

gcc最新版本是6.2,但CUDA8.0不支持5.0以上版本,需要将版本降低到4.9,下面通过update-alternatives来进行软件版本切换:

sudo apt-get install g++-4.9  

sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-4.9 20  

sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-6 10  

sudo update-alternatives --install /usr/bin/g++ g++ /usr/bin/g++-4.9 20  

sudo update-alternatives --install /usr/bin/g++ g++ /usr/bin/g++-6 10  

sudo update-alternatives --install /usr/bin/cc cc /usr/bin/gcc 30  

sudo update-alternatives --set cc /usr/bin/gcc  

sudo update-alternatives --install /usr/bin/c++ c++ /usr/bin/g++ 30  

sudo update-alternatives --set c++ /usr/bin/g++  

通过 gcc –v可以查询gcc版本,确定是4.9

 

2.   安装CUDA

CUDANvidia公司开发的,基于GPU的并行计算环境,几乎是做深度学习不可或缺的工具,加速效果非常明显。以一个基于Theano的深度模型训练程序为例,普通i5 CPU跑一个epoch需要约80分钟;采用GTX705显卡(48CUDA核心)加速,跑一个epoch需要约12分钟;采用Quadro K6000显卡(2880CUDA核心)加速,跑一个epoch仅需要约2分钟。

 

a)     准备工作

如果安装了用户界面,需要停止X server

sudo /etc/init.d/lightdm stop

sudo /etc/init.d/lightdm status

 

停止系统自带驱动

sudo vim /etc/modprobe.d/blacklist-nouveau.conf

在最后加入一行blacklist nouveau保存,更新一下

sudo update-initramfs -u

重启,通过如下命令确定nouveau被停用,如果返回值为空说明成功。

lsmod | grep nouveau

 

b)     CUDA包安装

下载cuda_8.0.44_linux.run,我是通过本地下载,通过ftp传到服务器,进入其所在目录,终端中运行:

sh cuda_8.0.44_linux.run

按提示逐步做选择,安装即可。如果之前没有单独安装nvidia的驱动,可以直接在这里选择安装;如果已经安装,则在安装过程中跳过,直接安装cudasamples

 

安装完成后,需要将CUDA的相关路径加入系统路径,用vim打开 ~/.bashrc 文件

vim ~/.bashrc

在文件未尾,加入如下语句来使设置生效:

export PATH=$PATH:/usr/local/cuda/bin

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib64

 

c)      测试CUDA

进入samples所在路径,make

cd /usr/local/cuda/samples

sudo make all -j8

cd bin/x86_64/linux/release/

./deviceQuery

查询出设备信息说明CUDA安装成功

 

至此,基本的CUDA环境已经完成,但还有两个库可以让计算加速效果更明显,它们是cudnncnmem

 

d)     安装cudnn

cudnnNvida专门针对深度神经网络开发的加速包,一定要注意,一些低端的显卡,如GTX580,670,705等不支持cudnn。同时也要注意,cudnn的版本要与CUDA的版本兼容。

下载cudnn-8.0-linux-x64-v5.1.solitairetheme8,解压

cp  cudnn-8.0-linux-x64-v5.1.solitairetheme8 cudnn-8.0-linux-x64-v5.1.tgz

tar -xvf cudnn-8.0-linux-x64-v5.1.tgz

进入解压目录,分别复制h文件和lib文件到cuda的响应目录,进入include目录

sudo cp cudnn.h /usr/local/cuda/include/

再进入lib64目录下的动态文件进行复制和链接:

sudo cp lib* /usr/local/cuda/lib64/

目前的Theano版本与cudnn5.0是兼容的,推荐安装5.0版本。

 

e)     安装CNMEM

进入安装目录

cd $mydir

git clone https://github.com/NVIDIA/cnmem.git cnmem

cd cnmem

mkdir build

cd build

cmake ..

make

cd ../include

cp cnmem.h /usr/local/cuda/include

cd ../build

cp libcnmem /usr/local/cuda/lib64

 

3.   安装theano

先安装pip,然后安装theanotheano安装过程中会自动安装numpyscipy

sudo apt install python-pip

pip install theano

 

创建~/.theanorc,内容如下

[global]  

floatX=float32  

device=gpu  

base_compiledir=~/external/.theano/  

allow_gc=False  

warn_float64=warn  

[mode]=FAST_RUN  

  

[nvcc]  

fastmath=True  

  

[cuda]  

root=/usr/local/cuda  

 

[lib]

cnmem=1

 

在终端中输入python

>>> import theano

输出正常说明安装成功。

 

4.   安装Tensorflow

如果之前没有安装好python,运行:

sudo apt-get install python-pip python-dev

pip安装tensorflow

sudo pip install --upgrade https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.11.0rc1-cp27-none-linux_x86_64.whl

因为墙的原因,可能会失败,需要多试几次

 

测试tensorflow

在终端中输入python

>>> import tensorflow as tf
>>> hello = tf.constant('Hello, TensorFlow!')
>>> sess = tf.Session()
>>> print sess.run(hello)
Hello, TensorFlow!
>>> a = tf.constant(10)
>>> b = tf.constant(32)
>>> print sess.run(a+b)
42

 

5.   安装Keras

Keras之前是以Theano为后台,现在的新版本是以tensorflow为后台的。所以我们要先装好theanotensorflow之后,最后安装keras

sudo pip install keras

对,就这一句话应该就搞定了。安装完成后,在终端输入python

from keras.models import Sequential

输出正常说明安装成功。

 

 

至此,一个比较实用的最新版本深度学习环境就完成了。上述这些软件目前更新非常快,很有可能几个月后就会出现更新版本。安装过程中遇到任何问题,尽量去读官方的安装和说明文档,网络博客,微信上的信息都有一定时效性,包括我这一篇。

在动手安装之前,首先要确定硬件,系统,准备安装软件的版本,确定这些软硬件之间是否相互支持或兼容。本文安装的主要环境和软件如下:

Ubuntu16.10+CUDA8.0(cudnn5.1,CNMEM)+Theano0.8.2+Tensorflow0.11.0rc1+Keras1.1.0

显卡型号为Quadro K6000

 

深度学习的另外一个比较常用的开发环境是CAFFE,由于之前的很多大牛基于CAFFE做了很多注明的模型,且已经发布到网上,故这套框架更适合于应用。但CAFFE安装起来异常复杂,需要安装非常多的依赖库,以及OpenCv等软件。而且CAFFE框架比较死板,很难修改,个人认为不太适合科研。故本文不涉及CAFFE相关内容。

 

首先,感谢运维小哥帮我安装ubuntu16.10系统。进入系统后,打开终端,开始安装操作。注意,下面操作命令通常要加sudo,如果切换到超级用户则不需要加。

 

1.   安装编译环境

主要是makecmake, gccg++,这是linux下最基本的开发环境,有些机器是安装好的,就不用装了。运行每一句终端显示都有反馈,可以根据反馈确定安装是否成功。

sudo apt-get install build-essential

apt install cmake

 

gcc最新版本是6.2,但CUDA8.0不支持5.0以上版本,需要将版本降低到4.9,下面通过update-alternatives来进行软件版本切换:

sudo apt-get install g++-4.9  

sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-4.9 20  

sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-6 10  

sudo update-alternatives --install /usr/bin/g++ g++ /usr/bin/g++-4.9 20  

sudo update-alternatives --install /usr/bin/g++ g++ /usr/bin/g++-6 10  

sudo update-alternatives --install /usr/bin/cc cc /usr/bin/gcc 30  

sudo update-alternatives --set cc /usr/bin/gcc  

sudo update-alternatives --install /usr/bin/c++ c++ /usr/bin/g++ 30  

sudo update-alternatives --set c++ /usr/bin/g++  

通过 gcc –v可以查询gcc版本,确定是4.9

 

2.   安装CUDA

CUDANvidia公司开发的,基于GPU的并行计算环境,几乎是做深度学习不可或缺的工具,加速效果非常明显。以一个基于Theano的深度模型训练程序为例,普通i5 CPU跑一个epoch需要约80分钟;采用GTX705显卡(48CUDA核心)加速,跑一个epoch需要约12分钟;采用Quadro K6000显卡(2880CUDA核心)加速,跑一个epoch仅需要约2分钟。

 

a)     准备工作

如果安装了用户界面,需要停止X server

sudo /etc/init.d/lightdm stop

sudo /etc/init.d/lightdm status

 

停止系统自带驱动

sudo vim /etc/modprobe.d/blacklist-nouveau.conf

在最后加入一行blacklist nouveau保存,更新一下

sudo update-initramfs -u

重启,通过如下命令确定nouveau被停用,如果返回值为空说明成功。

lsmod | grep nouveau

 

b)     CUDA包安装

下载cuda_8.0.44_linux.run,我是通过本地下载,通过ftp传到服务器,进入其所在目录,终端中运行:

sh cuda_8.0.44_linux.run

按提示逐步做选择,安装即可。如果之前没有单独安装nvidia的驱动,可以直接在这里选择安装;如果已经安装,则在安装过程中跳过,直接安装cudasamples

 

安装完成后,需要将CUDA的相关路径加入系统路径,用vim打开 ~/.bashrc 文件

vim ~/.bashrc

在文件未尾,加入如下语句来使设置生效:

export PATH=$PATH:/usr/local/cuda/bin

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib64

 

c)      测试CUDA

进入samples所在路径,make

cd /usr/local/cuda/samples

sudo make all -j8

cd bin/x86_64/linux/release/

./deviceQuery

查询出设备信息说明CUDA安装成功

 

至此,基本的CUDA环境已经完成,但还有两个库可以让计算加速效果更明显,它们是cudnncnmem

 

d)     安装cudnn

cudnnNvida专门针对深度神经网络开发的加速包,一定要注意,一些低端的显卡,如GTX580,670,705等不支持cudnn。同时也要注意,cudnn的版本要与CUDA的版本兼容。

下载cudnn-8.0-linux-x64-v5.1.solitairetheme8,解压

cp  cudnn-8.0-linux-x64-v5.1.solitairetheme8 cudnn-8.0-linux-x64-v5.1.tgz

tar -xvf cudnn-8.0-linux-x64-v5.1.tgz

进入解压目录,分别复制h文件和lib文件到cuda的响应目录,进入include目录

sudo cp cudnn.h /usr/local/cuda/include/

再进入lib64目录下的动态文件进行复制和链接:

sudo cp lib* /usr/local/cuda/lib64/

目前的Theano版本与cudnn5.0是兼容的,推荐安装5.0版本。

 

e)     安装CNMEM

进入安装目录

cd $mydir

git clone https://github.com/NVIDIA/cnmem.git cnmem

cd cnmem

mkdir build

cd build

cmake ..

make

cd ../include

cp cnmem.h /usr/local/cuda/include

cd ../build

cp libcnmem /usr/local/cuda/lib64

 

3.   安装theano

先安装pip,然后安装theanotheano安装过程中会自动安装numpyscipy

sudo apt install python-pip

pip install theano

 

创建~/.theanorc,内容如下

[global]  

floatX=float32  

device=gpu  

base_compiledir=~/external/.theano/  

allow_gc=False  

warn_float64=warn  

[mode]=FAST_RUN  

  

[nvcc]  

fastmath=True  

  

[cuda]  

root=/usr/local/cuda  

 

[lib]

cnmem=1

 

在终端中输入python

>>> import theano

输出正常说明安装成功。

 

4.   安装Tensorflow

如果之前没有安装好python,运行:

sudo apt-get install python-pip python-dev

pip安装tensorflow

sudo pip install --upgrade https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.11.0rc1-cp27-none-linux_x86_64.whl

因为墙的原因,可能会失败,需要多试几次

 

测试tensorflow

在终端中输入python

>>> import tensorflow as tf
>>> hello = tf.constant('Hello, TensorFlow!')
>>> sess = tf.Session()
>>> print sess.run(hello)
Hello, TensorFlow!
>>> a = tf.constant(10)
>>> b = tf.constant(32)
>>> print sess.run(a+b)
42

 

5.   安装Keras

Keras之前是以Theano为后台,现在的新版本是以tensorflow为后台的。所以我们要先装好theanotensorflow之后,最后安装keras

sudo pip install keras

对,就这一句话应该就搞定了。安装完成后,在终端输入python

from keras.models import Sequential

输出正常说明安装成功。

 

至此,一个比较实用的最新版本深度学习环境就完成了。上述这些软件目前更新非常快,很有可能几个月后就会出现更新版本。安装过程中遇到任何问题,尽量去读官方的安装和说明文档,网络博客,微信上的信息都有一定时效性,包括我这一篇。

转载于:https://www.cnblogs.com/dataman/p/6285634.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/402298.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Statspack安装心得

一,在win7下应该以管理员身份运行,sqlplusw 二,安装前要要执行如下代码,创建表空间 SQL> create tablespace perfstat 2datafile d:\oracle\oradata\eygle\perfstat.dbf 3size 500M 4extent management local; eygle为你的数据…

Linux 系统应用编程——网络编程(基础篇)

一、网络体系结构 1、OSI模型和TCP/IP 模型 网络体系结构指的是网络的分层结构以及每层使用的协议的集合。其中最著名的就是OSI协议参考模型,他是基于国际标准化组织(OSI)的建议发展起来的。它分为7个层次:应用层、表示层、会话层…

函数的定义与调用

1.理解函数 函数是一段代码块,它只定义一次,但可以被执行或调用任意次。函数可以有参数,实参(argument)和形参(parameter),实参是在运行时的函数调用时传入的参数,形参是…

C++中函数的默认参数

使用方法: (1)在函数声明或定义时,直接对参数赋值,该参数就是默认参数。(2)在函数调用时,省略部分或全部参数,这时就会使用默认参数进行代替。注意事项: &…

Linux 系统应用编程——网络编程(socket编程)

二、网络编程基础 1、套接字概述 套接字就是网络编程的ID。网络通信,归根到底还是进程间的通信(不同计算机上的进程间的通信)。在网络中,每一个节点(计算机或路由器)都有一个网络地址,也就是IP地…

Linux 代码格式化工具 indent

以下是我最喜欢的代码格式化脚本&#xff1a; #!/bin/shif [ $# -lt 1 ]; thenecho "Usage: $0 <file>"exit 1fi# format a source file(*.c, *.h)formatSrcfile(){indent -npro -nip -lp -npsl -npcs -i4 -ts4 -sob -l140 -ss -nsaf -nsai -nsaw -bl -bli 0 $…

Android处理ListView中的Item中的Button按钮不能点击的问题

问题描述&#xff1a;ListView列表中的Button按钮按钮不能点击 解决办法&#xff1a;在ListView中的Item项的布局文件中加上&#xff1a;android:descendantFocusability"blocksDescendants"&#xff0c;问题解决。

php curl拉取远程图片

<?php $url "图片绝对地址/thumbnail.jpg"; $filename curl.jpg; getImg($url, $filename); /**通过curl方式获取制定的图片到本地* 完整的图片地址* 要存储的文件名*/ function getImg($url "", $filename "") {if(is_dir(basename($fi…

Linux 下 NFS服务的搭建

NFS是Network File System的简写&#xff0c;即网络文件系统。 网络文件系统是许多操作系统都支持的文件系统中的一种&#xff0c;也被成为NFS。NFS允许一个系统在网络上与他人共享目录和文件。通过使用NFS&#xff0c;用户可以像访问本地文件一样访问远端系统上的文件。 NFS所…

GCC 参数详解

From: http://www.cppblog.com/SEMAN/archive/2005/11/30/1440.html 先附上三篇相关文章&#xff1a; LINUX下的C编译器GCC简介 linux上的C/C编译器gcc/egcs详解 gcc和g的区别(很详细的描述) [介绍] gcc and g分别是gnu的c & c编译器 gcc/g在执行编译工作的时候&#…

电子客票状态整理

1.OPEN FOR USE&#xff1a;客票有效 2.VOID&#xff1a;已作废 3.REFUND&#xff1a;已退票 4.CHECK IN&#xff1a;正在办理登机 5.USED/FLOWN&#xff1a;客票已使用 6.SUSPENDED&#xff1a;系统处理&#xff0c;或人为挂起禁止使用该票 7.PRINT/EXCH&#xff1a;电子客票已…

Linux 系统应用编程——线程基础

传送门&#xff1a;Linux多线程编程实例解析 . linux多线程编程——同步与互斥 . 传统多任务操作系统中一个可以独立调度的任务&#xff08;或称之为顺序执行流&#xff09;是一个进程。每个程序加载到内存后只可以唯一地对应创建一个顺序执行流&#xff0c;即传统意义的进程。…

利用indent格式化源文件的脚本

脚本一&#xff1a;格式化指定目录下的源文件(*.h, *.cpp...) #!/bin/sh# 格式化某目录下所有*.h, *.c, *.cpp, *.hh文件, 并将文件换行符转换成Linux下的格式if [ $# -lt 1 ]; thenecho "Usage: $0 <dir>"exit 1elsedir$1fi# format a source file(*.c, *.h,…

apple mach-o linker (id) error

在网上查了下&#xff0c;有网友说是因为有变量重名&#xff0c;仔细检查了下代码&#xff0c;UIGraphicsEndImageContext()写成uigraphicsendimagecontext()了&#xff0c;改过来就编译通过了。转载于:https://www.cnblogs.com/cc-Cheng/p/3341242.html

Struts入门(三)深入Struts用法讲解

访问Servlet APIAction搜索顺序动态方法调用指定多个配置文件默认ActionStruts 后缀接收参数处理结果类型1.访问Servlet API 首先我们了解什么是Servlet API httpRequest、httpResponse、servletContext  3个api对应jsp面向对象&#xff1a;request、response、application …

linux errno定义

以下内容来自于Ubuntu系统&#xff0c;请看执行情况&#xff1a; [zcmasm-generic #6]$pwd /usr/include/asm-generic [zcmasm-generic #7]$ls errno* -lh -rw-r--r-- 1 root root 1.6K Jun 19 2013 errno-base.h -rw-r--r-- 1 root root 5.2K Jun 19 2013 errno.h [zcmasm-g…

linux多线程编程——同步与互斥

一、 为什么要用多线程技术&#xff1f; 1、避免阻塞&#xff0c;大家知道&#xff0c;单个进程只有一个主线程&#xff0c;当主线程阻塞的时候&#xff0c;整个进程也就阻塞了&#xff0c;无法再去做其它的一些功能了。 2、避免CPU空转&#xff0c;应用程序经常会涉及到RPC&am…

黑马程序员_泛型

--------------------ASP.NetAndroidIOS开发、.Net培训、期待与您交流&#xff01; -------------------- 1. 泛型 1.概述 泛型是为了解决了集合中存储对象安全问题&#xff0c;如果集合中存数了不同类型的对象&#xff0c;那么读取出来后&#xff0c;操作取出的对象以为不…

菜鸟成长记(十一)----- 操蛋的2016与未知的2017

现在已经2017.1.16号了&#xff0c;早就说着要写篇总结&#xff0c;骂骂特么操蛋的自己&#xff0c;当然这两三年来在这里骂的真特么不在少数了&#xff0c;但是都是特么一拖再拖&#xff0c;刚刚明明是在看TPO阅读的&#xff0c;但是特么实在是无法集中精神的看&#xff0c;作…

VS.NET版本与VC版本对应关系

vc6 -> vc6vs2003 -> vc7vs2005 -> vc8vs2008 -> vc9vs2010 -> vc10vs2012 -> vc11vs2013 -> vc12仅供参考&#xff01;