资讯专栏INFORMATION COLUMN

Windows Theano GPU 版配置

Yu_Huang / 3186人阅读

摘要:因为自己在上的里面第四周的要用到,然后这个似乎是基于后端的。然而版太慢了,跑个马尔科夫蒙特卡洛要个小时,简直不能忍了。为了不把环境搞坏,我在里面新建了一个环境。

因为自己在上Coursera的Advanced Machine Learning, 里面第四周的Assignment要用到PYMC3,然后这个似乎是基于theano后端的。然而CPU版TMD太慢了,跑个马尔科夫蒙特卡洛要10个小时,简直不能忍了。所以妥妥换gpu版。

为了不把环境搞坏,我在Anaconda里面新建了一个环境。(关于Anaconda,可以看我之前翻译的文章)

Conda Create -n theano-gpu python=3.4

(theano GPU版貌似不支持最新版,保险起见装了旧版)

conda install theano pygpu

这里面会涉及很多依赖,应该conda会给你搞好,缺什么的话自己按官方文档去装。

然后至于Cuda和Cudnn的安装,可以看我写的关于TF安装的教程

和TF不同的是,Theano不分gpu和cpu版,用哪个看配置文件设置,这一点是翻博客了解到的:
配置好Theano环境之后,只要 C:Users你的用户名 的路径下添加 .theanorc.txt 文件。

.theanorc.txt 文件内容:

[global]

openmp=False

device = cuda

floatX = float32

base_compiler = C:Program Files (x86)Microsoft Visual Studio 12.0VCin

allow_input_downcast=True 

[lib]

cnmem = 0.75

[blas]

ldflags=

[gcc]

cxxflags=-IC:UserslyhAnaconda2MinGW

[nvcc]

fastmath = True

flags = -LC:UserslyhAnaconda2libs

compiler_bindir = C:Program Files (x86)Microsoft Visual Studio 12.0VCin

flags =  -arch=sm_30

注意在新版本中,声明用gpu从device=gpu改为device=cuda

然后测试是否成功:

from theano import function, config, shared, tensor
import numpy
import time

vlen = 10 * 30 * 768  # 10 x #cores x # threads per core
iters = 1000

rng = numpy.random.RandomState(22)
x = shared(numpy.asarray(rng.rand(vlen), config.floatX))
f = function([], tensor.exp(x))
print(f.maker.fgraph.toposort())
t0 = time.time()
for i in range(iters):
    r = f()
t1 = time.time()
print("Looping %d times took %f seconds" % (iters, t1 - t0))
print("Result is %s" % (r,))
if numpy.any([isinstance(x.op, tensor.Elemwise) and
              ("Gpu" not in type(x.op).__name__)
              for x in f.maker.fgraph.toposort()]):
    print("Used the cpu")
else:
    print("Used the gpu")

输出:

[GpuElemwise{exp,no_inplace}((float32, vector)>), HostFromGpu(gpuarray)(GpuElemwise{exp,no_inplace}.0)]
Looping 1000 times took 0.377000 seconds
Result is [ 1.23178029  1.61879349  1.52278066 ...,  2.20771813  2.29967761
  1.62323296]
Used the gpu

到这里就算配好了

然后在作业里面,显示Quadro卡启用

但是还是有个warning

WARNING (theano.tensor.blas): Using NumPy C-API based implementation for BLAS functions.

这个真不知道怎么处理

然后后面运行到:

with pm.Model() as logistic_model:
    # Since it is unlikely that the dependency between the age and salary is linear, we will include age squared
    # into features so that we can model dependency that favors certain ages.
    # Train Bayesian logistic regression model on the following features: sex, age, age^2, educ, hours
    # Use pm.sample to run MCMC to train this model.
    # To specify the particular sampler method (Metropolis-Hastings) to pm.sample,
    # use `pm.Metropolis`.
    # Train your model for 400 samples.
    # Save the output of pm.sample to a variable: this is the trace of the sampling procedure and will be used
    # to estimate the statistics of the posterior distribution.
    
    #### YOUR CODE HERE ####
    
    pm.glm.GLM.from_formula("income_more_50K ~  sex+age + age_square + educ + hours", data, family=pm.glm.families.Binomial())
    with logistic_model:
        trace = pm.sample(400, step=[pm.Metropolis()]) #nchains=1 works for gpu model
        
    ### END OF YOUR CODE ###

这里出现的报错:

GpuArrayException: cuMemcpyDtoHAsync(dst, src->ptr + srcoff, sz, ctx->mem_s): CUDA_ERROR_INVALID_VALUE: invalid argument

这个问题最后github大神解决了:
So njobs will spawn multiple chains to run in parallel. If the model uses the GPU there will be a conflict. We recently added nchains where you can still run multiple chains. So I think running pm.sample(niter, nchains=4, njobs=1) should give you what you want.
我把:

trace = pm.sample(400, step=[pm.Metropolis()]) #nchains=1 works for gpu model

加上nchains就好了,应该是并行方面的问题

trace = pm.sample(400, step=[pm.Metropolis()],nchains=1, njobs=1) #nchains=1 works for gpu model

另外

plot_traces(trace, burnin=200)

出现pm.df_summary报错,把pm.df_summary 换成 pm.summary就好了,也是github搜出来的。

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/19745.html

相关文章

  • Windows Theano GPU 配置

    摘要:因为自己在上的里面第四周的要用到,然后这个似乎是基于后端的。然而版太慢了,跑个马尔科夫蒙特卡洛要个小时,简直不能忍了。为了不把环境搞坏,我在里面新建了一个环境。 因为自己在上Coursera的Advanced Machine Learning, 里面第四周的Assignment要用到PYMC3,然后这个似乎是基于theano后端的。然而CPU版TMD太慢了,跑个马尔科夫蒙特卡洛要10个...

    thekingisalwaysluc 评论0 收藏0
  • keras环境配置填坑(持续更新)

    摘要:检查目录以及其下的目录是否被添加进环境变量。导入版本时,提示缺少模块,用的函数绘制模型失败八成是没有安装下面两个包里面的无法识别八成是安装了加速版的,此版本支持的核心,把改成进时提示找不到解压直接覆盖目录的文件夹。 L.C.提醒我补上配置的坑 1.配置gpu版本的keras(tensorflow/theano)真xx难!对计算的时间要求不高,就弄个cpu慢吞吞训练算了,怎么安装cpu版...

    VEIGHTZ 评论0 收藏0
  • 在macOS10.12系统上给theano配置GPU加速--Intel显卡

    摘要:首先查了一下,只支持显卡,所以只好放弃了。下一步就是测试是否正常工作。测试性能结果测试性能结果出现如下错误看样子应该是版本不符合。 首先查了一下,cuda只支持Nvida显卡,所以只好放弃了。转而选择gpuarray backend,这个版本还没有release,都是开发版。 根据官网提示,首先你需要先安装cmake、cython、nose等软件和py库。因为我之前安装过cmake,而...

    tabalt 评论0 收藏0
  • 最新Github上各DL框架Star数量大PK

    摘要:下图总结了绝大多数上的开源深度学习框架项目,根据项目在的数量来评级,数据采集于年月初。然而,近期宣布将转向作为其推荐深度学习框架因为它支持移动设备开发。该框架可以出色完成图像识别,欺诈检测和自然语言处理任务。 很多神经网络框架已开源多年,支持机器学习和人工智能的专有解决方案也有很多。多年以来,开发人员在Github上发布了一系列的可以支持图像、手写字、视频、语音识别、自然语言处理、物体检测的...

    oogh 评论0 收藏0
  • 在腾讯云上搭建 Tensorflow for GPU 深度学习环境 —— Jinkey 原创

    摘要:登录之后,看看输入查看你的版本,企鹅云用的是所以教程的相关依赖我都会下载版本的下载依赖依赖可以直接通过下载到主机上,也可以先下载到本地再通过或上传。 原文链接 https://jinkey.ai/post/tech/z...本文作者 Jinkey(微信公众号 jinkey-love,官网 https://jinkey.ai)文章允许非篡改署名转载,删除或修改本段版权信息转载的,视为侵犯...

    wujl596 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<