首页 > TAG信息列表 > numba-pro

删除numba.lowering.LoweringError:内部错误

我正在使用numba来加速我的代码,而没有numba可以正常工作.但是使用@jit之后,它会因以下错误而崩溃: Traceback (most recent call last): File "C:\work_asaaki\code\gbc_classifier_train_7.py", line 54, in <module> gentlebooster.train(X_train, y_train, boosting_roun

python-通过ssh连接在Cuda设备上的NumbaPro

我正在使用Python / NumbaPro在窗口框上使用符合CUDA的GPU.我使用Cygwin作为外壳,并且从cygwin控制台中查找我的CUDA设备没有问题.我用简单的命令测试 numbapro.check_cuda() 但是,当我通过OpenSSH连接到盒子时(作为Cygwin设置的一部分),出现以下错误: numba.cuda.cudadrv.er

python – Anaconda的NumbaPro CUDA断言错误

我正在尝试使用NumbaPro的cuda扩展来增加大型阵列矩阵.我最终想要的是将大小为NxN的矩阵乘以一个对角矩阵,该矩阵将作为一维矩阵输入(因此,a.dot(numpy.diagflat(b))我发现它是一个同义词* b).但是,我收到的断言错误没有提供任何信息. 如果我将两个1D阵列矩阵相乘,我只能避免这个断

python – Anaconda Acclerate / NumbaPro CUDA链接错误OSX

总体目标是使用NumbaPro在GPU上运行某些功能(在OSX 10.8.3上). 在开始之前,我只想设置一切.根据this page我安装了CUDA,注册为CUDA开发人员,下载了Compiler SDK并设置了NUMBAPRO_NVVM = / path / to / libnvvm.dylib环境变量. 但是,运行此基本测试功能: from numbapro import autoj

python – Numba矩阵向量乘法

我正在尝试使用numbapro编写一个简单的矩阵向量乘法: from numbapro import cuda from numba import * import numpy as np import math from timeit import default_timer as time n = 100 @cuda.jit('void(float32[:,:], float32[:], float32[:])') def cu_matrix_vector(A, b,