首页 > TAG信息列表 > gpu

使用taichi.js进行WebGPU编程

模拟让我们使用taichi.js深入了解生命游戏的实现。首先,我们在速记ti下导入taichi.js库,并定义一个async main()函数,该函数将包含我们所有的逻辑。在main()我们从调用ti.init()开始,它初始化库及其WebGPU上下文。从“path/to/taichi.js”导入*作为tilet main = async () =>

Direct3D初始化

何为Direct3D 12? 一组底层应用程序接口,可以对GPU进行控制和编程。凭此即可以硬件加速的方式渲染出3D场景 Direct3D流程 创建windows窗口 Direct3D初始化 消息循环 渲染图形 应用程序结束,清除COM对象,程序退出 COM对象接口 一种令DirectX不受编程语言限制,使之向后兼容的技

GPU性能到制程工艺技术

GPU性能到制程工艺技术 参考文献链接 https://mp.weixin.qq.com/s/gyLzQhW0mZxKXtCUau3ScQ https://mp.weixin.qq.com/s/-4Xz6gfV8UKx9M2LB_r5Aw https://mp.weixin.qq.com/s/BrkOM1CjeUDtK3ux4tVckA https://mp.weixin.qq.com/s/wWCxTwibJ70Da-OdfwCYlw 消费级GPU运行1760亿参数

Tensorflow如何使用GPU训练(笔记)

参考:https://blog.csdn.net/qq_31554953/article/details/107302404 Tensorflow和tf.keras 模型可以在单个GPU上透明运行,而无需更改。 注意:(1)需要使用tf.config.experimental.list_physical_devices('GPU')确认使用的tensorflow可以使用GPU。 (2)在一台机器上运行多个GPU,或者在多台机

关于配置gpu环境那些事儿

我自闭了,在我不长的工作生涯中,我认为最困难的部分就是配置环境了。因为我快被配置gpu环境给搞疯了。 事情是这样的,最近搞我的bert的模型,领导说你在gpu上测试一下效率,我说:好的。 然而我本地电脑并没有cuda,然后我就开始了配置环境的漫漫长路。 我首先看了一下我电脑的显卡驱动版本,嗯

GPU A10 driver 安装

GPU A10 driver 安装 环境 HOST: ubuntu804LTS GUST: 通过PCIE 透卡, KVM 虚拟机: ubuntu1804LTS 在gust 里面安装GPU driver 安装 步骤 NVIDIA Telsa GPU 的 Linux 驱动在安装过程中需要编译 kernel module,系统需提前安装 gcc 和编译 Linux Kernel Module 所依赖的包,例如 kernel

GPU 利用率低常见原因分析及优化

一、GPU 利用率的定义 本文的 GPU 利用率主要指 GPU 在时间片上的利用率,即通过 nvidia-smi 显示的 GPU-util 这个指标。统计方式为:在采样周期内,GPU 上面有 kernel 执行的时间百分比。 二、GPU 利用率低的本质 常见 GPU 任务运行流程图如下:   如上图所示,GPU 任务会交替的使用 CP

WebGPU光追引擎基础课:课程介绍

大家好~我开设了“WebGPU光追引擎基础课”的线上课程,从0开始,在课上带领大家现场写代码,使用WebGPU开发基础的光线追踪引擎 课程重点在于基于GPU并行计算,实现BVH构建和遍历 本课程使用自主开发的Meta3D低代码开发平台来开发和共享老师和学生的代码,方便大家自由分享 线上课程资料: 本

unityshader_01

第一章 渲染流水线 1.1渲染流水线 1.1.1现实中流水线在工业上,流水线被广泛应用在装配线上。假设,老王有一个生产洋娃娃的工厂,一个洋娃娃的生产流程可以分为4个步骤:在流水线出现之前,只有在每个洋娃娃完成了所有这4个工序后才能开始制作下一个洋娃娃。但后来人们发现了一个更加有效的

汽车芯片-云端芯片-GPU技术

汽车芯片-云端芯片-GPU技术 参考文献链接 https://mp.weixin.qq.com/s/9uz54KvN3EmeExmO2FVj3g https://mp.weixin.qq.com/s/tB7kwXnWqhQt4DGaP6TlMw https://mp.weixin.qq.com/s/pr3CJOflwP38t1NO_vzuqw https://mp.weixin.qq.com/s/bWB7mZcdVMzvV7ApYNedEg https://mp.weixin.qq

Ubuntu1604从0安装CUDA

港澳 2020年12月31日 目录通过安装CUDA来安装驱动先安装驱动禁用第三方驱动、卸载初始驱动、关闭图形界面再安装CUDA卸载CUDA安装Tensorflow安装VSCode和Requirements包InternalError: Dst tensor is not initialized实时监测GPU状态demo运行结果重要参考 通过安装CUDA来安装驱动

GPU多卡训练torch模型

用命令即可: python3 -m torch.distributed.launch --nproc_per_node 8 train.py 或者 使用Accelerator: https://huggingface.co/docs/transformers/v4.21.2/en/accelerate  

利用GPU实现大规模动画角色的渲染

方案一:去除Animation将动画变成顶点动画 +  GPU Instancing https://indienova.com/indie-game-development/using-the-gpu-to-achieve-large-scale-animation-character-rendering/ https://catlikecoding.com/unity/tutorials/custom-srp/draw-calls/#2.3   方案二:将骨骼烘焙

TensorFlow和CUDA、cudnn以及Pytorch对应版本对照表

TensorFlow和CUDA、cudnn以及Pytorch对应版本对照表 CUDA下载地址 CUDNN下载地址 torch下载 一、TensorFlow对应版本对照表 版本 Python 版本 编译器 cuDNN CUDA tensorflow-2.9.0 3.7-3.10 8.1 11.2 tensorflow-2.8.0 3.7-3.10 8.1 11.2 tensorflow-2.7.0 3.7-3.9

基于Anacoda搭建虚拟环境cudnn6.0+cuda8.0+python3.6+tensorflow-gpu1.4.0

!一定要查准cudnn,cuda,tensorflow-gpu对应的版本号再进行安装,且本文一切安装均在虚拟环境中完成。 下文以笔者自己电脑为例,展开安装教程阐述(省略anaconda安装教程): 1.查询电脑CUDA版本  2. 确认对应的cudnn,cuda,tensorflow-gpu版本号(链接) 3.如果先前安装过tensorflow-gpu,先卸载(没有

KeyShot Pro for Mac(3D模型渲染软件)中文版

KeyShot Pro for mac是一款功能强大的3D模型渲染软件,keyshort渲染漆器帮助你更好的创建3D渲染动画。其中KeyShot的GPU模式可用于实时渲染和本地渲染输出,一键访问GPU资源,从而利用多GPU性能扩展和支持NVIDIA RTX的GPU中的专用光线跟踪加速硬件。 软件下载地址:KeyShot Pro for Mac(3

PyTorch中的CUDA操作

  CUDA(Compute Unified Device Architecture)是NVIDIA推出的异构计算平台,PyTorch中有专门的模块torch.cuda来设置和运行CUDA相关操作。本地安装环境为Windows10,Python3.7.8和CUDA 11.6,安装PyTorch最新稳定版本1.12.1如下: pip3 install torch torchvision torchaudio --extra-in

Docker部署GPU模型服务

Docker部署GPU模型服务 GPU 设置 Nvidia 开启GPU的持久模式 nvidia-smi -pm 1 添加docker 插件 # 不是ubuntu 18.04 这里要需要改 curl -s -L https://nvidia.github.io/nvidia-docker/ubuntu18.04/nvidia-docker.list | tee /etc/apt/sources.list.d/nvidia-docker.list sudo a

GPU后台使用参数

(94条消息) 查看linux下的GPU状态和使用情况_淘气菇凉的博客-CSDN博客_linux查看显卡使用情况 Fan:显示风扇转速,数值在0到100%之间,是计算机的期望转速,如果计算机不是通过风扇冷却或者风扇坏了,显示出来就是N/A;Temp:显卡内部的温度,单位是摄氏度;Perf:表征性能状态,从P0到P12,P0表示最大性

pytorch环境下查看gpu是否可用

(36条消息) yolov5设置GPU - CSDN python #输入库 import torch #查看版本 print(torch.__version__) #查看gpu是否可用 torch.cuda.is_available() #返回设备gpu个数 torch.cuda.device_count() #退出python quit()  

Filed Play:简介

目录 引子 What? How this project works? Float packing 参考资料 引子 在尝试数学函数可视化的时候,发现了一个有趣的库 Field Play ,对 README 中的说明进行部分翻译记录,做个初步了解。 Origin My GitHub What? 让我们为网格上的每个点指定一个向量 (1, 0) 。这意味着我们

ffmpeg

win环境下使用ffmpeg 转码视频 使用gpu加速转码过程 安装ffmpeg ...... 安装显卡支持 参考自https://blog.csdn.net/y534560449/article/details/121539699 查看显卡是否支持CUDA https://developer.nvidia.com/video-encode-and-decode-gpu-support-matrix-new cuda下载地址 ht

tensorflow——常见报错(持续更新)

tensorflow——常见报错 问题一: 描述:UnicodeDecodeError: 'gbk' codec can't decode byte 0x93 in position 5456: illegal multibyte sequence 图片描述: 解决方法:将open(file) :改成 open(file, ‘r’, encoding=‘utf-8’)  问题二: 描述:WARNING:tensorflow:Layer gru_3 will no

GPU-CUDA-图形渲染分析

GPU-CUDA-图形渲染分析 参考文献链接 https://mp.weixin.qq.com/s/dnoqPxEt_XEhVaW_aAfrnQ https://mp.weixin.qq.com/s/1NumM2PRTqW-HIfQRlUu8A https://mp.weixin.qq.com/s/d8Dq0YmjHpsoCchy8y4B2g https://mp.weixin.qq.com/s/5JorA1BJXgeftzrqItJV9g https://mp.weixin.qq.com

selenium启动无头模式

ChromeOptions chromeOptions = new ChromeOptions(); // 重新配置chromeOptions 使用无头浏览器打开 chromeOptions.addArguments("--headless"); // 设置不使用gpu chromeOptions.addArguments("--disable-gpu"); // 设置窗口大小 chromeOptions.addArguments("window-size