C++ – const_cast, static_cast, dynamic_cast, reinterpret_cast四种cast转换的区别和使用
在C++中有四种形式的cast:const_cast、static_cast、dynamic_cast、reinterpret_cast。本篇文章将介绍什么时候和怎么样去使用这四种不同的cast。 1 const_cast const_cast用于将一个const常量转换为变量,或者将一个变量转为c…
- C++
- 2023-08-17
如何获取CUDA版本号?CUDA Driver Version和CUDA Runtime Version的区别是什么?
1 CUDA Driver Version和CUDA Runtime Version的区别 CUDA Driver Version是跟Nvidia的GPU驱动(nvidia-driver)绑定在一起的,指的是当前GPU驱动所能驱动的CUDA的最高版本。 CUDA Runtime Version是在本…
- 其他
- 2023-07-03
C++ – Asio和Boost.Asio的区别
在编译C++一些网络库时,比如Websocket++、Crow等C++ web框架都是基于Asio进行开发的,并且都支持两种Asio。如果定义了ASIO_STANDALONE则会使用Asio,如果未定义则会使用Boost.Asio,那么这两者有什么区别呢? Asio官网:http://think-a…
- C++
- 2023-06-26
Windows – GDI/GDI+区别、用法总结
转载自:https://www.fawdlstty.com/archives/396.html,如有侵权,请联系我进行删除。 1 GDI与GDI+的区别 GDI是Graphics Device Interface的缩写,含义是图形设备接口,它的主要任务是负责系统与绘图程序之间的信息交换,处理所有Wi…
- Windows编程
- 2023-05-15
C++ – 一文搞懂std::future、std::promise、std::packaged_task、std::async的使用和相互区别
1 future future,翻译过来的意思就是未来、将来、前途、前程。 在C++11中,使用future作为获取异步任务(在单独线程中启动的函数)的工具模块的名字 ,无疑是非常贴切,因为在异步任务中,其返回的结果就是在未来(异步任务执行完)需要获取的结果。 在C++11中,头文件<futu…
- C++
- 2023-01-31
Pytorch – 多GPU训练方式nn.DataParallel与nn.parallel.DistributedDataParallel的区别
1 torch.nn.DataParallel和torch.nn.parallel.DistributedDataParallel函数详解 1.1 torch.nn.DataParallel 1. 官方文档 https://pytorch.org/docs/1.8.0/generated/torch…
- Pytorch
- 2022-08-16
Pytorch – .to()和.cuda()的区别
1 Pytorch中.to()和.cuda()的区别 如果需要指定的设备是GPU则.to()和.cuda()没有区别,如果设备是cpu,则不能使用.cuda()。也就是说.to()既可以指定CPU也可以指定GPU,而.cuda()只能指定GPU。 1.1 .cuda() 1.单GPU os.envi…
- Pytorch
- 2022-07-11
计算机图形学 – Flat Shading、Gouraud Shading、Phong Shading的区别
1 Flat Shading、Gouraud Shading、Phong Shading的区别 从下图可以看出Flat Shading、Gouraud Shading、Phong Shading三种着色模型的区别,其中a为Flat Shading,b为Gouraud Shading,c为Phong …
- 计算机图形学
- 2022-06-01
GCC/G++中编译优化选项-O -O0 -O1 -O2 -O3 -Os -Ofast -Og -Oz各自的区别和作用
1 GCC/G++中的编译优化选项 在gcc/g++编译程序时,不同优化编译选项,如-O1,-O2,-O3等会产生不同的程序大小以及程序运行速度。本文将对GCC/G++中的不同编译选项进行简要的介绍。 1.1 -O0 如果GCC不指定编译优化选项,那么会设置为-O0。 -O0主要可以减少代码编译时间…
- C++
- 2022-04-18
Pytorch – transpose和permute函数的区别和用法
1 transpose和permute函数的区别和用法 Pytorch中的transpose和permute方法都可以实现tensor维度之间的变换,transpose一次只能转换两个维度,而permute可以根据指定维度顺序一次转换多个维度,下面将简要介绍下transpose和permute方法。…
- Pytorch
- 2022-04-01
深度学习 – 深度学习中的多维数据存储方式NCHW和NHWC
1 深度学习中的多维数据存储方式NCHW和NHWC区别和简单介绍 在深度学习框架中,多维数据通过多维数组存储,比如卷积神经网络的特征图(Feature Map)通常使用四维数组保存,其数据维度为4D。其中4D中的N、H、W、C的各自意义如下: N:Batch数量,例如图像的数量; H:Height,…
- 深度学习
- 2022-03-07