可以在多个gpus上运行cuda内核吗?
这是一个相当简单的问题,但Google似乎没有答案,所以。
我想知道的是,如果我有两个能够运行cuda的gpu卡(相同),我的内核可以跨越这些卡吗? 或者它是绑定到一张卡片还是另一张? 也就是说cuda提供了整套可用的gpu内核,或者仅仅是它所运行的卡上的那些内核。
如果是这样,是否有什么特别的我需要知道,以实现目标?除了cuda sdk之外,还有什么例子值得了解?
目标语言当然是C / C ++。
提前致谢。
单个CUDA内核启动绑定到单个GPU。 为了使用多个GPU,将需要多个内核启动。
cuda设备运行时API侧重于选择哪个设备。 任何给定的内核启动都将在最近使用cudaSetDevice()
选择的设备上启动
多GPU编程的例子在cuda示例中给出,带有P2P和简单的多GPU的简单多GPU
链接地址: http://www.djcxy.com/p/49073.html