在 CUDA 环境中进行编程。 (6 场讲座) https://www.youtube.com/watch?v=Oqebkc0NO_8
我把6个讲座都看完了,但还是没有弄清楚GPU核的程序存放在GPU内存的什么地方,以及它的大小有什么限制。我们到处都只谈论数据存储器。数据被发送到那里,数据被发送到船舶。 adra程序本身不发送到GPU吗?有 0 条与此相关的信息。
请有人分享您的知识。
在 CUDA 环境中进行编程。 (6 场讲座) https://www.youtube.com/watch?v=Oqebkc0NO_8
我把6个讲座都看完了,但还是没有弄清楚GPU核的程序存放在GPU内存的什么地方,以及它的大小有什么限制。我们到处都只谈论数据存储器。数据被发送到那里,数据被发送到船舶。 adra程序本身不发送到GPU吗?有 0 条与此相关的信息。
请有人分享您的知识。
程序自然会以某种形式进入设备的内存来执行。具体如何以及在哪里是一个秘密。 Nvidia 发布了一份根据特定 NVPTX 虚拟机的操作对其设备进行编程的指南,该指南的规范并未阐明硬件实现的许多细节,包括。指令传递机制。实际上没有大小限制。 10版手册规定每个内核有512m条指令,这比实际需要的要多得多。而在版本12中,关于这种限制的信息被完全删除了。
您可以查看编译后的内核并使用CUDA 二进制实用程序估计其大小