以非标准值初始化双精度数组的最快方法

4
MATLAB提供了一些函数用于预分配/初始化数组,如01。然而,如果我们希望数组有一些任意的double,有各种方法可以做到这一点,但不明显哪种方法更可取。
这个问题并不新鲜-以前在一些地方进行过讨论,例如这篇博客文章这个答案。然而,经验表明,软件(具体来说是MATLAB及其执行引擎)和硬件会随着时间的推移而改变,因此在不同系统上最佳方法可能会有所不同。不幸的是,前面提到的来源没有提供基准测试代码,这可能是回答这个问题的最终(也是永恒的)途径。
我正在寻找一个基准测试,可以告诉我在我的系统上使用最快的方法,考虑到我可能会使用大小不同的“常规”double数组和gpuArray double数组。

我相当确定我以前见过这个。你是不是刚刚从另一个现有的帖子中复制了问题和答案? - Durkee
哦,抱歉,我刚想起来帖子中的CPU版本。你可能需要考虑使用单精度版本。通常不建议在GPU上使用双精度。 - Durkee
@Durkee 有链接吗?确实,使用single精度运行GPU计算会带来速度优势,但对于我的目的来说,这是无关紧要的,因为我需要更高的精度。您是否怀疑如果使用single精度,基准测试将产生不同的结果(在最佳方法方面)?如果是这样-更有理由编写基准测试代码。 - Dev-iL
@Dev-iL 单精度和双精度的内存分配不会有太大差别(实际上会增加一倍)。但是,在使用双精度时,计算速度会比单精度慢多达两倍以上,除非你使用的是Tesla系列的GPU,因为几乎所有GPU处理器都是32位的。 - Ander Biguri
似乎与此问题/答案非常相似?虽然那里讨论了一个您没有进行基准测试的方法。还有必要的UndocumentedMatlab帖子 - Wolfie
显示剩余2条评论
1个回答

7
function allocationBenchmark(arrSz)
if nargin < 1
  arrSz = 1000;
end

%% RAM
t = [];
disp('--------------- Allocations in RAM ---------------')
t(end+1) = timeit(@()v1(arrSz), 1);
t(end+1) = timeit(@()v2(arrSz), 1);
t(end+1) = timeit(@()v3(arrSz), 1);
t(end+1) = timeit(@()v4(arrSz), 1);
t(end+1) = timeit(@()v5(arrSz), 1);
t(end+1) = timeit(@()v6(arrSz), 1);
t(end+1) = timeit(@()v7(arrSz), 1);
t = 1E3 * t; % conversion to msec
disp(t); disp(" ");
[~,I] = min(t);
disp("Conclusion: method #" + I + " is the fastest on the CPU!"); disp(" ");

%% VRAM
if gpuDeviceCount == 0, return; end
t = [];
disp('--------------- Allocations in VRAM --------------')
t(end+1) = NaN; % impossible (?) to run v1 on the gpu
t(end+1) = gputimeit(@()v2gpu(arrSz), 1);
t(end+1) = gputimeit(@()v3gpu(arrSz), 1);
t(end+1) = gputimeit(@()v4gpu(arrSz), 1);
t(end+1) = gputimeit(@()v5gpu(arrSz), 1);
t(end+1) = gputimeit(@()v6gpu(arrSz), 1);
t(end+1) = gputimeit(@()v7gpu(arrSz), 1);
t = 1E3 * t; % conversion to msec
disp(t); disp(" ");
[~,I] = min(t);
disp("Conclusion: method #" + I + " is the fastest on the GPU!");

end

%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% RAM
function out = v1(M)
% Indexing on the undefined matrix with assignment:
out(1:M, 1:M) = pi;
end

function out = v2(M)
% Indexing on the target value using the `ones` function:
scalar = pi;
out = scalar(ones(M));
end

function out = v3(M)
% Using the `zeros` function with addition:
out = zeros(M, M) + pi;
end

function out = v4(M)
% Using the `repmat` function:
out = repmat(pi, [M, M]);
end

function out = v5(M)
% Using the ones function with multiplication:
out = ones(M) .* pi;
end

function out = v6(M)
% Default initialization with full assignment:
out = zeros(M);
out(:) = pi;
end

function out = v7(M)
% Using the `repelem` function:
out = repelem(pi,M,M);
end

%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% VRAM
function out = v2gpu(M)
scalar = gpuArray(pi);
out = scalar(gpuArray.ones(M));
end

function out = v3gpu(M)
out = gpuArray.zeros(M, M) + gpuArray(pi);
end

function out = v4gpu(M)
out = repmat(gpuArray(pi), [M, M]);
end

function out = v5gpu(M)
out = gpuArray.ones(M) .* gpuArray(pi);
end

function out = v6gpu(M)
% Default initialization with full assignment:
out = gpuArray.zeros(M);
out(:) = gpuArray(pi);
end

function out = v7gpu(M)
% Using the `repelem` function:
out = repelem(gpuArray(pi),M,M);
end

运行上述代码(例如输入 5000),将得到以下结果:
--------------- Allocations in RAM ---------------
  110.4832  328.1685   48.7895   47.9652  108.8930   93.0481   47.9037

Conclusion: method #7 is the fastest on the CPU!

--------------- Allocations in VRAM --------------
       NaN   37.0322   17.9096   14.2873   17.7377   16.1386   16.6330

Conclusion: method #4 is the fastest on the GPU!

这告诉我们在每种情况下使用最好的(或等效的)方法。


如果您拥有图像处理工具箱,则padarray是一种替代方法:padarray(pi,[M,M]-1,pi,'post'); - rahnema1
我建议这样做,以便你的方法列表更加完整。 - rahnema1
1
@rahnema1 我刚刚检查了一下,padarray 调用 padarray_algo,后者又调用 mkconstarray,而 mkconstarray 实际上就是 repmat - 这意味着它只是 v4 的一个较慢版本(由于所有额外的步骤,如 padarray 的输入验证)。我在本地进行了基准测试,并确认了我的怀疑 - 它的性能略低于 v4,差距很小 - 大约与 v3 相同。因此,既然它只是现有方法之一的包装器(并且还需要一个工具箱),我认为没有理由将其添加到基准测试中 - 你同意吗? - Dev-iL

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接