小矩阵比HMatrix快100倍?
我们将大部分CPU周期用于涉及小矩阵的操作,所以我想知道是否可以针对这种情况进行优化。 考虑下面的代码:
module Main where
import Numeric.LinearAlgebra.HMatrix
import Criterion.Main
data Matrix2x2 = Matrix2x2 {-# UNPACK #-} !Double !Double !Double !Double
mul2x2p :: Matrix2x2 -> Matrix2x2 -> Matrix2x2
mul2x2p (Matrix2x2 a1 b1 c1 d1) (Matrix2x2 a2 b2 c2 d2) =
Matrix2x2 (a1*a2 + b1*c2) (a1*b2 + b1*d2) (c1*a2 + d1*c2) (c1*b2 + d1*d2)
inv2x2 :: Matrix2x2 -> Matrix2x2
inv2x2 (Matrix2x2 a b c d) =
let detInv = a * d - b * c
in Matrix2x2 (d / detInv) (-b / detInv) (-c / detInv) (a / detInv)
add2x2 (Matrix2x2 a1 b1 c1 d1) (Matrix2x2 a2 b2 c2 d2) =
Matrix2x2 (a1+a2) (b1+b2) (c1+c2) (d1+d2)
hm1 = matrix 2 [1, 2, 3, 4]
hm2 = matrix 2 [5, 6, 7, 8]
pm1 = Matrix2x2 1 2 3 4
pm2 = Matrix2x2 5 6 7 8
main = defaultMain [
bgroup "matrix tests" [ bench "pure mult" $ whnf (mul2x2p pm1) pm2
, bench "hmatrix mult" $ whnf (hm1 <>) hm2
, bench "pure add" $ whnf (add2x2 pm1) pm2
, bench "hmatrix add" $ whnf (hm1 +) hm2
, bench "pure inv" $ whnf inv2x2 pm1
, bench "hmatrix inv" $ whnf inv hm1
]]
结果:
benchmarking matrix tests/pure mult
time 6.461 ns (6.368 ns .. 6.553 ns)
0.999 R² (0.998 R² .. 0.999 R²)
mean 6.482 ns (6.394 ns .. 6.594 ns)
std dev 345.1 ps (271.4 ps .. 477.3 ps)
variance introduced by outliers: 77% (severely inflated)
benchmarking matrix tests/hmatrix mult
time 180.6 ns (178.2 ns .. 183.1 ns)
0.999 R² (0.998 R² .. 0.999 R²)
mean 183.0 ns (180.6 ns .. 186.3 ns)
std dev 9.363 ns (7.405 ns .. 12.73 ns)
variance introduced by outliers: 71% (severely inflated)
benchmarking matrix tests/pure add
time 6.262 ns (6.223 ns .. 6.297 ns)
0.999 R² (0.999 R² .. 1.000 R²)
mean 6.281 ns (6.220 ns .. 6.355 ns)
std dev 235.0 ps (183.3 ps .. 321.0 ps)
variance introduced by outliers: 62% (severely inflated)
benchmarking matrix tests/hmatrix add
time 116.4 ns (115.0 ns .. 117.9 ns)
0.999 R² (0.998 R² .. 0.999 R²)
mean 116.3 ns (115.2 ns .. 117.7 ns)
std dev 4.176 ns (3.447 ns .. 5.150 ns)
variance introduced by outliers: 55% (severely inflated)
benchmarking matrix tests/pure inv
time 7.811 ns (7.718 ns .. 7.931 ns)
0.999 R² (0.998 R² .. 0.999 R²)
mean 7.895 ns (7.808 ns .. 7.988 ns)
std dev 296.4 ps (247.2 ps .. 358.3 ps)
variance introduced by outliers: 62% (severely inflated)
benchmarking matrix tests/hmatrix inv
time 908.5 ns (901.3 ns .. 916.6 ns)
0.999 R² (0.998 R² .. 0.999 R²)
mean 934.0 ns (917.6 ns .. 961.3 ns)
std dev 73.92 ns (50.53 ns .. 108.6 ns)
variance introduced by outliers: 84% (severely inflated)
我的问题是:
1)加速是真实的还是由于基准测试过程中的伪影?
2)如果加速是真实的,是否有一个现有的库可以处理比如1x1,2x2,3x3,4x4矩阵作为特殊情况?
3)如果不是,包装HMatrix的最好方法是什么,以便在矩阵很小时我们可以采用快速路径? ghc只能用一个构造函数解压记录。 有没有办法自动生成我们的代码的不同版本等
例如,test.cabal:
name: example-test
version: 0.1.0.0
build-type: Simple
cabal-version: >=1.10
executable example-test
main-is:
Main.hs
build-depends:
base >=4.7 && <4.8,
criterion,
hmatrix
default-language:
Haskell2010
ghc-options:
-H12G -O3 -optc-O3 -fllvm -rtsopts -threaded -fexcess-precision -j6 +RTS -N6 -RTS -fno-ignore-asserts -fcontext-stack=150
-- -fforce-recomp
HMatrix基于出色的高度优化的BLAS / LAPACK库提供了标准密集线性代数(svd,特征值,线性系统等)的功能接口。
FFI调用,内存分配,错误检查,避免某些矩阵转置的代码等都会导致开销。与中等和大尺寸的典型矩阵计算所需的时间相比,这是微不足道的,但对于非常小的阵列和简单的操作开销可能很大。
目前还没有计划为小阵列重新实现计算。 要比BLAS / LAPACK做得更好并不容易,我不确定特定应用程序的某些速度增益比代码简单性和通用性更重要。
如果您的应用程序需要对2x2或3x3矩阵进行大量简单操作,则其他库可能更适合执行此任务。
但我建议你在分析模式下运行你的程序来找出真正的瓶颈。 使用常量数据的基准可能不完全代表在“正常”计划中花费的时间。
即使你发现大部分时间都花在用小矩阵进行的计算上,也许你可以用更大尺寸的等效矩阵计算来重写你的算法。
对于小向量和矩阵,经常使用线性包:https://hackage.haskell.org/package/linear
链接地址: http://www.djcxy.com/p/22803.html