Eine andere ist prop.table(m, 2)oder einfach propr(m), dass intern verwendet sweep.
Es kann von Interesse sein, die Leistung dieser äquivalenten Lösungen zu vergleichen, daher habe ich einen kleinen Benchmark durchgeführt (mithilfe eines microbenchmarkPakets).
Dies ist die Eingabematrix, die mich verwendet habe:
[,1] [,2] [,3] [,4] [,5]
A 1.831564e-02 4.978707e-02 1.353353e-01 3.678794e-01 3.678794e-01
B 3.678794e-01 1.353353e-01 4.978707e-02 1.831564e-02 6.737947e-03
C 4.539993e-05 2.061154e-09 9.357623e-14 4.248354e-18 5.242886e-22
D 1.831564e-02 4.978707e-02 1.353353e-01 3.678794e-01 3.678794e-01
E 3.678794e-01 1.353353e-01 4.978707e-02 1.831564e-02 6.737947e-03
F 4.539993e-05 2.061154e-09 9.357623e-14 4.248354e-18 5.242886e-22
G 1.831564e-02 4.978707e-02 1.353353e-01 3.678794e-01 3.678794e-01
H 3.678794e-01 1.353353e-01 4.978707e-02 1.831564e-02 6.737947e-03
I 4.539993e-05 2.061154e-09 9.357623e-14 4.248354e-18 5.242886e-22
Dies ist das Benchmark-Setup:
microbenchmark(
prop = prop.table(m, 2),
scale = scale(m, center=FALSE, scale=colSums(m)),
sweep = sweep(m, 2, colSums(m), FUN="/"),
t_t_colsums = t(t(m)/colSums(m)),
m_colsums_col = m/colSums(m)[col(m)],
m_mult_diag = m %*% diag(1/colSums(m)),
times = 1500L)
Dies sind die Ergebnisse des Benchmarks:
Unit: microseconds
expr min lq median uq max
1 m_colsums_col 29.089 32.9565 35.9870 37.5215 1547.972
2 m_mult_diag 43.278 47.6115 51.7075 53.8945 110.560
3 prop 207.070 214.3010 216.6800 219.9680 2091.913
4 scale 133.659 142.6325 145.3100 147.9195 1730.640
5 sweep 113.969 119.6315 121.3725 123.6570 1663.356
6 t_t_colsums 56.976 65.3580 67.8895 69.5130 1640.660
Der Vollständigkeit halber ist dies die Ausgabe:
[,1] [,2] [,3] [,4] [,5]
A 1.580677e-02 8.964714e-02 2.436862e-01 3.175247e-01 3.273379e-01
B 3.174874e-01 2.436862e-01 8.964714e-02 1.580862e-02 5.995403e-03
C 3.918106e-05 3.711336e-09 1.684944e-13 3.666847e-18 4.665103e-22
D 1.580677e-02 8.964714e-02 2.436862e-01 3.175247e-01 3.273379e-01
E 3.174874e-01 2.436862e-01 8.964714e-02 1.580862e-02 5.995403e-03
F 3.918106e-05 3.711336e-09 1.684944e-13 3.666847e-18 4.665103e-22
G 1.580677e-02 8.964714e-02 2.436862e-01 3.175247e-01 3.273379e-01
H 3.174874e-01 2.436862e-01 8.964714e-02 1.580862e-02 5.995403e-03
I 3.918106e-05 3.711336e-09 1.684944e-13 3.666847e-18 4.665103e-22
Ohne Zweifel für kleine Matrizen m / colSums(m)[col(m)] gewinnt !
Aber für große Matrizen? Im folgenden Beispiel habe ich eine 1000x1000-Matrix verwendet.
set.seed(42)
m <- matrix(sample(1:10, 1e6, TRUE), 1e3)
...
Unit: milliseconds
expr min lq median uq max
1 m_colsums_col 55.26442 58.94281 64.41691 102.69683 119.08685
2 m_mult_diag 34.67692 41.68494 80.05480 89.48099 99.72062
3 prop 87.95552 94.13143 99.17044 136.03669 160.51586
4 scale 52.84534 55.07107 60.57154 99.87761 156.16622
5 sweep 52.79542 55.93877 61.55066 99.67766 119.05134
6 t_t_colsums 63.09783 65.53783 68.93731 110.03691 127.89792
Denn große Matrizen m / colSums(m)[col(m)] schneiden gut ab (4. Platz), gewinnen aber nicht .
Für große Matrizen m %*% diag(1/colSums(m)) gewinnt !
m %*% diag(1/colSums(m))