Optimieren der Leistung eines Heavy-Fragment-Shaders


9

Ich benötige Hilfe bei der Optimierung der folgenden Shader:

Scheitel:

    precision mediump float;

uniform vec2 rubyTextureSize;

attribute vec4 vPosition;
attribute vec2 a_TexCoordinate;

varying vec2 tc;

void main() {
    gl_Position = vPosition;

    tc = a_TexCoordinate;
}

Fragment:

precision mediump float;

/*
 Uniforms
 - rubyTexture: texture sampler
 - rubyTextureSize: size of the texture before rendering
 */

uniform sampler2D rubyTexture;
uniform vec2 rubyTextureSize;
uniform vec2 rubyTextureFract;

/*
 Varying attributes
 - tc: coordinate of the texel being processed
 - xyp_[]_[]_[]: a packed coordinate for 3 areas within the texture
 */

varying vec2 tc;

/*
 Constants
 */
/*
 Inequation coefficients for interpolation
 Equations are in the form: Ay + Bx = C
 45, 30, and 60 denote the angle from x each line the cooeficient variable set builds
 */
const vec4 Ai = vec4(1.0, -1.0, -1.0, 1.0);
const vec4 B45 = vec4(1.0, 1.0, -1.0, -1.0);
const vec4 C45 = vec4(1.5, 0.5, -0.5, 0.5);
const vec4 B30 = vec4(0.5, 2.0, -0.5, -2.0);
const vec4 C30 = vec4(1.0, 1.0, -0.5, 0.0);
const vec4 B60 = vec4(2.0, 0.5, -2.0, -0.5);
const vec4 C60 = vec4(2.0, 0.0, -1.0, 0.5);

const vec4 M45 = vec4(0.4, 0.4, 0.4, 0.4);
const vec4 M30 = vec4(0.2, 0.4, 0.2, 0.4);
const vec4 M60 = M30.yxwz;
const vec4 Mshift = vec4(0.2);

// Coefficient for weighted edge detection
const float coef = 2.0;
// Threshold for if luminance values are "equal"
const vec4 threshold = vec4(0.32);

// Conversion from RGB to Luminance (from GIMP)
const vec3 lum = vec3(0.21, 0.72, 0.07);

// Performs same logic operation as && for vectors
bvec4 _and_(bvec4 A, bvec4 B) {
    return bvec4(A.x && B.x, A.y && B.y, A.z && B.z, A.w && B.w);
}

// Performs same logic operation as || for vectors
bvec4 _or_(bvec4 A, bvec4 B) {
    return bvec4(A.x || B.x, A.y || B.y, A.z || B.z, A.w || B.w);
}

// Converts 4 3-color vectors into 1 4-value luminance vector
vec4 lum_to(vec3 v0, vec3 v1, vec3 v2, vec3 v3) {
    //    return vec4(dot(lum, v0), dot(lum, v1), dot(lum, v2), dot(lum, v3));

    return mat4(v0.x, v1.x, v2.x, v3.x, v0.y, v1.y, v2.y, v3.y, v0.z, v1.z,
            v2.z, v3.z, 0.0, 0.0, 0.0, 0.0) * vec4(lum, 0.0);
}

// Gets the difference between 2 4-value luminance vectors
vec4 lum_df(vec4 A, vec4 B) {
    return abs(A - B);
}

// Determines if 2 4-value luminance vectors are "equal" based on threshold
bvec4 lum_eq(vec4 A, vec4 B) {
    return lessThan(lum_df(A, B), threshold);
}

vec4 lum_wd(vec4 a, vec4 b, vec4 c, vec4 d, vec4 e, vec4 f, vec4 g, vec4 h) {
    return lum_df(a, b) + lum_df(a, c) + lum_df(d, e) + lum_df(d, f)
            + 4.0 * lum_df(g, h);
}

// Gets the difference between 2 3-value rgb colors
float c_df(vec3 c1, vec3 c2) {
    vec3 df = abs(c1 - c2);
    return df.r + df.g + df.b;
}

void main() {

    /*
     Mask for algorhithm
     +-----+-----+-----+-----+-----+
     |     |  1  |  2  |  3  |     |
     +-----+-----+-----+-----+-----+
     |  5  |  6  |  7  |  8  |  9  |
     +-----+-----+-----+-----+-----+
     | 10  | 11  | 12  | 13  | 14  |
     +-----+-----+-----+-----+-----+
     | 15  | 16  | 17  | 18  | 19  |
     +-----+-----+-----+-----+-----+
     |     | 21  | 22  | 23  |     |
     +-----+-----+-----+-----+-----+
     */

    float x = rubyTextureFract.x;
    float y = rubyTextureFract.y;

    vec4 xyp_1_2_3 = tc.xxxy + vec4(-x, 0.0, x, -2.0 * y);
    vec4 xyp_6_7_8 = tc.xxxy + vec4(-x, 0.0, x, -y);
    vec4 xyp_11_12_13 = tc.xxxy + vec4(-x, 0.0, x, 0.0);
    vec4 xyp_16_17_18 = tc.xxxy + vec4(-x, 0.0, x, y);
    vec4 xyp_21_22_23 = tc.xxxy + vec4(-x, 0.0, x, 2.0 * y);
    vec4 xyp_5_10_15 = tc.xyyy + vec4(-2.0 * x, -y, 0.0, y);
    vec4 xyp_9_14_9 = tc.xyyy + vec4(2.0 * x, -y, 0.0, y);

    // Get mask values by performing texture lookup with the uniform sampler
    vec3 P1 = texture2D(rubyTexture, xyp_1_2_3.xw).rgb;
    vec3 P2 = texture2D(rubyTexture, xyp_1_2_3.yw).rgb;
    vec3 P3 = texture2D(rubyTexture, xyp_1_2_3.zw).rgb;

    vec3 P6 = texture2D(rubyTexture, xyp_6_7_8.xw).rgb;
    vec3 P7 = texture2D(rubyTexture, xyp_6_7_8.yw).rgb;
    vec3 P8 = texture2D(rubyTexture, xyp_6_7_8.zw).rgb;

    vec3 P11 = texture2D(rubyTexture, xyp_11_12_13.xw).rgb;
    vec3 P12 = texture2D(rubyTexture, xyp_11_12_13.yw).rgb;
    vec3 P13 = texture2D(rubyTexture, xyp_11_12_13.zw).rgb;

    vec3 P16 = texture2D(rubyTexture, xyp_16_17_18.xw).rgb;
    vec3 P17 = texture2D(rubyTexture, xyp_16_17_18.yw).rgb;
    vec3 P18 = texture2D(rubyTexture, xyp_16_17_18.zw).rgb;

    vec3 P21 = texture2D(rubyTexture, xyp_21_22_23.xw).rgb;
    vec3 P22 = texture2D(rubyTexture, xyp_21_22_23.yw).rgb;
    vec3 P23 = texture2D(rubyTexture, xyp_21_22_23.zw).rgb;

    vec3 P5 = texture2D(rubyTexture, xyp_5_10_15.xy).rgb;
    vec3 P10 = texture2D(rubyTexture, xyp_5_10_15.xz).rgb;
    vec3 P15 = texture2D(rubyTexture, xyp_5_10_15.xw).rgb;

    vec3 P9 = texture2D(rubyTexture, xyp_9_14_9.xy).rgb;
    vec3 P14 = texture2D(rubyTexture, xyp_9_14_9.xz).rgb;
    vec3 P19 = texture2D(rubyTexture, xyp_9_14_9.xw).rgb;

    // Store luminance values of each point in groups of 4
    // so that we may operate on all four corners at once
    vec4 p7 = lum_to(P7, P11, P17, P13);
    vec4 p8 = lum_to(P8, P6, P16, P18);
    vec4 p11 = p7.yzwx; // P11, P17, P13, P7
    vec4 p12 = lum_to(P12, P12, P12, P12);
    vec4 p13 = p7.wxyz; // P13, P7,  P11, P17
    vec4 p14 = lum_to(P14, P2, P10, P22);
    vec4 p16 = p8.zwxy; // P16, P18, P8,  P6
    vec4 p17 = p7.zwxy; // P17, P13, P7,  P11
    vec4 p18 = p8.wxyz; // P18, P8,  P6,  P16
    vec4 p19 = lum_to(P19, P3, P5, P21);
    vec4 p22 = p14.wxyz; // P22, P14, P2,  P10
    vec4 p23 = lum_to(P23, P9, P1, P15);

    // Scale current texel coordinate to [0..1]
    vec2 fp = fract(tc * rubyTextureSize);

    // Determine amount of "smoothing" or mixing that could be done on texel corners
    vec4 AiMulFpy = Ai * fp.y;
    vec4 B45MulFpx = B45 * fp.x;
    vec4 ma45 = smoothstep(C45 - M45, C45 + M45, AiMulFpy + B45MulFpx);
    vec4 ma30 = smoothstep(C30 - M30, C30 + M30, AiMulFpy + B30 * fp.x);
    vec4 ma60 = smoothstep(C60 - M60, C60 + M60, AiMulFpy + B60 * fp.x);
    vec4 marn = smoothstep(C45 - M45 + Mshift, C45 + M45 + Mshift,
            AiMulFpy + B45MulFpx);

    // Perform edge weight calculations
    vec4 e45 = lum_wd(p12, p8, p16, p18, p22, p14, p17, p13);
    vec4 econt = lum_wd(p17, p11, p23, p13, p7, p19, p12, p18);
    vec4 e30 = lum_df(p13, p16);
    vec4 e60 = lum_df(p8, p17);

    // Calculate rule results for interpolation
    bvec4 r45_1 = _and_(notEqual(p12, p13), notEqual(p12, p17));
    bvec4 r45_2 = _and_(not (lum_eq(p13, p7)), not (lum_eq(p13, p8)));
    bvec4 r45_3 = _and_(not (lum_eq(p17, p11)), not (lum_eq(p17, p16)));
    bvec4 r45_4_1 = _and_(not (lum_eq(p13, p14)), not (lum_eq(p13, p19)));
    bvec4 r45_4_2 = _and_(not (lum_eq(p17, p22)), not (lum_eq(p17, p23)));
    bvec4 r45_4 = _and_(lum_eq(p12, p18), _or_(r45_4_1, r45_4_2));
    bvec4 r45_5 = _or_(lum_eq(p12, p16), lum_eq(p12, p8));
    bvec4 r45 = _and_(r45_1, _or_(_or_(_or_(r45_2, r45_3), r45_4), r45_5));
    bvec4 r30 = _and_(notEqual(p12, p16), notEqual(p11, p16));
    bvec4 r60 = _and_(notEqual(p12, p8), notEqual(p7, p8));

    // Combine rules with edge weights
    bvec4 edr45 = _and_(lessThan(e45, econt), r45);
    bvec4 edrrn = lessThanEqual(e45, econt);
    bvec4 edr30 = _and_(lessThanEqual(coef * e30, e60), r30);
    bvec4 edr60 = _and_(lessThanEqual(coef * e60, e30), r60);

    // Finalize interpolation rules and cast to float (0.0 for false, 1.0 for true)
    vec4 final45 = vec4(_and_(_and_(not (edr30), not (edr60)), edr45));
    vec4 final30 = vec4(_and_(_and_(edr45, not (edr60)), edr30));
    vec4 final60 = vec4(_and_(_and_(edr45, not (edr30)), edr60));
    vec4 final36 = vec4(_and_(_and_(edr60, edr30), edr45));
    vec4 finalrn = vec4(_and_(not (edr45), edrrn));

    // Determine the color to mix with for each corner
    vec4 px = step(lum_df(p12, p17), lum_df(p12, p13));

    // Determine the mix amounts by combining the final rule result and corresponding
    // mix amount for the rule in each corner
    vec4 mac = final36 * max(ma30, ma60) + final30 * ma30 + final60 * ma60
            + final45 * ma45 + finalrn * marn;

    /*
     Calculate the resulting color by traversing clockwise and counter-clockwise around
     the corners of the texel

     Finally choose the result that has the largest difference from the texel's original
     color
     */
    vec3 res1 = P12;
    res1 = mix(res1, mix(P13, P17, px.x), mac.x);
    res1 = mix(res1, mix(P7, P13, px.y), mac.y);
    res1 = mix(res1, mix(P11, P7, px.z), mac.z);
    res1 = mix(res1, mix(P17, P11, px.w), mac.w);

    vec3 res2 = P12;
    res2 = mix(res2, mix(P17, P11, px.w), mac.w);
    res2 = mix(res2, mix(P11, P7, px.z), mac.z);
    res2 = mix(res2, mix(P7, P13, px.y), mac.y);
    res2 = mix(res2, mix(P13, P17, px.x), mac.x);

    gl_FragColor = vec4(mix(res1, res2, step(c_df(P12, res1), c_df(P12, res2))),
            1.0);
}

Die Shader erhalten eine 2D-Textur und sollen diese wunderschön über eine hochauflösende 2D-Oberfläche (den Gerätebildschirm) skalieren. Es ist eine Optimierung des SABR-Skalierungsalgorithmus, falls es darauf ankommt.

Es funktioniert bereits und funktioniert auf sehr hochwertigen Android-Geräten (wie dem LG Nexus 4) einwandfrei, auf schwächeren Geräten ist es jedoch sehr langsam.

Die Android-Geräte, die mir wirklich wichtig sind, sind Samsung Galaxy S 2 \ 3 mit Mali 400MP-GPU - die mit diesem Shader eine schreckliche Leistung erbringen.

Bisher habe ich versucht:

  1. Die Beseitigung von Abweichungen (Hinweise aus dem Mali-Leitfaden von ARM) hat sich geringfügig verbessert.
  2. Das Überschreiben von mix () -Funktionen mit meinen eigenen hat nichts gebracht.
  3. Reduzieren der Float-Präzision auf Lowp - hat nichts geändert.

Ich messe die Leistung durch Berechnung der Renderzeit (vor und nach eglSwapBuffers) - dies gibt mir eine sehr lineare und konsistente Messung der Leistung.

Darüber hinaus weiß ich nicht genau, wo ich suchen soll oder was hier optimiert werden kann ...

Ich weiß, dass dies ein schwerer Algorithmus ist, und ich bitte nicht um Rat, welche alternativen Skalierungsmethoden verwendet werden sollen. Ich habe viele ausprobiert und dieser Algorithmus liefert das beste visuelle Ergebnis. Ich möchte genau den gleichen Algorithmus auf optimierte Weise verwenden.

AKTUALISIEREN

  1. Ich habe festgestellt, dass ich, wenn ich alle Texturabrufe mit einem konstanten Vektor anstelle von abhängigen Vektoren durchführe, eine erhebliche Leistungsverbesserung erhalte. Dies ist offensichtlich ein großer Engpass - wahrscheinlich aufgrund des Caches. Allerdings muss ich diese Abrufe noch machen. Ich habe damit gespielt, zumindest einige der Abrufe mit vec2-Variationen zu machen (ohne zu zischen), aber es hat nichts verbessert. Ich frage mich, was ein guter Weg sein könnte, um 21 Texel effizient abzufragen.

  2. Ich habe festgestellt, dass ein Großteil der Berechnungen mehrmals mit genau demselben Texelsatz durchgeführt wird - da die Ausgabe um mindestens x2 skaliert ist und ich mit GL_NEAREST abfrage. Es gibt mindestens 4 Fragmente, die auf genau die gleichen Texel fallen. Wenn die Skalierung auf einem hochauflösenden Gerät x4 ist, fallen 16 Fragmente auf dieselben Texel - was eine große Verschwendung ist. Gibt es eine Möglichkeit, einen zusätzlichen Shader-Durchlauf durchzuführen, der alle Werte berechnet, die sich nicht über mehrere Fragmente hinweg ändern? Ich habe darüber nachgedacht, eine zusätzliche Off-Screen-Textur zu rendern, aber ich muss mehrere Werte pro Texel speichern, nicht nur einen.

AKTUALISIEREN

  1. Mir ist auch aufgefallen, dass die CPU fast ungenutzt ist, während die GPU einen großen Engpass darstellt. Irgendwelche Ratschläge, wie Sie in dieser Situation etwas CPU-Leistung nutzen und Logik von der GPU zur CPU übertragen können?

2
Sie sollten die Textur niemals als Lookup abrufen. Übergeben Sie entweder das UV vom Scheitelpunkt, damit der Pixelhader die Zeit hat, die Textur abzurufen.
Tordin

Könnten Sie bitte erklären? Was meinst du mit UV?
SirKnigget

3
Können Sie auf eine Beschreibung des "SABR-Skalierungsalgorithmus" verweisen? Google findet nichts Nützliches daran. Übrigens, ein 21-Texel-Filter (und auch ziemlich mathematisch) auf einer mobilen GPU verlangt nur nach Ärger. Ich glaube nicht, dass Sie realistisch erwarten können, dass es gut läuft, ohne irgendwo die Qualität zu beeinträchtigen.
Nathan Reed

Dies gibt die allgemeine Idee: board.byuu.org/viewtopic.php?f=10&t=2248 , obwohl es nicht die genaue Implementierung ist, die ich gefunden habe.
SirKnigget

2
In Bezug auf realistische Erwartungen funktioniert es hervorragend auf High-End-Geräten. Ich würde erwarten, dass ich in der Lage sein kann, das, was ich habe, um einen 5-fachen Faktor oder ähnliches zu optimieren und es auf schwächeren Geräten zum Laufen zu bringen.
SirKnigget

Antworten:


2

Ich frage mich, was ein guter Weg sein könnte, um 21 Texel effizient abzufragen.

Die Antwort ist, dass der effiziente Weg der Weg ist, bei dem 21 Texel nicht abgefragt werden. Es tut uns leid, aber mobile Geräte verfügen möglicherweise nicht über die erforderliche Busbreite, um solche Kernel zu unterstützen. Sie müssen optimieren, indem Sie die Größe der im Sampler eingesteckten Textur reduzieren, damit das Caching einen größeren Kernelradius abdeckt.

Sie können auch Ihren Festplattenkernel vergessen und einen Zwei-Durchlauf-Algorithmus mit einem vertikalen Kernel und einen anderen mit einem rein horizontalen Kernel verwenden. Auf diese Weise wechseln Sie sozusagen von "2D" zu "1D" und reduzieren die Anzahl drastisch Samplings sowie Verbesserung der Cache-Leistung dank linearem Zugriff.

Vertikale Abrufe sollten die Cache-Leistung nicht beeinträchtigen, da die Z-Speichertexturen im GPU-Speicher angeordnet sein sollten. Siehe http://en.wikipedia.org/wiki/Z-order_curve

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.