Es gibt keine allgemein anerkannte Konvention darüber, was eine "Fehlerquote" ist, aber ich denke (wie Sie beobachtet haben), dass sie am häufigsten als Radius eines Konfidenzintervalls verwendet wird , entweder in der ursprünglichen Skala der Schätzung oder als Prozentsatz einer Schätzung. Manchmal wird es als Synonym für den "Standardfehler" verwendet, daher müssen Sie darauf achten, dass andere verstehen, was Sie meinen, wenn Sie es verwenden.
Ein "Konfidenzintervall" hat eine universelle Konvention über seine Bedeutung. Grundsätzlich ist es der Bereich möglicher Schätzungen, die durch einen Schätzprozess generiert werden und in X% der Fälle (95% werden am häufigsten verwendet) den wahren Wert des zu schätzenden Parameters enthalten. Dieses Konzept eines "Prozesses", der X% der Zeit den wahren Wert erzeugen würde, ist etwas kontraintuitiv und darf nicht mit einem "Glaubwürdigkeitsintervall" aus der Bayes'schen Folgerung verwechselt werden, das eine viel intuitivere Definition hat, es aber ist nicht dasselbe wie das weit verbreitete Konfidenzintervall.
Ihr tatsächliches Angebot ist etwas chaotisch und muss wie beschrieben geringfügig korrigiert werden. Ich würde diese zusätzliche Verwendung des Wortes "Rand" vermeiden und "Fehlerbalken" bevorzugen. So:
"Konfidenzintervalle werden mit 1,96 multipliziert mit den relevanten Standardfehlern geschätzt und in den Diagrammen als Fehlerbalken angezeigt."
(Dies lässt die Frage außer Acht, ob dies eine gute Methode zur Berechnung von Konfidenzintervallen ist, die von Ihrem Modell usw. abhängt und nicht relevant ist.)
Abschließender Kommentar zur Terminologie - Ich mag "Standardfehler" nicht, was nur "Standardabweichung der Schätzung" bedeutet. oder "Stichprobenfehler" im Allgemeinen - ich denke lieber in Bezug auf Zufälligkeit und Varianz der Statistiken als in Bezug auf "Fehler". Aber ich habe oben den Begriff "Standardfehler" verwendet, weil er wohl so weit verbreitet ist.