Einer der Vorteile von REST ist die Möglichkeit, Anforderungen über herkömmliche http-Caches zwischenzuspeichern (vorausgesetzt, es handelt sich um zwischenspeicherbare Anforderungen).
Wenn Sie einzelne, größere, weniger häufig verwendete und möglicherweise unterschiedliche Anforderungen haben (ich werde a,b,c,d
dieses Mal Elemente und das a,b,d,e
nächste Mal Elemente abrufen), ist es wahrscheinlicher, dass die Anforderung ein Cache-Fehler ist und aus einem möglicherweise abgelaufenen Cache-Speicher abläuft irgendwo zwischen dir und der Quelle sitzen.
In Anbetracht der beiden oben genannten Anforderungssätze kann die zweite Anforderung eine Cache- Trefferrate von 75% aufweisen und das Abrufen nur wesentlich schneller sein e
als bei allen vier Dingen.
Beachten Sie, dass dies für Personen, die es als Person verwenden, die den ersten Satz von Cache-Fehlanfragen ausführt, möglicherweise nicht sofort ersichtlich ist, dass die Cache-Fehlanfragen weiterhin vorhanden sind.
Dies soll nicht heißen, dass dies ideal für eine mobile Netzwerkverbindung ist, bei der es weniger wahrscheinlich ist, dass nicht lokale Cachetreffer auftreten. Aber für Hot Spots oder andere WiFi-Situationen könnten die Cache-Treffer viel nützlicher sein.
Ein Großteil davon hängt wiederum davon ab, wie Ihre Anwendung funktioniert. Wird beim Start nach all diesen Daten gefragt? Oder handelt es sich um eine Seitenladung, bei der die Erwartungen an die Antwortzeit unterschiedlich sind?
Am besten testen Sie dies, um zu sehen, wie sich Ihre Anwendung in einer Vielzahl von Situationen verhält. Erwägen Sie, eine Situation einzurichten, in der Sie Ihr Mobilgerät an ein lokales WLAN-Netzwerk gebunden haben, das Sie überwachen können (dies ist nur der erste Treffer bei Google), und eine schlechte Internetverbindung zu simulieren, um festzustellen , wie die Dinge tatsächlich funktionieren (oder nicht). und welche hat die beste leistung.