Ich entwickle eine Server-Client-Anwendung, bei der der Client unter Windows und der Server wahrscheinlich unter Linux ausgeführt wird. Vielleicht portiere ich den Client später auf Mac und Linux, aber noch nicht.
Alle Heimcomputer laufen heutzutage auf Little-Endian. Ich habe eine Weile gegoogelt, aber ich konnte nicht wirklich eine Liste von Geräten finden, die auf Big-Endian laufen. Soweit ich weiß, verwenden einige Motorola-Chips immer noch Big-Endian und möglicherweise einige Telefone (ich habe nicht vor, die App auf Smartphones zu portieren, das ist mir also egal). Warum sollte ich die Bytes jeder ganzen Zahl, jeder kurzen Zahl, jeder Gleitkommazahl, jeder doppelten Zahl usw. zum Lesen und Schreiben neu anordnen , wenn ich bereits weiß, dass sowohl Server als auch Client auf Little-Endian ausgeführt werden?
Das ist nur unnötige Arbeit. Meine Frage lautet also: Kann ich die Endianität ignorieren und nur Little-Endian-Daten senden? Was sind die Nachteile?