Ich arbeite mit einem eingebetteten Gerät mit einem eindeutigen Protokoll, das Nachrichten an andere Geräte sendet, und erstelle eine Anwendung, die die gesendeten Pakete analysiert. Jedes Paket enthält 8 Bytes. Das Protokoll ist so definiert, dass das erste Byte der Header und die restlichen 7 Bytes die Daten sind.
Sie versuchen, eine bestimmte ID-Zeichenfolge zu übergeben, aber die ID-Zeichenfolge ist 8 Zeichen lang (ASCII), sodass sie nicht in 7 Byte passt.
Mein Kollege sagte mir, dass sie die 8 ASCII-Bytes der ursprünglichen Zeichenfolge in eine Ganzzahl (Dezimalzahl) umwandeln und mir 4 Bytes davon senden werden. Sie sagten mir, ich sollte in der Lage sein, die ursprüngliche Zeichenfolge aus den 4 Bytes zu erhalten. Es fällt mir schwer, mich darauf einzulassen.
Wenn Sie also eine ID-Zeichenfolge wie "IO123456" haben, ist das 0x49 0x4f 0x31 0x32 0x33 0x34 0x35 0x36 in ASCII ? Vermisse ich etwas oder täuscht sich mein Kollege? Ich verstehe, dass dies eine wirklich bizzare Frage ist, aber im Ernst, das ergibt für mich keinen Sinn.