Je travaille avec un appareil intégré avec un protocole unique qui envoie des messages à d'autres appareils et je crée une application qui analyse les paquets envoyés. Chaque paquet contient 8 octets. Le protocole est défini comme où le premier octet est l'en-tête et les 7 octets restants sont les données.
Ils essaient de passer une chaîne d'ID particulière, mais la chaîne d'ID comporte 8 caractères (ASCII), elle ne tient donc pas sur 7 octets.
Ce que mon collègue m'a dit, c'est qu'ils vont transformer les 8 octets ascii de la chaîne d'origine en entier (décimal) et m'en envoyer 4 octets. Ils m'ont dit que je devrais pouvoir obtenir la chaîne d'origine à partir des 4 octets. J'ai du mal à m'enrouler la tête là-dessus.
Donc, si vous avez une chaîne d'identification comme "IO123456", c'est 0x49 0x4f 0x31 0x32 0x33 0x34 0x35 0x36 en ASCII. Comment diable pouvez-vous compresser cela en 4 octets en le transformant en un entier et je peux en obtenir la chaîne d'origine ? Suis-je en train de manquer quelque chose ou mon collègue se trompe-t-il? Je comprends que c'est une question vraiment bizarre, mais cela n'a vraiment aucun sens pour moi.