16-Bit-Mikrocontroller sind leistungsfähiger als 8-Bit-Controller, und die 32-Bit-Controller befinden sich auf einer ganz anderen Ebene. Während wir entscheiden können, welche Peripheriegeräte wir für eine Anwendung benötigen, und versuchen, die billigste (und einfach zu verwendende, dh die Werkzeugkette) Alternative zu finden, woher weiß man, ob ein 8-Bit-Mikrocontroller für eine Anwendung verwendet werden sollte oder ein 16 Bit oder ein 32 Bit?
Ich verstehe die Unterschiede zwischen ihnen, also werde ich die Frage anders formulieren.
Nehmen wir an, ich habe eine Anwendung, in der ich ein LCD-Display zur Anzeige eines Bitmap-Bildes, ein 16-Tastenfeld, einen Summer, einen Temperatur- und Feuchtigkeitssensor und eine Mauseingabe haben werde. Ein High-End-8-Bit-Mikrocontroller kann all diese Dinge problemlos in Echtzeit erledigen. Wenn ich jetzt zu einem farbigen LCD-Display wechsle, benötige ich möglicherweise einen 32-Bit-Mikrocontroller, der das farbige Display schnell genug aktualisieren kann und über mehr Speicher verfügt. Ich kann jedoch erst feststellen, dass mein High-End-8-Bit-Mikrocontroller schwach ist, nachdem ich es im Projekt ausprobiert habe.
Woher wissen wir also, bevor wir mit der Arbeit an dem Projekt beginnen, welche Größe und wie viel leistungsstarker Mikrocontroller für das Projekt benötigt wird?