Digitale Computer sind auch analog, wenn Sie alle Abstraktionsebenen herunterfahren, bis Sie elektrische Schaltkreise erreichen. Der einzige Unterschied besteht darin, dass wir uns dafür entscheiden, wie bei einer Art Gitter zu "schneiden", in welchen Ebenen erkennbarer analoger Signalverschiebungen wir eine weitere neue Abstraktionsebene erstellen, die wir ein Bit oder ein Byte nennen.
Alles, was ein analoger Computer berechnet, wie zum Beispiel das Ausgangssignal eines analogen Filters oder die Anzahl der Millimeter, um die sich eine Masse in einem Feder- und Dämpfersystem bewegt, erreicht schließlich auch eine maximale Auflösung. Dies liegt zum Beispiel an Rauschen in Detektoren, Fehlern in Messgeräten und möglicherweise an Quantenphänomenen, obwohl ich nicht so sicher bin, wie das funktionieren würde. Wenn Sie ein Bit als dieses sehr kleine Informationsvolumen definieren, erhalten Sie eine digitale Abstraktion für die Ausgabe Ihres analogen Computers.
Mit anderen Worten, wenn Sie eine formale Abstraktion eines digitalen Computers verwenden, bei der Sie eine ausreichende Auflösung für Ihre Berechnungen erzielen können, können Sie dieselbe berechnen, die ein vergleichbarer realer analoger Computer für dieses Problem berechnet.
Das gleiche Problem tritt beim Digitalisieren der Zeit auf. Wenn Sie sich beispielsweise mit analogen und digitalen Filteräquivalenzen befassen, tritt beim Digitalisieren eines analogen Filters immer ein Fehler auf. Dieser Fehler tendiert zu 0, wenn der Zeitschritt, der für die Diskretisierung des kontinuierlichen Systems verwendet wird, kleiner wird.