Früher, als ich anfing zu programmieren, verwendeten alle Prozessoren, soweit mir bekannt ist, eine festgelegte Menge an Strom. Es gab keinen Prozessor, der "untätig" war.
Heutzutage gibt es alle Arten von Technologien zur Reduzierung des Stromverbrauchs, wenn der Prozessor nicht sehr ausgelastet ist, hauptsächlich durch dynamische Reduzierung der Taktrate.
Meine Frage ist, warum Laufen mit einer niedrigeren Taktrate weniger Strom verbraucht.
Mein mentales Bild eines Prozessors ist eine Referenzspannung (z. B. 5 V), die eine binäre 1 darstellt, und 0 V, die 0 darstellt. Daher neige ich dazu, an eine konstante 5 V zu denken, die über den gesamten Chip angelegt wird, wobei die verschiedenen Logikgatter diese Spannung trennen Wenn "Aus", bedeutet dies, dass eine konstante Energiemenge verwendet wird. Die Geschwindigkeit, mit der diese Tore ein- und ausgeschaltet werden, scheint in keinem Verhältnis zur verwendeten Leistung zu stehen.
Ich habe keinen Zweifel, dass dies ein hoffnungslos naives Bild ist, aber ich bin kein Elektrotechniker. Kann jemand erklären, was mit der Frequenzskalierung wirklich los ist und wie sie Strom spart. Gibt es andere Möglichkeiten, wie ein Prozessor je nach Status mehr oder weniger Strom verbraucht? ZB Verbraucht es mehr Strom, wenn mehr Tore geöffnet sind?
Inwiefern unterscheiden sich mobile Prozessoren und Prozessoren mit geringem Stromverbrauch von ihren Desktop-Verwandten? Sind sie nur einfacher (weniger Transistoren?) Oder gibt es einen anderen grundsätzlichen Konstruktionsunterschied?