Die GPU ist die grafische Verarbeitungseinheit. Es ist die CPU der Grafikkarte.
Traditionell übernahm die CPU die gesamte Grafikverarbeitung, bis die Hersteller von Grafikkarten damit begannen, GPUs in die Displayadapter aufzunehmen. Die GPU war eine dedizierte Hardware ähnlich der alten FPU (Gleitkommaeinheit, die für die schnellere Ausführung fortgeschrittener mathematischer Routinen als die CPU vorgesehen war), mit der gängige Grafikroutinen sehr schnell ausgeführt werden konnten. (Tatsächlich kamen GPUs mit dem Schritt der Grafikkartenhersteller, die Grafikbeschleunigung in die Karte zu integrieren, anstatt eine separate Karte zu benötigen, genau wie die Funktion von FPUs schließlich direkt in CPUs integriert wurde.)
Schließlich übertrafen GPUs die CPUs, so dass ein Grafikprozessor tatsächlich mehr Transistoren hatte, schneller (und heißer) lief und so weiter. Die Hersteller von Grafikkarten erkannten, dass die GPU nun eine wirklich leistungsstarke Hardware ist, die häufig im Leerlauf ist (z. B. beim Surfen im Internet, Bearbeiten von Dokumenten usw.). Ab dem X1300 enthielten die ATI-Karten also AVIVO , was die Benutzer, um Videokonvertierungssoftware auf dem Prozessor der Grafikkarte auszuführen, anstatt dies nur auf der langsameren CPU zu tun. Nvidia antwortete mit CUDA , der ersten echten GPGPU, bei der es sich im Grunde um eine Möglichkeit handelt, die GPUs auf einer Grafikkarte als allgemeine Zusatzprozessoren zu verwenden, die für jeden Zweck verwendet werden können, nicht nur für Grafik- oder Videozwecke.
Da eine GPU stark optimiert ist, um erweiterte Berechnungen wie Gleitkomma-Arithmetik, Matrix-Arithmetik und dergleichen durchzuführen, können sie Funktionen wie Videokonvertierung, Nachbearbeitung sowie Aufgaben wie BOINC oder Folding @ Home viel besser ausführen als mit eine CPU allein.
Ein moderner Computer kann ein Kraftpaket sein, mit einer Multi-Core-CPU und Multi-GPU-Grafikkarte (n), die als Super-CPUs fungieren können. Die Rechenleistung heutiger Computer ist wirklich unglaublich. Noch besser ist, dass die Hersteller die Chips energieeffizienter machen, so dass sie wirklich leistungsstark sind, aber auch so wenig Strom verbrauchen und so wenig Wärme wie möglich erzeugen können, wenn sie nicht benötigt werden, und uns so das Beste aus beiden Welten bieten!