Was ist eine Matrox-GPU und warum hat der UNIX-Server meiner Universität eine?


28

Ich war an den Spezifikationen des UNIX-Servers interessiert, den meine Universität für Studenten bereitstellt, und habe screenfetch ausgeführt . Hier ist die Ausgabe:

                                               user@unix4.university.edu
              `.-..........`               OS: Red Hat Enterprise Linux 7.5 Maipo
             `////////::.`-/.              Kernel: x86_64 Linux 3.10.0-862.14.4.el7.x86_64
             -: ....-////////.             Uptime: 9h 1m
             //:-::///////////`            Packages: 3796
      `--::: `-://////////////:            Shell: bash 4.2.46
      //////-    ``.-:///////// .`         CPU: Intel Xeon E5-2680 v2 @ 40x 3.6GHz [61.0°C]
      `://////:-.`    :///////::///:`      GPU: Matrox Electronics Systems Ltd. G200eR2
        .-/////////:---/////////////:      RAM: 8290MiB / 64215MiB
           .-://////////////////////.
          yMN+`.-::///////////////-`
       .-`:NMMNMs`  `..-------..`
        MN+/mMMMMMhoooyysshsss
 MMM    MMMMMMMMMMMMMMyyddMMM+
  MMMM   MMMMMMMMMMMMMNdyNMMh`     hyhMMM
   MMMMMMMMMMMMMMMMyoNNNMMM+.   MMMMMMMM
    MMNMMMNNMMMMMNM+ mhsMNyyyyMNMMMMsMM

Alles, was ich über Matrox-GPUs finden kann, ist die Wikipedia-Seite, auf der steht, dass der G200 1998 veröffentlicht wurde. Warum sollte meine Universität sie auf einem modernen Server installieren (die CPU wurde Ende 2013 freigegeben)?

linux  unix 

9
Glaubst du, ein UNIX-Server sollte was haben? Eine Nvidia-Karte? Für welche Spiele genau? Nein, ein Server benötigt meistens nur etwas, um den Textmodus anzuzeigen. Ich erinnere mich nicht, aber die Leute im Jahr 1998 verwendeten bereits grafische Desktops mit Windows 98? Eine Matrox G200 ist weitaus leistungsstärker als für einen Server erforderlich.
GabrielaGarcia

12
@GabrielaGarcia Viele Schüler verwenden diesen Server für CS-Hausaufgaben und ich bin in einer Klasse, die Tensorflow verwendet. Ich hatte gehofft, dass es eine CUDA-GPU gibt, mit der man herumspielen kann.

4
Ich bin sicher, dass es CUDA-Spezialprozessoren gibt, nur nicht auf diesem Server. Sie kosten eine Menge Geld (und nein, was Sie wahrscheinlich als CUDA kennen, ist nicht einmal lustig - NVidia macht spezielle Karten, warten Sie, bis Sie Zugang zu einem Server mit 6 davon für Tensorflow-Arbeiten erhalten ... jeder isst einen 2080ti zum Frühstück ).
TomTom

4
@trognanders Hypervisors emulieren keine Matrox (und niemand würde eine virtualisieren, wenn überhaupt möglich). Sie haben entweder einen eigenen GPU-Treiber oder sie legen eine generische VESA-SVGA-Karte offen.
User71659

3
@trognanders: Ich habe hier mehrere physische Server von Dell und HP, und die meisten von ihnen verwenden G200 , die wie von user1908704 erwähnt unter der eigenen PCI-Bridge des BMC angeschlossen sind. (Obwohl der älteste ATi ES1000 verwendet.)
Grawity

Antworten:


71

Allzweckserver benötigen keine moderne GPU - gerade genug, um einen mittelgroßen Konsolendesktop anzuzeigen. Sie beschäftigen sich hauptsächlich mit normalem CPU-Computing und Networking.

Matrox G200-VGAs werden jedoch häufig auf Servern verwendet, da sie in einen Baseboard-Management-Controller (BMC, auch als iLO, iDRAC oder IPMI bezeichnet) integriert sind.

Dieser Management-Controller fungiert als eigenständiges System mit eigenem Betriebssystem und ermöglicht dem Serveradministrator eine Remote-Verbindung mit dem Konsolendisplay und der Tastatur. Er kann die BIOS-Bildschirme anzeigen, einen Server neu starten, selbst wenn er vollständig eingefroren ist, und ihn sogar mit voller Leistung starten. aus. Für diese Aufgaben muss der Controller wissen, was der Grafikadapter gerade anzeigt.

Daher würde ich vermuten, dass die alten Matrox-Videoadapter dafür verwendet werden, da sie den Videopuffer im System-RAM (anstelle ihres eigenen VRAM) speichern und ein ausreichend einfaches Datenlayout verwenden, damit der BMC ihn entschlüsseln kann, ohne dass man sich mit den GPUs auskennt Interna, noch ohne Hilfe von der Haupt-OS.

(Oder vielleicht das Gegenteil - wie in den Kommentaren erwähnt, ist der G200 normalerweise in den BMC eingebaut , wodurch der BMC möglicherweise vollständig direkten Zugriff auf den Videopuffer des G200 erhält .)

Aber selbst wenn der Server für GPU-Computing gebaut wäre, würde er vermutlich keine "All-in-One-Grafikkarte" wie PCs haben, sondern einen Satz dedizierter GPGPUs (z. B. von nVidia) für Heavy- Computer Arbeit - und immer noch die gleiche Matrox VGA für die Konsole.


23
Ich vermute, es ist wahrscheinlicher, dass Matrox, als es für den Grafikkartenmarkt irrelevant wurde, das G200-Design für jeden, der den BMC produzierte, verkaufte oder lizenzierte, um es in den BMC-Chip zu integrieren, der in die Fernverwaltungsfunktion integriert ist.
R ..

14
Es gibt keinen G200-Chip, er ist im BMC implementiert, der bereits PCIe spricht. Ich hatte angenommen, dass es sich tatsächlich um eine Neuimplementierung der Schnittstellen auf Registerebene handelt (so, dass alle GPUs einfaches VGA ausführen können, ohne auf etwas von 1985 zu basieren), aber Matrox hat die G200 IP an Chipdesigner lizenziert.
user1908704

4
Außerdem sind die Treiber für den G200 und ähnliche Matrox- "Chips" alt und stabil und absolut stabil. Auch das ist auf einem Server wichtig.
Jamie Hanrahan

8
@R .. - "als Matrox für den Grafikkartenmarkt irrelevant wurde" ... Matrox ist für den Grafikkartenmarkt nie irrelevant geworden. Sie haben sich einfach spezialisiert - AIUI ist Marktführer bei der Herstellung von Grafikkarten für Systeme, die eine große Anzahl von Monitoren unterstützen müssen.
Jules

2
@JamieHanrahan: Wenn nur das ganze BMC auch
steinhart wäre

34

Die Matrox G200eR2 ist keine separate Grafikkarte. Es ist ein Chip, der direkt in das Server-Motherboard integriert ist. Es ist billig, sehr zuverlässig, einfach zu integrieren und bietet hervorragende Anzeigefähigkeit für Text (Konsole) und gute 2D-Grafikfähigkeiten. Es ist auch so bekannt, dass fast jedes Betriebssystem für Intel-Hardware eine integrierte Treiberunterstützung hat.

Der einzige Zweck für eine VGA-Karte besteht darin, eine grundlegende Konsolenanzeige zu erhalten, die Sie für das BIOS-Setup und die Erstinstallation des Servers verwenden können. Danach greifen Sie wahrscheinlich nur noch remote auf den Server zu. Es muss keine gute VGA-Karte sein. Sie werden nicht darauf spielen. Aber es ist ein großer Segen, wenn es mit jedem Betriebssystem, das Sie auf dem Server installieren möchten, sofort funktioniert. Und das ist alles, was Sie in einem Server brauchen und wollen.

Matrox-Chips waren für diesen Zweck immer sehr beliebt, und dieser spezielle wurde 2014 noch in neuen Dell-Servern und wahrscheinlich auch in einigen anderen Marken verwendet.


Tatsächlich gibt es auf den meisten Servern die Unterstützung für (Grafik- und Text-) Anzeigen nur für Betriebssysteme wie Windows. Die Verwaltungsschnittstelle unterstützt fast immer das BIOS-Setup über die serielle Schnittstelle (normalerweise über den BMC über das Netzwerk), und Betriebssysteme wie Linux können eine vollständige Installation und anschließende Operation mit einer seriellen Konsole ausführen, sodass Sie niemals das "Video" verwenden müssen. Konsolenanzeige überhaupt. Dies ermöglicht die Remote-Installation eines bloßen Computers, den Sie noch nie berührt haben, obwohl dies häufig über Remote-Video über das Netzwerk möglich ist.
Curt J. Sampson

2
You are not going to be gaming on it.- Sprechen Sie für sich selbst, ich habe Automatisierungsprogramme für Online-MMORPG-Spiele erstellt und sie rund um die Uhr laufen lassen, um rudimentäre, aber nützliche Aufgaben auf Servern zu erledigen.
Hanshenrik

@ CurtJ.Sampson, da bin ich mir nicht sicher ... Ein VGA-Ausgang ist immer noch die "Standard" -Schnittstelle, die jedes Gerät hat. Damit können Sie völlig unterschiedliche Geräte an einen einzigen KVM-Switch anschließen (netzwerkbasiert oder nicht), und für die wirklich einfachen Fälle müssen Sie den Management-Controller überhaupt nicht berühren. Unabhängig vom Betriebssystem wäre es ein wenig ärgerlich, keinen VGA-Ausgang und keinen Tastaturanschluss zu haben.
Ilkkachu

1
@ilkkachu VGA ist die "Standardeinstellung" für "PC" -ISA-Hardware, war es jedoch nie für die meisten anderen Serversysteme (Sun usw.). Wie auch immer, wenn Sie es bequem finden, ein KVM oder was auch immer zu verwenden, machen Sie das sicher weiter, aber gerade seriell hat eine Menge Vorteile (zB schneller, besonders über schlechte Netzwerke, können Sie die gesamte Ausgabe protokollieren, einfacher automatisieren, ...). Ignorieren Sie die Verwaltungseinheit nicht, es sei denn, Sie schließen ihren Netzwerkanschluss nicht an . Selbst wenn sie gut konfiguriert sind, sind sie unglaublich unsicher, und eine nicht konfigurierte lädt jeden ein, das System zu übernehmen, der Pakete senden kann.
Curt J. Sampson

Oh, und ich kann aus langjähriger Erfahrung sagen, dass es für Unix-Server in typischen professionellen Umgebungen in keiner Weise störend ist, kein VGA zu haben. In der Tat kann es lästiger sein, es zu haben und sicherzustellen, dass das System es nicht verwendet. (Sie glauben nicht, dass all diese Cloud-Server, die Amazon und Google betreiben, echte oder emulierte Videoausgaben verwenden, oder?)
Curt J. Sampson,

15

Warum sollte meine Universität sie auf einem modernen Server haben (CPU wurde Ende 2013 freigegeben)?

Weil ein Server keine Hochleistungs-GPU benötigt. Übrigens hatte
Matrox gute Multi-Monitor- Grafikkarten, lange bevor ATI / AMD und NVidia sie hatten.

Zum Zeitpunkt des Kaufs war die Entscheidung also wahrscheinlich logisch.


Ich gehe davon aus, dass dies angesichts des Alters des Chips sehr logisch und sehr kostengünstig ist.
GabrielaGarcia

+1 für alte treue Matrox'es ...
einpoklum
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.