Wir möchten den direkten Zugriff auf CUDA-fähige GPUs in KVM oder Xen (oder Citrix Xenserver) ermöglichen. Insbesondere möchten wir PCI-Passthrough verwenden, um auf eine NVIDIA Tesla S2050-Einheit zuzugreifen, die aus 4 Tesla C2050-Geräten besteht. Ich bin mir bewusst, dass Xenserver 5.6 SLI Multi-OS-fähige GPUs unterstützt, aber ich verstehe, dass die C2050 keine SLI Multi-OS-Geräte sind. Ich würde es vorziehen, RPC-ähnliche Lösungen aufgrund von Leistungs- und Wartungsproblemen zu vermeiden, die ich erlebt habe.
Amazon EC2 bietet Xen-VMs mit Tesla M2050-GPUs an, von denen ich glaube, dass sie unseren C2050s ziemlich ähnlich sind. Es scheint also möglich zu sein, was ich tun möchte. Hat jemand erfolgreich eine Nicht-SLI-Multi-OS-GPU von KVM oder Xen an Linux VM übergeben und eine CUDA-Anwendung erfolgreich ausgeführt? Wenn ja, welche Virtualisierungslösung haben Sie verwendet und welche GPU wurde verwendet?