In erster Linie würde ich mir vorstellen, dass es an den Shadern liegt. Die Unreal-Engine verfügt beispielsweise über eine bestimmte Methode zur Behandlung von HDR, eine bestimmte Methode zur Behandlung von Bump-Mapping, eine bestimmte Methode zur Behandlung von Lichtstreuung usw.
Sie haben auch ein einheitliches Maß an Klarheit in Bezug auf Einschränkungen wie Texturgrößen und Farbunterstützung.
Zusätzlich werden die Algorithmen ähnlich sein. Objekte werden mit denselben Algorithmen tesselliert. AI trifft Entscheidungen nach den gleichen Entscheidungsstrukturen.
Wenn das Bump-Mapping verrückte Spiegelungen hervorruft und beispielsweise stark auf Änderungen der Beleuchtung reagiert, denken Sie sofort an die Doom-3-Engine. Das liegt daran, dass dieser Shader-Code von jedem Spiel, das die Engine verwendet, gemeinsam genutzt wird. Du würdest sowas nicht rausreißen wollen.
"Alle Spiele-Engines verwenden dieselbe 3D-Rendering-Technologie, die wir alle verwenden."
Die Technologie ist die gleiche, aber die Regeln, nach denen die Welt tatsächlich aussieht (z. B. Beleuchtung, Tessellation, LOD usw.), werden alle vom Entwickler geschrieben. Die 3D-Rendering-Technologie hat nicht viel mit der visuellen Qualität der Dinge auf dem Bildschirm zu tun. Sogar die Regeln für das Anwenden einer flachen Umgebungsbeleuchtung bleiben dem Entwickler überlassen (vorausgesetzt, Sie verwenden keine Pipelines mit festen Funktionen).
Sie können Ihre OpenGL-App so gestalten, dass sie Ihrer DirectX-App ähnelt. Die zugrunde liegende Rendering-Technologie hat, abgesehen von der Geschwindigkeit, keine so großen Auswirkungen.