Mit BPP / linear beziehe ich mich auf BPP-Maschinen mit linearen Ratschlägen, die das Versprechen erfüllen, wenn sie den "richtigen" Rat geben, und die Derandomisierung sollte uns beispielsweise einen P / linearen oder (SUBEXP / linearen) Algorithmus geben.
Wenn wir uneinheitliche Annahmen verwenden, sollten klassische Ergebnisse funktionieren, da wir ungleichmäßige Gegner "täuschen" können.
Unter Verwendung einheitlicher Annahmen, beispielsweise , scheint eine nicht triviale Derandomisierung jedoch eine schwierigere Frage zu sein.
Gibt es Ergebnisse bezüglich dieser Art von Klassen, nicht notwendig BPP / linear?