Angenommen, wir haben eine Vektordarstellung einer beliebigen ganzen Zahl der Größe n, V_n
Dieser Vektor ist die Eingabe für einen maschinellen Lernalgorithmus.
Erste Frage: Für welche Art von Darstellungen ist es möglich, die Primalität / Zusammensetzung von n unter Verwendung eines neuronalen Netzwerks oder einer anderen Vektor-zu-Bit-ML-Abbildung zu lernen. Dies ist rein theoretisch - das neuronale Netz könnte möglicherweise unbegrenzt groß sein.
Lassen Sie uns Darstellungen ignorieren, die sich bereits auf Primärtests beziehen, wie z. B .: die durch Null getrennte Liste der Faktoren von n oder die Existenz eines zusammengesetzten Zeugen wie in Miller Rabin. Konzentrieren wir uns stattdessen auf Darstellungen in verschiedenen Radices oder Darstellungen als Koeffizientenvektoren von (möglicherweise multivariaten) Polynomen. Oder andere exotische wie gesetzt.
Zweite Frage: Für welche Arten von ML-Algorithmen wird dies, wenn überhaupt, unmöglich sein, unabhängig von den Besonderheiten des Darstellungsvektors? Lassen wir noch einmal die Darstellungen "Verboten durch Trivialität" weg, für die oben Beispiele angeführt sind.
Die Ausgabe des Algorithmus für maschinelles Lernen ist ein einzelnes Bit, 0 für Primzahl, 1 für Composite.
Der Titel dieser Frage spiegelt meine Einschätzung wider, dass der Konsens für Frage 1 "unbekannt" und der Konsens für Frage 2 "wahrscheinlich die meisten ML-Algorithmen" ist. Ich frage dies, da ich nicht mehr als das weiß und ich hoffe, dass jemand den Weg weisen kann.
Wenn es eine gibt, lautet die Hauptmotivation für diese Frage: Gibt es eine informationstheoretische Grenze für die Struktur der Primzahlen, die in einem neuronalen Netzwerk einer bestimmten Größe erfasst werden können? Da ich kein Experte in dieser Art von Terminologie bin, lassen Sie mich diese Idee ein paar Mal umformulieren und sehen, ob ich eine Monte-Carlo-Annäherung an das Konzept erhalte: Wie komplex ist die algorithmische Komplexität der Menge von Primzahlen? Kann die Tatsache, dass die Primzahlen rekursiv diophantinisch sind (und eine bestimmte große diophantinische Gleichung erfüllen ), verwendet werden, um dieselbe Struktur in einem neuronalen Netzwerk mit den oben beschriebenen Ein- und Ausgängen einzufangen?