Du fragst:
- Ist das wirklich machbar, wie die Autoren es vorschlagen? Dem Papier zufolge sind ihre Ergebnisse sehr effizient und komprimieren Daten immer auf eine kleinere Größe. Wird das Wörterbuch nicht riesig groß sein?
Ja natürlich. Selbst für ihr handverlesenes Beispiel ("Der schnelle Silberfuchs springt über den faulen Hund") erzielen sie keine Komprimierung, da das Wörterbuch jede 4-Byte-Teilzeichenfolge des Texts enthält (minus 4 Byte für die eine Wiederholung von " DAS ") ... und die" komprimierte "Version des Textes müssen das ganze Wörterbuch plus all diesen Primzahlen-Mist enthalten.
- Könnte dies nicht verwendet werden, um die komprimierten Daten unter Verwendung desselben Algorithmus iterativ neu zu komprimieren? Es ist offensichtlich und wurde gezeigt, dass solche Techniken (bei denen die komprimierten Daten so oft wie möglich erneut komprimiert werden, wodurch die Dateigröße drastisch reduziert wird) unmöglich sind. In der Tat gäbe es keinen Unterschied zwischen der Menge aller Zufallsdaten und den komprimierten Daten. Warum fühlt es sich also möglich an?
Sie scheinen wieder ein gutes intuitives Verständnis für die Situation zu haben. Sie haben intuitiv erkannt, dass kein Komprimierungsschema jemals für alle Eingaben wirksam sein kann , denn wenn dies der Fall wäre, könnten wir es einfach immer wieder anwenden, um Eingaben auf ein einzelnes Bit zu komprimieren - und dann auf Nichts!
Anders ausgedrückt: Wenn Sie alle .wav-Dateien in .mp3 komprimiert haben, können Sie die Dateigröße nicht verbessern, indem Sie sie komprimieren. Wenn Ihr MP3-Kompressor seine Arbeit erledigt hat, sind keine Muster mehr für den ZIP-Kompressor verfügbar.
(Gleiches gilt für die Verschlüsselung: Wenn ich eine Datei mit Nullen nehme und sie gemäß dem von mir gewählten Verschlüsselungsalgorithmus verschlüssele, sollte die resultierende Datei nicht komprimierbar sein , da sonst mein Verschlüsselungsalgorithmus "Muster" in die Ausgabe verliert!)
- Auch wenn die Technik noch nicht perfekt ist, kann sie offensichtlich optimiert und stark verbessert werden. Warum ist dies nicht allgemein bekannt / untersucht? Wenn diese Behauptungen und experimentellen Ergebnisse in der Tat zutreffen, könnte dies dann nicht das Computing revolutionieren?
Diese Behauptungen und experimentellen Ergebnisse sind nicht wahr.
Wie Tom van der Zanden bereits bemerkte, ist der "Komprimierungsalgorithmus" von Chakraborty, Kar und Guchait dahingehend fehlerhaft, dass er nicht nur kein Komprimierungsverhältnis erreicht, sondern auch irreversibel ist (in mathematischer Sprache "nicht bijektiv"): Es gibt Eine Vielzahl von Texten, die alle zum selben Bild "komprimieren", weil ihr Algorithmus im Grunde genommen eine Multiplikation ist und die Multiplikation kommutativ ist.
Sie sollten sich wohl fühlen, dass Ihr intuitives Verständnis dieser Konzepte Sie sofort zum richtigen Ergebnis geführt hat. Und wenn Sie Zeit sparen können, sollten Sie Mitleid mit den Autoren des Papiers haben, die offensichtlich viel Zeit damit verbracht haben, über das Thema nachzudenken, ohne es überhaupt zu verstehen.
Das Dateiverzeichnis, das eine Ebene über der von Ihnen angegebenen URL liegt, enthält 139 "Artikel" derselben Qualität, die anscheinend alle in den "Proceedings of the International Conference on Emerging Research in den Bereichen Computer, Information, Kommunikation und Anwendungen" aufgenommen wurden. Dies scheint eine Scheinkonferenz des üblichen Typs zu sein. Der Zweck solcher Konferenzen ist es, betrügerischen Akademikern die Möglichkeit zu geben, "Veröffentlichung in einer Zeitschrift" zu behaupten, und skrupellosen Organisatoren die Möglichkeit zu geben, eine Menge Geld zu verdienen. (Weitere Informationen zu gefälschten Konferenzen finden Sie in diesem reddit-Thread oder in verschiedenen StackExchange-Beiträgen zu diesem Thema .) Scheinkonferenzen gibt es in allen Bereichen. Lerne einfach, deinem Instinkt zu vertrauen und nicht alles zu glauben, was du in einem "Konferenzablauf" liest, und du wirst es gut machen.