Wenn jemand graben möchte, werden sie wahrscheinlich feststellen, dass Bell Telephone vor dem Multiplexen von Sprachleitungen viel über den Frequenzinhalt der menschlichen Stimme recherchiert hat. Sie verwendeten ursprünglich Testgruppen, um die Bel-Audioeinheit und die Leistungsverteilung der Stimme sowie die Empfindlichkeit des menschlichen Ohrs für verschiedene Frequenzen zu entwickeln. Sie entwickelten eine Bandpass-Charakteristik, die einen Spitzenwert um 2,1 kHz erreichte und unter 300 und über 3000 Hz abrollte. Das gab eine gut menschlich klingende Stimme, wenn es richtig gemacht wurde. Das alles war analog.
AM Radio erweiterte das auf 5 KHz, um Musik aufzunehmen, die für die meisten Leute akzeptabel war, als wir jung waren und gute Ohren hatten. Fernseh-Flyback-Transformatoren wurden für einen Betrieb mit ~ 17,5 kHz entwickelt, da es eine magische Zahl für die Bildwiedergabe gabund die meisten Leute konnten das Jammern nicht hören . Single Sideband Radio wurde in den 1960er Jahren kommerzialisiert und benötigte sehr scharfe Grenzfrequenzen. Ich habe Radios mit Filtern bei 2,1 und 3,1 kHz verwendet. 2.1 hatte einige Donald Duck-Eigenschaften. 3.1 klang gut, wieder mit jungen Ohren. Der Audiobandpass wurde mit FM auf 20 kHz oder besser erhöht, da die höheren Trägerfrequenzen eine höhere Bandbreite besser bewältigen konnten Musikwiedergabe verarbeiten konnten . Stapeln Sie einige Xylophone oder Glocken oder andere hohe Instrumente und sie können genug harmonische Energie in die höheren Frequenzen bringen. OTOH, wie es der Staat war, können die meisten Leute es nicht hören.
Das Fazit ist, dass jeder, der behauptet, 20 KHz Bandbreite für Sprache zu benötigen, nicht aufpasst. 3 KHz reichen aus, 5 geben Ihnen einen gewissen Spielraum. Wenn es nicht richtig klingt, ist etwas anderes als die Bandbreite das Problem.
Als digitale Signale entwickelt wurden, haben Leute, die wissen, herausgefunden, dass eine Wellenform, egal wie seltsam sie aussieht, in eine Reihe von Sinuswellen zerlegt werden kann. Das harmonische Mischen dieser Wellen erzeugte das typische stachelige Muster von Stimme oder Musik. Zuletzt untersuchte Nyquist die digitale Abtastrate, die zur Wiedergabe einer Sinuswelle bei einer bestimmten Frequenz erforderlich ist. Es stellt sich heraus, dass 2 Abtastungen erforderlich sind, um eine Sinuswelle zu erzeugen, sodass die höchste Frequenz, die reproduziert wird, die Hälfte der Abtastrate beträgt. Sie möchten 5 kHz Audio und dann ein Sample mit 10 kHz. Gut für die Stimme. Sie möchten Musik mit höherer Wiedergabetreue, als die meisten Leute hören können, und dann bei etwa 40 KHz abtasten, um mehr als 20 KHz zu erhalten.
Ein weiterer Leckerbissen ist Sampling gegen Bitrate. Wenn Sie mit einer bestimmten Frequenz abtasten, multiplizieren Sie diese mit der Wortlänge, um die minimale Bitrate zu erhalten, die zur Erzeugung des gewünschten Signals erforderlich ist. Reduzieren Sie die Bitrate und die Größe des Abtastworts wird gekürzt, um die neue Bitrate bei einer bestimmten Abtastrate zu erreichen. Das ist alles "verlustfreie" Codierung. Dies ist alles aus dem Speicher und versucht, aktuelle Daten zu finden. Es ist da, wenn jemand nach Zitaten sucht. Ich werde mich nicht darum kümmern, da ich zu alt werde, um mich darum zu kümmern. Ich hatte es einfach satt, durch viele offensichtliche mythische Probleme zu waten, als ich mich für Audioaufnahmen interessierte.