Wann haben wir beschlossen, das Telefon mit kHz zu testen? War das schon immer so? Warum haben wir das gemacht? Liegt es daran, dass höhere Bitraten nicht so schnell übertragen werden können? Und zählen diese Gründe noch? Und wenn nicht, warum gibt es noch keinen neuen Standard? Stimmt es, dass kHz die niedrigstmögliche Abtastrate ist, um verständliche Sprache zu übertragen?8
Ich versuche, Quellen dafür zu finden, aber es scheint nicht viele Informationen darüber zu geben.
Antworten:
Wenn jemand graben möchte, werden sie wahrscheinlich feststellen, dass Bell Telephone vor dem Multiplexen von Sprachleitungen viel über den Frequenzinhalt der menschlichen Stimme recherchiert hat. Sie verwendeten ursprünglich Testgruppen, um die Bel-Audioeinheit und die Leistungsverteilung der Stimme sowie die Empfindlichkeit des menschlichen Ohrs für verschiedene Frequenzen zu entwickeln. Sie entwickelten eine Bandpass-Charakteristik, die einen Spitzenwert um 2,1 kHz erreichte und unter 300 und über 3000 Hz abrollte. Das gab eine gut menschlich klingende Stimme, wenn es richtig gemacht wurde. Das alles war analog.
AM Radio erweiterte das auf 5 KHz, um Musik aufzunehmen, die für die meisten Leute akzeptabel war, als wir jung waren und gute Ohren hatten. Fernseh-Flyback-Transformatoren wurden für einen Betrieb mit ~ 17,5 kHz entwickelt, da es eine magische Zahl für die Bildwiedergabe gabund die meisten Leute konnten das Jammern nicht hören . Single Sideband Radio wurde in den 1960er Jahren kommerzialisiert und benötigte sehr scharfe Grenzfrequenzen. Ich habe Radios mit Filtern bei 2,1 und 3,1 kHz verwendet. 2.1 hatte einige Donald Duck-Eigenschaften. 3.1 klang gut, wieder mit jungen Ohren. Der Audiobandpass wurde mit FM auf 20 kHz oder besser erhöht, da die höheren Trägerfrequenzen eine höhere Bandbreite besser bewältigen konnten Musikwiedergabe verarbeiten konnten . Stapeln Sie einige Xylophone oder Glocken oder andere hohe Instrumente und sie können genug harmonische Energie in die höheren Frequenzen bringen. OTOH, wie es der Staat war, können die meisten Leute es nicht hören.
Das Fazit ist, dass jeder, der behauptet, 20 KHz Bandbreite für Sprache zu benötigen, nicht aufpasst. 3 KHz reichen aus, 5 geben Ihnen einen gewissen Spielraum. Wenn es nicht richtig klingt, ist etwas anderes als die Bandbreite das Problem.
Als digitale Signale entwickelt wurden, haben Leute, die wissen, herausgefunden, dass eine Wellenform, egal wie seltsam sie aussieht, in eine Reihe von Sinuswellen zerlegt werden kann. Das harmonische Mischen dieser Wellen erzeugte das typische stachelige Muster von Stimme oder Musik. Zuletzt untersuchte Nyquist die digitale Abtastrate, die zur Wiedergabe einer Sinuswelle bei einer bestimmten Frequenz erforderlich ist. Es stellt sich heraus, dass 2 Abtastungen erforderlich sind, um eine Sinuswelle zu erzeugen, sodass die höchste Frequenz, die reproduziert wird, die Hälfte der Abtastrate beträgt. Sie möchten 5 kHz Audio und dann ein Sample mit 10 kHz. Gut für die Stimme. Sie möchten Musik mit höherer Wiedergabetreue, als die meisten Leute hören können, und dann bei etwa 40 KHz abtasten, um mehr als 20 KHz zu erhalten.
Ein weiterer Leckerbissen ist Sampling gegen Bitrate. Wenn Sie mit einer bestimmten Frequenz abtasten, multiplizieren Sie diese mit der Wortlänge, um die minimale Bitrate zu erhalten, die zur Erzeugung des gewünschten Signals erforderlich ist. Reduzieren Sie die Bitrate und die Größe des Abtastworts wird gekürzt, um die neue Bitrate bei einer bestimmten Abtastrate zu erreichen. Das ist alles "verlustfreie" Codierung. Dies ist alles aus dem Speicher und versucht, aktuelle Daten zu finden. Es ist da, wenn jemand nach Zitaten sucht. Ich werde mich nicht darum kümmern, da ich zu alt werde, um mich darum zu kümmern. Ich hatte es einfach satt, durch viele offensichtliche mythische Probleme zu waten, als ich mich für Audioaufnahmen interessierte.
quelle
Es wurde angenommen, dass es einen guten Kompromiss zwischen Qualität und Bandbreite bietet. Tatsächlich belegt ein einzelnes Sprachsignal eine Bandbreite von 8 kHz und nicht von 8 kbps. Jede Probe wird in 8 Bits quantisiert, was eine Rate von 64 kbps ergibt, die universell verwendet wird.
Weiterführende Literatur:
quelle
Ein weiterer Grund ist, dass vor der digitalen Signalübertragung Telefon-Audio analog in einen Schmalbandkanal moduliert wurde, so dass mehrere Telefonanrufe über eine einzige analoge Verbindung (HF- und Mikrowellenturm-Relais usw.) gesendet werden konnten zuerst tiefpassgefiltert werden, um die für jeden Kanal erforderliche Bandbreite zu verringern, um die größte Anzahl von Kanälen in eine analoge Leitung zu packen (aber selbst dann konnte man an einem schlechten Tag einige benachbarte Telefonanrufe als Hintergrund hören Lärm). Da sich die Leute an Ferngespräche ohne Frequenzen über 3,5 kHz gewöhnt hatten, wurde diese Bandbreite auch für Ortsgespräche kommerziell akzeptabel.
Für die frühe Weltraumerkundungskommunikation wurden jedoch noch engere Bandbreiten verwendet, sodass 3,5 kHz möglicherweise nicht das Minimum für verständliche Sprache sind.
quelle
Um viele Missverständnisse auszuräumen.
Erstens gab es noch nie ein 56k-Baud-Modem. Baud handelt von Zustandsänderungen und wurde bei 1200 Baud ausgereizt. Alles darüber hinaus erforderte eine ausgefeiltere Codierung.
Zweitens nimmt das menschliche Gehör nicht nur die Grundtöne wahr, sondern auch viele Ordnungen harmonischer Inhalte, die weit über die Grundtöne hinausgehen. Wenn dieser harmonische Inhalt entfernt wird, klingt das Audio weniger natürlich und angenehm. Audio mit einer höheren Auflösung (als 8 kHz) ist sowohl verständlicher als auch für das Ohr angenehmer.
Drittens arbeitet Nyquist innerhalb eines festen Zeitbereichs. Wenn Sie genau zum Zeitpunkt eines Peaks oder Tals mit der Abtastung beginnen, benötigen Sie nur das Zweifache der Abtastrate für die Frequenz. In der realen Welt können Ihre Abtastpunkte jedoch zu einem beliebigen zeitlichen Versatz zum Peak oder Trog auftreten, weshalb eine höhere Abtastrate erforderlich ist. Wenn Sie beispielsweise eine Sinuswelle abtasten und Ihr Abtastmoment genau 90 Grad vom Wellenbeginn entfernt auftritt, schlagen Ihre Daten eher eine gerade Linie als eine Welle vor. Für Grundtöne ist dies kritisch. Für harmonische Inhalte ist es eher eine schöne Sache, mit abnehmenden Renditen nahe dem oberen Ende des hörbaren Bereichs. Nyquist für die Audioverarbeitung ist eines der am schlechtesten interpretierten Theoreme überhaupt.
quelle
Wie andere gesagt haben, ist 4 kHz Standard, weil es natürlich dort ist, wo menschliche Stimme Quelle1 Quelle2 ist . Ich habe diesen einen Artikel finden , die Grundfrequenzen sind viel niedriger 85Hz-300Hz erwähnt Artikel . Ob dies in der Praxis funktioniert oder nicht, kann ich nicht sicher sagen. aber einen Versuch wert
quelle
Das analoge Telefonsystem hatte einen Mauerfilter bei 3,9 kHz. Dies übergab alle notwendigen Informationen für verständliche Sprache und ermöglichte das Packen der Bandbreite. Viele Menschen wurden einer Gehirnwäsche unterzogen, um über die erforderlichen Bandbreiten nachzudenken. Bandbreiten von 20 bis 20.000 Hz eignen sich hervorragend für Musik, sind jedoch für die Wiedergabe menschlicher Sprache völlig unnötig.
Kann jemand Nyquist fragen, wie wir 56 KBaud-Faxsignale über analoge Leitungen mit 3,9-kHz-Brick-Wall-Filtern gesendet haben? Erinnert sich jemand an Faxgeräte?
Die höchste Note auf einem Klavier ist 4186 Hz. Der Frequenzbereich menschlicher Stimmen liegt unter 1000 Hz. Das mittlere C eines Klaviers beträgt ungefähr 262 Hz, um die Dinge etwas genauer zu betrachten.
quelle