Ich habe einen Sensor, der (mehr oder weniger) bandbegrenzte Daten mit einem Cut-Off von ca. 45 Hz, einem Roll-Off und AWGN erzeugt . Ich habe einen ADC, der das Signal bei 800 Hz abtastet, mit einem einpoligen Anti-Aliasing-Filter bei etwa 200 Hz. Das Problem ist, dass ich nur genügend Kommunikationsbandbreite habe, um Samples mit 100 Hz zu senden, und daher eine gewisse Dezimierung erforderlich ist.
Derzeit habe ich einfach einen Filter mit gleitendem Durchschnitt von 8 Stichproben und sende jede 8. Stichprobe. Das fühlt sich schmutzig und suboptimal an. Sicherlich muss es einen besseren Weg geben.
Gibt es in diesem Fall eine akzeptierte "beste" Vorgehensweise? Sollte ich zum Beispiel ein Tiefpass-FIR-Filter verwenden, um eine Signalbandbreite von nahezu 50 Hz wie möglich zu erreichen? Oder gibt es eine Art optimales Schätzschema, das besser funktioniert?
Ziel ist es, mehrere Kanäle (9 Kanäle) auf einem kleineren Mikrocontroller (z. B. ARM Cortex M4) zu implementieren. Je rechnerisch billiger, desto besser!
quelle