J'utilise une version de "KISS FFT" de Mark Borgerding. Il accepte un tableau de valeurs d'entrée à virgule fixe 16 bits et produit un tableau de résultats flottants 32 bits.
J'ai découvert que si les amplitudes d'entrée sont faibles, beaucoup des valeurs de résultat flottantes sortent à zéro, mais si je modifie simplement les entrées (par, disons, le facteur 16), alors moins de valeurs de sortie sont nulles et donc la sortie semble contenir plus de détails. (Ce n'est pas important pour moi, mais pour des raisons de cohérence, je divise ensuite les valeurs flottantes résultantes par le même facteur d'échelle.)
Quoi qu'il en soit, cela semble fonctionner, en termes de production d'un résultat alors qu'auparavant je venais d'obtenir un tampon de pratiquement tous les zéros, mais je me demande s'il y a une raison pour laquelle ce ne serait pas une approche valide.
(Notez que cette approche signifie qu'il y a beaucoup plus de "grossièreté" / granularité dans les données, et, en particulier, le bruit de bas niveau qui serait normalement présent ne l'est pas. Je me demande presque s'il serait sage d'injecter du bruit de faible niveau pour remplacer les valeurs nulles dans l'entrée.)