Il s'agit d'une question relative à mon projet sur un émetteur audio optique.
J'ai câblé un appareil très simple dans lequel j'utilise un transformateur de signal audio (EI14) pour moduler l'intensité d'un faisceau laser (une diode bon marché de 650 nm, 5 mW) en fonction de la sortie audio de mon téléphone. Le laser est ensuite reçu par une photorésistance (G5528 A205) connectée à la prise microphone de mon ordinateur portable. Avec cette configuration, je peux transmettre du son entre les deux appareils.
J'ai ensuite amélioré la configuration, en remplaçant la photorésistance par un photo transistor afin d'améliorer le temps de réponse au changement d'intensité de la lumière (12us au lieu de 20ms).
La qualité s'est considérablement améliorée; ce n'est toujours pas génial et je ne m'attendais pas à ce que ce soit car il y a beaucoup à améliorer. Mais il y a une propriété particulièrement déroutante de cette configuration. Il transmet très bien l'audio, mais il ne peut pas gérer la parole. Non pas qu'il le transmette mal, c'est plus qu'il ne le transmet pas du tout. Dans cet enregistrement, l'audio est capturé mais la voix qui devrait être en plein essor après environ 50 ans n'est tout simplement pas là. Si vous écoutez très attentivement et savez à quoi vous attendre, il y a le moindre vestige de la voix d'origine.
J'ai pensé qu'il était noyé par la musique et j'ai essayé d'enregistrer un message vocal et de le transmettre à la place. Même résultat - le récepteur ne voit rien, l'esquisse d'amplitude reçue ne tremblera même pas. Même chose avec un enregistrement de livre audio.
Avez-vous des idées sur la façon dont un tel écart entre la musique et la parole pourrait survenir?