Hier, après avoir vu des étudiants qui ont essayé d'utiliser un diviseur de tension au lieu d'un régulateur pour fournir un capteur avec une alimentation plus faible, avec des résultats prévisibles, j'ai commencé à me poser des questions sur cette question.
Lors du choix d'un régulateur, il semble que beaucoup regardent la chute de tension requise et la dissipation de puissance requise. Mis à part l'efficacité pour le moment, si un régulateur linéaire peut réduire cette puissance dans les limites thermiques, les régulateurs linéaires sont une option et, s'ils ne le peuvent pas, passer à des régulateurs à commutation.
Si l'on pouvait comprendre la gamme des courants absorbés et calculer un diviseur de tension qui maintiendrait simultanément l'entrée d'un régulateur linéaire suffisamment élevée pour maintenir la régulation et suffisamment basse pour que le régulateur ne brûle pas trop de puissance à travers le courant dessiner une plage, est-ce une approche viable?
Je peux penser à un certain nombre de raisons pour lesquelles ce n'est peut-être pas la meilleure approche: le taux de rejet de l'alimentation peut ne pas être assez bon sur le régulateur; la plage des courants absorbés qui rendent cette approche possible peut être très petite, à moins que vous n'utilisiez de petites résistances susceptibles de dépasser leur propre puissance nominale; il est juste plus efficace d'utiliser un régulateur à découpage; etc.
De plus, il se peut que les gens le fassent tout le temps, et je ne l'ai tout simplement pas remarqué, ou peut-être qu'un zener est utilisé à la place du séparateur. Il semble que lorsque la baisse de puissance est trop importante, les gens se tournent principalement vers des régulateurs de commutation.
Tout ce qui me manque?