Il n'y a pas de convention universellement suivie sur ce qu'est une "marge d'erreur" mais je pense (comme vous l'avez observé) qu'elle est le plus souvent utilisée comme signifiant le rayon d'un intervalle de confiance , soit dans l'échelle d'origine de l'estimation, soit en pourcentage d'une estimation. Parfois, il est utilisé comme synonyme de «l'erreur standard», vous devez donc faire attention à ce que les autres comprennent ce que vous voulez dire lorsque vous l'utilisez.
Un « intervalle de confiance » ne possède convention universelle sur sa signification. Il s'agit essentiellement de la plage d'estimations possibles générée par un processus d'estimation qui contiendrait, X% du temps (95% étant le plus couramment utilisé), la vraie valeur du paramètre estimé. Ce concept de "processus" qui produirait la vraie valeur X% du temps est un peu contre-intuitif et ne doit pas être mélangé avec un "intervalle de crédibilité" de l'inférence bayésienne, qui a une définition beaucoup plus intuitive, mais est pas la même chose que l'intervalle de confiance largement utilisé.
Votre devis réel est un peu compliqué et nécessite quelques corrections mineures, comme décrit. J'éviterais cette utilisation supplémentaire du mot "marge" et privilégierais les "barres d'erreur". Donc:
"Les intervalles de confiance sont estimés à 1,96 multiplié par les erreurs types pertinentes et affichés sur les graphiques sous forme de barres d'erreur."
(Cela met de côté la question de savoir si c'est un bon moyen de calculer les intervalles de confiance, qui dépend de votre modèle, etc. et n'est pas pertinent).
Dernier commentaire sur la terminologie - je n'aime pas «l'erreur type», qui signifie simplement «l'écart type de l'estimation»; ou "erreur d'échantillonnage" en général - je préfère penser en termes de caractère aléatoire et de variance des statistiques plutôt qu'en termes "d'erreurs". Mais j'ai glissé dans l'utilisation du terme "erreur standard" ci-dessus parce qu'il est si largement utilisé, je suppose.