Comment puis-je aligner / synchroniser deux signaux?


21

Je fais des recherches mais je suis resté bloqué au stade de l'analyse (j'aurais dû prêter plus d'attention à mes conférences de statistiques).

J'ai collecté deux signaux simultanés: débit intégré pour le volume et changement d'expansion thoracique. J'aimerais comparer les signaux et j'espère finalement tirer le volume du signal d'expansion thoracique. Mais je dois d'abord aligner / synchroniser mes données.

Comme l'enregistrement ne démarre pas exactement au même moment et que l'expansion thoracique est capturée pendant des périodes plus longues, je dois trouver les données qui correspondent à mes données de volume dans l'ensemble de données d'expansion thoracique et avoir une mesure de leur alignement. Je ne sais pas trop comment procéder si les deux signaux ne démarrent pas exactement au même moment, ou entre des données à différentes échelles et à différentes résolutions.

J'ai joint un exemple des deux signaux ( https://docs.google.com/spreadsheet/ccc?key=0As4oZTKp4RZ3dFRKaktYWEhZLXlFbFVKNmllbGVXNHc ), veuillez me faire savoir s'il y a autre chose que je pourrais fournir.


Je ne le sais pas assez bien pour donner une réponse, et je ne suis pas certain que cela réponde à la question, mais une approche de synchronisation des signaux est appelée "enregistrement", qui est un sous-ensemble de l'analyse des données fonctionnelles. Ce sujet est abordé dans le livre de la FDA de Ramsey et Silverman. L'idée de base est que les signaux observés peuvent être "déformés" (par exemple, si nous étions intéressés par la mécanique de la façon dont les gens mâchent, mais nous avons des données sur les personnes mâchant à différentes vitesses - l'axe du temps est "déformé" dans ce cas) et l'enregistrement tente de définir le signal sous-jacent sur une échelle commune, "non déformée".
Macro

1
Avez-vous déjà collecté toutes vos données? Est-ce un sujet pilote? Si vous ne faites que commencer, je chercherais à séparer le signal de votre ceinture et à l'utiliser comme déclencheur (ou même simplement pour marquer un horodatage) de votre enregistrement de flux. Habituellement, les systèmes d'acquisition ont cette capacité avec un port auxiliaire ou de déclenchement. Je suis sûr qu'il existe des moyens de le distinguer simplement en utilisant vos données comme l'a suggéré Macro, mais l'ajout de cette étape supplémentaire vous évitera beaucoup de conjectures.
jonsca

1
Je pense que vous ne voulez estimer qu'un retard fixe. Vous pouvez utiliser la corrélation croisée comme indiqué ici: stats.stackexchange.com/questions/16121/…
thias

1
Vous voudrez peut-être poser cette question sur dsp.SE où ils pensent également à la synchronisation des signaux.
Dilip Sarwate

1
@Thias est correct, mais il semble que la première série doit être rééchantillonnée afin d'avoir des intervalles communs.
whuber

Réponses:


24

La question demande comment trouver l'ampleur d'une série temporelle ("expansion") par rapport à une autre ("volume") lorsque les séries sont échantillonnées à intervalles réguliers mais différents .

Dans ce cas, les deux séries présentent un comportement raisonnablement continu, comme le montrent les figures. Cela implique (1) peu ou pas de lissage initial peut être nécessaire et (2) le rééchantillonnage peut être aussi simple qu'une interpolation linéaire ou quadratique. Quadratique peut être légèrement meilleur en raison de la douceur. Après le rééchantillonnage, le décalage est trouvé en maximisant la corrélation croisée , comme indiqué dans le fil de discussion. Pour deux séries de données échantillonnées avec décalage, quelle est la meilleure estimation du décalage entre elles? .


Pour illustrer , nous pouvons utiliser les données fournies dans la question, en utilisant Rpour le pseudocode. Commençons par les fonctionnalités de base, la corrélation croisée et le rééchantillonnage:

cor.cross <- function(x0, y0, i=0) {
  #
  # Sample autocorrelation at (integral) lag `i`:
  # Positive `i` compares future values of `x` to present values of `y`';
  # negative `i` compares past values of `x` to present values of `y`.
  #
  if (i < 0) {x<-y0; y<-x0; i<- -i}
  else {x<-x0; y<-y0}
  n <- length(x)
  cor(x[(i+1):n], y[1:(n-i)], use="complete.obs")
}

Il s'agit d'un algorithme grossier: un calcul basé sur FFT serait plus rapide. Mais pour ces données (impliquant environ 4000 valeurs), c'est assez bon.

resample <- function(x,t) {
  #
  # Resample time series `x`, assumed to have unit time intervals, at time `t`.
  # Uses quadratic interpolation.
  #
  n <- length(x)
  if (n < 3) stop("First argument to resample is too short; need 3 elements.")
  i <- median(c(2, floor(t+1/2), n-1)) # Clamp `i` to the range 2..n-1
  u <- t-i
  x[i-1]*u*(u-1)/2 - x[i]*(u+1)*(u-1) + x[i+1]*u*(u+1)/2
}

J'ai téléchargé les données sous forme de fichier CSV séparé par des virgules et supprimé son en-tête. (L'en-tête a causé des problèmes pour R que je n'ai pas voulu diagnostiquer.)

data <- read.table("f:/temp/a.csv", header=FALSE, sep=",", 
                    col.names=c("Sample","Time32Hz","Expansion","Time100Hz","Volume"))

NB Cette solution suppose que chaque série de données est dans l'ordre temporel sans aucune lacune dans l'une ou l'autre. Cela lui permet d'utiliser des index dans les valeurs en tant que proxys pour le temps et de mettre à l'échelle ces index en fonction des fréquences d'échantillonnage temporelles pour les convertir en temps.

Il s'avère que l'un ou les deux de ces instruments dérivent un peu avec le temps. Il est bon de supprimer ces tendances avant de continuer. De plus, comme il y a une diminution du signal de volume à la fin, nous devons le couper.

n.clip <- 350      # Number of terminal volume values to eliminate
n <- length(data$Volume) - n.clip
indexes <- 1:n
v <- residuals(lm(data$Volume[indexes] ~ indexes))
expansion <- residuals(lm(data$Expansion[indexes] ~ indexes)

Je rééchantillonne la série la moins fréquente afin d'obtenir le plus de précision possible du résultat.

e.frequency <- 32  # Herz
v.frequency <- 100 # Herz
e <- sapply(1:length(v), function(t) resample(expansion, e.frequency*t/v.frequency))

Maintenant, la corrélation croisée peut être calculée - pour plus d'efficacité, nous ne recherchons qu'une fenêtre raisonnable de décalages - et le décalage où la valeur maximale est trouvée peut être identifié.

lag.max <- 5       # Seconds
lag.min <- -2      # Seconds (use 0 if expansion must lag volume)
time.range <- (lag.min*v.frequency):(lag.max*v.frequency)
data.cor <- sapply(time.range, function(i) cor.cross(e, v, i))
i <- time.range[which.max(data.cor)]
print(paste("Expansion lags volume by", i / v.frequency, "seconds."))

La sortie nous indique que l'expansion est en retard de 1,85 seconde. (Si les 3,5 dernières secondes de données n'étaient pas écrêtées, la sortie serait de 1,84 seconde.)

C'est une bonne idée de tout vérifier de plusieurs façons, de préférence visuellement. Tout d'abord, la fonction de corrélation croisée :

plot(time.range * (1/v.frequency), data.cor, type="l", lwd=2,
     xlab="Lag (seconds)", ylab="Correlation")
points(i * (1/v.frequency), max(data.cor), col="Red", cex=2.5)

tracé de corrélation croisée

Ensuite, enregistrons les deux séries dans le temps et plaçons-les ensemble sur les mêmes axes .

normalize <- function(x) {
  #
  # Normalize vector `x` to the range 0..1.
  #
  x.max <- max(x); x.min <- min(x); dx <- x.max - x.min
  if (dx==0) dx <- 1
  (x-x.min) / dx
}
times <- (1:(n-i))* (1/v.frequency)
plot(times, normalize(e)[(i+1):n], type="l", lwd=2, 
     xlab="Time of volume measurement, seconds", ylab="Normalized values (volume is red)")
lines(times, normalize(v)[1:(n-i)], col="Red", lwd=2)

Parcelles enregistrées

Ça a l'air plutôt bien! Cependant, nous pouvons avoir une meilleure idée de la qualité d'enregistrement avec un nuage de points . Je fais varier les couleurs dans le temps pour montrer la progression.

colors <- hsv(1:(n-i)/(n-i+1), .8, .8)
plot(e[(i+1):n], v[1:(n-i)], col=colors, cex = 0.7,
     xlab="Expansion (lagged)", ylab="Volume")

Nuage de points

Nous recherchons les points à suivre dans les deux sens le long d'une ligne: les variations qui reflètent les non-linéarités dans la réponse temporelle de l'expansion au volume. Bien qu'il existe quelques variantes, elles sont assez petites. Pourtant, la façon dont ces variations changent au fil du temps peut présenter un certain intérêt physiologique. Ce qui est merveilleux avec les statistiques, en particulier leur aspect exploratoire et visuel, c'est la façon dont elles ont tendance à créer de bonnes questions et idées ainsi que des réponses utiles .


1
Merde, tu es incroyable. La corrélation croisée est exactement ce que j'imaginais (je savais qu'il devait y avoir un nom), mais votre réponse / explication allait au-delà. Merci beaucoup!
person157

Je n'ai pas le temps pour une explication complète maintenant, mais un grand compte apparaît dans les livres "Recettes numériques". Par exemple, regardez le chapitre 13.2, « corrélation et Autocorrélation Utilisation de la FFT, » en numérique Recettes en C . Vous pouvez également examiner la acffonction de R.
whuber

Nouveau dans 'r', veuillez être gentil: la fonction 'normaliser' utilisée dans le graphique combiné (avant-dernier graphique) ne fonctionnera pas pour moi, y a-t-il une mise à jour de cette fonction depuis que cette réponse a été publiée?
CmKndy

1
@CmKndy J'étais aussi nouveau Rlorsque j'ai posté cette réponse et j'ai juste oublié de fournir une définition pour cette fonction. Voici l'original:normalize <- function(x) { x.max <- max(x); x.min <- min(x); dx <- x.max - x.min; if (dx==0) dx <- 1; (x-x.min) / dx }
whuber

Parfait, merci @whuber. Si vous pouviez poster une réponse comme celle-ci lorsque vous étiez nouveau sur R, je suis encore plus récent que je ne le pensais;)
CmKndy
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.