Questions marquées «dataframe»

Un bloc de données est une structure de données tabulaire. Habituellement, il contient des données où les lignes sont des observations et les colonnes sont des variables de différents types. Alors que "data frame" ou "dataframe" est le terme utilisé pour ce concept dans plusieurs langues (R, Apache Spark, deedle, Maple, la bibliothèque pandas en Python et la bibliothèque DataFrames en Julia), "table" est le terme utilisé dans MATLAB et SQL.

2
Sélectionnez des lignes dans pandas MultiIndex DataFrame
Quelles sont les méthodes pandas les plus courantes pour sélectionner / filtrer les lignes d'un dataframe dont l'index est un MultiIndex ? Tranchage basé sur une seule valeur / étiquette Tranchage basé sur plusieurs étiquettes d'un ou plusieurs niveaux Filtrage sur des conditions et expressions booléennes Quelles méthodes sont applicables …


7
Pandas dataframe fillna () seulement quelques colonnes en place
J'essaie de ne remplir aucune valeur dans un dataframe Pandas avec des 0 pour seulement un sous-ensemble de colonnes. Quand je fais: import pandas as pd df = pd.DataFrame(data={'a':[1,2,3,None],'b':[4,5,None,6],'c':[None,None,7,8]}) print df df.fillna(value=0, inplace=True) print df Le résultat: a b c 0 1.0 4.0 NaN 1 2.0 5.0 NaN 2 3.0 …
145 python  pandas  dataframe 


8
Comment sélectionner la première ligne de chaque groupe?
J'ai un DataFrame généré comme suit: df.groupBy($"Hour", $"Category") .agg(sum($"value") as "TotalValue") .sort($"Hour".asc, $"TotalValue".desc)) Les résultats ressemblent à: +----+--------+----------+ |Hour|Category|TotalValue| +----+--------+----------+ | 0| cat26| 30.9| | 0| cat13| 22.1| | 0| cat95| 19.6| | 0| cat105| 1.3| | 1| cat67| 28.5| | 1| cat4| 26.8| | 1| cat13| 12.6| | 1| …


14
Déterminez le nombre de valeurs NA dans une colonne
Je veux compter le nombre de NAvaleurs dans une colonne de bloc de données. Disons que mon bloc de données est appelé dfet que le nom de la colonne que je considère est col. La façon dont j'ai imaginé est la suivante: sapply(df$col, function(x) sum(length(which(is.na(x))))) Est-ce le moyen le plus …
143 r  dataframe 

8
Renommer l'index Pandas DataFrame
J'ai un fichier csv sans en-tête, avec un index DateTime. Je veux renommer l'index et le nom de la colonne, mais avec df.rename (), seul le nom de la colonne est renommé. Punaise? Je suis sur la version 0.12.0 In [2]: df = pd.read_csv(r'D:\Data\DataTimeSeries_csv//seriesSM.csv', header=None, parse_dates=[[0]], index_col=[0] ) In [3]: …
142 python  pandas  dataframe 




3
Comment enregistrer un data.frame dans R?
J'ai fait un data.frame en R qui n'est pas très gros, mais cela prend un certain temps à construire. Je voudrais l'enregistrer en tant que fichier, que je peux ensuite ouvrir à nouveau dans R?
137 r  dataframe 

2
Comment ajouter une colonne constante dans un Spark DataFrame?
Je veux ajouter une colonne dans un DataFrameavec une valeur arbitraire (c'est la même chose pour chaque ligne). J'obtiens une erreur lorsque j'utilise withColumncomme suit: dt.withColumn('new_column', 10).head(5) --------------------------------------------------------------------------- AttributeError Traceback (most recent call last) <ipython-input-50-a6d0257ca2be> in <module>() 1 dt = (messages 2 .select(messages.fromuserid, messages.messagetype, floor(messages.datetime/(1000*60*5)).alias("dt"))) ----> 3 dt.withColumn('new_column', 10).head(5) /Users/evanzamir/spark-1.4.1/python/pyspark/sql/dataframe.pyc …

5
La trame de données Pandas obtient la première ligne de chaque groupe
J'ai un pandas DataFramecomme le suivant. df = pd.DataFrame({'id' : [1,1,1,2,2,3,3,3,3,4,4,5,6,6,6,7,7], 'value' : ["first","second","second","first", "second","first","third","fourth", "fifth","second","fifth","first", "first","second","third","fourth","fifth"]}) Je veux regrouper cela par ["id", "value"] et obtenir la première ligne de chaque groupe. id value 0 1 first 1 1 second 2 1 second 3 2 first 4 2 second 5 …
137 python  pandas  dataframe 


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.