D'après les commentaires ci-dessus, il semble que cela soit prévu depuis un pandas
certain temps (il y a aussi un rosetta
projet intéressant que je viens de remarquer).
Cependant, jusqu'à ce que toutes les fonctionnalités parallèles soient incorporées pandas
, j'ai remarqué qu'il était très facile d'écrire des augmentations parallèles efficaces et sans copie de mémoire pandas
en utilisant directement cython
+ OpenMP et C ++.
Voici un court exemple d'écriture d'un groupby-sum parallèle, dont l'utilisation est quelque chose comme ceci:
import pandas as pd
import para_group_demo
df = pd.DataFrame({'a': [1, 2, 1, 2, 1, 1, 0], 'b': range(7)})
print para_group_demo.sum(df.a, df.b)
et la sortie est:
sum
key
0 6
1 11
2 4
Remarque Sans aucun doute, la fonctionnalité de cet exemple simple fera éventuellement partie de pandas
. Cependant, certaines choses seront plus naturelles à paralléliser en C ++ pendant un certain temps, et il est important de savoir à quel point il est facile de les combiner pandas
.
Pour ce faire, j'ai écrit une simple extension de fichier source unique dont le code suit.
Cela commence par des importations et des définitions de type
from libc.stdint cimport int64_t, uint64_t
from libcpp.vector cimport vector
from libcpp.unordered_map cimport unordered_map
cimport cython
from cython.operator cimport dereference as deref, preincrement as inc
from cython.parallel import prange
import pandas as pd
ctypedef unordered_map[int64_t, uint64_t] counts_t
ctypedef unordered_map[int64_t, uint64_t].iterator counts_it_t
ctypedef vector[counts_t] counts_vec_t
Le unordered_map
type C ++ est destiné à la sommation par un seul thread et le type vector
est à la somme par tous les threads.
Passons maintenant à la fonction sum
. Il commence par des vues de mémoire typées pour un accès rapide:
def sum(crit, vals):
cdef int64_t[:] crit_view = crit.values
cdef int64_t[:] vals_view = vals.values
La fonction continue en divisant le semi-également aux threads (ici codé en dur à 4), et en faisant additionner chaque thread les entrées de sa plage:
cdef uint64_t num_threads = 4
cdef uint64_t l = len(crit)
cdef uint64_t s = l / num_threads + 1
cdef uint64_t i, j, e
cdef counts_vec_t counts
counts = counts_vec_t(num_threads)
counts.resize(num_threads)
with cython.boundscheck(False):
for i in prange(num_threads, nogil=True):
j = i * s
e = j + s
if e > l:
e = l
while j < e:
counts[i][crit_view[j]] += vals_view[j]
inc(j)
Lorsque les threads sont terminés, la fonction fusionne tous les résultats (des différentes plages) en un seul unordered_map
:
cdef counts_t total
cdef counts_it_t it, e_it
for i in range(num_threads):
it = counts[i].begin()
e_it = counts[i].end()
while it != e_it:
total[deref(it).first] += deref(it).second
inc(it)
Il ne reste plus qu'à créer DataFrame
et renvoyer les résultats:
key, sum_ = [], []
it = total.begin()
e_it = total.end()
while it != e_it:
key.append(deref(it).first)
sum_.append(deref(it).second)
inc(it)
df = pd.DataFrame({'key': key, 'sum': sum_})
df.set_index('key', inplace=True)
return df