Les topologies dominantes de la modélisation de l'entrepôt de données (Star, Snowflake) sont conçues avec des relations un à plusieurs à l'esprit. La lisibilité, les performances et la structure des requêtes se dégradent fortement face à une relation plusieurs-à-plusieurs dans ces schémas de modélisation. Quels sont les moyens d'implémenter une …
J'ai réalisé que mon entreprise utilise un processus ELT (extraction-transformation-charge) au lieu d'utiliser un processus ETL (extraction-transformation-charge). Quelles sont les différences entre les deux approches et dans quelles situations l'une serait-elle "meilleure" que l'autre? Ce serait formidable si vous pouviez fournir quelques exemples.
J'optimise les performances d'un entrepôt de données à l'aide d'index. Je suis assez nouveau sur SQL Server 2014.Microsoft décrit ce qui suit: "Nous considérons l'index clusterstore clusterstore comme la norme pour le stockage de grandes tables de faits d'entreposage de données, et nous nous attendons à ce qu'il soit utilisé …
Lorsque vous utilisez une table temporelle versionnée par le système (nouvelle dans SQL Server 2016), quelles sont les implications en matière de création de requêtes et de performances lorsque cette fonctionnalité est utilisée pour gérer les dimensions à évolution lente dans un grand entrepôt de données relationnelles? Par exemple, supposons …
Fermé. Cette question est hors sujet . Il n'accepte pas actuellement les réponses. Voulez-vous améliorer cette question? Mettez à jour la question afin qu'elle soit sur le sujet pour les administrateurs de base de données Stack Exchange. Fermé il y a 5 ans . Je me demande que cette question …
Je télécharge occasionnellement des ensembles de données accessibles au public sous la forme de dB Postgres. Ces jeux de données sont mis à jour / modifiés / développés au fil du temps par l'hôte du référentiel. Existe-t-il une commande ou un outil Postgres (idéalement FOSS) qui peut montrer les différences …
J'ai besoin de prendre en charge les champs et les valeurs dynamiques dans un grand datawarehouse pour stocker le journal des demandes d'API, mon cas d'utilisation est que j'ai besoin de stocker toutes les chaînes de requête des demandes d'API et capable d'effectuer des requêtes contre elles à l'avenir (il …
Sur la base de mon analyse, un modèle dimensionnel complet pour notre entrepôt de données nécessitera l'extraction de plus de 200 tables source. Certaines de ces tables seront extraites dans le cadre d'une charge incrémentielle et d'autres seront une charge complète. A noter, nous avons environ 225 bases de données …
J'ai un entrepôt de données de 200 Go dans SQL Server. J'ai connu des temps d'exécution très lents pour certaines requêtes; par exemple 12 heures pour une simple deleterequête avec un inner join. Après avoir fait quelques recherches avec les plans d'exécution, j'ai mis à jour les statistiques des 2 …
Nous commençons à concevoir les blocs de construction d'un magasin de données / entrepôt et nous devons être en mesure de prendre en charge tous les fuseaux horaires (nos clients viennent du monde entier). De la lecture des discussions en ligne (et dans les livres), une solution courante semble être …
Certains documents sur la compression des données SQL Server que j'ai lus indiquent que le coût d'écriture augmente jusqu'à environ quatre fois ce qui serait normalement requis. Cela semble également impliquer qu'il s'agit du principal inconvénient de la compression des données, ce qui implique fortement que pour une base de …
Je suis assez nouveau sur PostgreSQL, je n'ai jamais fait de déploiement important en l'utilisant auparavant. Mais, j'ai une bonne expérience dans les solutions d'entreprise et je veux essayer d'appliquer une partie de ce que j'ai appris en utilisant PostgreSQL. J'ai un site qui est dimensionné pour gérer un grand …
Sur Oracle Exadata (11gR2), nous avons une base de données relativement solide. cpu_count a 24 ans parallel_server_instances est 2 parallel_threads_per_cpu vaut 2 Nous avons remarqué, en observant dans Oracle Enterprise Manager (OEM), que les performances étaient terribles en raison des requêtes exécutées en série. Pour résoudre ce problème, toutes les …
Nous essayons d'optimiser une conception d'entrepôt de données qui prendra en charge la génération de rapports sur les données pour de nombreux fuseaux horaires. Par exemple, nous pourrions avoir un rapport pour la valeur d'un mois d'activité (millions de lignes) qui doit montrer l'activité groupée par heure de la journée. …
Je travaille sur un calcul du `` dos de l'enveloppe '' pour une configuration de base de données de rapports de 100 To. Je recherche les réflexions des experts ici. Environnement proposé: Capacité de stockage ~ 100 To Tables ~ 200, tailles allant de 1 Go à 5 To. la …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.