Comment puis-je écrire une procédure stockée qui importe des données à partir d'un fichier CSV et remplit la table?
Comment puis-je écrire une procédure stockée qui importe des données à partir d'un fichier CSV et remplit la table?
Réponses:
Jetez un œil à ce court article .
Solution paraphrasée ici:
Créez votre table:
CREATE TABLE zip_codes
(ZIP char(5), LATITUDE double precision, LONGITUDE double precision,
CITY varchar, STATE char(2), COUNTY varchar, ZIP_CLASS varchar);
Copiez les données de votre fichier CSV dans le tableau:
COPY zip_codes FROM '/path/to/csv/ZIP_CODES.txt' WITH (FORMAT csv);
COPY zip_codes FROM '/path/to/csv/ZIP_CODES.txt' DELIMITER ',' CSV HEADER;
postgresql.org/docs/9.1/static/sql-copy.html
Si vous n'êtes pas autorisé à utiliser COPY
(qui fonctionne sur le serveur db), vous pouvez utiliser à la \copy
place (qui fonctionne dans le client db). En utilisant le même exemple que Bozhidar Batsov:
Créez votre table:
CREATE TABLE zip_codes
(ZIP char(5), LATITUDE double precision, LONGITUDE double precision,
CITY varchar, STATE char(2), COUNTY varchar, ZIP_CLASS varchar);
Copiez les données de votre fichier CSV dans le tableau:
\copy zip_codes FROM '/path/to/csv/ZIP_CODES.txt' DELIMITER ',' CSV
Vous pouvez également spécifier les colonnes à lire:
\copy zip_codes(ZIP,CITY,STATE) FROM '/path/to/csv/ZIP_CODES.txt' DELIMITER ',' CSV
Voir la documentation de COPY :
Ne confondez pas COPY avec l'instruction \ copy psql. \ copy appelle COPY FROM STDIN ou COPY TO STDOUT, puis récupère / stocke les données dans un fichier accessible au client psql. Ainsi, l'accessibilité des fichiers et les droits d'accès dépendent du client plutôt que du serveur lorsque \ copy est utilisé.
et notez:
Pour les colonnes d'identité, la commande COPY FROM écrit toujours les valeurs de colonne fournies dans les données d'entrée, comme l'option INSERT OVERRIDING SYSTEM VALUE.
COPY
et \copy
est bien plus que de simples autorisations, et vous ne pouvez pas simplement ajouter un `` pour que cela fonctionne comme par magie. Voir la description (dans le contexte de l'exportation) ici: stackoverflow.com/a/1517692/157957
Un moyen rapide de le faire est d'utiliser la bibliothèque pandas Python (la version 0.15 ou supérieure fonctionne mieux). Cela gérera la création des colonnes pour vous - bien qu'évidemment, les choix qu'il fait pour les types de données ne soient pas ce que vous voulez. S'il ne fait pas tout à fait ce que vous voulez, vous pouvez toujours utiliser le code 'create table' généré comme modèle.
Voici un exemple simple:
import pandas as pd
df = pd.read_csv('mypath.csv')
df.columns = [c.lower() for c in df.columns] #postgres doesn't like capitals or spaces
from sqlalchemy import create_engine
engine = create_engine('postgresql://username:password@localhost:5432/dbname')
df.to_sql("my_table_name", engine)
Et voici un code qui vous montre comment définir diverses options:
# Set it so the raw sql output is logged
import logging
logging.basicConfig()
logging.getLogger('sqlalchemy.engine').setLevel(logging.INFO)
df.to_sql("my_table_name2",
engine,
if_exists="append", #options are ‘fail’, ‘replace’, ‘append’, default ‘fail’
index=False, #Do not output the index of the dataframe
dtype={'col1': sqlalchemy.types.NUMERIC,
'col2': sqlalchemy.types.String}) #Datatypes should be [sqlalchemy types][1]
if_exists
paramètre peut être défini pour remplacer ou ajouter à une table existante, par exempledf.to_sql("fhrs", engine, if_exists='replace')
df.to_sql()
est vraiment lent, vous pouvez utiliser à d6tstack.utils.pd_to_psql()
partir de d6tstack voir la comparaison des performances
Vous pouvez également utiliser pgAdmin, qui propose une interface graphique pour effectuer l'importation. Cela est montré dans ce fil SO . L'avantage d'utiliser pgAdmin est qu'il fonctionne également pour les bases de données distantes.
Tout comme les solutions précédentes, vous devez déjà avoir votre table dans la base de données. Chaque personne a sa propre solution, mais ce que je fais habituellement, c'est ouvrir le CSV dans Excel, copier les en-têtes, coller spécial avec transposition sur une autre feuille de calcul, placer le type de données correspondant dans la colonne suivante, puis simplement copier et coller cela dans un éditeur de texte avec la requête de création de table SQL appropriée comme suit:
CREATE TABLE my_table (
/*paste data from Excel here for example ... */
col_1 bigint,
col_2 bigint,
/* ... */
col_n bigint
)
La plupart des autres solutions nécessitent ici que vous créiez la table à l'avance / manuellement. Cela peut ne pas être pratique dans certains cas (par exemple, si vous avez beaucoup de colonnes dans la table de destination). Ainsi, l'approche ci-dessous peut être utile.
En fournissant le chemin et le nombre de colonnes de votre fichier csv, vous pouvez utiliser la fonction suivante pour charger votre table dans une table temporaire qui sera nommée comme target_table
:
La ligne supérieure est supposée avoir les noms de colonne.
create or replace function data.load_csv_file
(
target_table text,
csv_path text,
col_count integer
)
returns void as $$
declare
iter integer; -- dummy integer to iterate columns with
col text; -- variable to keep the column name at each iteration
col_first text; -- first column name, e.g., top left corner on a csv file or spreadsheet
begin
create table temp_table ();
-- add just enough number of columns
for iter in 1..col_count
loop
execute format('alter table temp_table add column col_%s text;', iter);
end loop;
-- copy the data from csv file
execute format('copy temp_table from %L with delimiter '','' quote ''"'' csv ', csv_path);
iter := 1;
col_first := (select col_1 from temp_table limit 1);
-- update the column names based on the first row which has the column names
for col in execute format('select unnest(string_to_array(trim(temp_table::text, ''()''), '','')) from temp_table where col_1 = %L', col_first)
loop
execute format('alter table temp_table rename column col_%s to %s', iter, col);
iter := iter + 1;
end loop;
-- delete the columns row
execute format('delete from temp_table where %s = %L', col_first, col_first);
-- change the temp table name to the name given as parameter, if not blank
if length(target_table) > 0 then
execute format('alter table temp_table rename to %I', target_table);
end if;
end;
$$ language plpgsql;
public
)
Comme Paul l'a mentionné, l'importation fonctionne dans pgAdmin:
clic droit sur la table -> importer
sélectionner le fichier local, le format et le codage
voici une capture d'écran de l'interface graphique allemande pgAdmin:
chose similaire que vous pouvez faire avec DbVisualizer (j'ai une licence, je ne suis pas sûr de la version gratuite)
clic droit sur une table -> Importer les données d'une table ...
créer d'abord une table
Utilisez ensuite la commande copy pour copier les détails du tableau:
copiez nom_table (C1, C2, C3 ....)
de 'chemin vers votre fichier csv' délimiteur ',' en-tête csv;
Merci
Utilisez ce code SQL
copy table_name(atribute1,attribute2,attribute3...)
from 'E:\test.csv' delimiter ',' csv header
le mot clé d'en-tête permet au SGBD de savoir que le fichier csv a un en-tête avec des attributs
pour plus d'informations, visitez http://www.postgresqltutorial.com/import-csv-file-into-posgresql-table/
Expérience personnelle avec PostgreSQL, toujours en attente d'un moyen plus rapide.
1. Créez d'abord le squelette de la table si le fichier est stocké localement:
drop table if exists ur_table;
CREATE TABLE ur_table
(
id serial NOT NULL,
log_id numeric,
proc_code numeric,
date timestamp,
qty int,
name varchar,
price money
);
COPY
ur_table(id, log_id, proc_code, date, qty, name, price)
FROM '\path\xxx.csv' DELIMITER ',' CSV HEADER;
2. Lorsque le \ path \ xxx.csv se trouve sur le serveur, postgreSQL n'a pas l'autorisation d'accéder au serveur, vous devrez importer le fichier .csv via la fonctionnalité intégrée pgAdmin.
Cliquez avec le bouton droit sur le nom de la table, choisissez importer.
Si vous rencontrez toujours des problèmes, veuillez consulter ce didacticiel. http://www.postgresqltutorial.com/import-csv-file-into-posgresql-table/
Comment importer des données de fichier CSV dans une table PostgreSQL?
pas:
Besoin de connecter la base de données postgresql dans le terminal
psql -U postgres -h localhost
Besoin de créer une base de données
create database mydb;
Besoin de créer un utilisateur
create user siva with password 'mypass';
Connectez-vous avec la base de données
\c mydb;
Besoin de créer un schéma
create schema trip;
Besoin de créer une table
create table trip.test(VendorID int,passenger_count int,trip_distance decimal,RatecodeID int,store_and_fwd_flag varchar,PULocationID int,DOLocationID int,payment_type decimal,fare_amount decimal,extra decimal,mta_tax decimal,tip_amount decimal,tolls_amount int,improvement_surcharge decimal,total_amount
);
Importez les données du fichier csv dans postgresql
COPY trip.test(VendorID int,passenger_count int,trip_distance decimal,RatecodeID int,store_and_fwd_flag varchar,PULocationID int,DOLocationID int,payment_type decimal,fare_amount decimal,extra decimal,mta_tax decimal,tip_amount decimal,tolls_amount int,improvement_surcharge decimal,total_amount) FROM '/home/Documents/trip.csv' DELIMITER ',' CSV HEADER;
Trouver les données de table données
select * from trip.test;
À mon humble avis , le moyen le plus pratique est de suivre " Importer des données CSV dans postgresql, la manière confortable ;-) ", en utilisant csvsql de csvkit , qui est un package python installable via pip.
En Python, vous pouvez utiliser ce code pour la création automatique de tables PostgreSQL avec des noms de colonnes:
import pandas, csv
from io import StringIO
from sqlalchemy import create_engine
def psql_insert_copy(table, conn, keys, data_iter):
dbapi_conn = conn.connection
with dbapi_conn.cursor() as cur:
s_buf = StringIO()
writer = csv.writer(s_buf)
writer.writerows(data_iter)
s_buf.seek(0)
columns = ', '.join('"{}"'.format(k) for k in keys)
if table.schema:
table_name = '{}.{}'.format(table.schema, table.name)
else:
table_name = table.name
sql = 'COPY {} ({}) FROM STDIN WITH CSV'.format(table_name, columns)
cur.copy_expert(sql=sql, file=s_buf)
engine = create_engine('postgresql://user:password@localhost:5432/my_db')
df = pandas.read_csv("my.csv")
df.to_sql('my_table', engine, schema='my_schema', method=psql_insert_copy)
C'est aussi relativement rapide, je peux importer plus de 3,3 millions de lignes en 4 minutes environ.
Si vous avez besoin d'un mécanisme simple pour importer du texte / analyser CSV multiligne, vous pouvez utiliser:
CREATE TABLE t -- OR INSERT INTO tab(col_names)
AS
SELECT
t.f[1] AS col1
,t.f[2]::int AS col2
,t.f[3]::date AS col3
,t.f[4] AS col4
FROM (
SELECT regexp_split_to_array(l, ',') AS f
FROM regexp_split_to_table(
$$a,1,2016-01-01,bbb
c,2,2018-01-01,ddd
e,3,2019-01-01,eee$$, '\n') AS l) t;
DBeaver Community Edition (dbeaver.io) simplifie la connexion à une base de données, puis importe un fichier CSV pour le télécharger dans une base de données PostgreSQL. Il facilite également l'émission de requêtes, la récupération de données et le téléchargement d'ensembles de résultats au format CSV, JSON, SQL ou d'autres formats de données courants.
Il s'agit d'un outil de base de données multiplateforme FOSS pour les programmeurs SQL, les administrateurs de bases de données et les analystes qui prend en charge toutes les bases de données populaires: MySQL, PostgreSQL, SQLite, Oracle, DB2, SQL Server, Sybase, MS Access, Teradata, Firebird, Hive, Presto, etc. Il s'agit d'un concurrent FOSS viable pour TOAD pour Postgres, TOAD pour SQL Server ou Toad pour Oracle.
Je n'ai aucune affiliation avec DBeaver. J'adore le prix (GRATUIT!) Et toutes les fonctionnalités, mais j'aimerais qu'ils ouvrent davantage cette application DBeaver / Eclipse et facilitent l'ajout de widgets d'analyse à DBeaver / Eclipse, plutôt que d'exiger des utilisateurs de payer l'abonnement annuel de 199 $ juste pour créer des graphiques et des diagrammes directement dans l'application. Mes compétences en codage Java sont rouillées et je n'ai pas envie de prendre des semaines pour réapprendre à créer des widgets Eclipse (seulement pour constater que DBeaver a probablement désactivé la possibilité d'ajouter des widgets tiers à DBeaver Community Edition.)
Les utilisateurs avancés de DBeaver qui sont des développeurs Java peuvent-ils fournir des informations sur les étapes de création de widgets d'analyse à ajouter à l'édition communautaire de DBeaver?
Créez une table et disposez des colonnes requises qui sont utilisées pour créer une table dans un fichier csv.
Ouvrez postgres et faites un clic droit sur la table cible que vous souhaitez charger et sélectionnez importer et mettre à jour les étapes suivantes dans la section des options de fichier
Maintenant, parcourez votre fichier dans le nom de fichier
Sélectionnez csv au format
Encodage en ISO_8859_5
Maintenant, allez à Misc. options et vérifiez l'en-tête et cliquez sur importer.
J'ai créé un petit outil qui importe des csv
fichiers dans PostgreSQL super facile, juste une commande et il créera et remplira les tables, malheureusement, pour le moment, tous les champs créés automatiquement utilisent le type TEXT
csv2pg users.csv -d ";" -H 192.168.99.100 -U postgres -B mydatabase
L'outil peut être trouvé sur https://github.com/eduardonunesp/csv2pg
psql -h 192.168.99.100 -U postgres mydatabase -c "COPY users FROM 'users.csv' DELIMITER ';' CSV"
? Je suppose que la partie où il crée la table est agréable, mais comme chaque champ est du texte, il n'est pas super utile