Colonne de clé primaire ALTER de INT à BIGINT en production (MySQL 5.6.19a)


20

Certaines tables INNODB dans notre base de données de production sont sur le point d'atteindre la limite INT AUTO_INCREMENT de 2147483647 et nous devons les modifier en BIGINT sinon les écritures commenceront à échouer.

Les tables se trouvent dans une base de données de production MySQL 5.6.19a exécutée sur Amazon RDS.

Comment pouvons-nous faire un ALTER comme celui-ci sans perturber les lectures et les insertions de production qui se produisent tout le temps?

ALTER TABLE MYTABLECHANGE id idBIGINT NOT NULL AUTO_INCREMENT;

Voici DDL pour le tableau:

CREATE TABLE `MYTABLE` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `siteId` int(11) NOT NULL,
  `filter` varchar(10) NOT NULL DEFAULT 'ALL',
  `date` varchar(10) NOT NULL,
  `cards` varchar(250) NOT NULL,
  `apples` varchar(45) NOT NULL,
  `carrots` varchar(45) NOT NULL,
  `corn` varchar(45) NOT NULL,
  `peas` varchar(45) NOT NULL,
  PRIMARY KEY (`id`),
  UNIQUE KEY `unique` (`siteId`,`filter`,`date`,`cards`),
  KEY `date_k` (`date`),
  KEY `cards_k` (`cards`),
  KEY `apples_k` (`apples`),
  KEY `siteId_k` (`siteId`)
) ENGINE=InnoDB AUTO_INCREMENT=1748961482 DEFAULT CHARSET=utf8

Réponses:


22

Si vous avez suffisamment d'espace, vous pouvez créer une copie de la table réelle et effectuer le travail à ce sujet:

CREATE TABLE new_tbl [AS] SELECT * FROM orig_tbl;

Ensuite, vous pouvez modifier la colonne comme vous le souhaitez:

ALTER TABLE tbl_name MODIFY COLUMN col_name BIGINT AUTO_INCREMENT;

Une fois le processus terminé, vous pouvez renommer les tables:

RENAME TABLE tbl_name TO new_tbl_name, tbl_name2 TO new_tbl_name2;

Déposez ensuite la table d'origine et vous devriez avoir le résultat espéré.


J'ai utilisé cette approche car j'ai pu désactiver les écritures (qui sont toutes en mode batch) sur la table lors de la copie. Cela a pris environ 36 heures.
Mark Hansen

et vous souhaitez conserver ces trois en une seule transaction. (verrouiller / déverrouiller)
Sławomir Lenart

4

percona toolkit est la voie à suivre, du moins si vous n'êtes pas très court dans le temps. La conversion a pris notre table (500 Go, configuration maître-esclave) lorsque nous l'avons testée un peu plus de 24h, en production, cela a pris (avec un meilleur matériel) près d'un mois (drôle de sidenote que nous avions environ 30 jours avant de manquer de ids, nous avons donc déjà commencé à planifier les plans B et C, en travaillant avec des sauvegardes hors ligne, en supprimant les esclaves, ...). Le retard était principalement dû à l'attente de la réplication se produisant vers les esclaves (nous avons autorisé un décalage de 50 secondes maximum). Assurez-vous également de limiter le nombre de threads simultanés. Nous avons plus de 2 millions d'inserts par jour et plusieurs millions de lectures.

Sachez également qu'une fois la conversion commencée, vous ne pouvez pas l'arrêter (ou du moins, nous n'avons trouvé aucun moyen de la redémarrer) :-(


1

Bien....

KEY TOP_QUERIES_LAST_30DAYS_fk (siteId) est redondant avec la CLÉ PRIMAIRE, vous pouvez donc aussi bien LA SUPPRIMER.

INT UNSIGNED vous porterait à 4 milliards, cela suffira-t-il?

Envisagez de passer filterà un ENUM.

Avez-vous 1,75 milliard de lignes? Ou avez-vous "brûlé" beaucoup d'identifiants? Si oui, peut-être que nous pouvons résoudre ce problème? Par exemple REPLACEet certaines versions de INSERTwill jetteront des identifiants. INSERT...ON DUPLICATE KEYpeut généralement remplacer REPLACE. Un processus en 2 étapes peut éviter INSERT IGNOREla gravure des identifiants.

Retour à la question ...

Voyez si pt-online-schema-change fera l'affaire: http://www.percona.com/doc/percona-toolkit/2.2/pt-online-schema-change.html


Puis-je utiliser le percona avec Amazon RDS? Oui, nous avons "brûlé" beaucoup d'identifiants, la table compte en fait environ 330 millions de lignes.
Mark Hansen

Je ne connais pas pt & RDS. Si vous pouviez éliminer la gravure, vous avez encore ~ ​​330 millions d'identifiants avant de manquer de place.
Rick James
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.