Résolution des problèmes: «UnicodeDecodeError: le codec 'ascii' ne peut pas décoder l'octet»


459
as3:~/ngokevin-site# nano content/blog/20140114_test-chinese.mkd
as3:~/ngokevin-site# wok
Traceback (most recent call last):
File "/usr/local/bin/wok", line 4, in
Engine()
File "/usr/local/lib/python2.7/site-packages/wok/engine.py", line 104, in init
self.load_pages()
File "/usr/local/lib/python2.7/site-packages/wok/engine.py", line 238, in load_pages
p = Page.from_file(os.path.join(root, f), self.options, self, renderer)
File "/usr/local/lib/python2.7/site-packages/wok/page.py", line 111, in from_file
page.meta['content'] = page.renderer.render(page.original)
File "/usr/local/lib/python2.7/site-packages/wok/renderers.py", line 46, in render
return markdown(plain, Markdown.plugins)
File "/usr/local/lib/python2.7/site-packages/markdown/init.py", line 419, in markdown
return md.convert(text)
File "/usr/local/lib/python2.7/site-packages/markdown/init.py", line 281, in convert
source = unicode(source)
UnicodeDecodeError: 'ascii' codec can't decode byte 0xe8 in position 1: ordinal not in range(128). -- Note: Markdown only accepts unicode input!

Comment le réparer?

Dans certaines autres applications de blog statiques basées sur python, la publication chinoise peut être publiée avec succès. Tels que cette application: http://github.com/vrypan/bucket3 . Sur mon site http://bc3.brite.biz/ , la publication chinoise peut être publiée avec succès.


Réponses:


569

tl; dr / quick fix

  • Ne pas décoder / encoder bon gré mal gré
  • Ne présumez pas que vos chaînes sont encodées en UTF-8
  • Essayez de convertir les chaînes en chaînes Unicode dès que possible dans votre code
  • Fixez vos paramètres régionaux: Comment résoudre UnicodeDecodeError en Python 3.6?
  • Ne soyez pas tenté d'utiliser des reloadhacks rapides

Unicode Zen dans Python 2.x - La version longue

Sans voir la source, il est difficile de connaître la cause profonde, je vais donc devoir parler de manière générale.

UnicodeDecodeError: 'ascii' codec can't decode bytese produit généralement lorsque vous essayez de convertir un Python 2.x strqui contient non-ASCII en une chaîne Unicode sans spécifier le codage de la chaîne d'origine.

En bref, les chaînes Unicode sont un type de chaîne Python entièrement distinct qui ne contient aucun encodage. Ils ne contiennent que des codes de point Unicode et peuvent donc contenir n'importe quel point Unicode de l'ensemble du spectre. Les chaînes contiennent du texte codé, beit UTF-8, UTF-16, ISO-8895-1, GBK, Big5 etc. Les chaînes sont décodées en Unicode et les Unicodes sont codés en chaînes . Les fichiers et les données texte sont toujours transférés dans des chaînes codées.

Les auteurs du module Markdown utilisent probablement unicode()(là où l'exception est levée) comme une porte de qualité vers le reste du code - il convertira ASCII ou ré-emballera les chaînes Unicodes existantes en une nouvelle chaîne Unicode. Les auteurs de Markdown ne peuvent pas connaître l'encodage de la chaîne entrante, ils comptent donc sur vous pour décoder les chaînes en chaînes Unicode avant de passer à Markdown.

Les chaînes Unicode peuvent être déclarées dans votre code en utilisant le upréfixe des chaînes. Par exemple

>>> my_u = u'my ünicôdé strįng'
>>> type(my_u)
<type 'unicode'>

Les chaînes Unicode peuvent également provenir de fichiers, de bases de données et de modules réseau. Lorsque cela se produit, vous n'avez pas à vous soucier de l'encodage.

Gotchas

La conversion de strà Unicode peut se produire même lorsque vous n'appelez pas explicitement unicode().

Les scénarios suivants provoquent des UnicodeDecodeErrorexceptions:

# Explicit conversion without encoding
unicode('€')

# New style format string into Unicode string
# Python will try to convert value string to Unicode first
u"The currency is: {}".format('€')

# Old style format string into Unicode string
# Python will try to convert value string to Unicode first
u'The currency is: %s' % '€'

# Append string to Unicode
# Python will try to convert string to Unicode first
u'The currency is: ' + '€'         

Exemples

Dans le diagramme suivant, vous pouvez voir comment le mot caféa été encodé en encodage "UTF-8" ou "Cp1252" en fonction du type de terminal. Dans les deux exemples, cafc'est juste un ascii régulier. En UTF-8, éest codé en utilisant deux octets. Dans "Cp1252", é est 0xE9 (qui est également la valeur du point Unicode (ce n'est pas un hasard)). Le correct decode()est invoqué et la conversion en Unicode Python est réussie: Schéma d'une chaîne en cours de conversion en chaîne Unicode Python

Dans ce diagramme, decode()est appelé avec ascii(ce qui revient à appeler unicode()sans codage donné). Comme ASCII ne peut pas contenir d'octets supérieurs à 0x7F, cela lèvera une UnicodeDecodeErrorexception:

Diagramme d'une chaîne en cours de conversion en une chaîne Python Unicode avec un mauvais codage

Le sandwich Unicode

Il est recommandé de former un sandwich Unicode dans votre code, où vous décodez toutes les données entrantes en chaînes Unicode, travaillez avec Unicodes, puis encodez en strs à la sortie. Cela vous évite de vous soucier du codage des chaînes au milieu de votre code.

Entrée / décodage

Code source

Si vous avez besoin de créer des chaînes non ASCII dans votre code source, créez simplement des chaînes Unicode en préfixant la chaîne avec un u. Par exemple

u'Zürich'

Pour permettre à Python de décoder votre code source, vous devrez ajouter un en-tête de codage pour correspondre au codage réel de votre fichier. Par exemple, si votre fichier a été encodé en 'UTF-8', vous utiliseriez:

# encoding: utf-8

Cela n'est nécessaire que si vous avez un code non ASCII dans votre code source .

Des dossiers

Habituellement, les données non ASCII sont reçues d'un fichier. Le iomodule fournit un TextWrapper qui décode votre fichier à la volée, en utilisant une donnée encoding. Vous devez utiliser l'encodage correct pour le fichier - il ne peut pas être facilement deviné. Par exemple, pour un fichier UTF-8:

import io
with io.open("my_utf8_file.txt", "r", encoding="utf-8") as my_file:
     my_unicode_string = my_file.read() 

my_unicode_stringserait alors adapté pour passer à Markdown. Si un UnicodeDecodeErrorde la read()ligne, alors vous avez probablement utilisé la mauvaise valeur de codage.

Fichiers CSV

Le module Python 2.7 CSV ne prend pas en charge les caractères non ASCII 😩. Cependant, l'aide est à portée de main avec https://pypi.python.org/pypi/backports.csv .

Utilisez-le comme ci-dessus mais passez-lui le fichier ouvert:

from backports import csv
import io
with io.open("my_utf8_file.txt", "r", encoding="utf-8") as my_file:
    for row in csv.reader(my_file):
        yield row

Bases de données

La plupart des pilotes de base de données Python peuvent renvoyer des données en Unicode, mais nécessitent généralement un peu de configuration. Utilisez toujours des chaînes Unicode pour les requêtes SQL.

MySQL

Dans la chaîne de connexion, ajoutez:

charset='utf8',
use_unicode=True

Par exemple

>>> db = MySQLdb.connect(host="localhost", user='root', passwd='passwd', db='sandbox', use_unicode=True, charset="utf8")
PostgreSQL

Ajouter:

psycopg2.extensions.register_type(psycopg2.extensions.UNICODE)
psycopg2.extensions.register_type(psycopg2.extensions.UNICODEARRAY)

HTTP

Les pages Web peuvent être encodées dans à peu près n'importe quel encodage. L'en- Content-typetête doit contenir un charsetchamp pour indiquer l'encodage. Le contenu peut ensuite être décodé manuellement par rapport à cette valeur. Alternativement, Python-Requests renvoie Unicodes dans response.text.

Manuellement

Si vous devez décoder les chaînes manuellement, vous pouvez simplement le faire my_string.decode(encoding), où encodingest l'encodage approprié. Les codecs pris en charge par Python 2.x sont indiqués ici: Codages standard . Encore une fois, si vous obtenez, UnicodeDecodeErrorvous avez probablement un mauvais codage.

La viande du sandwich

Travaillez avec Unicodes comme vous le feriez avec des chaînes normales.

Production

sortie standard / impression

printécrit via le flux stdout. Python essaie de configurer un encodeur sur stdout afin que les Unicodes soient encodés selon l'encodage de la console. Par exemple, si un shell Linux l' localeest en_GB.UTF-8, la sortie sera encodée en UTF-8. Sous Windows, vous serez limité à une page de codes 8 bits.

Une console mal configurée, comme des paramètres régionaux corrompus, peut entraîner des erreurs d'impression inattendues. PYTHONIOENCODINGLa variable d'environnement peut forcer l'encodage pour stdout.

Des dossiers

Tout comme l'entrée, io.openpeut être utilisé pour convertir de manière transparente des Unicodes en chaînes d'octets codées.

Base de données

La même configuration de lecture permettra d'écrire directement les Unicodes.

Python 3

Python 3 n'est pas plus compatible Unicode que Python 2.x, mais il est légèrement moins confus sur le sujet. Par exemple, le régulier strest maintenant une chaîne Unicode et l'ancien l' strest maintenant bytes.

L'encodage par défaut est UTF-8, donc si vous .decode()une chaîne d'octets sans donner d'encodage, Python 3 utilise l'encodage UTF-8. Cela résout probablement 50% des problèmes Unicode des utilisateurs.

De plus, open()fonctionne en mode texte par défaut, donc retourne décodé str(ceux Unicode). L'encodage est dérivé de votre environnement local, qui a tendance à être UTF-8 sur les systèmes Un * x ou une page de code 8 bits, telle que windows-1251, sur les boîtes Windows.

Pourquoi vous ne devriez pas utiliser sys.setdefaultencoding('utf8')

C'est un hack méchant (il y a une raison que vous devez utiliser reload) qui ne fera que masquer les problèmes et gêner votre migration vers Python 3.x. Comprenez le problème, corrigez la cause première et profitez d'Unicode zen. Voir Pourquoi ne devrions-nous PAS utiliser sys.setdefaultencoding ("utf-8") dans un script py? pour plus de détails


2
Pour quelqu'un qui cherche des réponses Python 2, un TLDR plus utile: utilisez io.openpour lire / écrire des fichiers, utilisez from __future__ import unicode_literals, configurez d'autres entrées / sorties de données (par exemple, des bases de données) pour utiliser unicode.
idbrii

alors comment le réparer? lol ce n'est pas un problème d'écriture d'un script - c'est d'en installer un
Matthew

@Matthew essayez de définir PYTHONIOENCODING=utf-8. Si cela ne le résout pas, vous devrez contacter l'auteur du script pour corriger leur code.
Alastair McCormack

498

Je l'ai finalement eu:

as3:/usr/local/lib/python2.7/site-packages# cat sitecustomize.py
# encoding=utf8  
import sys  

reload(sys)  
sys.setdefaultencoding('utf8')

Laisse moi vérifier:

as3:~/ngokevin-site# python
Python 2.7.6 (default, Dec  6 2013, 14:49:02)
[GCC 4.4.5] on linux2
Type "help", "copyright", "credits" or "license" for more information.
>>> import sys
>>> reload(sys)
<module 'sys' (built-in)>
>>> sys.getdefaultencoding()
'utf8'
>>>

Ce qui précède montre l'encodage par défaut de python utf8. Alors l'erreur n'est plus.


7
J'essaye mais cela n'a pas pu changer l'encodage de façon permanente. Une fois que vous avez quitté la console python et recommencé, l'encodage est toujours le même
macemers

37
Merci! Mais pourquoi devons-nous recharger sys après l'avoir importé?
Dmiters

6
@DmitryNarkevich, en raison de la fonction Illusive setdefaultencoding . Il est supprimé au démarrage de Python car il n'aurait jamais dû faire partie d'une version correcte en premier lieu, apparemment.
predi

3
Cela signifie que vous n'avez pas résolu la cause première. Vous venez de corriger toute conversion implicite
Alastair McCormack

5
@miraculixx L'encodage par défaut de Python 3 est UTF-8 avec des chaînes Unicode par défaut str, donc ce n'est pas en retard. Dans Python 2.x, Unicode était dans un état de transition, il aurait donc été dangereux de supposer un encodage lors de la conversion d'octets en Unicodes. Par conséquent, le codage par défaut de Py2 en ASCII était un choix délibéré et pourquoi changer le codage par défaut nécessite le piratage délibéré du rechargement sys. La bonne façon de bannir les erreurs de codage dans Py2 est de décoder et de coder sans ambiguïté les chaînes (octets) en Unicode, lorsque des conversions sont nécessaires - et pas seulement de supposer que les chaînes sont codées en UTF-8.
Alastair McCormack

130

Il s'agit du «problème unicode» classique. Je pense qu'expliquer cela dépasse la portée d'une réponse StackOverflow pour expliquer complètement ce qui se passe.

C'est bien expliqué ici .

En résumé très bref, vous avez transmis quelque chose qui est interprété comme une chaîne d'octets à quelque chose qui doit le décoder en caractères Unicode, mais le codec par défaut (ascii) échoue.

La présentation que je vous ai indiquée fournit des conseils pour éviter cela. Faites de votre code un "sandwich unicode". En Python 2, l'utilisation d' from __future__ import unicode_literalsaides.

Mise à jour: comment réparer le code:

OK - dans votre variable "source", vous avez quelques octets. Il n'est pas clair à partir de votre question comment ils y sont entrés - peut-être les avez-vous lus à partir d'un formulaire Web? Dans tous les cas, ils ne sont pas encodés avec ascii, mais python essaie de les convertir en unicode en supposant qu'ils le sont. Vous devez lui dire explicitement quel est le codage. Cela signifie que vous devez savoir quel est l'encodage! Ce n'est pas toujours facile et cela dépend entièrement de l'origine de cette chaîne. Vous pouvez expérimenter avec certains encodages courants - par exemple UTF-8. Vous indiquez à unicode () l'encodage comme deuxième paramètre:

source = unicode(source, 'utf-8')

1
c'est toujours un casse-tête.mr GreenAsJade, pouvez-vous me donner une solution concrète?
pêcheur le

1
Demandez-vous "comment puis-je en tant qu'utilisateur de ce blog éviter ce problème?". Ou est votre question "comment puis-je réparer le code afin que ce problème ne se produise pas"?
GreenAsJade

2
mr greenasjade: où dois-je mettre "source = unicode (source, 'utf-8')"?
pêcheur

7
Bizarre ... après des retours positifs depuis plus d'un an, soudainement deux votes négatifs ... Hein?
GreenAsJade

11
utiliser currentFile = open(filename, 'rt', encoding='latin1')ou currentFile = open(filename, 'rt', encoding='utf-8')- voir ici: stackoverflow.com/a/23917799/2047442
irudyak

42

Dans certains cas, lorsque vous vérifiez votre encodage par défaut ( print sys.getdefaultencoding()), il retourne que vous utilisez ASCII. Si vous passez à UTF-8, cela ne fonctionne pas, selon le contenu de votre variable. J'ai trouvé un autre moyen:

import sys
reload(sys)  
sys.setdefaultencoding('Cp1252')

ty, cela a fonctionné pour mon problème avec python lançant UnicodeDecodeError sur var = u "" "fait varier la grande chaîne" ""
user2426679

AttributeError: le module 'sys' n'a pas d'attribut 'setdefaultencoding'
Chaine

et reload(sys)est utilisé pour cette raison particulière.
Marcin Orlowski

1
A travaillé pour moi! MERCI !
Maciej

22

Je cherchais à résoudre le message d'erreur suivant:

unicodedecodeerror: le codec 'ascii' ne peut pas décoder l'octet 0xe2 en position 5454: l'ordinal n'est pas dans la plage (128)

Je l'ai finalement corrigé en spécifiant 'encodage':

f = open('../glove/glove.6B.100d.txt', encoding="utf-8")

Je souhaite que cela puisse vous aider aussi.


cela a résolu l'erreur pour moi lors de la lecture / écriture des fichiers .csv, n'a pas eu besoin des autres choses répertoriées dans les autres réponses
user5359531

Je ne comprends pas pourquoi les autres réponses fournissent autant de détails ... mais oubliez cette solution simple. +10!
stan0

18
"UnicodeDecodeError: 'ascii' codec can't decode byte"

Cause de cette erreur: input_string doit être unicode mais str a été donné

"TypeError: Decoding Unicode is not supported"

Cause de cette erreur: tentative de conversion d'unicode input_string en unicode


Vérifiez donc d'abord que votre chaîne d'entrée est stret convertissez-la en unicode si nécessaire:

if isinstance(input_string, str):
   input_string = unicode(input_string, 'utf-8')

Deuxièmement, ce qui précède change juste le type mais ne supprime pas les caractères non ascii. Si vous souhaitez supprimer des caractères non ascii:

if isinstance(input_string, str):
   input_string = input_string.decode('ascii', 'ignore').encode('ascii') #note: this removes the character and encodes back to string.

elif isinstance(input_string, unicode):
   input_string = input_string.encode('ascii', 'ignore')

9

Je trouve que le mieux est de toujours convertir en unicode - mais cela est difficile à réaliser car dans la pratique, vous devrez vérifier et convertir chaque argument en chaque fonction et méthode que vous écrivez qui inclut une certaine forme de traitement de chaîne.

J'ai donc proposé l'approche suivante pour garantir des unicodes ou des chaînes d'octets, à partir de l'une ou l'autre entrée. En bref, incluez et utilisez les lambdas suivants:

# guarantee unicode string
_u = lambda t: t.decode('UTF-8', 'replace') if isinstance(t, str) else t
_uu = lambda *tt: tuple(_u(t) for t in tt) 
# guarantee byte string in UTF8 encoding
_u8 = lambda t: t.encode('UTF-8', 'replace') if isinstance(t, unicode) else t
_uu8 = lambda *tt: tuple(_u8(t) for t in tt)

Exemples:

text='Some string with codes > 127, like Zürich'
utext=u'Some string with codes > 127, like Zürich'
print "==> with _u, _uu"
print _u(text), type(_u(text))
print _u(utext), type(_u(utext))
print _uu(text, utext), type(_uu(text, utext))
print "==> with u8, uu8"
print _u8(text), type(_u8(text))
print _u8(utext), type(_u8(utext))
print _uu8(text, utext), type(_uu8(text, utext))
# with % formatting, always use _u() and _uu()
print "Some unknown input %s" % _u(text)
print "Multiple inputs %s, %s" % _uu(text, text)
# but with string.format be sure to always work with unicode strings
print u"Also works with formats: {}".format(_u(text))
print u"Also works with formats: {},{}".format(*_uu(text, text))
# ... or use _u8 and _uu8, because string.format expects byte strings
print "Also works with formats: {}".format(_u8(text))
print "Also works with formats: {},{}".format(*_uu8(text, text))

Voici un peu plus de raisonnement à ce sujet .


Salut, en Python 3, la fonction _u ne fonctionne pas avec cette valeur 'Ita £'.
Martin

1
Ok, par où commencer votre "raisonnement"? print unicode(u'Zürich', encoding="UTF-8")et ensuite se plaindre "Mais étonnamment, vous ne pouvez pas coder ext unicode en UTF8". unicode()ne code pas; il décode et vous ne pouvez pas décoder un Unicode - il est déjà décodé!
Alastair McCormack

@AlastairMcCormack Vous êtes les bienvenus pour améliorer le message. Si toutefois vous préférez saupoudrer votre supériorité présumée sur tous ceux qui ne partagent pas votre opinion et vos idées, je ne suis franchement pas intéressé. Je vous remercie.
miraculixx

3
@miraculixx Je suis désolé, je ne voulais pas tomber comme un con. S'inquiéter du décodage et de l'encodage chaque fois que vous utilisez une chaîne dans votre code est tout simplement inutile.
Alastair McCormack

7

Afin de résoudre ce problème au niveau du système d'exploitation dans une installation Ubuntu, vérifiez les points suivants:

$ locale charmap

Si vous obtenez

locale: Cannot set LC_CTYPE to default locale: No such file or directory

au lieu de

UTF-8

puis définissez LC_CTYPEet LC_ALLcomme ceci:

$ export LC_ALL="en_US.UTF-8"
$ export LC_CTYPE="en_US.UTF-8"

6

Encode convertit un objet unicode en un objet chaîne. Je pense que vous essayez d'encoder un objet chaîne. convertissez d'abord votre résultat en objet unicode, puis encodez cet objet unicode en «utf-8». par exemple

    result = yourFunction()
    result.decode().encode('utf-8')

4

J'ai eu le même problème mais cela n'a pas fonctionné pour Python 3. J'ai suivi cela et cela a résolu mon problème:

enc = sys.getdefaultencoding()
file = open(menu, "r", encoding = enc)

Vous devez définir l'encodage lorsque vous lisez / écrivez le fichier.


4

Vous avez une même erreur et cela a résolu mon erreur. Merci! python 2 et python 3 différents dans la gestion unicode rendent les fichiers picklés assez incompatibles à charger. Utilisez donc l'argument de codage de python pickle. Le lien ci-dessous m'a aidé à résoudre le problème similaire lorsque j'essayais d'ouvrir des données marinées à partir de mon python 3.7, alors que mon fichier était initialement enregistré dans la version python 2.x. https://blog.modest-destiny.com/posts/python-2-and-3-compatible-pickle-save-and-load/ Je copie la fonction load_pickle dans mon script et j'ai appelé load_pickle (pickle_file) lors du chargement de mon input_data comme ceci:

input_data = load_pickle("my_dataset.pkl")

La fonction load_pickle est ici:

def load_pickle(pickle_file):
    try:
        with open(pickle_file, 'rb') as f:
            pickle_data = pickle.load(f)
    except UnicodeDecodeError as e:
        with open(pickle_file, 'rb') as f:
            pickle_data = pickle.load(f, encoding='latin1')
    except Exception as e:
        print('Unable to load data ', pickle_file, ':', e)
        raise
    return pickle_data

1
il est préférable d'inclure la définition de la load_picklefonction dans votre réponse.
sanyash

4

Cela a fonctionné pour moi:

    file = open('docs/my_messy_doc.pdf', 'rb')

3

En bref, pour assurer une bonne gestion unicode dans Python 2:

  • utiliser io.openpour lire / écrire des fichiers
  • utilisation from __future__ import unicode_literals
  • configurer d'autres entrées / sorties de données (par exemple, bases de données, réseau) pour utiliser unicode
  • si vous ne pouvez pas configurer les sorties en utf-8, convertissez votre sortie pour elles print(text.encode('ascii', 'replace').decode())

Pour des explications, voir la réponse détaillée de @Alastair McCormack .


• utiliser io.open(path, 'r', encoding='utf-8')pour lire les fichiers encodés en utf-8.
Bob Stein

3

J'ai eu la même erreur, avec des URL contenant des caractères non ascii (octets avec des valeurs> 128), ma solution:

url = url.decode('utf8').encode('utf-8')

Remarque: utf-8, utf8 sont simplement des alias. Utiliser uniquement 'utf8' ou 'utf-8' devrait fonctionner de la même manière

Dans mon cas, a fonctionné pour moi, en Python 2.7, je suppose que cette affectation a changé «quelque chose» dans la strreprésentation interne - c'est-à-dire qu'elle force le bon décodage de la séquence d'octets sauvegardée urlet met finalement la chaîne dans un utf-8 str avec toute la magie au bon endroit. Unicode en Python est de la magie noire pour moi. J'espère utile


1
Pourquoi un tiret dans l'un et pas dans l'autre
IgorGanapolsky

1
Python accepte les alias pour encoder les noms, j'ai essayé maintenant et effectué la même chose ... simplement je n'ai pas remarqué que je les ai écrits différemment, a ajouté la note
Fabiano Tarlao

2

J'ai eu le même problème avec la chaîne "Pastelería Mallorca" et j'ai résolu avec:

unicode("Pastelería Mallorca", 'latin-1')

1

Dans un projet Django (1.9.10) / Python 2.7.5 j'ai des UnicodeDecodeErrorexceptions fréquentes ; principalement lorsque j'essaie d'alimenter les chaînes unicode en journalisation. J'ai créé une fonction d'aide pour les objets arbitraires à formater essentiellement en chaînes ascii 8 bits et en remplaçant tous les caractères absents du tableau par «?». Je pense que ce n'est pas la meilleure solution mais comme l'encodage par défaut est ascii (et je ne veux pas le changer), il fera:

def encode_for_logging (c, encoding = 'ascii'):
    si c'est l'instance (c, chaîne de base):
        return c.encode (encodage, 'replace')
    elif isinstance (c, Iterable):
        c_ = []
        pour v dans c:
            c_.append (encode_for_logging (v, encodage))
        retourner c_
    autre:
        return encode_for_logging (unicode (c))
"


1

Cette erreur se produit lorsqu'il y a des caractères non ASCII dans notre chaîne et que nous effectuons des opérations sur cette chaîne sans décodage approprié. Cela m'a aidé à résoudre mon problème. Je lis un fichier CSV avec l'ID des colonnes, le texte et les caractères de décodage comme ci-dessous:

train_df = pd.read_csv("Example.csv")
train_data = train_df.values
for i in train_data:
    print("ID :" + i[0])
    text = i[1].decode("utf-8",errors="ignore").strip().lower()
    print("Text: " + text)

0

Voici ma solution, il suffit d'ajouter l'encodage. with open(file, encoding='utf8') as f

Et parce que la lecture du fichier des gants prendra beaucoup de temps, je recommande le fichier des gants à un fichier numpy. Lorsque le temps netx vous lisez les poids d'intégration, cela vous fera gagner du temps.

import numpy as np
from tqdm import tqdm


def load_glove(file):
    """Loads GloVe vectors in numpy array.
    Args:
        file (str): a path to a glove file.
    Return:
        dict: a dict of numpy arrays.
    """
    embeddings_index = {}
    with open(file, encoding='utf8') as f:
        for i, line in tqdm(enumerate(f)):
            values = line.split()
            word = ''.join(values[:-300])
            coefs = np.asarray(values[-300:], dtype='float32')
            embeddings_index[word] = coefs

    return embeddings_index

# EMBEDDING_PATH = '../embedding_weights/glove.840B.300d.txt'
EMBEDDING_PATH = 'glove.840B.300d.txt'
embeddings = load_glove(EMBEDDING_PATH)

np.save('glove_embeddings.npy', embeddings) 

Lien essentiel: https://gist.github.com/BrambleXu/634a844cdd3cd04bb2e3ba3c83aef227


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.