UnicodeDecodeError: Der Codec 'ascii' kann das Byte 0xe2 an Position 13 nicht dekodieren: Ordnungszahl nicht im Bereich (128)

129

Ich verwende NLTK, um kmeans-Clustering für meine Textdatei durchzuführen, in der jede Zeile als Dokument betrachtet wird. So sieht meine Textdatei beispielsweise so aus:

belong finger death punch <br>
hasty <br>
mike hasty walls jericho <br>
jägermeister rules <br>
rules bands follow performing jägermeister stage <br>
approach 

Der Demo-Code, den ich ausführen möchte, lautet:

import sys

import numpy
from nltk.cluster import KMeansClusterer, GAAClusterer, euclidean_distance
import nltk.corpus
from nltk import decorators
import nltk.stem

stemmer_func = nltk.stem.EnglishStemmer().stem
stopwords = set(nltk.corpus.stopwords.words('english'))

@decorators.memoize
def normalize_word(word):
    return stemmer_func(word.lower())

def get_words(titles):
    words = set()
    for title in job_titles:
        for word in title.split():
            words.add(normalize_word(word))
    return list(words)

@decorators.memoize
def vectorspaced(title):
    title_components = [normalize_word(word) for word in title.split()]
    return numpy.array([
        word in title_components and not word in stopwords
        for word in words], numpy.short)

if __name__ == '__main__':

    filename = 'example.txt'
    if len(sys.argv) == 2:
        filename = sys.argv[1]

    with open(filename) as title_file:

        job_titles = [line.strip() for line in title_file.readlines()]

        words = get_words(job_titles)

        # cluster = KMeansClusterer(5, euclidean_distance)
        cluster = GAAClusterer(5)
        cluster.cluster([vectorspaced(title) for title in job_titles if title])

        # NOTE: This is inefficient, cluster.classify should really just be
        # called when you are classifying previously unseen examples!
        classified_examples = [
                cluster.classify(vectorspaced(title)) for title in job_titles
            ]

        for cluster_id, title in sorted(zip(classified_examples, job_titles)):
            print cluster_id, title

(die auch hier zu finden sind )

Der Fehler, den ich erhalte, ist folgender:

Traceback (most recent call last):
File "cluster_example.py", line 40, in
words = get_words(job_titles)
File "cluster_example.py", line 20, in get_words
words.add(normalize_word(word))
File "", line 1, in
File "/usr/local/lib/python2.7/dist-packages/nltk/decorators.py", line 183, in memoize
result = func(*args)
File "cluster_example.py", line 14, in normalize_word
return stemmer_func(word.lower())
File "/usr/local/lib/python2.7/dist-packages/nltk/stem/snowball.py", line 694, in stem
word = (word.replace(u"\u2019", u"\x27")
UnicodeDecodeError: 'ascii' codec can't decode byte 0xe2 in position 13: ordinal not in range(128)

Was passiert hier?

user2602812
quelle

Antworten:

133

Die Datei wird als eine Reihe von strs gelesen , aber es sollte unicodes sein. Python versucht implizit zu konvertieren, schlägt jedoch fehl. Veränderung:

job_titles = [line.strip() for line in title_file.readlines()]

um das strs explizit zu dekodieren unicode(hier unter der Annahme von UTF-8):

job_titles = [line.decode('utf-8').strip() for line in title_file.readlines()]

Es könnte auch gelöst werden, indem das codecsModul importiert und codecs.openanstelle des integrierten Moduls verwendet wird open.

icktoofay
quelle
2
Das Ausführen dieses line.decodes ('utf-8'). strip (). lower (). split () gibt mir ebenfalls den gleichen Fehler. Ich habe den .deocode ('utf-8') hinzugefügt
Aman Mathur
@kathirraja: Kannst du eine Referenz dafür liefern? Soweit ich weiß, decodebleibt die Methode auch in Python 3 die bevorzugte Methode, um eine Byte-Zeichenfolge in eine Unicode-Zeichenfolge zu dekodieren. (Obwohl die Typen in meiner Antwort nicht richtig für Python 3 - für Python 3, wir versuchen , zu konvertieren von byteszu stranstatt aus strzu unicode.)
icktoofay
52

Das funktioniert gut für mich.

f = open(file_path, 'r+', encoding="utf-8")

Sie können eine dritte Parametercodierung hinzufügen , um sicherzustellen, dass der Codierungstyp 'utf-8' ist.

Hinweis: Diese Methode funktioniert in Python3 einwandfrei. Ich habe sie in Python2.7 nicht ausprobiert.

uestcfei
quelle
Es funktioniert nicht in Python 2.7.10:TypeError: 'encoding' is an invalid keyword argument for this function
Borhan Kazimipour
2
Es funktioniert nicht in Python 2.7.10: TypeError: 'encoding' is an invalid keyword argument for this function Dies funktioniert gut:import io with io.open(file_path, 'r', encoding="utf-8") as f: for line in f: do_something(line)
Borhan Kazimipour
2
Arbeitete wie ein Zauber in Python3.6 Vielen Dank!
SRC
32

Bei mir gab es ein Problem mit der Terminalcodierung. Das Hinzufügen von UTF-8 zu .bashrc löste das Problem:

export LC_CTYPE=en_US.UTF-8

Vergessen Sie nicht, .bashrc anschließend neu zu laden:

source ~/.bashrc
Georgi Karadzhov
quelle
3
Ich musste export LC_ALL=C.UTF-8auf Ubuntu 18.04.3 und Python 3.6.8 verwenden. Ansonsten hat dies mein Problem gelöst, danke.
Jbaranski
31

Sie können dies auch versuchen:

import sys
reload(sys)
sys.setdefaultencoding('utf8')
Siva S.
quelle
3
Was bedeutet das? Es klingt wie etwas Globales und gilt nicht nur für diese Datei.
Simeg
2
Beachten Sie, dass das oben
Genannte
12

Unter Ubuntu 18.04 mit Python3.6 habe ich das Problem gelöst , indem ich beides getan habe:

with open(filename, encoding="utf-8") as lines:

und wenn Sie das Tool als Befehlszeile ausführen:

export LC_ALL=C.UTF-8

Beachten Sie, dass Sie in Python2.7 anders vorgehen müssen. Zuerst müssen Sie die Standardcodierung festlegen:

import sys
reload(sys)
sys.setdefaultencoding('utf-8')

und um die Datei zu laden, müssen Sie io.opendie Codierung festlegen:

import io
with io.open(filename, 'r', encoding='utf-8') as lines:

Sie müssen die Umgebung noch exportieren

export LC_ALL=C.UTF-8
loretoparisi
quelle
5

Ich habe diesen Fehler beim Versuch, ein Python-Paket in einem Docker-Container zu installieren. Für mich war das Problem, dass das Docker-Image nicht localekonfiguriert war. Das Hinzufügen des folgenden Codes zur Docker-Datei löste das Problem für mich.

# Avoid ascii errors when reading files in Python
RUN apt-get install -y \
  locales && \
  locale-gen en_US.UTF-8
ENV LANG='en_US.UTF-8' LANGUAGE='en_US:en' LC_ALL='en_US.UTF-8'
Jacob Stern
quelle
Ich musste dies verwenden: github.com/docker-library/python/issues/13
Mayrop
3

So finden Sie JEDEN und ALLE Unicode-Fehler ... Verwenden Sie den folgenden Befehl:

grep -r -P '[^\x00-\x7f]' /etc/apache2 /etc/letsencrypt /etc/nginx

Fand meine in

/etc/letsencrypt/options-ssl-nginx.conf:        # The following CSP directives don't use default-src as 

Mit shedfand ich die beleidigende Sequenz. Es stellte sich als Editorfehler heraus.

00008099:     C2  194 302 11000010
00008100:     A0  160 240 10100000
00008101:  d  64  100 144 01100100
00008102:  e  65  101 145 01100101
00008103:  f  66  102 146 01100110
00008104:  a  61  097 141 01100001
00008105:  u  75  117 165 01110101
00008106:  l  6C  108 154 01101100
00008107:  t  74  116 164 01110100
00008108:  -  2D  045 055 00101101
00008109:  s  73  115 163 01110011
00008110:  r  72  114 162 01110010
00008111:  c  63  099 143 01100011
00008112:     C2  194 302 11000010
00008113:     A0  160 240 10100000
John Greene
quelle
1

Sie können dies versuchen, bevor Sie einen job_titlesString verwenden:

source = unicode(job_titles, 'utf-8')
Aminah Nuraini
quelle
0

Für Python 3 wäre die Standardcodierung "utf-8". Die folgenden Schritte werden in der Basisdokumentation vorgeschlagen: https://docs.python.org/2/library/csv.html#csv-examples im Falle eines Problems

  1. Erstellen Sie eine Funktion

    def utf_8_encoder(unicode_csv_data):
        for line in unicode_csv_data:
            yield line.encode('utf-8')
  2. Verwenden Sie dann die Funktion im Lesegerät, z

    csv_reader = csv.reader(utf_8_encoder(unicode_csv_data))
iamigham
quelle
0

python3x oder höher

  1. Datei im Byte-Stream laden:

    body = '' für offene Zeilen ('website / index.html', 'rb'): decodedLine = lines.decode ('utf-8') body = body + decodedLine.strip () return body

  2. Verwenden Sie die globale Einstellung:

    import io import sys sys.stdout = io.TextIOWrapper (sys.stdout.buffer, encoding = 'utf-8')

Ich bin groß
quelle
0

Verwenden Sie open(fn, 'rb').read().decode('utf-8')statt nuropen(fn).read()

Ganesh Kharad
quelle