Bis heute bin ich - als AI-Laie - verwirrt über die versprochenen und erreichten Verbesserungen der automatisierten Übersetzung.
Mein Eindruck ist: Es ist noch ein sehr, sehr weiter Weg. Oder gibt es andere Erklärungen, warum die automatisierten Übersetzungen (angeboten und bereitgestellt von z. B. Google) von ganz einfachen Wikipedia-Artikeln immer noch hauptsächlich albern, kaum lesbar und nur teilweise hilfreich und nützlich sind?
Es mag von persönlichen Vorlieben abhängen (in Bezug auf Lesbarkeit, Hilfsbereitschaft und Nützlichkeit), aber meine persönlichen Erwartungen werden schmerzlich enttäuscht.
Umgekehrt: Sind die Übersetzungen von Google für die Mehrheit der Nutzer dennoch lesbar, hilfreich und nützlich ?
Oder hat Google Gründe, seine Erfolge beizubehalten (und den Nutzern nicht das Beste zu zeigen, was sie zeigen können)?
Vorläufiges Ergebnis: Wir sind noch weit davon entfernt, mit künstlicher Intelligenz gleichberechtigt und verständnisvoll zu sprechen - nur auf der Ebene der Saiten. Warum sollten wir also Angst haben? Weil sie mehr wissen als wir - aber wir wissen es nicht?
quelle
Antworten:
Wer hat behauptet, dass maschinelle Übersetzung so gut ist wie ein menschlicher Übersetzer? Für mich als professionellen Übersetzer, der seit 35 Jahren von der Übersetzung lebt, bedeutet MT, dass meine tägliche Produktion von qualitativ hochwertigen Übersetzungen um den Faktor 3 bis 5 gestiegen ist, abhängig von der Komplexität des Ausgangstextes.
Ich kann nicht zustimmen, dass die Qualität von MT mit der Länge der eingegebenen Fremdsprache abnimmt. Das galt früher für die alten Systeme mit semantischen und grammatikalischen Analysen. Ich glaube nicht, dass ich alle alten Systeme kenne (ich kenne Systran, ein trashiges Tool von Siemens, das wie ein Danaer-Geschenk, XL8, Personal Translator und Translate von einer Firma zur nächsten verkauft wurde), sondern sogar ein professionelles System in die ich 28.000 DM investiert habe (!!!!) ist kläglich gescheitert.
Zum Beispiel der Satz:
kann mit mehreren MT-Tools ins Deutsche übersetzt werden.
Persönlicher Übersetzer 20 :
Eingabeaufforderung :
DeepL :
Google:
Heute liefert mir Google in der Regel lesbare, fast korrekte Übersetzungen, und DeepL ist noch besser. Erst heute Morgen habe ich in 3 Stunden 3500 Wörter übersetzt und das Ergebnis ist einwandfrei, obwohl der Quelltext voller Fehler war (geschrieben von Chinesisch).
quelle
Googles Übersetzungen können nützlich sein, insbesondere wenn Sie wissen, dass die Übersetzungen nicht perfekt sind und nur eine erste Vorstellung von der Bedeutung des Texts haben möchten (deren Google-Übersetzungen manchmal irreführend oder falsch sein können). Ich würde Google's translate (oder einem anderen nicht-menschlichen Übersetzer) nicht empfehlen, um eine ernsthafte Übersetzung durchzuführen, es sei denn, es handelt sich möglicherweise um einen gemeinsamen Satz oder ein gemeinsames Wort, es handelt sich nicht um sehr lange Texte und eine informelle Sprache (oder einen Slang) Englisch oder Sie haben keinen Zugang zu einem menschlichen Übersetzer.
Google Translate verwendet derzeit ein neuronales maschinelles Übersetzungssystem . Um dieses Modell (und ähnliche Modelle) auszuwerten, wird die BLEU-Metrik verwendet0 100 100
In der Arbeit Making AI Meaningful Again diskutieren die Autoren auch die Schwierigkeit der Übersetzungsaufgabe (von der angenommen wird, dass sie ein AI-vollständiges Problem darstellt ). Sie erwähnen auch den Transformator (ein weiteres hochmodernes maschinelles Übersetzungsmodell), der ziemlich schlechte Ergebnisse erzielt (bewertet mit der BLEU-Metrik).
Zusammenfassend ist die maschinelle Übersetzung ein schwieriges Problem, und aktuelle maschinelle Übersetzungssysteme sind definitiv nicht so leistungsfähig wie ein professioneller menschlicher Übersetzer.
quelle
Sie haben eine ganze Reihe von Fragen gestellt, von denen einige nicht endgültig beantwortet werden können. Um einen Einblick in die Qualität (und die Geschichte) von maschinellen Übersetzungen zu geben, verweise ich auf Christopher Manning, seinen 'Ein-Satz-Maßstab', wie er in seinem Vortrag vorgestellt wurde . Es enthält ein Beispiel für Chinesisch nach Englisch, das mit der Ausgabe von Google Translate verglichen wird. Die richtige Übersetzung für das Beispiel wäre:
Google Translate hat die folgenden Übersetzungen zurückgegeben.
Ob Google behält seine besten Ergebnisse oder "verbirgt": Ich bezweifle es. Auf dem Gebiet der Verarbeitung natürlicher Sprache (NLP) arbeiten viele hervorragende Forscher. Wenn Google einen „größten Erfolg“ bei der Übersetzung erzielen würde, würden die Forscher dies früher oder später herausfinden. (Warum sollte Google ihre "größte Leistung" überhaupt verbergen? Sie scheinen den Nutzen von Open Source zu erkennen, siehe Transformer [1] oder BERT [2].)
NB. Eine aktualisierte Liste der neuesten Algorithmen in NLP finden Sie in der SQuAD2.0-Bestenliste .
[1] Vaswani, Ashish et al. "Aufmerksamkeit ist alles was du brauchst." Fortschritte in neuronalen Informationsverarbeitungssystemen. 2017.
[2] Devlin, Jacob et al. "Bert: Pre-Training von tiefen bidirektionalen Transformatoren für das Sprachverständnis." arXiv-Vorabdruck arXiv: 1810.04805 (2018).
quelle
In 1519, 600 Spaniards landed in Mexico to conquer the Aztec empire of millions of people, and they first met two-thirds of their soldiers.
Es kommt wirklich auf das Sprachpaar und das Thema des Inhalts an. Das Übersetzen von / nach Englisch in eine andere Sprache wird normalerweise am besten unterstützt. Das Übersetzen in und aus populären Sprachen funktioniert besser, zum Beispiel ist das Übersetzen von Englisch nach Rumänisch eine schlechtere Übersetzung als das Übersetzen von Englisch nach Russisch. Das Übersetzen von Englisch nach Russisch oder Rumänisch ist jedoch besser als das Übersetzen von Russisch nach Rumänisch. Und das Übersetzen von Rumänisch nach Englisch ist besser als das Übersetzen von Englisch nach Rumänisch.
Aber wenn Sie es gewohnt sind, mit Übersetzern zu arbeiten, und wenn Sie mit den Sprachen, Übersetzungsfehlern und dem Thema vertraut sind, ist es leicht zu verstehen, was eigentlich dort sein sollte. Und zu diesem Zeitpunkt ist es manchmal einfacher, etwas zu lesen, das in Ihre Muttersprache übersetzt wurde, um es schnell zu scannen, als es in einer zweiten Sprache zu lesen.
Weniger beliebte Sprachen (für die Übersetzung nicht unbedingt die Anzahl der Sprecher) kommen wörtlichen Übersetzungen nur geringfügig näher als das, was Sie persönlich mit einem Wörterbuch für zwei Sprachen tun würden, die Sie nicht kennen.
quelle
Ja, sie sind etwas hilfreich und ermöglichen es Ihnen, schneller zu übersetzen.
Vielleicht weiß ich es nicht. Wenn Sie nach Informationen suchen, macht Google wirklich eine Menge schrecklicher dummer Dinge, wie beispielsweise das Lernen aus den Aussagen der Nutzer im Internet, indem Sie ungeeignete Daten als vertrauenswürdige Eingabedatensätze verwenden.
quelle
Entschuldigung, dass Sie nicht auf Englisch geschrieben haben. Die angepasste Übersetzung finden Sie hier:
Um Interessenten einen Eindruck von der Qualität von MT (DeepL) zu vermitteln, sehen Sie sich dieses Beispiel anhand eines Textes an, an dem ich heute Morgen gearbeitet habe (6.300 Wörter, angefangen um 9 Uhr, heute gegen 13 Uhr zugestellt und noch Zeit für diesen Beitrag). Ich habe an diesem Satz (201 Wörter) gearbeitet, als ich meinen Kommentar gepostet habe.
DeepL gibt dies zurück:
Ich habe ungefähr 5 bis 10 Minuten gebraucht, um diesen Absatz anzupassen.
Als Übersetzer weiß ich, dass ich mich nicht auf die maschinelle Übersetzung verlassen kann, aber ich habe die Besonderheiten und Fähigkeiten der verschiedenen Systeme im Laufe der Zeit gelernt und weiß, worauf ich achten muss.
MT hilft mir sehr bei meiner Arbeit.
quelle
Dies wird weniger eine Antwort als vielmehr ein Kommentar sein.
Die Qualität hängt von mehreren Dingen ab, einschließlich (wie Aaron oben sagte) 1) dem Sprachpaar und 2) dem Thema, aber auch 3) den Gattungen und 4) dem Stil des Originals und 5) der Menge des parallelen Texts, den Sie haben das MT-System zu trainieren.
Um die Bühne zu bereiten, basieren praktisch alle MT heutzutage auf parallelen Texten, d. H. Einem Text in zwei verschiedenen Sprachen, wobei eine vermutlich eine Übersetzung der anderen (oder beide eine Übersetzung einer dritten Sprache) ist. und möglicherweise Verwendung von Wörterbüchern (möglicherweise unterstützt durch morphologische Prozesse) als Backoff, wenn die parallelen Texte keine bestimmten Wörter enthalten.
Darüber hinaus versteht, wie andere gesagt haben, ein MT-System die zu übersetzenden Texte in keiner Weise. Es werden nur Zeichenfolgen und Wortfolgen aus Zeichen angezeigt, und es wird nach ähnlichen Zeichenfolgen und Folgen in zuvor übersetzten Texten gesucht. (Ok, es ist etwas komplizierter als das, und es gab Versuche, Semantik in Rechensystemen zu erlernen, aber im Moment sind es meistens Zeichenketten.)
1) Sprachen variieren. Einige Sprachen haben eine Menge Morphologie, was bedeutet, dass sie Dinge mit einem einzigen Wort tun, die andere Sprachen mit mehreren Wörtern tun. Ein einfaches Beispiel wäre Spanisch "Cantaremos" = Englisch "wir werden singen". Und eine Sprache kann Dinge tun, mit denen die andere Sprache nicht einmal zu tun hat, wie zum Beispiel die informelle / formelle (tu / usted) Unterscheidung in Spanisch, mit der Englisch kein Äquivalent hat. Oder eine Sprache kann Dinge mit der Morphologie tun, die eine andere Sprache mit der Wortreihenfolge tut. Oder das von der Sprache verwendete Skript markiert möglicherweise nicht einmal Wortgrenzen (Chinesisch und einige andere). Je unterschiedlicher die beiden Sprachen sind, desto schwieriger wird es für das MT-System, zwischen ihnen zu übersetzen. Die ersten Versuche zur statistischen MT wurden zwischen Französisch und Englisch durchgeführt.
2) Thema: Wenn Sie Paralleltexte in der Bibel haben (was für fast alle geschriebenen Sprachen zutrifft) und Ihr MT-System auf diese Sprachen trainieren, sollten Sie nicht damit rechnen, dass es bei technischen Texten gute Ergebnisse erzielt. (Nun, die Bibel ist ohnehin eine relativ kleine Textmenge, wenn man MT-Systeme trainiert, aber tu so als ob :-).) Das Vokabular der Bibel unterscheidet sich sehr von dem der technischen Texte, ebenso wie die Häufigkeit verschiedener grammatikalischer Ausdrücke Konstruktionen. (Die Grammatik ist im Wesentlichen dieselbe, aber auf Englisch erhalten Sie beispielsweise viel mehr Passiv und zusammengesetzte Substantive in wissenschaftlichen und technischen Texten.)
3) Genera: Wenn Ihr Paralleltext deklarativ ist (z. B. Traktorhandbücher), erhalten Sie keine guten Ergebnisse, wenn Sie versuchen, das resultierende MT-System im Dialogfeld zu verwenden.
4) Stil: Denken Sie Hilary gegen Donald; gelehrt vs. beliebt. Ein Training auf der einen Seite bringt auf der anderen Seite keine guten Ergebnisse. Trainieren Sie das MT-System auch für Romane auf Erwachsenenebene und verwenden Sie es für Kinderbücher.
5) Sprachpaar: Englisch hat viele Texte, und die Chancen, Texte in einer anderen Sprache zu finden, die parallel zu einem bestimmten englischen Text sind, sind viel höher als die Chancen, Paralleltexte beispielsweise in Russisch und Igbo zu finden. (Das heißt, es kann Ausnahmen geben, wie in Indien.) Als grobe Verallgemeinerung gilt: Je mehr solche parallelen Texte Sie im MT-System trainieren müssen, desto besser sind die Ergebnisse.
In der Summe ist Sprache kompliziert (weshalb ich es liebe - ich bin ein Linguist). Kein Wunder also, dass MT-Systeme nicht immer gut funktionieren.
Übrigens, menschliche Übersetzer machen das auch nicht immer so gut. Vor ein oder zwei Jahrzehnten bekam ich Übersetzungen von Dokumenten von menschlichen Übersetzern ins Englische, um sie als Schulungsmaterial für MT-Systeme zu verwenden. Einige der Übersetzungen waren schwer zu verstehen, und in einigen Fällen, in denen wir Übersetzungen von zwei (oder mehr) menschlichen Übersetzern erhielten, war es schwer zu glauben, dass die Übersetzer dieselben Dokumente gelesen hatten.
Und schließlich gibt es (fast) nie nur eine richtige Übersetzung; Es gibt mehrere Möglichkeiten, eine Passage zu übersetzen, die je nach den gewünschten Merkmalen (grammatikalische Korrektheit, Stil, Konsistenz der Verwendung, ...) mehr oder weniger gut sein können. Es gibt kein einfaches Maß für "Genauigkeit".
quelle
Erstaunlicherweise sind alle anderen Antworten sehr vage und versuchen, dies vom menschlichen Übersetzer POV zu verstehen. Wechseln wir zu ML Engineer.
Eine der ersten Fragen, die wir beim Erstellen eines Übersetzungstools berücksichtigen sollten, lautet: "Wie messen wir, ob unser Tool funktioniert?".
Welches ist im Wesentlichen, was das OP fragt.
Dies ist keine leichte Aufgabe (einige andere Antworten erklären, warum). Es gibt einen Wikipedia - Artikel , in dem verschiedene Methoden zur Bewertung von maschinellen Übersetzungsergebnissen erwähnt werden - es gibt sowohl menschliche als auch automatische Bewertungen (wie BLEU , NIST , LEPOR) ).
Mit dem Aufstieg der neuronalen Netzwerktechniken verbesserten sich diese Werte signifikant.
Übersetzung ist ein komplexes Problem. Es gibt viele Dinge, die richtig (oder falsch) laufen können, und das Computerübersetzungssystem ignoriert häufig einige der Feinheiten, die für einen menschlichen Sprecher von Bedeutung sind.
Ich denke, wenn wir über die Zukunft nachdenken, gibt es einige Dinge, auf die wir uns verlassen können:
Zusammenfassend lässt sich sagen, dass dieses komplexe Problem, obwohl es nicht gelöst ist, auf einem guten Weg ist und beeindruckende Ergebnisse für gut recherchierte Sprachpaare liefert.
quelle
Wenn sie es wären, wäre es erstaunlich , was sie zurückhalten . Google veröffentlicht viele starke Artikel in Natural Language Processing, auch solche, die es bekommen die aktuelle Ergebnisse erzielen oder bedeutende konzeptionelle Durchbrüche erzielen . Sie haben auch sehr nützliche Datensätze und Tools veröffentlicht . Google ist eines der wenigen Unternehmen, das nicht nur den neuesten Stand der Forschung nutzt, sondern aktiv zur Literatur beiträgt.
Maschinelle Übersetzung ist nur ein schweres Problem. Ein guter menschlicher Übersetzer muss beide Sprachen fließend beherrschen, um die Arbeit gut zu machen. Jede Sprache hat ihre eigenen Redewendungen und nicht wörtliche oder kontextabhängige Bedeutungen. Nur mit einem zweisprachigen Wörterbuch zu arbeiten, würde schreckliche Ergebnisse bringen (für einen Menschen oder einen Computer). Daher müssen wir unsere Modelle auf vorhandene Korpora trainieren, die in mehreren Sprachen existieren, um zu lernen, wie Wörter tatsächlich verwendet werden (nb handkompilierte Phrase) Übersetzungstabellen können als Features verwendet werden (sie können einfach nicht die ganze Geschichte sein). Für einige Sprachpaare gibt es viele parallele Korpora (z. B. für EU - Sprachen haben wir die vollständige Verfahren des Europäischen Parlaments vor). Für andere Paare sind die Trainingsdaten viel sparsamer. Und selbst wenn wir Trainingsdaten haben, gibt es weniger benutzte Wörter und Sätze, die nicht oft genug zum Lernen erscheinen.
Dies war früher ein noch größeres Problem, da Synonyme schwer zu erklären waren. Wenn unsere Trainingsdaten Sätze für "Der Hund hat den Ball gefangen" hätten, aber nicht "Der Welpe hat den Ball gefangen", hätten wir eine geringe Wahrscheinlichkeit für den zweiten Satz. In der Tat wäre eine signifikante Glättung erforderlich, um zu verhindern, dass die Wahrscheinlichkeit in vielen solchen Fällen Null ist.
Das Auftauchen neuronaler Sprachmodelle in den letzten 15 Jahren hat dieses Problem massiv gelöst, indem Wörter einem realwertigen semantischen Raum zugeordnet werden konnten, bevor die Zusammenhänge zwischen Wörtern erlernt wurden. Auf diese Weise können Modelle erlernt werden, in denen Wörter, deren Bedeutung eng beieinander liegt, auch im semantischen Raum eng beieinander liegen. Ein Wortwechsel für das Synonym hat daher keinen großen Einfluss auf die Wahrscheinlichkeit des enthaltenen Satzes. word2vecist ein Modell, das dies sehr gut illustriert; Es zeigte sich, dass Sie z. B. den semantischen Vektor für "König" nehmen, den Vektor für "Mann" subtrahieren, den Vektor für "Frau" hinzufügen und herausfinden können, dass das nächste Wort zum resultierenden Vektor "Königin" ist. Als die Forschung an neuronalen Sprachmodellen ernsthaft begann, stellten wir sofort einen massiven Rückgang der Ratlosigkeit fest (dh wie verwirrt die Modelle von natürlichem Text waren), und jetzt stellen wir einen entsprechenden Anstieg des BLEU-Scores (dh der Übersetzungsqualität) fest Sprachmodelle werden in maschinelle Übersetzungssysteme integriert.
Maschinelle Übersetzungen sind immer noch nicht so gut wie hochwertige menschliche Übersetzungen und werden wahrscheinlich erst dann so gut sein, wenn wir eine völlig erfahrene KI knacken. Gute menschliche Übersetzer sind jedoch teuer, während jeder mit Internetzugang über maschinelle Übersetzer verfügt. Die Frage ist nicht, ob die menschliche Übersetzung besser ist, sondern wie nahe die Maschine diesem Qualitätsniveau kommt. Diese Lücke ist geschrumpft und schrumpft weiter.
quelle