Une révolution dans le monde de la traduction s’est produite depuis la proposition de la traduction automatique avec l’intelligence artificielle. Depuis la première moitié du 20ème siècle, la traduction automatique a connu des étapes de développement importantes.
En 1933, Peter Petrovich Troyanskii a proposé pour la première fois un modèle de traduction automatique et a créé un système pratique dès 1937. Cette machine était capable de trouver automatiquement la traduction des mots d’une phrase. Puis, en 1949, Warren Weaver a publié un article « Traduction » qui proposait d’améliorer la traduction automatique en surpassant la traduction mot à mot à l’aide des machines qui réfléchissent elles mêmes.
Avec l’appui de la technologie informatique moderne, deux écoles d’études en traduction ont vu le jour, à savoir l’école linguistique et l’école théorique, attribuée à l’émergence des ordinateurs électroniques et de leurs fonctions intelligentes.
Le genre linguistique est une traduction automatique basée sur des règles : l’humain écrira à la main un grand nombre de règles de grammaire de la langue source pour l’analyser, générera la grammaire de la langue cible conformément à ces règles, puis générera le texte final traduit par la grammaire de la langue cible. Plus les humains écrivent et analysent les règles de grammaire, plus la traduction de la langue cible est exacte. On peut dire que nous vivions à une époque où la quantité de travail manuel est positivement proportionnelle au niveau de renseignement.
L’école de la théorie de l’information est une traduction automatique basée sur des modèles statistiques : on pense que la traduction et le déchiffrement suivent la même logique. Si le français est considéré comme de l’anglais crypté par une certaine méthode de cryptage, nous devons trouver la méthode de décryptage sur la base d’analyse d’une grande quantité de données.
En 2003, grâce aux contributions de Franz Och « Statistical phrase-based translation » et « Minimum error rate training in statistical machine translation », la traduction automatique statistique a vraiment commencé à prospérer. Franz Och a rejoint Google en 2004. Il a dirigé le développement de Google Translate et, en 2006, a achevé le lancement officiel de Google Translate en tant que service gratuit.
En 2016, Google a lancé Google Neural Machine Translation (GNMT), une technologie qui permet d’améliorer considérablement l’exactitude de la traduction grâce à la technologie de « zero-shot translation ». En tant que « phase-based » système de traduction, NMT met l’accent sur la pertinence contextuelle des phrases en observant le contexte de la phrase dans son ensemble, et en déduit plus correctement le texte final dans la langue cible.
« For example, a multilingual NMT model trained with Portuguese→English and English→Spanish examples can generate reasonable translations for Portuguese→Spanish although it has not seen any data for that language pair. We show that the quality of zero-shot language pairs can easily be improved with little additional data of the language pair in question. » (‘Google’s Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation’, 21 Aug 2017 version 2, p. 2)
« L’intelligence artificielle a toujours été de servir l’humain et d’aider les gens à effectuer leur travail. Elle permet de libérer les êtres humains d’un travail compliqué, répétitif et de faible valeur. » comme le dit le laboratoire d’intelligence artificielle d’Alibaba. Par contre, la traduction supérieure n’est pas un travail de faible valeur, mais un travail de création. Les exigences de l’humain pour l’expérience de lecture ne sont jamais limitées à la compréhension du sens littéral, mais à la capacité d’exprimer avec précision et d’intégrer le contexte. Pour cela, seul le cerveau humain comprend l’usage précis et le patrimoine culturel des langues afin de réaliser une traduction supérieure.