La problématique dont il est question ici relève de la traduction automatique, une application de la linguistique informatique ou suivant l’appellation anglo-saxonne la linguistique computationnelle, une discipline issue du développement de l’informatique dans le domaine des sciences du langage. L’objet premier de cette discipline est l’élaboration de modèles computationnels d’analyse et de génération à partir des quels on peut comprendre ou produire des énoncés en langues naturelles.
En ce qui concerne l’introduction de nos langues nationales (wolof, diola, sérère, etc.) dans internet, il s’agira de développer des programmes capables de les traduire vers les langues majoritairement utilisées sur internet (anglais, français, etc.). Il faut noter que de tels programmes font intervenir toutes les composantes majeures de la linguistique informatique comme l’analyse, les lexiques et la génération.
Dans leur grande majorité, les tentatives de développent de systèmes de traduction automatique se sont soldés par des échecs. Les exigences d’un système de traduction sont loin d’être satisfaites pour nos langues nationales. Nous devons d’abord tenter de les satisfaire si nous voulons éviter de tomber, malgré la puissance de calcul des ordinateurs d’aujourd’hui ainsi que leur haut niveau de langages de programmation, dans le piège qu’à connu les pionniers dans les années 1950.
En effet, il est intéressant de noter que la traduction automatique a constitué l’une des premières applications mon numérique des ordinateurs. En effet, les premières tentatives visant à utiliser l’ordinateur pour traduire un texte remontent au début des années 1950. Une quarantaine d’années plus tard, on ne peut que s’étonner de l’optimisme et, il faut bien le dire, de la naïveté des chercheurs, qui pensaient être en mesure de résoudre avec les moyens informatiques dérisoires de l’époque un problème que la technologie actuelle ne maitrise que bien partiellement. Il est difficile, en effet de se représenter aujourd’hui dans quelles conditions et avec quels moyens techniques ces premières recherches ont été entreprises. Du point de vue de la puissance de calcul et du stockage de données, le plus petit des ordinateurs personnels d’aujourd’hui est déjà incomparablement plus puissant et plus performant que les gigantesques machines du début des années 1950. Quant au logiciel, il faut se rappeler que le langage machine était le seul langage disponible.
Pour comprendre ce qui apparait aujourd’hui comme une aberration, il faut se rappeler la conjecture politique de l’époque – la guerre froide – et les besoins des services de renseignement. Ce n’est pas un hasard si tous les efforts de ces pionniers de la traduction automatique ont porté sur la traduction du russe vers l’anglais ou le français en Europe occidentale et aux Etats-Unis, et de l’anglais ou du français vers le russe du coté de l’ex-Union soviétique.
Du point de vue de la méthode utilisée, ces premiers systèmes de traduction automatique effectuent essentiellement une traduction mot-à-mot, l’analyse linguistique ne s’étendant guère au-delà de la morphologie et de certaines collocations. Il faut dire qu’en raison du manque de mémoire des machines de l’époque, pendant de nombreuses années la préoccupation dominante a été celle du stockage des données.
Il n’est guère surprenant, dans ces conditions, que malgré les moyens financiers considérables engagés par les agences gouvernementales dans ces recherches, les premières tentatives de traduction se sont toutes soldées par des échecs. Aux Etats-Unis, les recherches furent pratiquement toutes interrompues après 1965, à la suite d’un rapport établi à la demande de l’Académie nationale des sciences (le fameux rapport ALPAC , qui conclut à l’impossibilité de la traduction automatique sur la base des moyens technologiques et scientifiques de l’époque). La phrase anglaise qui était soumise à machine lors de la phase test fut : l’esprit est fort et la chaire est faible. Elle fut traduite en russe par : La vodka est forte et la viande est pourrie
Une des conséquences de ce rapport fut, du moins dans le monde occidental, la disparition de la traduction automatique de la scène scientifique et académique pour plus d’une dizaine d’années. Suivant les recommandations du rapport, la recherche s’oriente alors vers les questions fondamentales de la linguistique informatique (ou computationnelle) (méthode d’analyse de la langue naturelle) et de l’intelligence artificielle (problème de la représentation de la connaissance, etc.).
Petit à petit, les développements technologiques, aussi bien au niveau des machines que du logiciel, ceux de la linguistique théorique, ainsi que des besoins toujours plus pressants des administrations, de l’industrie et du commerce international, submergés par l’augmentation constante du volume des documents à traduire ont remis la traduction à l’ordre du jour, et on assiste depuis la fin des années 1970 au lancement de nombreux projets de traduction automatique ou de traduction assistée par ordinateur. Ainsi au Japon, on comptait pratiquement une vingtaine de groupes de recherche sur la traduction automatique en 1982, contre une dizaine seulement en Europe et aux Etats-Unis. Parmi ces derniers, les plus connus sont METAL et Eurotra. METAL est un système de traduction allemand-anglais développé à l’université du Texas avec l’aide de la compagnie Siemens, qui l’a commercialisé à la fin des années quatre-vingt. Il s’agit d’un système de 2e génération, ce qui signifie que le système effectue une analyse syntaxique des phrases sources. Quant au projet Eurotra, financé par l’Union européenne, il visait à développer un système expérimental plurilingue portant sur les langues officielles de la communauté européenne, utilisant une technologie relativement proche de celle du système METAL. Le projet, qui à son apogée a regroupé plus d’une centaine de collaborateur répartis dans les différents groupes nationaux, s’est achevé en 1992, sans parvenir toutefois à réaliser le prototype attendu.
A ce jour, les deux systèmes les plus utilisés sont sans doute SYSTRAN et Globalink tous deux issus des technologies de traduction des années 1960-1970. Le premier utilisé par l’union européenne et quelques grandes entreprises comme Xerox et GM doit son succès à ses énormes dictionnaires, le second à son prix modeste, sa disponibilité sur ordinateurs personnels et sa facilité d’utilisation.
Mar Ndiaye
Spécialiste des technologies cognitives : technologies web & technologies du langage.
776207099