Introduction de Jörn Cambreleng

Publié le

Introduction de Jörn Cambreleng, directeur d’Atlas, association pour la promotion de la traduction littéraire, traducteur, et président de l’Agence régionale du Livre (ArL) Provence-Alpes-Côte d’Azur.

” Nous sommes très heureux d’accueillir pour cette journée Jean-Gabriel Ganascia, que nous verrons en ligne, David Pouchard, Thomas Paris, Patrice Locmant et Jean-François Paillard. Il me faut toutefois noter que cette liste d’invités est exclusivement masculine. Je n’en fais nullement le reproche à Léonor (Léonor de Nussac, directrice de l’ArL). Je sais que des voix féminines étaient pressenties. Je dis seulement cela car malheureusement c’est assez symptomatique de la parole publique sur les sujets ayant trait à la tech et que pour la suite de ces rencontres, puisque suite il y aura, j’espère, il faudra être vigilants sur ce point car des voix féminines puissantes et informées existent sur le sujet.

Pour avoir assisté à un certain nombre de conférences sur le sujet qui nous occupe aujourd’hui où étaient assemblés des experts, des acteurs économiques de l’IA, j’ai constaté qu’un seul point semblait faire consensus. Tout le monde disait adopter à l’égard des technologies une position mesurée, calme, équilibrée. Aucune position technocritique ne pouvait faire l’économie d’un préambule qui affirme en même temps sa technophilie. Seul cet endroit d’énonciation semblait légitimer et autoriser la prise de parole.
Les traducteurs littéraires, dont je fais partie, ont été, avec les codeurs informatiques, les illustrateurs, les métiers en première ligne et c’est pourquoi ils ont fait l’expérience plus vite que d’autres de se faire traiter de passéistes, de luddites, voire d’extrémistes quand ils se hasardaient à formuler une pensée critique. Aussi, n’ai-je pas été très surpris à la lecture d’une tribune parue dans Le Monde la semaine dernière, de voir employer cette rhétorique si familière en préambule. Mais j’ai pourtant été alléché par le titre, qui disait : Non, l’intelligence artificielle ne remplacera pas les traducteurs et les traductrices. Un horizon semblait soudain se dégager jusqu’à ce que j’y lise un plaidoyer pour l’enseignement de l’utilisation de l’IA en traduction. Les signataires entendent représenter dans le débat qui entoure les usages et mésusages de l’IA le parti de la raison et du “ni ni”. “Rejetant les affects, les messages alarmistes, les prédictions millénaristes”, ils se plaçaient du côté des faits, qu’ils prétendent rappeler. Les arguments employés dans cet article ont pourtant le mérite de la simplicité. Un, on n’y coupera pas. Deux, il faut s’adapter. Vieille lune du darwinisme social, qui nous promet l’avènement de nouveaux besoins et de nouveaux métiers. Après avoir donc sommé les traducteurs de s’adapter s’ils ne veulent pas périr, l’article conclut sur une invitation à remplacer l’affect par l’observation.

C’est ce que nous allons faire aujourd’hui et je souhaite que nous ressortions de cette journée légèrement différents, transformés par rapport à ce que nous sommes ce matin. Élargissons le cadre de nos réflexions, au-delà de notre secteur professionnel, au-delà de notre échange interprofessionnel, que nos métiers soient ou non menacés de disparition, de dénaturation ou promis à un renouveau intéressant. Intéressons-nous au changement de paradigme humain dans lequel nous sommes précipités, à ce que nous apprennent les sciences cognitives, aux biais d’ancrage, à l’agenda politique qui sous-tend le développement de l’IA, à la convergence NBIC, aux visées transhumanistes de Google. Posons-nous la question : qui de la machine ou de l’humain sera au service de l’autre ? Quelles seront les conséquences écologiques de l’IA qui a déjà fait renoncer Google et Microsoft à inscrire la neutralité carbone à leur agenda pour 2030. +13 % d’émission de CO2 en 2023 (+48 % depuis 2020 pour Google).

L’article des universitaires cité plus haut appelle aussi à une utilisation éthique de l’IA, ce qui dans le cas de la traduction pourra être perçu comme une blague cynique étant donné la façon dont les « large language models », donc les grands modèles de langue existants ont été assemblés grâce au pillage des données issues du travail des auteurs, sans aucune base juridique avant 2019 et en jouant sur l’ignorance des ayants droits depuis.

Un article fort intéressant de l’Institut des droits fondamentaux numériques intitulé : Que se cache-t-il derrière le projet Villers-Cotterêts ? s’intéresse à cette question de l’éthique et notamment à travers le cas du consortium lauréat de l’énorme appel à projets sur les communs numériques pour l’IA générative financé dans le cadre de France 2030. Ce lauréat, nommé Argimi, est composé de Artefact, Giskard et Mistral AI, Un champion français depuis, en partie, racheté par Google. Le consortium entend bénéficier du projet Villers-Cotterêts. Il s’agit d’y créer un pôle de référence du traitement automatique du français et des langues de France qui accueillera des chercheurs, des entreprises expertes et des start-up aux côtés d’associations et institutions spécialisées dans le traitement automatique de la langue et de l’IA. Argimi entend ainsi pouvoir accéder librement aux données conservées par l’INA et la BNF en vertu du dépôt légal. Là on ne parle pas du volet patrimonial qui est déjà négocié. Toutefois, ces données incluent des contenus de presse et des œuvres culturelles encore protégés par le droit d’auteur. L’Institut des droits fondamentaux numériques rappelle ici que si l’objectif du dépôt légal et le contrôle de l’accès aux collections et fonds de l’INA, de la BNF ou du CNC ont évolué notamment pour numériser le patrimoine culturel, les assouplissements qui en découlent doivent rester limités à des chercheurs dûment accrédités consultant les archives pour des projets de recherches universitaires, professionnels, artistiques ou pédagogiques. Or, le communiqué de presse émis par ce groupe Argimi dit : “qu’il s’engage à façonner un avenir où l’IA est éthique et inclusive, respectueuse du droit d’auteur, de l’éthique et de son impact environnement et conforme aux régulations en vigueur”. Deux choses intéressantes. Si je résume et je dégraisse la phrase, cela donne : un monde où l’IA est éthique et respectueuse de l’éthique. L’expression “conforme aux régulations en vigueur” est étonnante, là où on attendrait conforme aux règlementations en vigueur mais qui témoigne sans doute d’une allergie sémantique au mot règlementation.

Je vais donc m’approcher de la conclusion avec cette question : que pèse l’éthique dans la tech ? La question de la légitimité de l’innovation semble aujourd’hui être d’emblée écartée, celle-ci étant admise et le curseur déplacé vers la question de la compensation financière accordée aux auteurs pour céder les droits de leurs données de qualité pour entraîner des modèles d’IA. Pourtant, d’autres approches existent en matière de droit, et je citerai ici Antoinette Rouvroy, chercheuse en philosophie du droit à l’université de Namur qui défend l’idée d’une Constitution du numérique : “Une Constitution, écrit-elle, c’est d’abord un texte sur lequel on décide en commun des critères de mérite, de besoin, de désirabilité qui président à la répartition des ressources et des procédures à partir desquelles on va décider ça politiquement. Et ça, on ne peut pas le sous-traiter à des machines”. Elle dit aussi : “que les dispositifs algorithmiques actuels évacuent tout ce qui n’est pas déjà là”. Elle touche ainsi du doigt une dimension temporelle extrêmement importante. C’est pourquoi elle défend l’idée d’une Constitution pour réguler les usages du numérique. La Constitution étant par essence une norme qui a vocation à durer dans le temps.
Éthique et droit donc, sont les sujets qui sont les plus présents dans les débats actuels pour essayer d’attraper notre sujet protéiforme. Mais il y a aussi la philosophie du langage, l’économie, l’écologie, les sciences cognitives… les angles pour aborder la question sont nombreux et il convient de s’y mettre à plusieurs pour en cerner les contours “.