Est-ce de l'IA ?

Historiquement, google traduction utilisait des techniques essentiellement statistiques "machine learning" (on a dû greffer des IA assez récemment, mais le "machine learning" introduisait essentiellement, il y a 15 ans, l'intelligence naturelle de celui qui disait quelles étaient les méthodes et variables explicatives).

A noter que, actuellement, google traduction permet de corriger pas mal de fautes de français (texte en français -> anglais -> français); en turc (et en kurde/kurmanci, qui est plus récent), ça marche moins bien, les deux langues ne faisant pas la différence entre le masculin et le féminin)

Il y a 15 ans, la partie intelligente du "machine learning" venait de celui qui formalisait le problème et indiquait aux algorithmes de stats ce sur quoi ils devaient se concentrer

Google Translate utilise des modèles statistiques de traduction automatique basés sur des réseaux de neurones pour traduire automatiquement entre les langues. Certains des algorithmes et techniques clés qui l'alimentent comprennent :

• Corpus parallèles - Google dispose d'une collection massive d'exemples de textes traduits et de dictionnaires bilingues compilés à partir de traducteurs humains. Ces corpus parallèles fournissent des exemples de traductions humaines dont les modèles de Google peuvent tirer des enseignements.

• Réseaux de neurones récurrents : les RNN sont un type de réseau de neurones qui peut traiter des données de séquence comme du texte. Ils sont utilisés dans Google Translate pour encoder le sens et la nuance des phrases en analysant l'ordre des mots et le contexte. Les RNN permettent aux modèles de traduire des idées et une grammaire complexes.

•Mécanismes d'attention - L'attention aide le réseau de neurones à se concentrer sur les parties pertinentes d'une phrase d'entrée pour générer une traduction précise. Le modèle apprend quels mots et expressions du texte source sont les plus importants pour traduire chaque mot du texte de sortie. Cela permet des traductions plus nuancées.

•Modèles séquence à séquence - Ces modèles utilisent un RNN pour coder d'abord la phrase d'entrée, puis un autre RNN pour générer la traduction de sortie mot par mot. Ils peuvent traduire des phrases de n'importe quelle longueur en apprenant à "se souvenir" du contexte du début de la phrase d'entrée.

• Apprentissage par transfert – Google forme des modèles distincts pour différentes paires de langues, mais utilise l'apprentissage par transfert pour aider les nouveaux modèles à apprendre plus rapidement en s'initialisant avec les connaissances des modèles associés. Cela permet une amélioration plus rapide des paires de langues moins populaires.

• Sémantique – Google imprègne ses modèles d'une compréhension sémantique de la signification des mots, des synonymes et de la relation entre les concepts d'une langue à l'autre. La connaissance sémantique provient de dictionnaires bilingues, de données parallèles et d'une formation sur des ensembles de données massifs.

• Recherche par faisceau - Cette technique développe la séquence de choix de traduction la plus prometteuse à chaque étape au lieu de simplement deviner le mot suivant le plus probable. L'expansion empêche le modèle de dérailler en choisissant un mot improbable dès le début. La recherche par faisceau conduit à des traductions plus précises et plus fluides.

• Système prêt à l'emploi : Google a créé un cadre hautement modulaire pour le développement et le déploiement de nouvelles architectures de réseaux de neurones, de flux de travail de formation et d'outils sémantiques pour la traduction. De nouvelles techniques peuvent être « branchées » et testées rapidement, puis déployées à grande échelle pour améliorer constamment le service.

• Modèles personnalisés : Google utilise des données sur les langues et l'historique de traduction d'un utilisateur pour sélectionner le modèle qui peut produire les meilleurs résultats pour cet utilisateur particulier. Les modèles personnalisés conduisent à des prédictions plus rapides et plus précises adaptées aux besoins de l'utilisateur.

Comme vous le voyez c’est de l’IA….

1 Like

100% d'accord, je ne vois pas @coloneldeguerlasse en quoi on n'est pas devant une IA, il y a 15 ans ou maintenant ???

La partie intelligente venait naturellement des choix de conception et il y a 15 ou 20 ans, il n'y avait pas de deep learning (pas de puissance de calcul suffisante) ou très peu; les algorithmes statistiques étaient beaucoup plus "simples".

Voir l'historique de google translate Google Translate - Wikipedia

(ils sont passés au deep learning -considéré comme de l'IA- en 2016; avant, c'était purement statistique.)
A noter que ce passage au deep learning s'est traduit par une amélioration des traductions anglais <-> français (je l'utilise comme correcteur grammatical), et des vitesses assez spectaculaires d'améliorations des traductions kurmanci -> anglais (au début, il y a 4/5 ans, c'était affreux: le kurmanci étant interdit -de facto - en Turquie et surtout en Iran, les textes étaient rares, pleins de faute d'orthographe -sauf wikipedia en Kurmanci- et les gens écrivaient leur dialecte comme ils l'entendaient/ leur vieille mère le parlait)
Par exemple, la détection d'une langue est assez simple (quelle est, parmi une cinquantaine de langues, celle qui offre la probabilité maximale d'avoir deux ou 3 lettres consécutives: ex : bexwedan n'a aucune chance d'exister en turc (x et w sont interdits, légalement jusqu'en 1993 La Turquie retrouve les lettres Q, W et X, et ce n'est pas une bonne nouvelle pour tout le monde | Slate.fr , de facto après); en anglais, français, kalderash, espagnol, portugais, c'est très improbable; en kurde -kurmanci; le sorany s'écrit en alphabet arabe amélioré- , c'est un doublon extrêmement fréquent...).
L'intelligence vient, naturellement de celui qui a eu l'idée de jouer avec des duos de lettres...

On ne doit pas avoir la même définition de l'intelligence artificiel!!!

Tout ce que tu me décris, rentre pour moi dans l'intelligence artificiel.

Alors, faire une régression (vieux comme Gauss, au moins), calculer une médiane ou une moyenne ou faire une LDA (linéar discriminant analysis; vieux comme Mahanalobis, années 1930) c'est de l'intelligence artificielle? (nota : j'utilise des mots clés wikipédia, si par hasard vous ne sauriez pas de quoi vous parlez)

Pour moi, l'intelligence naturelle (utilisée pour dépanner/prendre en main certains réseaux de neurones) consiste à paramètrer un deep learning network pour qu'il sache faire une régression/ un calcul de moyenne ou une LDA -dont on peut avoir les solutions "à la main", avec Excel ou R-

Les choix de conception sont typiquement du domaine de l'intelligence naturelle... (préfèrer Excel/R/scipy pour faire une régression à un DNN, par exemple).
De même pour les choix de méthodes de validation... (beaucoup de DNN en traitement d'image sont inexploitables -mal entraînés- : il faut être un peu critique pour s'en apercevoir et chercher des contre exemples -on en trouve- et un peu créatif pour tenter de les réentraîner)

j'ai déplacé cette section dans le bar.


Mon avis c'est que tout dépend de ce à quoi vous utilisez les outils mathématiques... prenez un Réseau de neurones récurrents, les techniques d'entrainement ( Rétropropagation du gradient) sont des maths qui datent un peu aussi... Mais on ne peut pas dire que l'usage du RNN ce n'est pas de l'IA...

ensuite chacun peut avoir son point de vue

Tout d'abord, merci pour le lien vers wikipedia
C'est plutôt une question de frontière...
Quand je vois le premier dessin d'un RNN, je me dis que, si je savais le configurer (il y a plein de tutoriels; j'avais pyimagesearch; sinon, keras a des examples)
0) je ne prendrais qu'un neurone
a) je retirerais la boucle de recurrence "D"
b) je ferais une fonction d'activation linéaire
c) je ferais une fonction d'erreur quadratique ou en valeur absolue
d) je ferais des liens vers le neurone correspondant à une multiplication par 1 ou zero (ne resterait plus que le biais)

et je devrais obtenir , après entraînement, soit la moyenne, soit la médiane, soit une regression linéaire classique (au sens des moindres carrés), soit une régression un peu plus robuste (au sens de l'erreur absolue).

L'intelligence naturelle consiste à se positionner devant un tel paramètrage, et de dire "on a utilisé un marteau pilon pour ecrabouiller un moustique" ou " on a vérifié dans un cas trivial que le logiciel a l'air de marcher"

Les gros problèmes (assez amusants) en reconnaissance d'image , il y a 5 ans, venaient que les réseaux de neurones avaient des biais d'apprentissage énormes (les chiens étaient entraînés sur ... des bêtes de concours que leurs maîtres postaient fièrement; s'il y avait des chiens galeux dans des villages reculés, que personne n'oserait prendre en photo ... ils risquaient de ne pas être reconnus).
Une photo de Celeste Sabitha/ Sabiha Gökçen posant devant son Breguet pendant les massacres au Bakur https://upload.wikimedia.org/wikipedia/commons/thumb/8/82/Sabiha_Gokcen_and_her_colleagues_in_front_of_Breguet_19.jpg/330px-Sabiha_Gokcen_and_her_colleagues_in_front_of_Breguet_19.jpg
, soumise à un réseau de neurones, donnait deux diagnostics :

  • êtres humains (discutable...)
  • model T (les roues de son avion avaient une forme proche de celles d'un Model T... ça, c'est un joli biais d'entraînement -les americains ont posté leurs vieilles photos de famille, qui ont entraîné le DNN avec lequel je jouais)

Je crois que ça demande un temps fou et pas mal d'intelligence naturelle à détecter tous les biais et à tenter de les corriger....

Je suis d'accord pour la version de goggle translation ... de 2016 dont vous donnez l'architecture.

je me tiens plus à la définition sur le site de la CNIL et du Parlement européen,

l’intelligence artificielle représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ».

Cette définition pourrait être élargie en incluant les comportements dépassant les capacités humaines, puisque les ordinateurs actuels parviennent aujourd’hui à les surpasser dans certaines tâches (bien que la compétence de l’ordinateur s’arrête généralement à l’exécution de cette tâche). À titre d’exemple, le système d’IA AlphaGo, capable de battre le champion du jeu de go Lee Sedol, est très doué pour élaborer des stratégies à ce jeu, mais ses capacités s’arrêtent ici. Il sera incapable de jouer aux échecs ou d’effectuer d’autres tâches tant que celles-ci ne lui auront pas été inculquées.

Tout système mettant en œuvre des mécanismes proches de celui d’un raisonnement humain pourrait ainsi être qualifié d’intelligence artificielle

ils disent aussi

Certaines technologies associées à l’IA existent depuis plus de 50 ans, mais les progrès en terme de puissance de calcul, l’accès à une grande quantité de données et le développement de nouveaux algorithmes ont mené à des percées majeures dans le domaine de l’IA au cours des dernières années.

Merci beaucoup pour ces clarifications; j'ai joué avec des DNNs il y a cinq ans, et ils faisaient des horreurs (j'ai donné un exemple savoureux) et j'ai l'impression que des percées majeures sont en cours pour l'imagerie ... (donc, il n'y a pas encore de percée majeure pour les DNNs "grand public")

pour google translation, elles -les percées majeures- ont eu lieu vers 2016 (avant, c'était un sujet de gag....)

C'est pour ma part aussi les définitions aux quelles je me rattache pour définir ce qu'est une IA.

Ces definitions sont suffisamment vagues pour ne pas faire la distinction entre

  • des prétendues aides à la saisie (ex: google translate me servait à ne pas casser mon clavier lors de la traduction de français en anglais, mais il fallait réecrire / déplacer pas mal) servant de gag (traduire de l'anglais en allemand -très mal supporté par google translate- puis en chinois et revenir vers l'anglais); une fois compris les biais du Deep Learning, la masse de photos ethniquement connotées (et n'ayant pas servi à entraîner les réseaux de neurones avant 2020) menait à un festival de sottises (google, avec kaggle.com -entre autres- essaye de réentraîner ces réseaux ; il n'est pas le seul).

google avait été limpide à ce sujet en aout 2015:
google translation (arabe-> allemand) ne pouvait pas servir à l'enregistrement officiel de réfugiés syriens...

  • de pures et simples escroqueries intellectuelles (j'ai donné des exemples simples, qui peuvent servir à rassurer -ou pas- sur le bon fonctionnement d'un moteur d'entraînement de réseaux de neurones profonds. Un marketeux fou, qui oserait vendre un calcul de moyenne (plus vieux que Pythagore) ne serait pas poursuivi en justice (mais l'escroqué se couvrirait de ridicule).

  • éventuellement (cas de google translation après 2016) des IA suffisamment abouties et fiables pour des choses sérieuses (remplacement avantageux de politiciens, voire en certains cas d'informaticiens -ça a l'air de licencier dans Silly Cone Valley -; traduction judiciaire; mise en forme de fils d'agence de presse).

Au fait, ce fil m'a permis (grâce à wikipedia) de découvrir que 3 langues kurdes vont être supportées, le kurmanci -un texte en kurmanci est là : ,Sabiha Gökçen - Wîkîpediya ; sa traduction diffère du texte anglais, mais est plus vraisemblable en ce qui concerne le gazage de Dersim/Tunceli, le sorany et même le zazaki/kirmanki -en cours de fabrication-: les fournisseurs de corpus ("modérateurs" de wikipedia) débarrassés de leurs fautes d'orthographe risquent parfois leur liberté en Turquie, voire plus en Iran...

Oui c'est ça, pour moi le mot IA ne fait aucune distinction sur le but de l'utilisation de l'outil et encore moins sa qualité.
A partir du moment qu'il essaye de reproduire "l'intelligence humaine" c'est une IA, comme tout outils, il y en a de plus sophistiquer que d'autre.

Après chacun est libre de mettre les définitions qu'il veut sur les mots.

On est en particulier libre de faire la différence entre des contrefaçons, des versions pré alpha et des versions sérieuses...

On est aussi libre d'entretenir la confusion entre ces termes, ou,, au contraire d'exiger un minimum de rigueur.

En passant, l'argument de liberté n'a pas grande valeur devant des risques assez pesants d'escroquerie intellectuelle

Je ne comprends pas du tout ce que tu veux dire.
En quoi il y a contre façon de quoi que ce soit(quel est le model de la contre façon) et encore moins ce que la version vient faire la dedans.

Tu es libre de penser qu'avant 2016 le translate de google est une escroquerie intellectuel et n'es pas une IA(si j'ai bien compris tes propos).

Pour ma pars à partir que cela correspond à la définition donné par le parlement Européen, c'est une IA.
Et j'ai utilisé le translate gratuitement depuis ses débuts avec bonheur.

Mais peut être pas le bonheur

  • de vos lecteurs
  • de la langue française

est transformée, avantageusement, après passage en kurmanci (d'où cheminement français -> anglais -> kurmanci -> anglais -> français)
en

Libre à vous de penser qu'avant 2016 google translate est une fraude intellectuelle et non IA (si j'ai bien compris vos propos).

De mon point de vue cela correspond à la définition donnée par le Parlement européen, c'est une IA.

Au passage, pour le plus grand bonheur des yeux d'un francophone, 2 fautes de genre ont été rétablies (avec d'autant plus de mérite que le kurmanci ignore les genres!)

Edité avant 2016, google translate aurait amplifié les défauts (ne connaissait ni la grammaire, ni les usages de politesse)....
Je n'ai aucune hésitation à écrire que google translate est, actuellement, une IA (et j'ai pu constater que sa version kurmanci s'est améliorée: ils ont l'air d'avoir trouvé des algorithmes d'apprentissage performants et des corpora sérieux, sans fautes)

Ca, c'est une constatation (pas le pitoyable mantra "tu es libre").

Google avait été limpide sur la valeur de son gadget en sept 2015 (il est sur ce domaine, plus compétent qu'un parlement un peu corrompu et parfois inepte).
J'ai pris la pensée de l'entité la plus compétente...

OTOH, vous illustrez à merveille l'utilité de l'IA pour le remplacement avantageux de certains textes et de certaines 'professions'

J'espère que ce pitoyable mantra, restera très longtemps en vigueur dans mon pays et sur ce forum :slight_smile:
Mais tu es libre de penser que ta gymnastique, fasse preuve d'une démonstration.
Je m'en tiendrais quand même à la définition du Parlement, plutôt qu'a ton raisonnement alambiqué :rofl:.

Félicitations,
vous avez, enfin, compris assez vaguement la valeur de l'orthographe (ce qu'une véritable intelligence artificielle sait rétablir; c'est un critère de tri pour certains DRH)

Et, en passant, que se passerait il si vous postiez des sottises et des lieux communs à quelqu'un qui tente de savoir l'utilité de l'IA et de distinguer entre ce qui est

  • du domaine du gadget
  • du domaine de l'escroquerie (le Parlement Européen valide ce genre de très mauvaise pratique commerciale, par incompétence ou -incl- corruption; même si les parlementaires étaient compétents et incorruptibles, leur "définition" peut être remise en question à chaque réelection -dans un an, donc; prendre une définition susceptible d'être éphémère et mal formulée ne peut pas me convaincre)
  • du domaine utile (détecter les demandeurs d'emploi inaptes à la grammaire, permettant aux DRH un premier tri ni ethnique, ni genré;

remplacer avantageusement des politiciens, des mauvais informaticiens;
detecter des objets defectueux dans une chaîne de fabrication;
trier les veilles photos de ma grand mère -pour moi, ces deux derniers points ne sont pas encore au stade de l'IA, mais d'un hilarant bordel naturel)