Ordinateurs

Certaines avancées de l’IA au cours de la dernière décennie pourraient avoir été illusoires

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

Au cours de la dernière décennie, l’intelligence artificielle et l’apprentissage automatique sont devenus des foyers de recherche majeurs, stimulés par les progrès de l’informatique GPU, des algorithmes logiciels et de la conception de matériel spécialisé. De nouvelles données suggèrent qu’au moins certaines des améliorations algorithmiques de la dernière décennie pourraient avoir été plus faibles qu’on ne le pensait auparavant.

Des chercheurs travaillant à valider les améliorations à long terme de divers algorithmes d’IA ont découvert situations multiples où de modestes mises à jour des anciennes solutions leur ont permis de faire correspondre les nouvelles approches qui les avaient soi-disant remplacées. L’équipe a comparé 81 algorithmes d’élagage différents publiés sur une période de dix ans et n’a trouvé aucune preuve claire et sans ambiguïté d’amélioration au cours de cette période.

Selon David Blalock, un étudiant diplômé en informatique au MIT qui a travaillé sur le projet, après cinquante articles, « il est devenu clair qu’il n’était même pas évident de savoir ce qu’était l’état de l’art ». Le conseiller de Blalock, le Dr John Guttag, a exprimé sa surprise face à la nouvelle et a déclaré La science, « C’est la vieille scie, n’est-ce pas ? Si vous ne pouvez pas mesurer quelque chose, il est difficile de l’améliorer.

Des problèmes comme celui-ci, soit dit en passant, sont exactement pourquoi le Démarche MLPerf est si important. Nous avons besoin de tests objectifs que les scientifiques peuvent utiliser pour une comparaison croisée valide des modèles et des performances du matériel.

Ce que les chercheurs ont découvert, en particulier, c’est que dans certains cas, des algorithmes plus anciens et plus simples étaient capables de suivre les nouvelles approches une fois les anciennes méthodes modifiées pour améliorer leurs performances. Dans un cas, une comparaison de sept algorithmes de recommandation de médias basés sur des réseaux neuronaux a démontré que six d’entre eux étaient pires que des algorithmes plus anciens, plus simples et non neuronaux. Une comparaison Cornell des algorithmes de récupération d’images a révélé que les performances n’avaient pas bougé depuis 2006, une fois les anciennes méthodes mises à jour :

AI-Modèle-Performance

Image de La science

Il y a quelques points sur lesquels je veux insister ici : Premièrement, il y a beaucoup de gains d’IA qui n’ont pas été illusoires, comme les améliorations apportées à Upscalers vidéo IA, ou les avancées notées dans les caméras et la vision par ordinateur. Les GPU sont bien meilleurs pour les calculs d’IA qu’ils ne l’étaient en 2009, et les accélérateurs spécialisés et les instructions AVX-512 spécifiques à l’IA de 2020 n’existaient pas non plus en 2009.

Mais nous ne parlons pas de savoir si le matériel est devenu plus gros ou meilleur pour exécuter des algorithmes d’IA. Nous parlons des algorithmes sous-jacents eux-mêmes et de la complexité utile dans un modèle d’IA. J’ai en fait appris quelque chose sur ce sujet directement; mon collègue David Cardinal et moi avons travaillé sur quelques Projets liés à l’IA en rapport avec le travail que j’ai effectué avec Projet haut de gamme DS9. Les améliorations fondamentales des algorithmes sont difficiles et de nombreux chercheurs ne sont pas incités à tester pleinement si une nouvelle méthode est réellement meilleure qu’une ancienne – après tout, cela semble mieux si vous inventez une toute nouvelle méthode pour faire quelque chose plutôt que de régler quelque chose quelqu’un autrement créé.

Psssssst :  Microsoft dit que cela ne voulait pas dire (encore) mettre des publicités dans l'explorateur de fichiers Windows 11

Bien sûr, ce n’est pas aussi simple que de dire que les nouveaux modèles n’ont rien apporté d’utile sur le terrain non plus. Si un chercheur découvre des optimisations qui améliorent les performances sur un nouveau modèle et que ces optimisations fonctionnent également pour un ancien modèle, cela ne signifie pas que le nouveau modèle n’était pas pertinent. La construction du nouveau modèle est la façon dont ces optimisations ont été découvertes en premier lieu.

Gartner-Hype-Cycle

L’image ci-dessus est ce que Gartner appelle un cycle de battage médiatique. L’IA en a certainement fait l’objet, et étant donné à quel point la technologie est centrale dans ce que nous voyons de sociétés comme Nvidia, Google, Facebook, Microsoft et Intel ces jours-ci, ce sera un sujet de discussion dans le futur. Dans le cas de l’IA, nous avons vu de véritables percées sur divers sujets, comme apprendre aux ordinateurs à jouer efficacement à des jeux et de nombreuses recherches sur les véhicules autonomes. Les applications grand public grand public restent pour l’instant assez niches.

Je ne lirais pas cet article comme une preuve que l’IA n’est rien d’autre que de l’air chaud, mais je dirais certainement qu’elle conquiert l’univers et nous remplace au sommet de la chaîne alimentaire avec un grain de sel. Les véritables avancées dans le domaine – du moins en termes de principes fondamentaux sous-jacents – peuvent être plus difficiles à réaliser que certains ne l’avaient espéré.

Crédit image du haut : Getty Images

Maintenant lis:

Bouton retour en haut de la page