Accueil > Pour en savoir plus > Sciences formelles > Numérique Informatique > "Maintenant que les ordinateurs nous connectent tous, - pour le meilleur et (…)

"Maintenant que les ordinateurs nous connectent tous, - pour le meilleur et pour le pire -, quelle sera la prochaine étape ?" par Matthew Hutson

dimanche 13 mars 2022, par Matthews Jonathan

ISIAS Numérique Intelligence artificielle Quantique Equité Ethique

Maintenant que les ordinateurs nous connectent tous, - pour le meilleur et pour le pire -, quelle sera la prochaine étape ?

[Contenu : Grande fresque sur l’évolution du numérique et de l’informatique depuis le 19ème siècle – Ajout de biographies d’auteurs cités et de présentation des définitions et termes suivants [intégrés sous cette forme et dans l’ordre de leur citation dans le texte d’origine], d’après l’étude traduite ci-après de Matthew Hutson : Loi de Moore, échelle de Dennard, superposition et intrication quantiques, qubit, apprentissage automatique, machine learning, supraconductivité, informatique reversible, algorithme, intelligence artificielle (I.A.), apprentissages profond et par réenforcement, modèle de langage GPT-3, réseau de neurones artificiels, ‘auto ML’ (techniques de machine learning automatisé), paradoxe de Moravec, les Trois lois de la robotique d’après Asimov…].

[Auteur : Matthew Hutson - Voir https://www.linkedin.com/in/matthewhutson - « ‘Matt’ a écrit pour Wired, The Atlantic, Newsweek, The New York Times Magazine, The New Yorker online, et ailleurs. Il a été rédacteur en chef de Psychology Today et est l’auteur de The 7 Laws of Magical Thinking, qui traite de la psychologie de la superstition et de la religion. Il vit à New York » - Source - « Matthew Hutson est un rédacteur scientifique indépendant de New York qui couvre l’IA et la psychologie. Il écrit pour The New Yorker, Science, Scientific American et d’autres publications, et est l’auteur de ‘The 7 Laws of Magical Thinking’ – Source].

Traduction des 09-11 mars 2022 – avec ajout de nombreux compléments pédagogisques - par Jacques Hallard d’un article de Matthew Hutson en date du 24 février 2022, publié par ‘sciencenews.org’ Science News sous le titre « Now that computers connect us all, for better and worse, what’s next ?  » : accessible sur ce site : https://www.sciencenews.org/article/computer-science-history-ethics-future-robots-ai

La révolution numérique a donné naissance à des robots joueurs d’échecs, à des voitures autonomes, à des flux d’informations personnalisés et à de nouveaux défis éthiques…

image of a computer chip with red hues

Les ordinateurs peuvent-ils accélérer la science, développer la créativité et faciliter notre vie sans nuire à l’humanité ? Trout55/E+/Getty Images

Cet article a été rédigé, édité et conçu sur des ordinateurs portables. Ces appareils pliables et transportables auraient stupéfié les informaticiens il y a quelques décennies à peine, et ils auraient semblé antérierement relever de la magie pure. Ces machines contiennent des milliards de minuscules éléments informatiques, exécutant des millions de lignes d’instructions logicielles, écrites collectivement par d’innombrables personnes à travers le monde. Vous cliquez ou tapez, tapez ou parlez, et le résultat s’affiche à l’écran de manière transparente.


Autrefois, les ordinateurs étaient si grands qu’ils remplissaient des pièces. Aujourd’hui, ils sont partout et invisibles, intégrés dans les montres, les moteurs de voiture, les appareils photo, les téléviseurs et les jouets. Ils gèrent les réseaux électriques, analysent les données scientifiques et prédisent la météo. Le monde moderne serait impossible sans eux.

Les scientifiques cherchent à rendre les ordinateurs plus rapides et les programmes plus intelligents, tout en déployant la technologie de manière éthique. Leurs efforts s’appuient sur plus d’un siècle d’innovation.

En 1833, le mathématicien anglais Charles Babbage a conçu une machine programmable qui préfigurait l’architecture informatique actuelle, avec un ’magasin’ pour stocker les nombres, un ’moulin’ pour les traiter, un lecteur d’instructions et une imprimante. Cette ‘Analytical Engine’ disposait également de fonctions logiques telles que le branchement (si X, alors Y). Babbage n’a construit qu’une partie de la machine, mais sur la base de sa description, sa connaissance Ada Lovelace a vu que les nombres qu’elle pouvait manipuler pouvaient représenter n’importe quoi, même de la musique. ’Un nouveau, vaste et puissant langage est développé pour l’utilisation future de l’analyse’, écrit-elle. ‘Lovelace’ est devenu un expert du fonctionnement de la machine proposée et est souvent appelée le premier programmeur.

[« Charles Babbage, né le 26 décembre 1791 et mort le 18 octobre 1871 à Londres, est un polymathe, mathématicien et inventeur visionnaire britannique du XIXe siècle qui fut l’un des principaux précurseurs de l’informatique.

Il fut le premier à énoncer le principe d’un ordinateur. C’est en 1834, pendant le développement d’une machine à calculer destinée au calcul et à l’impression de tables mathématiques (la machine à différences) qu’il eut l’idée d’y incorporer des cartes du métier Jacquard, dont la lecture séquentielle donnerait des instructions et des données à sa machine, et donc imagina l’ancêtre mécanique des ordinateurs d’aujourd’hui. Il n’acheva jamais sa machine analytique, mais il passa le reste de sa vie à la concevoir dans les moindres détails et à en construire un prototype. Un de ses fils en construisit l’unité centrale (le moulin) et l’imprimante en 1888 et fit une démonstration réussie de calcul de table à l’académie royale d’astronomie en 19081. C’est entre 1847 et 1849 que Charles Babbage entreprit d’utiliser les avancées technologiques de sa machine analytique pour concevoir les plans d’une machine à différences no 2 qui, à spécifications égales, demandait trois fois moins de pièces que la précédente. En 1991, à partir de ces plans, on a pu reconstruire une partie de cette machine qui fonctionne parfaitement en utilisant les techniques qui étaient disponibles au XIXe siècle ce qui montre qu’elle aurait pu être construite du vivant de Charles Babbage… » - Source : https://fr.wikipedia.org/wiki/Charles_Babbage ].

Suite de la traduction de l’article

En 1936, le mathématicien anglais Alan Turing a présenté l’idée d’un ordinateur qui pourrait réécrire ses propres instructions, le rendant programmable à l’infini. Son abstraction mathématique pourrait, en utilisant un petit vocabulaire d’opérations, imiter une machine de n’importe quelle complexité, ce qui lui a valu le nom de ’machine de Turing universelle’.

Suite de la traduction de l’article

[« Alan Mathison Turing, né le 23 juin 1912 à Londres et mort le 7 juin 1954 à Wilmslow, est un mathématicien et cryptologue britannique, auteur de travaux qui fondent scientifiquement l’informatique. Pour résoudre le problème fondamental de la décidabilité en arithmétiques, il présente en 1936 une expérience de pensée que l’on nommera ensuite machine de Turing et des concepts de programme et de programmation, qui prendront tout leur sens avec la diffusion des ordinateurs, dans la seconde moitié du XXe siècle. Son modèle a contribué à établir la thèse de Church, qui définit le concept mathématique intuitif de fonction calculable. Durant la Seconde Guerre mondiale, il joue un rôle majeur dans la cryptanalyse de la machine Enigma utilisée par les armées allemandes : l’invention de machines usant de procédés électroniques, les bombes1, fera passer le décryptage à plusieurs milliers de messages par jour. Ce travail secret ne sera connu du public que dans les années 1970. Après la guerre, il travaille sur un des tout premiers ordinateurs, puis contribue au débat sur la possibilité de l’intelligence artificielle, en proposant le test de Turing. Vers la fin de sa vie, il s’intéresse à des modèles de morphogenèse du vivant conduisant aux « structures de Turing ». Poursuivi en justice en 1952 pour homosexualité, il choisit, pour éviter la prison, la castration chimique par prise d’œstrogènes. Il est retrouvé mort par empoisonnement au cyanure le 8 juin 1954 dans la chambre de sa maison à Wilmslow. La reine Élisabeth II le reconnaît comme héros de guerre et le gracie à titre posthume en 2013… » - Source : https://fr.wikipedia.org/wiki/Alan_Turing ].

Suite de la traduction de l’article

Le premier ordinateur numérique électronique fiable, Colossus, a été achevé en 1943 pour aider l’Angleterre à déchiffrer les codes de guerre. Il utilisait des tubes à vide - des dispositifs pour contrôler le flux d’électrons - au lieu de déplacer des pièces mécaniques comme les roues dentées du moteur analytique. Cela a rendu Colossus rapide, mais les ingénieurs devaient le recâbler manuellement chaque fois qu’ils voulaient effectuer une nouvelle tâche.

Peut-être inspiré par le concept de Turing d’un ordinateur plus facilement reprogrammable, l’équipe qui a créé le premier ordinateur numérique électronique des États-Unis, ENIAC, a rédigé une nouvelle architecture pour son successeur, EDVAC. Le mathématicien John von Neumann, qui a écrit la conception d’EDVAC en 1945, a décrit un système qui pourrait stocker des programmes dans sa mémoire avec des données et modifier les programmes, une configuration maintenant appelée l’architecture von Neumann. Aujourd’hui, presque tous les ordinateurs suivent ce paradigme.

En 1947, des chercheurs de Bell Telephone Laboratories ont inventé le transistor, un élément de circuit dans lequel l’application d’une tension (pression électrique) ou d’un courant contrôle le flux d’électrons entre deux points. Il est venu remplacer les tubes à vide plus lents et moins efficaces.

En 1958 et 1959, des chercheurs de Texas Instruments et de Fairchild Semiconductor ont inventé indépendamment des circuits intégrés, dans lesquels des transistors et leurs circuits de support étaient fabriqués sur une puce en un seul processus.

Pendant longtemps, seuls les experts pouvaient programmer les ordinateurs. Puis en 1957, IBM a sorti FORTRAN, un langage de programmation beaucoup plus facile à comprendre. Il est encore utilisé aujourd’hui. En 1981, la société a dévoilé l’IBM PC et Microsoft a lancé son système d’exploitation appelé MS-DOS, élargissant ainsi la portée des ordinateurs dans les foyers et les bureaux. Apple a encore personnalisé l’informatique avec les systèmes d’exploitation pour leur Lisa, en 1982, et Macintosh, en 1984. Les deux systèmes ont popularisé les interfaces utilisateur graphiques, ou GUI, offrant aux utilisateurs un curseur de souris au lieu d’une ligne de commande.

Photo - Colossus, le premier ordinateur électronique programmable fiable au monde, a aidé les forces de renseignement britanniques à déchiffrer des codes pendant la Seconde Guerre mondiale. Bletchley Park Trust/SSPL/Getty Images

Entre-temps, des chercheurs ont travaillé à transformer la façon dont les gens communiquent entre eux. En 1948, le mathématicien américain Claude Shannon a publié ’A Mathematical Theory of Communication’, qui a popularisé le mot bit (pour chiffre binaire) et a jeté les bases de la théorie de l’information. Ses idées ont façonné l’informatique et, en particulier, le partage des données par câble et par voie aérienne. En 1969, la ‘U.S. Advanced Research Projects Agency’ a créé un réseau informatique appelé ARPANET, qui a ensuite fusionné avec d’autres réseaux pour former l’internet. Et en 1990, des chercheurs du CERN - un laboratoire européen situé près de Genève - ont élaboré des règles de transmission des données qui allaient devenir le fondement du World Wide Web.

[« Claude Elwood Shannon (30 avril 1916 à Petoskey2, Michigan - 24 février 2001 à Medford, Massachusetts) est un ingénieur en génie électrique et mathématicien américain. Il est l’un des pères, si ce n’est le père fondateur, de la théorie de l’information… » - Source : https://fr.wikipedia.org/wiki/Claude_Shannon ].

Suite de la traduction de l’article

Ces progrès technologiques ont permis aux gens de travailler, de jouer et de se connecter d’une manière qui continue d’évoluer à un rythme effréné. Mais jusqu’à quel point les processeurs peuvent-ils s’améliorer ? Jusqu’à quel point les algorithmes peuvent-ils devenir intelligents ? Et quels types d’avantages et de dangers devons-nous attendre des progrès technologiques ? Stuart Russell, informaticien à l’université de Californie à Berkeley et coauteur d’un manuel populaire sur l’intelligence artificielle, voit dans les ordinateurs un grand potentiel pour ’développer la créativité artistique, accélérer la science, servir d’assistants personnels diligents, conduire des voitures et - je l’espère - ne pas nous tuer’.

[« Stuart Jonathan Russell OBE (born 1962) is a British computer scientist known for his contributions to artificial intelligence (AI).[5][3] He is a professor of computer science at the University of California, Berkeley and adjunct professor of neurological surgery at the University of California, San Francisco.[6][7] He holds the Smith-Zadeh Chair in Engineering at University of California, Berkeley.[8] He founded and leads the Center for Human-Compatible Artificial Intelligence (CHAI) at UC Berkeley.[9] Russell is the co-author with Peter Norvig of the most popular textbook in the field of AI : Artificial Intelligence : A Modern Approach used in more than 1,500 universities in 135 countries.[10]... » - Source : https://en.wikipedia.org/wiki/Stuart_J._Russell ].

Suite de la traduction de l’article

La course à la vitesse

Les ordinateurs, pour la plupart, parlent le langage des bits. Ils stockent les informations - qu’il s’agisse de musique, d’une application ou d’un mot de passe - sous forme de chaînes de 1 et de 0. Ils traitent également les informations de manière binaire, en faisant basculer les transistors entre les états ’marche’ et ’arrêt’. Plus il y a de transistors dans un ordinateur, plus il peut traiter rapidement les bits, ce qui rend tout possible, des jeux vidéo plus réalistes au contrôle plus sûr du trafic aérien.

La combinaison des transistors constitue l’un des éléments constitutifs d’un circuit, appelé porte logique. Une porte logique ET, par exemple, est activée si les deux entrées sont activées, tandis qu’une porte logique OU est activée si au moins une entrée est activée. Ensemble, les portes logiques composent un schéma de circulation complexe d’électrons, la manifestation physique du calcul. Une puce d’ordinateur peut contenir des millions de portes logiques.

Ainsi, plus il y a de portes logiques, et par extension plus il y a de transistors, plus l’ordinateur est puissant. En 1965, Gordon Moore, cofondateur de Fairchild Semiconductor puis d’Intel, a écrit un article sur l’avenir des puces intitulé ’Cramming More Components onto Integrated Circuits’. De 1959 à 1965, note-t-il, le nombre de composants (principalement des transistors) entassés sur des circuits intégrés (puces) a doublé chaque année. Il s’attendait à ce que cette tendance se poursuive.

[« Gordon Earle Moore, né le 3 janvier 1929 à San Francisco est un docteur en chimie et en physique, un chef d’entreprise américain. Il est le cofondateur avec Robert Noyce et Andrew Grove de la société Intel en 1968, premier fabricant mondial de microprocesseurs. Il est connu pour avoir publié une loi empirique portant son nom, la loi de Moore1,2,3, le 19 avril 1965 dans le magazine Electronics (en)… » - Source : https://fr.wikipedia.org/wiki/Gordon_Earle_Moore ].

Suite de la traduction de l’article

Dans un discours prononcé en 1975, Moore identifie trois facteurs à l’origine de cette croissance exponentielle : des transistors plus petits, des puces plus grandes et ’l’intelligence des dispositifs et des circuits’, comme la réduction de l’espace perdu. Il s’attendait à ce que le doublement se produise tous les deux ans. C’est ce qui s’est produit, et cela a continué pendant des décennies. Cette tendance est désormais appelée loi de Moore.

La loi de Moore était conçue comme une observation sur l’économie. Il y aura toujours des incitations à rendre les ordinateurs plus rapides et moins chers, mais à un moment donné, la physique s’en mêle. Le développement des puces ne peut pas suivre indéfiniment la loi de Moore, car il devient plus difficile de rendre les transistors plus petits. Selon ce qu’on appelle en plaisantant la deuxième loi de Moore, le coût des usines de fabrication de puces double tous les quelques années. La société de semi-conducteurs TSMC envisagerait de construire une usine qui coûterait 25 milliards de dollars.

[« Les lois de Moore sont des lois empiriques qui ont trait à l’évolution de la puissance de calcul des ordinateurs et de la complexité du matériel informatique. La première de ces lois est émise par le docteur Gordon E. Moore en 1965, lorsque celui-ci postule sur une poursuite du doublement de la complexité des semi-conducteurs tous les ans à coût constant. Dix ans plus tard Moore ajusta sa prédiction à un doublement du nombre de transistors présents sur une puce de microprocesseur tous les deux ans. Ce second postulat se révéla particulièrement exact, et popularisa le terme de « loi de Moore », si bien que ce dernier a fini par s’étendre au doublement d’une capacité quelconque en un temps donné… »

https://upload.wikimedia.org/wikipedia/commons/thumb/a/a4/Loi_de_Moore.png/400px-Loi_de_Moore.png

Graphique > Croissance du nombre de transistors dans les microprocesseurs Intel par rapport à la loi de Moore. En vert, un doublement tous les 18 mois. Source : https://fr.wikipedia.org/wiki/Loi_de_Moore ].

Suite de la traduction de l’article

Aujourd’hui, la loi de Moore ne tient plus ; le doublement se produit à un rythme plus lent. Nous continuons à presser plus de transistors sur les puces à chaque génération, mais les générations se succèdent moins souvent. Les chercheurs étudient plusieurs pistes : de meilleurs transistors, des puces plus spécialisées, de nouveaux concepts de puces et des bidouillages de logiciels.

Selon Sanjay Natarajan, qui dirige la conception des transistors chez Intel, ’nous avons tiré, selon nous, tout ce que nous pouvions tirer’ de l’architecture actuelle des transistors, appelée FinFET. Au cours des prochaines années, les fabricants de puces commenceront à produire des transistors dont un élément clé ressemble à un ruban plutôt qu’à une ailette, ce qui rendra les dispositifs plus rapides et moins gourmands en énergie et en espace.

Même si Natarajan a raison et que les transistors approchent de leur limite de taille minimale, les ordinateurs ont encore beaucoup de marge de progression, grâce à ’l’intelligence des dispositifs et des circuits’ de Moore. Les appareils électroniques d’aujourd’hui contiennent de nombreux types d’accélérateurs - des puces conçues à des fins spécifiques telles que l’intelligence artificielle, le graphisme ou la communication - qui peuvent exécuter les tâches prévues plus rapidement et plus efficacement que les unités de traitement polyvalentes.

Jusqu’en 2004 environ, le rétrécissement des transistors s’accompagnait d’une amélioration des performances des ordinateurs (le noir ci-dessous montre une référence industrielle) et de la fréquence d’horloge - le nombre de cycles d’opérations effectués par seconde (vert). Cette ’échelle de Dennard’ n’étant plus valable, le rétrécissement des transistors a cessé de produire les mêmes avantages.

[Traduction : « La mise à l’échelle de Dennard, également connue sous le nom de mise à l’échelle MOSFET, est une loi de mise à l’échelle qui stipule en gros que, à mesure que les transistors deviennent plus petits, leur densité de puissance reste constante, de sorte que la consommation d’énergie reste proportionnelle à la surface ; échelle de tension et de courant (vers le bas) avec la longueur. .[1] [2] La loi, formulée à l’origine pour les MOSFET, est basée sur un article de 1974 co-écrit par Robert H. Dennard, d’après qui elle porte le nom.[3] – Source : https://en.wikipedia.org/wiki/Dennard_scaling ]

[Addenda - Dennard Scaling : améliorant ainsi la fréquence et la consommation du processeur - 30 Juin 2020 Matt Mills Quincaillerie, Trucs et astuces - Bien que la loi informatique la plus célèbre soit celle de Moore, connue de tous et récemment commentée par Intel dans une torsion de scénario assez surprenante, il y en a une autre dont peu de commentaires sont faits. La mise à l’échelle Dennard est une partie fondamentale de l’histoire des architectures, des puces et des transistors, où elle est étroitement liée à Moore et en même temps largement inconnue.

La loi de Dennard est connue sous divers noms qui dénaturent son créateur, Robert H. Dennard, car il est normalement appelé Escalade MOSFET Loi ou simplement la Loi sur l’escalade à sec. De toute évidence, il présente la particularité d’avoir été formulé pour le MOSFET en tant que tel, mais au fil du temps, il a été appliqué à n’importe quelle puce.

Mise à l’échelle de Dennard, entre densité, prix et performance > Graphique

Même si cela ne semble pas le cas, la loi de Moore est directement liée à Dennard et Lieu jaune, puisqu’entre les trois ils composent et ferment le cercle des transistors actuels et de l’industrie. Chacun se concentre sur deux valeurs globales et générales qui complètent le cercle, où, par exemple, Moore a fait référence à l’intégration et au prix des tranches et des transistors, Dennard fait référence au prix et aux performances dans sa loi.

Dennard a établi que lorsque les transistors réduisent leur taille physique, la densité de puissance reste constante, ou ce qui est le même, la consommation d’énergie est maintenue proportionnellement à la surface de la puce car à la fois la tension et le courant, ils diminuent également avec la longueur.

Graphique

Et c’est là qu’il est lié à la loi de Moore, car si, comme celui-ci l’a dit, chaque génération doublait la densité des transistors, un circuit pourrait devenir 40% plus rapide et la consommation d’énergie resterait la même.

Le rapport prix / performances est sous contrôle

Voir schéma

Nous comprenons maintenant pourquoi Intel parle de prix et de performances lorsqu’il mentionne Dennard, car si un transistor pouvait devenir 40% plus rapide à chaque réduction tout en maintenant la consommation, cela signifie que le rapport prix / performances augmenterait également.

Bien que Dennard ait eu raison sur ce point pendant des années, nous atteignons actuellement la limite du nanomètre et depuis 2007, il y a des spéculations que cette mise à l’échelle ne fonctionne pas, même dans sa forme théorique.

La mise à l’échelle des semi-conducteurs à oxyde métallique complémentaire (CMOS) n’a pas encore été effectuée en tant que telle (du moins selon Intel) et des progrès continus peuvent être considérés comme la capacité de contrôler la fabrication s’améliore. Ils ne sont pas aussi limités par la physique que par leur capacité à fabriquer de grands volumes avec une grande précision. C’est difficile, mais cela maintient les coûts, le problème est, comme nous le savons tous, les courants de fuite.

Il y a quelques années, il s’est tourné plus que prévu vers le multicœur et plus tard le multi-chipset, ce à quoi Intel s’accroche pour garantir que les performances par watt atteindront des niveaux de la fin des années 90, où il devrait environ doubler tous les 18 mois… - Copyright © 2022 ITIGIC | Politique de confidentialité | Contactez-Nous | Source : https://itigic.com/fr/dennard-scaling-improve-cpu-frequency-consumption/ ].

Suite de la traduction de l’article

Le ralentissement

Jusqu’en 2004 environ, le rétrécissement des transistors s’est accompagné d’améliorations des performances de l’ordinateur (le noir ci-dessous montre une référence de l’industrie) et de la fréquence d’horloge - le nombre de cycles d’opérations effectuées par seconde (vert). Comme cette « mise à l’échelle de Dennard » ne tenait plus, les transistors, devenus de plus en plus petits, ont cessé de produire les mêmes avantages.

Performances des ordinateurs de 1985 à 2015

scatter plot showing computer performance from 1985 through 2015 by industry standard and clock frequency

Graphique : C.E. Leiserson et al/Science 2020

Certains types d’accélérateurs pourraient un jour utiliser l’informatique quantique, qui tire parti de deux caractéristiques du monde subatomique (SN : 7/8/17 & 7/22/17, p. 28). La première est la superposition, selon laquelle les particules peuvent exister non seulement dans un état ou un autre, mais aussi dans une combinaison d’états jusqu’à ce que l’état soit explicitement mesuré. Ainsi, un système quantique représente l’information non pas sous forme de bits, mais de qubits, qui peuvent conserver la possibilité d’être soit 0 soit 1 lorsqu’ils sont mesurés.

[Addenda - Principe de superposition quantique -

Si ce bandeau n’est plus pertinent, retirez-le. Cliquez ici pour en savoir plus sur les bandeaux.

https://upload.wikimedia.org/wikipedia/commons/thumb/6/6f/Mesure_quantique2.png/220px-Mesure_quantique2.png

Mesure de la position d’un ensemble de particules étant dans le même état superposé.

Fichier:Superposition d etats quantiques et decoherence.ogvLire le média

Superposition d’états quantiques et décohérence

En mécanique quantique, selon le principe de superposition, un même état quantique peut posséder plusieurs valeurs pour une certaine quantité observable (spin, position, quantité de mouvement, etc.)

Ce principe résulte du fait que l’état – quel qu’il soit – d’un système quantique (une particule, une paire de particules, un atome, etc.) est représenté par un vecteur dans un espace vectoriel nommé espace de Hilbert (premier postulat de la mécanique quantique).

Comme tout vecteur de tout espace vectoriel, ce vecteur admet une décomposition en une combinaison linéaire de vecteurs selon une base donnée. Or, il se trouve qu’en mécanique quantique, une observable donnée (comme la position, la quantité de mouvement, le spin, etc.) correspond à une base donnée de l’espace de Hilbert.

En conséquence, si l’on s’intéresse, par exemple, à la position d’une particule, l’état de position doit être représenté comme une somme d’un nombre (infini !) de vecteurs, chaque vecteur représentant une position précise dans l’espace. Le carré de la norme de chacun de ces vecteurs représente la probabilité de présence de la particule à une position donnée…

Lire l’article complet sur ce site : https://fr.wikipedia.org/wiki/Principe_de_superposition_quantique

Voir aussi - Article détaillé : Réduction du paquet d’onde.

Interprétation de l’état de superposition quantique

L’état de superposition est une conséquence purement mathématique de la théorie quantique. L’interprétation physique pose problème, car cet état ne correspond à rien de connu en physique classique, et semble ne pas subsister à l’échelle macroscopique (voir Chat de Schrödinger et Problème de la mesure quantique).

Il convient d’être très prudent quand on parle de particules « à plusieurs endroits en même temps » ou de chat « à la fois mort et vivant », car c’est appliquer des termes classiques, probablement inappropriés, à un état purement quantique. Voici les interprétations les plus courantes :

Selon l’interprétation de Copenhague de la mécanique quantique, l’état quantique n’a pas de sens physique avant l’opération de mesure. Seul l’état projeté, après la mesure, a un sens physique. Ainsi, selon cette interprétation, il est vain de rechercher une signification physique à ce qui n’est et ne doit rester qu’une pure formule mathématique. Cette interprétation renie donc formellement toute formulation comme « plusieurs endroits en même temps », ou « mort et vivant ».

Selon la théorie d’Everett, défendue également par David Deutsch, l’état de superposition admet une interprétation physique. Les états superposés existeraient dans une infinité d’univers parallèles : la particule serait à une certaine position dans un univers, et à une autre dans un autre univers. Dans cette théorie il est impropre également de parler de « plusieurs endroits en même temps » : pas dans le même univers en tout cas.

Selon l’interprétation de De Broglie-Bohm, la fonction d’onde n’est pas suffisante pour décrire totalement une particule, il faut lui adjoindre une position. Cette position est cependant inconnue de l’expérimentateur et n’est révélée que lors d’une mesure. Des particules préparées de la même façon ont alors la même fonction d’onde mais des positions différentes. Ainsi, selon cette interprétation, la position d’une particule est à chaque instant bien déterminée et ne peut en aucun cas être à « plusieurs endroits en même temps ». Cependant cette position est pilotée par la fonction d’onde qui est, quant à elle, définie en plusieurs endroits de l’espace simultanément.

Aucune interprétation ne fait aujourd’hui consensus chez les physiciens. À ce jour (2019), il s’agit d’un problème encore ouvert… »

Lire la totalité de cet article sur ce site : https://fr.wikipedia.org/wiki/Principe_de_superposition_quantique ].

Complément : vidéo > APERÇU17:46 - Superposition quantique - 42 - e-penser -YouTube[ · e-penser [archives] - 15 juil. 2018 ].->https://www.youtube.com/watch?v=TH-NgOeDbGs]

Suite de la traduction de l’articled ‘origine

La deuxième caractéristique est l’intrication, c’est-à-dire l’interdépendance entre des éléments quantiques distants. Ensemble, ces caractéristiques signifient qu’un système de qubits peut représenter et évaluer exponentiellement plus de possibilités qu’il n’y a de qubits - toutes les combinaisons de 1 et de 0 simultanément.

[« Intrication quantique - Pour les articles homonymes, voir Quantique.

https://upload.wikimedia.org/wikipedia/commons/thumb/b/b8/SPDC_figure_%28fr%29.png/220px-SPDC_figure_%28fr%29.png

Dessin - Vue d’artiste d’un système de génération de deux photons intriqués.

En mécanique quantique, l’intrication quantique, ou enchevêtrement quantique, est un phénomène dans lequel deux particules (ou groupes de particules) forment un système lié, et présentent des états quantiques dépendant l’un de l’autre quelle que soit la distance qui les sépare. Un tel état est dit « intriqué » ou « enchevêtré », parce qu’il existe des corrélations entre les propriétés physiques observées de ces particules distinctes. En effet, le théorème de Bell démontre que l’intrication donne lieu à des actions non locales. Ainsi, deux objets intriqués O1 et O2 ne sont pas indépendants même séparés par une grande distance, et il faut considérer O1+O2 comme un système unique.

Cette observation est au cœur des discussions philosophiques sur l’interprétation de la mécanique quantique. En effet, elle remet en cause le principe de localité défendu par Albert Einstein mais sans le contredire tout à fait car des échanges d’informations à une vitesse supraluminique restent impossibles et la causalité est respectée.

L’intrication quantique a des applications potentielles dans les domaines de l’information quantique, tels que la cryptographie quantique, la téléportation quantique ou l’ordinateur quantique… » - Source : https://fr.wikipedia.org/wiki/Intrication_quantique ].

Suite de la traduction de l’article

Les qubits peuvent prendre de nombreuses formes, mais l’une des plus populaires est celle du courant dans les fils supraconducteurs. Ces fils doivent être maintenus à une fraction de degré au-dessus du zéro absolu, soit environ -273° Celsius, pour éviter que les atomes chauds et agités n’interfèrent avec les superpositions et l’intrication délicates des qubits. Les ordinateurs quantiques ont également besoin de nombreux qubits physiques pour constituer un qubit ’logique’ ou effectif, la redondance servant à corriger les erreurs (SN : 11/6/21, p. 8).

[« Qubit - Ne doit pas être confondu avec une cubit (ou coudée), ancienne mesure d’environ 44 à 54 centimètres selon le type de coudée et l’époque.

Représentation d’un qubit par une sphère de Bloch.

En informatique quantique, un qubit ou qu-bit (quantum + bit ; prononcé /kju.bit/), parfois écrit qbit, est un système quantique à deux niveaux, qui représente la plus petite unité de stockage d’information quantique. Ces deux niveaux, notés | 0 | 0 ⟩ \displaystyle \left|0\right\rangle et | 1 | 1 ⟩ \displaystyle \left|1\right\rangle selon le formalisme de Dirac, représentent chacun un état de base du qubit et en font donc l’analogue quantique du bit. Grâce à la propriété de superposition quantique, un qubit stocke une information qualitativement différente de celle d’un bit. D’un point de vue quantitatif, la quantité d’information gérée par un qubit est virtuellement plus grande que celle contenue dans un bit, mais elle n’est accessible qu’en partie au moment d’une mesure. Le concept de qubit, tout en étant discuté dès les années 1980, fut formalisé par Benjamin Schumacher en 19951… » - Article complet sur : https://fr.wikipedia.org/wiki/Qubit ].

Pour approfonir avec une vidéo > voir - Ordinateur Quantique - Qubit versus bit aléatoire - [TECH AU CARRE] Episode 2 - 10 décembre 2020 - 1:45 / 24:07 - Microsoft experiences business - Pour en savoir plus, cliquez ici : https://experiences.microsoft.fr/tech... Dans ce 2éme épisode de la saga ’ordinateur quantique’ de la ’Tech au Carré’, Vivien Londe nous présente un nouveau type de face-à-face : Qubit VS bit aléatoire... - Source pour écouter et voir : https://www.youtube.com/watch?v=MV3G9mu9xQA ].

Suite de la traduction de l’article

Les ordinateurs quantiques ont plusieurs applications potentielles : l’apprentissage automatique, l’optimisation d’éléments tels que la programmation des trains et la simulation de la mécanique quantique du monde réel, comme en chimie. Mais il est peu probable qu’ils deviennent des ordinateurs à usage général. On ne voit pas très bien comment on pourrait en utiliser un pour, par exemple, faire fonctionner un traitement de texte.

[« L’apprentissage automatique1,2 (en anglais : machine learning, litt. « apprentissage machine1,2 »), apprentissage artificiel1 ou apprentissage statistique est un champ d’étude de l’intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d’« apprendre » à partir de données, c’est-à-dire d’améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l’analyse, l’optimisation, le développement et l’implémentation de telles méthodes.

L’apprentissage automatique comporte généralement deux phases. La première consiste à estimer un modèle à partir de données, appelées observations, qui sont disponibles et en nombre fini, lors de la phase de conception du système. L’estimation du modèle consiste à résoudre une tâche pratique, telle que traduire un discours, estimer une densité de probabilité, reconnaître la présence d’un chat dans une photographie ou participer à la conduite d’un véhicule autonome. Cette phase dite « d’apprentissage » ou « d’entraînement » est généralement réalisée préalablement à l’utilisation pratique du modèle.

La seconde phase correspond à la mise en production : le modèle étant déterminé, de nouvelles données peuvent alors être soumises afin d’obtenir le résultat correspondant à la tâche souhaitée. En pratique, certains systèmes peuvent poursuivre leur apprentissage une fois en production, pour peu qu’ils aient un moyen d’obtenir un retour sur la qualité des résultats produits.

Selon les informations disponibles durant la phase d’apprentissage, l’apprentissage est qualifié de différentes manières. Si les données sont étiquetées (c’est-à-dire que la réponse à la tâche est connue pour ces données), il s’agit d’un apprentissage supervisé. On parle de classification ou de classement3 si les étiquettes sont discrètes, ou de régression si elles sont continues. Si le modèle est appris de manière incrémentale en fonction d’une récompense reçue par le programme pour chacune des actions entreprises, on parle d’apprentissage par renforcement. Dans le cas le plus général, sans étiquette, on cherche à déterminer la structure sous-jacente des données (qui peuvent être une densité de probabilité) et il s’agit alors d’apprentissage non supervisé. L’apprentissage automatique peut être appliqué à différents types de données, tels des graphes, des arbres, des courbes, ou plus simplement des vecteurs de caractéristiques, qui peuvent être des variables qualitatives ou quantitatives continues ou Article complet sur ce site : https://fr.wikipedia.org/wiki/Apprentissage_automatique ].

Machine Learning et Big Data : définition et explications - Bastien L03 février 2021 Data Analytics, Intelligence artificielle Commentaires

Le Machine Learning est une technologie d’intelligence artificielle permettant aux ordinateurs d’apprendre sans avoir été programmés explicitement à cet effet. Pour apprendre et se développer, les ordinateurs ont toutefois besoin de données à analyser et sur lesquelles s’entraîner. De fait, le Big Data est l’essence du Machine Learning, et c’est la technologie qui permet d’exploiter pleinement le potentiel du Big Data. Découvrez pourquoi cette technique et le Big Data sont interdépendants.

Table des matières

Suite de la traduction de l’article

Nouveaux concepts de puces

Il existe encore de nouveaux moyens d’accélérer de façon spectaculaire non seulement les accélérateurs spécialisés, mais aussi les puces à usage général. Tom Conte, un informaticien de ‘Georgia Tech’ à Atlanta qui dirige l’initiative ‘IEEE Rebooting Computing’, cite deux paradigmes. Le premier est la supraconduction, dans laquelle les puces fonctionnent à une température suffisamment basse pour éliminer la résistance électrique.

[La supraconductivité (ou supraconduction) est un phénomène caractérisé par l’absence de résistance électrique et l’expulsion du champ magnétique — l’effet Meissner — à l’intérieur de certains matériaux dits supraconducteurs.

La supraconductivité découverte historiquement en premier, et que l’on nomme communément supraconductivité conventionnelle, se manifeste à des températures très basses, proches du zéro absolu (−273,15 °C). La supraconductivité permet notamment de transporter de l’électricité sans perte d’énergie. Ses applications potentielles sont stratégiques.

Dans les supraconducteurs conventionnels, des interactions complexes se produisent entre les atomes et les électrons libres et conduisent à l’apparition de paires liées d’électrons, appelées paires de Cooper. L’explication de la supraconductivité est intimement liée aux caractéristiques quantiques de la matière. Alors que les électrons sont des fermions, les paires d’électrons se comportent comme des bosons de spin égal à 0 nommé singulet, et sont « condensées » dans un seul état quantique, sous la forme d’un superfluide de paires de Cooper.

Un effet similaire de la supraconductivité est la superfluidité, caractérisant un écoulement sans aucune résistance, c’est-à-dire qu’une petite perturbation que l’on soumet à ce type de liquide ne s’arrête jamais, de la même façon que les paires de Cooper se déplacent sans aucune résistance dans un supraconducteur.

Il existe également d’autres classes de matériaux, collectivement appelés « supraconducteurs non conventionnels » (par opposition à la dénomination de supraconductivité conventionnelle), dont les propriétés ne sont pas expliquées par la théorie BCS. En particulier, la classe des cuprates (ou « supraconducteurs à haute température critique »), découverte en 1986, présente des propriétés supraconductrices à des températures bien plus élevées que les supraconducteurs conventionnels. Toutefois, ce que les physiciens nomment « haute température » reste extrêmement bas comparativement aux températures à la surface de la Terre (le maximum est 133 K, soit −140 °C)1, mais sont parfois au-dessus de la température de liquéfaction de l’azote en azote liquide à 77 K. Le premier matériau supraconducteur à température ambiante, un hydrure de carbone et de soufre, est découvert en 2020 : Tc = 287,7 ± 1,2 K (environ 15 °C), mais sous une pression de 267 ± 10 GPa (proche de la pression au centre de la Terre)2,3.

Bien que ce sujet soit, depuis le début des années 1990, un des sujets les plus étudiés de la physique du solide, en 2010 aucune théorie unique ne décrit de façon satisfaisante le phénomène de la supraconductivité non conventionnelle. La théorie des fluctuations de spin est une des plus prometteuses et permet de reproduire beaucoup des propriétés de l’hélium 3, des fermions lourds ainsi que des cuprates. Dans cette théorie, l’appariement se fait par échange de fluctuations de spin, toutefois aucun consensus n’est à ce jour établi. Cette théorie pourrait également permettre d’expliquer la supraconductivité des supraconducteurs à base de fer…- Source : https://fr.wikipedia.org/wiki/Supraconductivit%C3%A9 ].

[La supraconduction – Magistral exposé avec expérimentations en ligne – Vidéo 59:35 - 25 mars 2020 - Palais de la découverte - Lorsque l’on refroidit certains matériaux à très basse température, ils deviennent supraconducteurs. Ils acquièrent alors des propriétés remarquables : conduction électrique – Profiter de cette démonstration sur ce site : https://www.youtube.com/watch?v=-MpW3F3gxXE ].

Suite de la traduction de l’article

Le second paradigme est l’informatique réversible, dans laquelle les bits sont réutilisés au lieu d’être expulsés sous forme de chaleur. En 1961, le physicien d’IBM Rolf Landauer a fusionné la théorie de l’information et la thermodynamique, la physique de la chaleur. Il a remarqué que lorsqu’une porte logique prend deux bits et en sort un, elle détruit un bit, l’expulsant sous forme d’entropie, ou d’aléatoire, sous forme de chaleur. Lorsque des milliards de transistors fonctionnent à des milliards de cycles par seconde, la chaleur perdue s’accumule, et la machine a besoin de plus d’électricité pour le calcul et le refroidissement.

[« Rolf Landauer (19271999) était un physicien qui a travaillé pour IBM. En 1961, il démontra que lorsque de l’information est perdue dans un circuit irréversible, elle devient de l’entropie et une quantité associée d’énergie est dissipée en chaleur. Ce principe s’applique au calcul réversible, à l’information quantique et au calcul quantique. Une de ses citations célèbres est : « L’information est physique ». Il reçoit en 1995 le Prix Oliver E. Buckley de la matière condensée décerné par l’American Physical Society… » - Article complet sur https://fr.wikipedia.org/wiki/Rolf_Landauer ].

[Informatique réversible - Le calcul réversible est tout modèle de calcul où le processus de calcul est dans une certaine mesure réversible dans le temps . Dans un modèle de calcul qui utilise des transitionsdéterministes d’un état de la machine abstraite à un autre, une condition nécessaire pour la réversibilité est que la relation de mappage des états à leurs successeurs doit être un-à-un . L’informatique réversible est une forme d’informatique non conventionnelle . En raison de l’unitarité de la mécaniquequantique , les circuits quantiques sont généralement réversibles.

Contenu

  • 1 Réversibilité
  • 2 Relation avec la thermodynamique
  • 3 Réversibilité physique
  • 4 Réversibilité logique
  • 5 Voir aussi
  • 6 références
  • 7 Lectures complémentaires
  • 8 Liens externes
    Les 8 points ci-dessus sont à lire sur ce site : https://stringfixer.com/fr/Reversible_computing ].

Suite de la traduction de l’article

Michael Frank, un informaticien des Sandia National Laboratories à Albuquerque qui travaille sur l’informatique réversible, a écrit en 2017 : ’Un ordinateur conventionnel est, essentiellement, un chauffage électrique coûteux qui se trouve effectuer une petite quantité de calcul comme effet secondaire.’

Mais dans le calcul réversible, les portes logiques ont autant de sorties que d’entrées. Cela signifie que si vous faites fonctionner la porte logique en sens inverse, vous pouvez utiliser, par exemple, trois bits de sortie pour obtenir les trois bits d’entrée. Certains chercheurs ont imaginé des portes logiques et des circuits réversibles qui pourraient non seulement économiser ces bits de sortie supplémentaires, mais aussi les recycler pour d’autres calculs. Le physicien Richard Feynman avait conclu que, hormis la perte d’énergie lors de la transmission des données, il n’y a pas de limite théorique à l’efficacité des calculs.

[Richard Phillips Feynman (1918-1988) est un physicien américain, l’un des plus influents de la seconde moitié du XXe siècle, en raison notamment de ses travaux sur l’électrodynamique quantique, les quarks et l’hélium superfluide.

Il reformula entièrement la mécanique quantique à l’aide de son intégrale de chemin, qui généralise le principe de moindre action de la mécanique classique, et inventa les diagrammes qui portent son nom et qui sont désormais largement utilisés en théorie quantique des champs (dont l’électrodynamique quantique fait partie).

Pendant la Seconde Guerre mondiale, il fut impliqué dans le développement de la bombe atomique américaine. Après la Seconde Guerre mondiale, il enseigna à l’université Cornell puis au Caltech où il effectua des travaux fondamentaux notamment dans la théorie de la superfluidité et des quarks.

Sin-Itiro Tomonaga, Julian Schwinger et lui sont colauréats du prix Nobel de physique de 1965 pour leurs travaux en électrodynamique quantique1. Vers la fin de sa vie, son action au sein de la commission d’enquête sur l’accident de la navette spatiale Challenger l’a fait connaître du grand public américain.

Pédagogue remarquable et drôle, il est le rédacteur de nombreux ouvrages de vulgarisation reconnus. Parmi ces livres, les Feynman lectures on physics, un cours de physique de niveau universitaire qui, depuis sa parution, est devenu un classique pour tous les étudiants de premier cycle en physique et leurs professeurs. Il raconte aussi ses nombreuses aventures dans plusieurs ouvrages : Surely You’re Joking, Mr. Feynman ! (paru en français sous le titre Vous voulez rire, monsieur Feynman !) et What Do You Care What Other People Think ?... » - Article complet sur : https://fr.wikipedia.org/wiki/Richard_Feynman ].

Suite de la traduction de l’article

En combinant le calcul réversible et le calcul supraconducteur, dit M. Conte, ’on obtient un double effet’. L’efficacité du calcul permet d’exécuter plus d’opérations sur la même puce sans se soucier de la consommation d’énergie ou de la production de chaleur. M. Conte estime qu’à terme, l’une de ces méthodes, ou les deux, ’constitueront probablement l’épine dorsale d’une grande partie de l’informatique.’

Piratage de logiciels

Les chercheurs continuent de travailler sur une corne d’abondance de nouvelles technologies pour les transistors, les autres éléments de calcul, les conceptions de puces et les paradigmes matériels : photonique, spintronique, biomolécules, nanotubes de carbone. Mais il est encore possible de tirer beaucoup plus d’avantages des éléments et architectures actuels en optimisant simplement le code.

Dans un article paru en 2020 dans la revue scientifique ‘Science’, par exemple, des chercheurs ont étudié le simple problème de la multiplication de deux matrices, des grilles de chiffres utilisées en mathématiques et en apprentissage automatique. Le calcul a été effectué plus de 60.000 fois plus vite lorsque l’équipe a choisi un langage de programmation efficace et a optimisé le code pour le matériel sous-jacent, par rapport à un code standard en langage Python, considéré comme convivial et facile à apprendre.

Neil Thompson, chercheur au MIT et coauteur de l’article publié dans ‘Science’, a récemment cosigné un article sur les améliorations historiques des algorithmes, des ensembles d’instructions qui prennent des décisions en fonction de règles définies par l’homme, pour des tâches telles que le tri des données. ’Pour une minorité substantielle d’algorithmes, dit-il, leur progression a été aussi rapide, voire plus rapide, que la loi de Moore’.

[« Un algorithme est une suite finie et non ambiguë d’instructions et d’opérations permettant de résoudre une classe de problèmes1. Le mot algorithme vient d’Al-Khwârizmî (en arabe : الخوارزمي)2, nom d’un mathématicien persan du IXe siècle.

Le domaine qui étudie les algorithmes est appelé l’algorithmique. On retrouve aujourd’hui des algorithmes dans de nombreuses applications telles que le fonctionnement des ordinateurs3, la cryptographie, le routage d’informations, la planification et l’utilisation optimale des ressources, le traitement d’images, le traitement de textes, la bio-informatique, etc… » - Article complet sur https://fr.wikipedia.org/wiki/Algorithme ].

Suite de la traduction de l’article

Certains scientiiques, y compris Moore, ont prédit la fin de la loi de Moore depuis des décennies. Les progrès ont peut-être ralenti, mais l’innovation humaine a permis à la technologie de continuer à avancer à un rythme soutenu.

La chasse à l’intelligence

Dès les premiers jours de l’informatique, les chercheurs ont cherché à reproduire la pensée humaine. Alan Turing commence un article de 1950 intitulé ’Computing Machinery and Intelligence’ par : ’Je me propose d’examiner la question suivante : ’Les machines peuvent-elles penser ?’. ’Il a ensuite décrit un test, qu’il a appelé ’le jeu d’imitation’ (aujourd’hui appelé test de Turing), dans lequel un humain communiquant avec un ordinateur et un autre humain par le biais de questions écrites devait juger qui était qui. Si le juge échouait, l’ordinateur pouvait vraisemblablement penser.

Le terme ’intelligence artificielle’ a été inventé en 1955 dans une proposition d’institut d’été au Dartmouth College. ’On tentera de trouver comment faire en sorte que les machines utilisent le langage, forment des abstractions et des concepts, résolvent des types de problèmes aujourd’hui réservés aux humains et s’améliorent elles-mêmes’, indique la proposition. Les organisateurs s’attendaient à ce qu’en deux mois, les dix participants au sommet réalisent une ’avancée significative’.

[L’intelligence artificielle (IA) est « l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine »1.

Elle englobe donc un ensemble de concepts et de technologies, plus qu’une discipline autonome constituée2. Des instances, telle la CNIL, notant le peu de précision de la définition de l’IA, l’ont présentée comme « le grand mythe de notre temps »3.

Souvent classée dans le groupe des mathématiques et des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux) et à la logique mathématique (partie des mathématiques et de la philosophie). Elle utilise des méthodes de résolution de problèmes à forte complexité logique ou algorithmique. Par extension, elle comprend, dans le langage courant, les dispositifs imitant ou remplaçant l’homme dans certaines mises en œuvre de ses fonctions cognitives4.

Ses finalités et enjeux ainsi que son développement suscitent, depuis l’apparition du concept, de nombreuses interprétations, fantasmes ou inquiétudes s’exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques5. La réalité semble encore tenir l’intelligence artificielle loin des performances du vivant ; ainsi, l’IA reste encore bien inférieure au chat dans toutes ses aptitudes naturelles6… » - Article complet sur : https://fr.wikipedia.org/wiki/Intelligence_artificielle ].

Suite de la traduction de l’article

Plus de six décennies et un nombre incalculable d’heures-personnes plus tard, il n’est pas certain que les avancées soient à la hauteur de ce qui était prévu lors de ce sommet estival. L’intelligence artificielle nous entoure d’une manière invisible (filtrer les spams), qui fait la une des journaux (conduire des voitures autonomes, nous battre aux échecs) et qui se situe entre les deux (nous permettre de chatter avec nos smartphones). Mais ce sont toutes des formes étroites d’IA, qui accomplissent bien une ou deux tâches. Ce que Turing et d’autres avaient en tête s’appelle l’intelligence artificielle générale, ou IAG. Selon votre définition, il s’agit d’un système capable de faire la plupart des choses que font les humains.

Image - Le champion du monde d’échecs Garry Kasparov a battu le superordinateur Deep Blue d’IBM lors d’un match en 1996 (photo). Mais l’ordinateur a gagné lors d’une revanche en 1997.Tom Mihalek/AFP via Getty Images

Nous n’atteindrons peut-être jamais l’intelligence artificielle, mais le chemin a mené, et mènera, à de nombreuses innovations utiles en cours de route. ’Je pense que nous avons fait beaucoup de progrès’, déclare Doina Precup, informaticien à l’université McGill de Montréal et responsable de l’équipe de recherche montréalaise de la société d’IA DeepMind. ’Mais l’une des choses qui, selon moi, manque encore à l’heure actuelle est une meilleure compréhension des principes fondamentaux de l’intelligence.’

L’IA a fait de grands progrès au cours de la dernière décennie, en grande partie grâce à l’apprentissage automatique. Auparavant, les ordinateurs s’appuyaient davantage sur l’IA symbolique, qui utilise des algorithmes basés sur des règles définies par l’homme. Les programmes d’apprentissage automatique, quant à eux, traitent les données pour trouver des modèles par eux-mêmes. Une forme d’IA utilise les réseaux neuronaux artificiels, des logiciels comportant des couches d’éléments informatiques simples qui, ensemble, imitent certains principes des cerveaux biologiques. Les réseaux neuronaux comportant plusieurs couches, voire beaucoup plus, sont actuellement très populaires et constituent un type d’apprentissage automatique appelé apprentissage profond.

[L’apprentissage profond1,2 ou apprentissage en profondeur1 (en anglais : deep learning, deep structured learning, hierarchical learning) est un ensemble de méthodes d’apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires3. Ces techniques ont permis des progrès importants et rapides dans les domaines de l’analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage. Dans les années 2000, ces progrès ont suscité des investissements privés, universitaires et publics importants, notamment de la part des GAFAM (Google, Apple, Facebook, Amazon, Microsoft)4… » - Lire tout l’article sur https://fr.wikipedia.org/wiki/Apprentissage_profond ].

Suite de la traduction de l’article d’origine

Les systèmes d’apprentissage profond peuvent désormais jouer à des jeux comme les échecs et le go mieux que le meilleur des humains. Ils peuvent probablement identifier des races de chiens à partir de photos mieux que vous ne le pouriez Ils peuvent traduire des textes d’une langue à l’autre. Ils peuvent contrôler des robots, composer de la musique et prédire comment les protéines vont se plier.

Mais il leur manque aussi une grande partie de ce que l’on appelle le bon sens. Ils ne comprennent pas certaines choses fondamentales sur la façon dont le monde fonctionne, physiquement ou socialement. Par exemple, le fait de modifier légèrement des images d’une manière que vous ou moi ne remarquerions pas peut avoir une incidence considérable sur ce que voit un ordinateur. Des chercheurs ont découvert que le fait de placer quelques autocollants inoffensifs sur un panneau d’arrêt peut amener un logiciel à interpréter le panneau comme un panneau de limitation de vitesse, un problème évident pour les voitures autonomes.

image of a stop sign with stickers that read ’Love’ and ’Hate’ above and below the word ’Stop’

Même avec les autocollants présentés, un humain reconnaîtrait cela comme un panneau d’arrêt. Mais lors du test, un algorithme de voiture autonome ne l’a pas fait. K. Eykholt et al/arxiv.org 2018.

Les différents types d’apprentissage

Comment l’IA peut-elle s’améliorer ? Les informaticiens exploitent de multiples formes d’apprentissage automatique, que l’apprentissage soit ’profond’ ou non. Une forme courante est l’apprentissage supervisé, dans lequel les systèmes d’apprentissage automatique, ou modèles, sont formés en recevant des données étiquetées, telles que des images de chiens et leurs noms de race. Mais cela nécessite beaucoup d’efforts humains pour les étiqueter. Une autre approche est l’apprentissage non supervisé ou auto-supervisé, dans lequel les ordinateurs apprennent sans se fier à des étiquettes extérieures, de la même manière que vous ou moi prédisons l’aspect d’une chaise sous différents angles lorsque nous la contournons.

Un autre type d’apprentissage automatique est l’apprentissage par renforcement, dans lequel un modèle interagit avec un environnement, explorant des séquences d’actions pour atteindre un objectif. L’apprentissage par renforcement a permis à l’IA de devenir experte dans des jeux de société comme le go et des jeux vidéo comme StarCraft II.

[En intelligence artificielle, plus précisément en apprentissage automatique, l’apprentissage par renforcement consiste, pour un agent autonome (robot, etc…), à apprendre les actions à prendre, à partir d’expériences, de façon à optimiser une récompense quantitative au cours du temps. L’agent est plongé au sein d’un environnement, et prend ses décisions en fonction de son état courant. En retour, l’environnement procure à l’agent une récompense, qui peut être positive ou négative. L’agent cherche, au travers d’expériences itérées, un comportement décisionnel (appelé stratégie ou politique, et qui est une fonction associant à l’état courant l’action à exécuter) optimal, en ce sens qu’il maximise la somme des récompenses au cours du temps… » - En savoir plus sur ce site : https://fr.wikipedia.org/wiki/Apprentissage_par_renforcement ].

Suite de la traduction de l’article

Pour apprendre efficacement, les machines (et les personnes) doivent généraliser, c’est-à-dire tirer des principes abstraits de leurs expériences. ’Une part importante de l’intelligence’, explique Melanie Mitchell, informaticienne à l’Institut Santa Fe, au Nouveau-Mexique, ’consiste à être capable de prendre ses connaissances et de les appliquer dans différentes situations.’ Une grande partie de son travail concerne les analogies, sous une forme rudimentaire : trouver des similitudes entre des chaînes de lettres.

[« Melanie Mitchell1 est professeure en sciences informatiques à l’Université de Portland. Elle a travaillé à l’Institut de Santa Fe et au Laboratoire national de Los Alamos. Ses principaux travaux portent sur le raisonnement par analogie, les systèmes complexes, les algorithmes génétiques et l’automatisation cellulaire. Ses publications dans ces domaines sont fréquemment citées2. En 1990, elle obtient son doctorat à l’Université du Michigan sous la direction de Douglas Hofstadter et John Holland, qu’elle a aidé à développer le Copycat, une architecture de raisonnement. Elle est l’auteur d’un livre essentiel au sujet de Copycat, intitulé Analogy-Making as Perception. Elle a également fait la critique du livre A New Kind of Science3 (Une nouvelle sorte de science) de Stephen Wolfram. Elle a écrit An Introduction to Genetic Algorithms (Une introduction aux algorithmes génétiques), un ouvrage largement connu, publié par le MIT Press en 1996… » - Tout savoir sur elle et sur ses travaux : https://fr.wikipedia.org/wiki/Melanie_Mitchell … et son site : Melanie Mitchell Davis Professor, Santa Fe Institute > https://melaniemitchell.me/ ].

Suite de la traduction de l’article

En 2019, le chercheur en IA François Chollet, de Google, a créé une sorte de test de QI pour les machines appelé ‘Abstraction and Reasoning Corpus’, ou ARC, dans lequel les ordinateurs doivent compléter des motifs visuels selon des principes démontrés dans des motifs d’exemple. Les énigmes sont faciles pour les humains, mais jusqu’à présent, difficiles pour les machines.

[François Chollet est un ingénieur et chercheur en intelligence artificielle français. Diplômé de l’ENSTA Paris 1, François Chollet travaille pour Google, il est le développeur de la bibliothèque libre Keras d’apprentissage profond et l’auteur de l’ouvrage Deep learning with Python2. François Chollet est aussi le développeur du modèle de réseaux de neurones XCeption3… » - Source : https://fr.wikipedia.org/wiki/Fran%C3%A7ois_Chollet ].

Suite de la traduction de l’article

Une grande partie de notre pensée abstraite, ironiquement, peut être ancrée dans nos expériences physiques. Nous utilisons des métaphores conceptuelles comme ’important’ = ’grand’ et ’argument’ = ’forces opposées’. Pour réaliser une intelligence artificielle capable de faire la plupart des choses que les humains peuvent faire, il faudra peut-être une incarnation, comme le fait de travailler avec un robot physique. Les chercheurs ont combiné l’apprentissage du langage et la robotique en créant des mondes virtuels où des robots virtuels apprennent simultanément à suivre des instructions et à naviguer dans une maison.

[GPT-3 est un modèle de langage développé par la société OpenAI annoncé le 28 mai 2020 et ouvert aux utilisateurs via l’API d’OpenAI en juillet 2020. Au moment de son annonce, GPT-3 est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres. GPT-2, sorti en 2019, n’avait que 1,5 milliard de paramètres2. OpenAI ouvre une version bêta en juillet 2020 et ambitionne d’en faire un produit commercial par la suite2… » - Article complet sur : https://fr.wikipedia.org/wiki/GPT-3 ].

Suite de la traduction de l’article

GPT-3 est un modèle de langage entraîné publié en 2020 par le laboratoire de recherche ‘Open AI’, qui a montré que le langage désincarné pouvait ne pas suffire. En suivant des instructions, il peut écrire des articles de presse, des nouvelles et des poèmes dignes d’un être humain. Mais dans une démo, il a écrit : ’Il faut deux arcs-en-ciel pour passer de Hawaï à dix-sept’. ’J’ai beaucoup joué avec elle’, dit Mitchell. ’Il fait des choses incroyables. Mais il peut aussi faire des erreurs incroyablement stupides.’

L’AGI pourrait également nécessiter d’autres aspects de notre nature animale, comme les émotions, surtout si les humains s’attendent à interagir avec les machines de manière naturelle. Les émotions ne sont pas de simples réactions irrationnelles. Nous les avons développées pour guider nos pulsions et nos comportements.

Selon Ilya Sutskever, cofondateur et scientifique en chef d’OpenAI, elles ’nous donnent une dose supplémentaire de sagesse’. Même si l’IA n’a pas les mêmes sentiments conscients que nous, elle peut avoir un code qui se rapproche de la peur ou de la colère. L’apprentissage par renforcement comprend déjà un élément exploratoire semblable à la curiosité.

[Ilya Sutskever is a computer scientist working in machine learning and currently serving as the Chief Scientist of OpenAI.[1] He has made several major contributions to the field of deep learning. He is the co-inventor, with Alex Krizhevsky and Geoffrey Hinton, of AlexNet, a convolutional neural network.[2] Sutskever is also one of the many authors of the AlphaGo paper… - Article complet ici : https://en.wikipedia.org/wiki/Ilya_Sutskever ].

Suite de la traduction de l’article

Photo - Le robot humanoïde iCub est devenu un outil de recherche dans les laboratoires du monde entier pour l’étude de la cognition humaine et de l’intelligence artificielle.Philippe Psaila/Science Source

L’être humain n’est pas une page blanche. Nous sommes nés avec certaines prédispositions pour reconnaître les visages, apprendre le langage et jouer avec des objets. Les systèmes d’apprentissage automatique ont également besoin d’une structure innée adéquate pour apprendre rapidement certaines choses. La quantité et la nature de cette structure font l’objet d’un débat intense. Selon M. Sutskever, il est ’intellectuellement séduisant’ d’intégrer la façon dont nous pensons. Cependant, ’nous voulons la meilleure ardoise vierge possible’.

Une structure générale de réseau neuronal que Sutskever apprécie est appelée transformateur, une méthode permettant d’accorder une plus grande attention aux relations importantes entre les éléments d’une entrée. Elle est à l’origine de modèles linguistiques actuels tels que GPT-3, et a également été appliquée à l’analyse d’images, de sons et de vidéos. ’Elle améliore tout’, dit-il.

[Réseau de neurones artificiels - Pour les articles homonymes, voir Réseau de neurones (biologie) et Réseau (homonymie).

« Un réseau de neurones artificiels1,2, ou réseau neuronal artificiel1, est un système dont la conception est à l’origine schématiquement inspirée du fonctionnement des neurones biologiques, et qui par la suite s’est rapproché des méthodes statistiques3. Les réseaux de neurones sont généralement optimisés par des méthodes d’apprentissage de type probabiliste, en particulier bayésien. Ils sont placés d’une part dans la famille des applications statistiques, qu’ils enrichissent avec un ensemble de paradigmes4 permettant de créer des classifications rapides (réseaux de Kohonen en particulier), et d’autre part dans la famille des méthodes de l’intelligence artificielle auxquelles ils fournissent un mécanisme perceptif indépendant des idées propres de l’implémenteur, et des informations d’entrée au raisonnement logique formel (voir Deep Learning). En modélisation des circuits biologiques, ils permettent de tester quelques hypothèses fonctionnelles issues de la neurophysiologie, ou encore les conséquences de ces hypothèses pour les comparer au réel… » - Article complet par ici : https://fr.wikipedia.org/wiki/R%C3%A9seau_de_neurones_artificiels ].

Suite de la traduction de l’article

Penser à propos de la pensée

L’IA elle-même peut nous aider à découvrir de nouvelles formes d’IA. Il existe un ensemble de techniques appelé ‘AutoML’, dans lequel les algorithmes aident à optimiser les architectures de réseaux neuronaux ou d’autres aspects des modèles d’IA. L’IA aide également les architectes de puces à concevoir de meilleurs circuits intégrés. L’année dernière, des chercheurs de Google ont signalé dans la revue Nature que l’apprentissage par renforcement avait donné de meilleurs résultats que leur équipe interne dans la conception de certains aspects d’une puce accélératrice qu’ils avaient conçue.

[« Auto ML : définition et techniques de machine learning automatisé - Antoine Crochet-Damais – JDN - Mis à jour le 03/02/22 16:03

L’auto ML, ou automatisation du machine learning, est conçu pour générer automatiquement des modèles d’apprentissage optimisés en fonction de cas d’usage.

Qu’est-ce que l’auto ML ?

Comme son nom l’indique, l’auto ML (ou automated machine learning) automatise la création d’un modèle de machine learning. Cette méthode no code met ainsi le développement de modèles d’IA entre les mains des experts non-spécialistes en data science. En général, les outils d’auto ML vont se fonder sur des algorithmes relativement simples et explicables pour bâtir leurs modèles, par exemple une classification, une régression linéaire ou la prévision d’une série chronologique.

Comment fonctionne l’auto ML ? 

En fonction d’une problématique à résoudre (maintenance préventive, prédiction financière, reconnaissance d’images...), l’auto ML sélectionne d’abord plusieurs algorithmes possibles. Ensuite, il les entraîne sur la base d’un set de données d’apprentissage préalablement défini. Via une couche de scoring, il compare leurs résultats en mixant plusieurs combinaisons d’hyperparamètres. Dans le cas du deep learning, ces derniers correspondent par exemple au nombre de couches du réseau de neurones et au nombre de nœuds au sein de chaque couche. Compte tenu de l’objectif cible à atteindre, le modèle le plus performant est retenu au final.

Quel est l’avantage de l’auto ML ?

Le principal avantage de l’auto ML réside dans le gain de temps du traitement des données et des phases de test nécessaires à la mise en fonctionnement d’un modèle suffisamment performant. Grâce à la capacité de centralisation des données, leur gestion gagne également en cohérence. Comme indiqué plus haut, il n’est pas non plus nécessaire de posséder des connaissances avancées en data science ou en intelligence artificielle pour se recourir à l’auto ML. Il convient toutefois d’adapter l’usage de l’auto ML au contexte. Certaines situations demandent une intervention humaine pour choisir l’approche de programmation la plus pertinente.

Quelles sont les différents outils d’auto ML ?

Il existe différentes technologies pour se servir de l’auto ML. Parmi les principales techniques employées, on peut évoquer :

  • DataRobot  : plateforme spécialisée dans le benchmarking des modèles, elle permet de réaliser des modèles de maintenance préventive, de reconnaissance d’images, voire de prédiction financière.
  • Google Vertex for autoML : un système qui fonctionne sur le double principe de l’apprentissage par renforcement et non supervisé, notamment pour gérer le feature engineering et la mise en production des modèles.
  • Dataiku  : cette technologie d’auto ML intégrée au studio de data science de Dataiku propose un système de visualisation de codes afin de mieux appréhender l’architecture sélectionnée et d’interpréter les résultats obtenus.
  • Knime  : cette solution permet d’effectuer une analyse intégrative des données à la suite de leur traitement. Il convient pour réaliser la partition de data sets.
    Bootstrap : comment aligner une Navbar (barre de navigation) à droite ? > Guide

Suite de la traduction de l’article

L’arrivée de l’intelligence artificielle ne se fera peut-être pas avant plusieurs décennies. ’Nous ne comprenons pas notre propre intelligence’, dit Mitchell, car elle est en grande partie inconsciente. ’Et par conséquent, nous ne savons pas ce qui va être difficile ou facile pour l’IA’.

Ce qui semble difficile peut être facile et vice versa - un phénomène connu sous le nom de paradoxe de Moravec, du nom du roboticien Hans Moravec. En 1988, Moravec écrivait : ’Il est comparativement facile de faire en sorte que les ordinateurs affichent des performances de niveau adulte pour résoudre des problèmes lors de tests d’intelligence ou jouer aux dames, et difficile, voire impossible, de leur donner les compétences d’un enfant d’un an en matière de perception et de mobilité.’ Les bébés sont secrètement brillants. En visant l’AGI, dit Precup, ’nous comprenons aussi mieux l’intelligence humaine, et l’intelligence en général.’

[Le paradoxe de Moravec peut se résumer à l’idée que « le plus difficile en robotique est souvent ce qui est le plus facile pour l’homme »1. Révélé par des chercheurs en intelligence artificielle et en robotique, notamment Hans Moravec, Rodney Brooks et Marvin Minsky, ce paradoxe indique que le raisonnement de haut niveau est beaucoup plus facile à reproduire et simuler par un programme informatique que les aptitudes sensorimotrices humaines. Ceci peut sembler contre-intuitif du fait qu’un humain ne ressent pas de difficulté particulière à effectuer des tâches relevant de cette dernière catégorie, contrairement à la première. Ce paradoxe a été formalisé entre autres par Hans Moravec dans les années 19802. On peut citer, comme exemples de tâches des deux catégories :

  • tâches sensorimotrices difficiles à simuler : reconnaissance d’un objet, d’un visage, d’une voix, faculté de déplacement dans un environnement tridimensionnel, jet et capture d’une balle, évaluation des motivations d’autres individus, de leurs émotions, faculté d’attention, de motivation...
  • facultés de raisonnement aisées à reproduire : mathématiques, logique, planification, jeux...
    Selon Marvin Minsky, ce paradoxe peut être expliqué par le fait que lorsque le cerveau humain maîtrise parfaitement une tâche, celle-ci ne s’exécute pas consciemment, contrairement aux tâches mal maîtrisées. Ces tâches inconscientes ne sont donc pas cataloguées comme difficiles.

Selon Moravec, la théorie de l’évolution permet également d’expliquer ce paradoxe. Les tâches sensorimotrices, en tant que fonctionnalités biologiques anciennes, ont été perfectionnées par les mécanismes évolutionnaires durant des millions d’années. Les facultés de raisonnement, apparues très récemment sur le plan biologique, ne se sont pas encore autant perfectionnées. On peut aussi penser que le temps que les chercheurs mettront avant de réussir à reproduire le comportement sensorimoteur des humains sera proportionnel au temps depuis lequel ces facultés évoluent chez les animaux.

Ce paradoxe peut en partie expliquer la pause donnée aux recherches en intelligence artificielle dans les années 1970, alors que l’optimisme des découvertes initiales retombait face aux nouvelles difficultés rencontrées à réaliser des tâches qui semblaient de prime abord plus faciles. Il a aussi donné naissance au courant de recherche intitulé « Nouvelle IA ».[réf. nécessaire] … » - Article complet par ici : https://fr.wikipedia.org/wiki/Paradoxe_de_Moravec ].

Suite de la traduction de l’article

Turing faisait la différence entre l’intelligence générale et l’intelligence de type humain. Dans son article de 1950 sur le jeu d’imitation, il écrit : ’Les machines ne peuvent-elles pas effectuer quelque chose qui devrait être décrit comme de la pensée, mais qui est très différent de ce que fait un homme ?’. Son point de vue : il n’est pas nécessaire de penser comme une personne pour avoir une véritable intelligence.

L’éthique en question

Dans la nouvelle de 1942 ’Runaround’, l’un des personnages d’ Isaac Asimov énumère ’les trois règles fondamentales de la robotique’. Les robots évitaient de faire ou de laisser faire du mal aux humains, ils obéissaient aux ordres et se protégeaient eux-mêmes, tant que le respect d’une règle n’entrait pas en conflit avec les décrets précédents.

[« Isaac AsimovN 1« Aïzek Azimov »N 2, né vers le 2 janvier 1920 à Petrovitchi, en Russie, et mort le 6 avril 1992 à New York, aux États-Unis, est un écrivain russo-américain (naturalisé américain en 1928) et un professeur de biochimie à l’Université de Boston, surtout connu pour ses œuvres de science-fiction et ses livres de vulgarisation scientifique. Écrivain prolifique, Asimov a écrit ou édité plus de 500 livres et répondu à environ 90 000 lettres et cartes postales. Ses livres ont été publiés dans 9 des 10 grandes catégories de la classification décimale de Dewey. L’œuvre la plus célèbre d’Asimov est la série Fondation (Foundation), dont les trois premiers livres ont remporté l’unique prix Hugo de la « Meilleure série de tous les temps » en 1966. Ses autres séries majeures sont le cycle de l’Empire (Galactic Empire) et le cycle des robots (Robot series). A ce titre, il fait partie, avec Arthur C. Clarke et Robert A. Heinlein, des « Trois Grands » (Big Three) auteurs de science-fiction de langue anglaise. Il a également écrit des ouvrages ayant pour thèmes la fiction mystérieuse (en) et la fantasy, ainsi que de nombreux ouvrages de non-fiction. La plupart de ses livres de sciences populaires expliquent les concepts de manière historique, remontant aussi loin que possible à une époque où la science en question était à son stade le plus simple. Des exemples incluent le Guide to Science (en), la série en trois volumes Understanding Physics (en), et Asimov’s Chronology of Science and Discovery. Il a écrit sur de nombreux autres sujets scientifiques et non scientifiques, tels que la chimie, l’astronomie, les mathématiques, l’histoire, l’exégèse biblique et la critique littéraire. Asimov a été président de l’American Humanist Association. Un cratère sur la planète Mars, une école primaire à Brooklyn et un prix littéraire (Isaac Asimov Awards (en)) sont nommés en son honneur… » - Source : https://fr.wikipedia.org/wiki/Isaac_Asimov ].

Suite de la traduction de l’article

Nous pouvons imaginer les ’cerveaux positroniques’ d’Asimov prenant des décisions autonomes sur les dommages causés aux humains, mais ce n’est pas vraiment ainsi que les ordinateurs affectent notre bien-être au quotidien. Au lieu de robots humanoïdes qui tuent des gens, nous avons des algorithmes qui contrôlent les flux d’informations. À mesure que les ordinateurs s’infiltrent dans nos vies, nous devons réfléchir davantage aux types de systèmes à construire et à la manière de les déployer, ainsi qu’à des méta-problèmes tels que la manière de décider - et qui devrait décider - de ces choses.

C’est le domaine de l’éthique, qui peut sembler éloigné de l’objectivité supposée des mathématiques, des sciences et de l’ingénierie. Mais décider des questions à poser sur le monde et des outils à construire a toujours dépendu de nos idéaux et de nos scrupules. L’étude d’un sujet abscons comme les entrailles des atomes, par exemple, a des répercussions évidentes sur l’énergie et l’armement. ’Il y a le fait fondamental que les systèmes informatiques ne sont pas neutres du point de vue des valeurs’, explique l’informaticienne Barbara Grosz, de l’université de Harvard, ’que lorsque vous les concevez, vous y apportez un certain nombre de valeurs.’

[« Barbara J. Grosz, née à Philadelphie le 21 juillet 1948, est une informaticienne américaine et professeure de sciences naturelles à l’Université Harvard1. Elle a contribué de façon significative aux domaines du traitement du langage naturel et des systèmes multi-agents … » - Source : https://fr.wikipedia.org/wiki/Barbara_J._Grosz ].

Suite de la traduction de l’article

L’équité et la partialité sont un sujet qui a suscité beaucoup d’attention de la part des scientifiques et des éthiciens. Les algorithmes informent de plus en plus, voire dictent, les décisions en matière d’embauche, d’admission à l’université, de prêts et de libération conditionnelle. Même s’ils discriminent moins que les humains, ils peuvent toujours traiter certains groupes de manière injuste, non pas à dessein, mais souvent parce qu’ils sont formés sur des données biaisées. Ils peuvent prédire le comportement criminel futur d’une personne sur la base de ses arrestations antérieures, par exemple, même si différents groupes sont arrêtés à des taux différents pour une quantité donnée de crimes.

Et, ce qui prête à confusion, c’est qu’il existe de multiples définitions de l’équité, comme l’égalité des taux de faux positifs entre les groupes ou l’égalité des taux de faux négatifs entre les groupes.

Lors d’une conférence, un chercheur a énuméré 21 définitions. Et les définitions sont souvent contradictoires. Dans un article, des chercheurs ont montré que, dans la plupart des cas, il est mathématiquement impossible de satisfaire simultanément trois définitions communes.

Une autre préoccupation concerne la vie privée et la surveillance, étant donné que les ordinateurs peuvent désormais recueillir et trier des informations sur leur utilisation d’une manière inimaginable auparavant. Les données sur notre comportement en ligne peuvent aider à prédire certains aspects de notre vie privée, comme la sexualité. La reconnaissance faciale peut également nous suivre dans le monde réel, aidant ainsi la police ou les gouvernements autoritaires. Et le domaine émergent de la neurotechnologie teste déjà des moyens de connecter le cerveau directement aux ordinateurs (SN : 13/02/21, p. 24). La sécurité est liée à la protection de la vie privée : les pirates peuvent accéder à des données verrouillées ou interférer avec les stimulateurs cardiaques et les véhicules autonomes.

Les problèmes de la police prédictive

Un algorithme de police prédictive testé à Oakland, en Californie, ciblerait deux fois plus les Noirs que les Blancs (à gauche), même si les données de la même période, en 2011, montrent que la consommation de drogue était à peu près équivalente dans tous les groupes raciaux (à droite).

bar chart showing the percent of the Oakland population that would be targeted by predictive policing

E. Otwell

Estimation du pourcentage de résidents d’Oakland consommant des drogues, par race - E. Otwell - Source : K. Lum et W. Isaac/Significance 2016

Les ordinateurs peuvent également permettre la tromperie. L’IA peut générer du contenu qui semble réel. Les modèles linguistiques peuvent être utilisés pour remplir Internet de fausses nouvelles et de matériel de recrutement pour les groupes extrémistes (SN : 5/8/21 & 5/22/21, p. 22).

Les réseaux adversaires génératifs, un type d’apprentissage profond capable de générer du contenu réaliste, peuvent aider les artistes ou créer des deepfakes, des images ou des vidéos montrant des personnes faisant des choses qu’elles n’ont jamais faites (SN : 15/9/18, p. 12).

Sur les médias sociaux, nous devons également nous inquiéter de la polarisation des opinions sociales, politiques et autres des gens. En général, les algorithmes de recommandation optimisent l’engagement (et les plateformes en tirent profit grâce à la publicité), et non le discours civil. Les algorithmes peuvent également nous manipuler d’autres manières. Les robots-conseillers - des chatbots destinés à donner des conseils financiers ou à fournir une assistance à la clientèle - pourraient apprendre à savoir ce dont nous avons réellement besoin, ou à nous pousser à bout et à nous vendre des produits superflus.

De nombreux pays mettent au point des armes autonomes susceptibles de réduire le nombre de victimes civiles et d’intensifier les conflits plus rapidement que leurs concepteurs ne peuvent réagir. Mettre des armes ou des missiles entre les mains de robots fait surgir le spectre de science-fiction des Terminators qui tentent d’éliminer l’humanité. Il se peut même qu’ils n’aient pas de mauvaises intentions, pensant à tort qu’ils aident l’humanité en éliminant le cancer humain (un exemple de manque de bon sens).

À plus court terme, des systèmes automatisés lâchés dans le monde réel ont déjà provoqué des krachs boursiers et des hausses soudaines du prix des livres sur Amazon. Si les IA sont chargées de prendre des décisions de vie ou de mort, elles sont alors confrontées au fameux problème du chariot, qui consiste à décider qui ou quoi sacrifier lorsque tout le monde ne peut pas gagner. Nous entrons ici en territoire Asimov.

Il y a de quoi s’inquiéter. Russell, de l’UC Berkeley, suggère où devraient se situer nos priorités : ’Les armes autonomes létales sont une question urgente, car des gens sont peut-être déjà morts, et au train où vont les choses, ce n’est qu’une question de temps avant qu’il y ait une attaque de masse’, dit-il. ’Les préjugés et la dépendance aux médias sociaux et la polarisation sont tous deux des exemples discutables de l’échec de l’alignement des valeurs entre les algorithmes et la société, ils nous donnent donc des avertissements précoces sur la façon dont les choses peuvent facilement tourner mal.’

[« Stuart Jonathan Russell OBE (born 1962) is a British computer scientist known for his contributions to artificial intelligence (AI).[5][3] He is a professor of computer science at the University of California, Berkeley and adjunct professor of neurological surgery at the University of California, San Francisco.[6][7] He holds the Smith-Zadeh Chair in Engineering at University of California, Berkeley.[8] He founded and leads the Center for Human-Compatible Artificial Intelligence (CHAI) at UC Berkeley.[9] Russell is the co-author with Peter Norvig of the most popular textbook in the field of AI : Artificial Intelligence : A Modern Approach used in more than 1,500 universities in 135 countries.[10] … » - Source : https://en.wikipedia.org/wiki/Stuart_J._Russell ].

Traduction : Stuart Jonathan Russell OBE (né en 1962) est un informaticien britannique connu pour ses contributions à l’intelligence artificielle (IA) [5][3]. Il est professeur d’informatique à l’Université de Californie, Berkeley et professeur adjoint de chirurgie neurologique à l’Université de Californie, San Francisco. [Il est titulaire de la chaire d’ingénierie Smith-Zadeh à l’université de Californie, Berkeley. 8] Il a fondé et dirige le Center for Human-Compatible Artificial Intelligence (CHAI) à l’université de Berkeley. 9] Russell est le co-auteur, avec Peter Norvig, du manuel le plus populaire dans le domaine de l’IA : Artificial Intelligence : A Modern Approach, utilisé dans plus de 1 500 universités dans 135 pays [10]… »].

Suite de la traduction de l’article

Il existe également des questions sociales, politiques et juridiques sur la façon de gérer la technologie dans la société.

Qui doit être tenu pour responsable lorsqu’un système d’IA cause des dommages ? (Comment pouvons-nous garantir un accès plus équitable aux outils de l’IA et à leurs avantages, et veiller à ce qu’ils ne soient pas discriminatoires à l’égard de groupes ou d’individus ? Comment l’automatisation continue des emplois affectera-t-elle l’emploi ? Pouvons-nous gérer l’impact environnemental des centres de données, qui consomment beaucoup d’électricité ? Devrions-nous employer de préférence des algorithmes explicables - plutôt que les boîtes noires de nombreux réseaux neuronaux - pour une plus grande confiance et une meilleure déboguabilité, même si cela rend les algorithmes moins performants en matière de prédiction ?

Ce qui peut être fait

Michael Kearns, informaticien à l’université de Pennsylvanie et coauteur du livre ‘The Ethical Algorithm’ (2019), situe les problèmes sur un spectre de gérabilité. À une extrémité se trouve ce que l’on appelle la confidentialité différentielle, c’est-à-dire la capacité d’ajouter du bruit à un ensemble de données, par exemple des dossiers médicaux, afin qu’il puisse être partagé utilement avec les chercheurs sans révéler beaucoup de choses sur les dossiers individuels. Nous pouvons maintenant faire des garanties mathématiques sur le degré exact de confidentialité des données des individus.

[« Michael Kearns is an American computer scientist, professor and National Center Chair at the University of Pennsylvania, the founding director of Penn’s Singh Program in Networked & Social Systems Engineering (NETS), the founding director of Warren Center for Network and Data Sciences, and also holds secondary appointments in Penn’s Wharton School and department of Economics. He is a leading researcher in computational learning theory and algorithmic game theory, and interested in machine learning, artificial intelligence, computational finance, algorithmic trading, computational social science and social networks.[1] He previously led the Advisory and Research function in Morgan Stanley’s Artificial Intelligence Center of Excellence team,[2] and is currently an Amazon Scholar within Amazon Web Services. [3]… » - Source : https://en.wikipedia.org/wiki/Michael_Kearns_(computer_scientist)

Traduction : Michael Kearns est un informaticien américain, professeur et titulaire d’une chaire de centre national à l’université de Pennsylvanie, directeur fondateur du programme Singh d’ingénierie des systèmes sociaux et en réseau (NETS) de Penn, directeur fondateur du Warren Center for Network and Data Sciences. Il occupe également des postes secondaires à la Wharton School et au département d’économie de Penn. Il est un chercheur de premier plan en théorie de l’apprentissage informatique et en théorie des jeux algorithmiques, et s’intéresse à l’apprentissage automatique, à l’intelligence artificielle, à la finance informatique, au commerce algorithmique, aux sciences sociales informatiques et aux réseaux sociaux [1]. Il a précédemment dirigé la fonction de conseil et de recherche au sein de l’équipe du Centre d’excellence en intelligence artificielle de Morgan Stanley [2], et est actuellement boursier Amazon au sein d’Amazon Web Services [3] ».

Suite de la traduction de l’article

L’équité dans l’apprentissage automatique se situe quelque part au milieu du spectre. Les chercheurs ont mis au point des méthodes pour accroître l’équité en supprimant ou en modifiant les données d’apprentissage biaisées, ou pour maximiser certains types d’égalité - dans les prêts, par exemple - tout en minimisant la réduction des bénéfices. Pourtant, certains types d’équité seront toujours en conflit mutuel, et les mathématiques ne peuvent pas nous dire lesquels nous voulons.

À l’autre extrémité se trouve l’explicabilité. Contrairement à l’équité, qui peut être analysée mathématiquement de nombreuses façons, la qualité d’une explication est difficile à décrire en termes mathématiques. ’J’ai l’impression que je n’ai pas encore vu une seule bonne définition’, déclare M. Kearns. ’Vous pourriez dire : ’Voici un algorithme qui prendra un réseau neuronal entraîné et tentera d’expliquer pourquoi il vous a rejeté pour un prêt’, mais [l’explication] ne semble pas fondée sur des principes.’ En fin de compte, si le public ne la comprend pas, ce n’est pas une bonne explication, et la mesure de son succès - quelle que soit la définition que vous lui donnez - nécessite des études sur les utilisateurs.

Quelque chose comme les trois lois d’Asimov ne nous sauvera pas des robots qui nous font du mal tout en essayant de nous aider. Et même si la liste était étendue à un million de lois, la lettre d’une loi n’est pas identique à son esprit. Une solution possible est ce que l’on appelle l’apprentissage par renforcement inverse, dans lequel les ordinateurs pourraient apprendre à déchiffrer ce que nous apprécions vraiment en fonction de notre comportement.

[« Les Trois lois de la robotique, formulées en 1942 par les écrivains de science-fiction Isaac Asimov et John W. Campbell, sont des règles auxquelles tous les robots positroniques qui apparaissent dans leurs romans doivent obéir… 

Énoncé - Exposées pour la première fois dans sa nouvelle Cercle vicieux (Runaround, 1942) puis également dans son œuvre ’le cycle de Fondation’ tome 4, mais annoncées dans quelques histoires plus anciennes, les lois sont :

  • Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  • Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
  • Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.
    Lire l’article en entier sur ce site : https://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique ].

Photo - L’existence d’armes autonomes mortelles, comme ces drones STM Kargu fabriqués en Turquie, a poussé les experts à demander l’interdiction des appareils capables de lancer des attaques sans intervention humaine. Mehmet Kaman/Anadolu Agency via Getty Images

Ingénieur, guéris-toi toi-même

Dans la nouvelle de 1950 intitulée ’Le conflit inévitable’, Asimov a formulé ce qui est devenu une ’loi zéro’, une loi qui supplante toutes les autres : ’Un robot ne peut pas faire de mal à l’humanité, ou, par son inaction, permettre à l’humanité de lui faire du mal.’ Il va sans dire que cette règle devrait s’appliquer avec ’roboticien’ à la place de ’robot’. Il est certain que de nombreux informaticiens évitent de nuire à l’humanité, mais beaucoup d’entre eux ne s’engagent pas activement dans les implications sociales de leur travail, ce qui permet effectivement de nuire à l’humanité, explique Margaret Mitchell, une informaticienne qui a codirigé l’équipe ’Ethical AI’ de Google et qui consulte aujourd’hui des organisations sur l’éthique des technologies. (Elle n’a aucun lien avec l’informaticienne Melanie Mitchell).

[« Margaret Mitchell est une informaticienne et chercheuse américaine spécialiste des biais algorithmiques et de l’équité en apprentissage artificiel (en). Elle est plus particulièrement connue pour ses travaux sur la suppression automatique des biais de certains groupes démographiques dans les modèles d’apprentissage automatique, ainsi que sur le gain en transparence dans l’utilisation de ces modèles… » - Source : https://fr.wikipedia.org/wiki/Margaret_Mitchell_(informaticienne) ].

[Ethique - A visionner éventuellement : Margaret Mitchell - (Practical) AI ethics - Vidéo 45:44 en anglo-américain) - 20 octobre 2021 - Towards Data Science

Former Senior Research Scientist in Google’s Research and Machine Intelligence Group Margaret Mitchell comes on the podcast to discuss diverse perspectives within AI building processes, different forms of bias, and splitting test sets into subsets to show performance.

Margaret Mitchell, ancienne chercheuse scientifique senior au sein du groupe de recherche et d’intelligence artificielle de Google, participe au podcast pour discuter des diverses perspectives au sein des processus de construction de l’IA, des différentes formes de préjugés et de la division des ensembles de tests en sous-ensembles pour montrer les performances.

APERÇU45:44 Margaret Mitchell - (Practical) AI ethicsYouTube· Towards Data Science 20 oct. 2021 -Source : https://www.youtube.com/watch?v=KsUvLGghYqE ].

[Ne pas confondre avec Margaret Munnerlyn Mitchell, « née le 8 novembre 1900 à Atlanta (États-Unis) et morte le 16 août 1949 dans la même ville, est un écrivain américain, auteur du célèbre roman Autant en emporte le vent…. » - Source : https://fr.wikipedia.org/wiki/Margaret_Mitchell ].

Suite de la traduction de l’article

Selon Mme Grosz, de Harvard, l’un des obstacles est que trop de chercheurs ne sont pas correctement formés à l’éthique. Mais elle espère changer cela. Grosz et la philosophe Alison Simmons ont lancé un programme à Harvard appelé ‘Embedded EthiCS’, dans lequel des assistants d’enseignement ayant une formation en philosophie sont intégrés dans des cours d’informatique et donnent des leçons sur la vie privée, la discrimination ou les fausses nouvelles. Le programme s’est étendu au MIT, à Stanford et à l’université de Toronto au Canada.

’Nous essayons d’amener les étudiants à réfléchir aux valeurs et à leurs compromis’, explique Mme Grosz. Deux choses l’ont frappée. La première est la difficulté qu’ont les étudiants à résoudre des problèmes qui n’ont pas de bonnes réponses et qui nécessitent d’argumenter pour des choix particuliers. La seconde est que, malgré leur frustration, ’les étudiants se soucient beaucoup de cet ensemble de questions’, dit Mme Grosz.

Une autre façon de sensibiliser les technologues à leur influence est d’élargir les collaborations. Selon M. Mitchell, ’l’informatique doit cesser de considérer les mathématiques comme la panacée et s’intéresser à la fois aux mathématiques et aux sciences sociales, ainsi qu’à la psychologie’. Les chercheurs devraient faire appel à des experts dans ces domaines, dit-elle.

Dans l’autre sens, dit Kearns, ils devraient également partager leur propre expertise technique avec les régulateurs, les avocats et les décideurs politiques. Sinon, les politiques seront si vagues qu’elles seront inutiles. Sans définitions spécifiques de la vie privée ou de l’équité inscrites dans la loi, les entreprises peuvent choisir ce qui est le plus pratique ou le plus rentable.

Pour évaluer l’impact d’un outil sur une communauté, les meilleurs experts sont souvent les membres de la communauté eux-mêmes. Mme Grosz préconise de consulter des populations diverses. La diversité est utile tant dans les études sur les utilisateurs que dans les équipes technologiques. ’Si vous n’avez pas de personnes dans la pièce qui pensent différemment de vous, dit M. Grosz, les différences ne sont tout simplement pas visibles. Si quelqu’un dit que tous les patients n’ont pas un smartphone, boum, vous commencez à penser différemment à ce que vous concevez.’

Selon Margaret Mitchell, ’le problème le plus urgent est la diversité et l’inclusion des personnes présentes à la table dès le départ. Toutes les autres questions en découlent’.

Une version de cet article a été publiée dans le numéro du 26 février 2022 de la revue ‘Science News’ en anglo-américain.

Pour célébrer notre 100ème anniversaire, nous - ‘Science News’ -, mettons en lumière certaines des plus grandes avancées de la science au cours du siècle dernier. Pour en savoir plus sur cette série, rendez-vous sur Century of Science.

Articles apparentés

ComputingSneaky CalculationsBy Ivars Peterson November 13, 2001

Quantum PhysicsQuantum computers are about to get realBy Emily Conover June 29, 2017

MathA Mind from Math

ComputingCore memory weavers and Navajo women made the Apollo missions possibleBy Joy Lisi Rankin February 18, 2022

L’organisme ‘Science News’ a été fondé en 1921 aux Etats-Unis, en tant que source indépendante et à but non lucratif d’informations précises sur les dernières nouvelles de la science, de la médecine et de la technologie. Aujourd’hui, notre mission reste la même : donner aux gens les moyens d’évaluer les nouvelles et le monde qui les entoure. ‘Science News’ est publié par la ‘Society for Science’, une organisation à but non lucratif de type 501(c)(3) qui se consacre à l’engagement du public dans la recherche et l’éducation scientifiques.

© Society for Science & the Public 2000–2022. All rights reserved. 1719 N Street, N.W., Washington, D.C. 20036 202.785.2255 - Terms of Service Privacy Policy – Source : https://www.sciencenews.org/article/computer-science-history-ethics-future-robots-ai

Retour au début du dossier traduit


Traduction, [compléments] et intégration de liens hypertextes par Jacques HALLARD, Ingénieur CNAM, consultant indépendant – 12/03/2022

Site ISIAS = Introduire les Sciences et les Intégrer dans des Alternatives Sociétales

http://www.isias.lautre.net/

Adresse : 585 Chemin du Malpas 13940 Mollégès France

Courriel : jacques.hallard921@orange.fr

Fichier : ISIAS Numérique Intelligence artificielle Quantique Historique et la prochaine étape de l’AI Equité Ethique.7.docx

Mis en ligne par le co-rédacteur Pascal Paquin du site inter-associatif, coopératif, gratuit, sans publicité, indépendant de tout parti, géré par Yonne Lautre : https://yonnelautre.fr - Pour s’inscrire à nos lettres d’info > https://yonnelautre.fr/spip.php?breve103

http://yonnelautre.fr/local/cache-vignettes/L160xH109/arton1769-a3646.jpg?1510324931

— -