Accueil > Pour en savoir plus > Sciences formelles > Intelligence artificielle > "Faire connaissance avec l’Intelligence Artificielle (IA)" par Jacques Hallard

"Faire connaissance avec l’Intelligence Artificielle (IA)" par Jacques Hallard

vendredi 30 novembre 2018, par Hallard Jacques



ISIAS Intelligence artificielle
Faire connaissance avec l’Intelligence Artificielle (IA)
Est-elle source « de miracles ou de mirages », « de promesses ou de périls » ?
Série : L’ère des technologies numériques (ou digitales) et de l’intelligence artificielle
Jacques Hallard , Ingénieur CNAM, site ISIAS 29/11/2018

https://www.actualitte.com/images/actualites/images/assassin/milon-dessin-presse.jpg

L’intelligence artificielle, ça me rappelle mon boss... - Le dessinateur Jean-Michel Milon vient de se voir décerner, ce 14 novembre, le Prix du jury 2018 du dessin de presse sur le management. Au moment même où son nouvel album ‘Faites l’humour pas la gueule’ vient de paraître chez Afnor Editions. Ne pas confondre avec un sketch (4:37) qui porte la même dénomination !

PLAN Introduction Sommaire Auteur


Introduction

Contenu :

A. Une pénétration rapide et invasive des nouvelles technologies du numérique

B. L’Intelligence Artificielle irrigue de nombreux secteurs avec des applications variées

C. De nouveaux périls se profilent-ils avec la généralisation de l’intelligence artificielle ?

D. Pour en savoir plus sur les technologies numériques (ou digitales) et sur l’intelligence artificielle

Ce dossier ouvre une série d’articles sur l’ère des technologies numériques ou digitales, ainsi que sur l’intelligence artificielle (IA), qui pénètrent de plus en plus dans la vie de chacun, et qui sont en même temps l’objet d’espoirs insensés et de préoccupations anxiogènes. Ce document fait en quelque sorte suite à une précédente étude : ’A propos du transhumanisme L’Homme augmenté dans un monde recomposé’, dossier de Jacques Hallard , du vendredi 21 octobre 2016, et à un écho : « Humanisons le Transhumanisme ! » par Edgar Morin , du mercredi 9 novembre 2016, tous deux postés sur le site ISIAS.

A.
Une pénétration rapide et invasive des nouvelles technologies du numérique

L’intelligence artificielle (l’IA) est une branche évoluée de l’informatique, basée sur le numérique ou digital (traitant une information qui se présente sous la forme de nombres, de valeurs discrètes qui ont une valeur finie, que l’on peut énumérer (” 1, 2, 3,…”).

L’IA constitue un vaste domaine pluridisciplinaire de recherche et de développement, reconnu internationalement. L’IA résulte en grande partie de la théorie de l’information de Shannon, « une théorie probabiliste permettant de quantifier le contenu moyen en information d’un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise… ». Sur le plan mathématique, une démonstration de l’entropie dans la théorie de l’information de Shannon est magistralement faite par Olivier Levêque dans une vidéo.

La genèse et l’expansion progressive de l’intelligence artificielle (IA) a pris naissance au milieu du 20ème siècle autour de la notion de « machines à penser », élaborée par le chercheur britannique Alan Turing, ainsi qu’à partir d’une comparaison entre la constitution et le fonctionnement cérébral connu chez les êtres humains et le fonctionnement des premiers ordinateurs. D’après Wikipédia, « En informatique théorique, une machine de Turing est un modèle abstrait du fonctionnement des appareils mécaniques de calcul, tel un ordinateur et sa mémoire. Ce modèle a été imaginé par Alan Turing en 1936, en vue de donner une définition précise au concept d’algorithme ou de « procédure mécanique ». Il est toujours largement utilisé en informatique théorique, en particulier dans les domaines de la complexité algorithmique et de la calculabilité… »

L’humanité est entrée progressivement à partir des années 1960, dans l’ère des Technologies de l’Information et de la Communication (TIC), par la mise en œuvre du numérique avec Internet (un réseau informatique mondial accessible au public). Le nombre d’utilisateurs d’Internet au niveau mondial est passé de 412 millions en 2000 (essentiellement aux Etats-Unis et en Europe), à 3,4 milliards en 2016, dont 733 millions en Chine, 414 millions dans l’Union Européenne, 391 millions en Inde et 248 millions aux Etats-Unis.

En juillet 2018, il y avait au niveau mondial : 7,636 milliards d’habitants, 4,119 milliards d’utilisateurs d’Internet, 3,388 milliards de personnes allant sur les divers réseaux sociaux et plus de 5 milliards de terriens possédant un téléphone mobile.

Alors que 802 millions chinois ont un accès à internet, seulement 1,7% d’entre eux le font uniquement avec un ordinateur, ce qui est très peu et encourage donc le développement du paiement mobile qui compte aujourd’hui 566 millions d’utilisateurs en Chine ; cette situation représente donc une aubaine pour les BATX (Baidu, Alibaba, Tencent et Xiaomi), ces géants du web chinois.

En août 2018, les chinois étaient donc 802 millions à se connecter sur Internet, soit 14 fois le nombre des internautes en France. On dénombrait en effet en France en juillet 2018 : 65,11 millions d’habitants, 57,29 millions d’utilisateurs d’Internet, 38 millions de personnes allant sur les divers réseaux sociaux et 48,63 millions de téléphones mobiles actifs. (Source : https://www.blogdumoderateur.com/chiffres-internet/ ).

On assiste dans le cyberespace, « qui est un ensemble de données numérisées constituant un univers d’information et un milieu de communication, lié à l’interconnexion mondiale des ordinateurs », à une véritable guerre mondiale des données dont le centre de gravité bascule actuellement vers l’Asie. Si les Etats-Unis sont encore les contrôleurs du numérique européen avec les « géants du Web -, la Chine construit sa grande muraille du Web, assurant ainsi sa souveraineté et son autonomie numérique.

Les expressions « géants du Web », ou parfois « géants du numérique », désignent la quinzaine d’acteurs d’Internet d’envergure mondiale, dont (par ordre alphabétique) : Airbnb, Alibaba, Amazon, Apple, Facebook, Google, LinkedIn, Microsoft, Netflix, Twitter, Uber, Yahoo, etc… Ces sociétés partagent comme caractéristiques d’avoir créé de volumineuses bases d’utilisateurs et, par conséquent, de produire un chiffre d’affaires considérable, d’une part, et de rénover l’informatique par leur capacité d’innovation, d’autre part ». Toujours selon Wikipédia, on parle également des GAFAM « qui est l’acronyme des géants du Web, Google, Apple, Facebook, Amazon et Microsoft qui sont les cinq grandes firmes américaines (fondées entre le dernier quart du XXe siècle et le début du XXIe siècle) et qui dominent le marché du numérique, parfois également nommées les ‘Big Four’, les ‘Big Five’, ou encore « The Five ». Cet acronyme correspond au sigle GAFA initial, auquel le M signifiant Microsoft a été ajouté. Bien que dans certains secteurs une partie des cinq entreprises peuvent être en concurrence directe, elles offrent globalement des produits ou services différents tout en présentant quelques caractéristiques en commun qui méritent de les réunir sous un même acronyme : de par leur taille, elles sont particulièrement influentes sur le Web américain et européen tant au niveau économique, politique et social et elles sont régulièrement l’objet de critiques ou de poursuites sur le plan fiscal, d’abus de position dominante et pour malmener la vie privée des internautes. D’autres régions du monde possèdent leurs propres géants locaux, comme la Russie avec Yandex et VKontakte1 ou la Chine avec les BATX, acronyme faisant références à Baidu, Alibaba, Tencent et Xiaomi ».

Au plan technologique, deux approches de l’IA éclairent et distinguent deux formes et usages qui peuvent s’entrecroiser : une approche symbolique ou cognitiviste, avec un programme informatique qui tourne sur un ordinateur classique (une sorte de « boîte blanche »), d’une part, et une approche connexionniste basée sur des réseaux neuro-mimétiques, installés dans une machine dédiée et spécialisée pour un traitement parallèle (une sorte de « boîte noire  »), d’autre part. Cette dernière paraît encore incertaine dans sa régulation et dans son fonctionnement et elle fait naître certaines craintes.

L’IA est maintenant à la fois uns science en constante évolution avec ses concepts et ses théories, d’une part, et une technologie, un ensemble de techniques variées qui trouvent place à travers des d’applications dans des domaines très diversifiés avec des outils, des produits et des réalisations, d’autre part.

Retour au début de l’introduction

B.
L’Intelligence Artificielle irrigue de nombreux secteurs avec des applications variées

Les applications de l’intelligence artificielle concernent actuellement un grand nombre de domaines d’activités et transforment bon nombre de fonctions réalisées antérieurement de façons différentes. L’article que Wikipédia consacre à l’Intelligence Artificielle, classe les applications dans les rubriques suivantes : Finance et banques Militaire Médecine Droit Logistique et transports Robotique Jeux vidéo Art Autres domaines – A la suite, sont données quelques-unes de ces applications qui ont été sélectionnées.

La reconnaissance de formes assez simples : l’écriture imprimée et l’écriture manuscrite après une phase d’apprentissage assisté ; les caractéristiques du visage (reconnaissance de visage ou faciale), de la démarche et de la dynamique corporelle d’une manière générale.

Le pilotage automatique (un dispositif de guidage automatique d’un véhicule autonome sans intervention humaine) qui peut équiper divers véhicules ou engins de mobilité rendus ainsi autonomes : non seulement des voitures, mais aussi des tramways, des trains, des bus, voire des cargos et même des tunnels de transport spécialisés, etc … Cette automatisation de la conduite est possiblement associée à d’autres formes de propulsion, de motorisation et donc de source énergétique.

Des technologies émergentes font l’objet d’intenses recherches comme les piles à combustible : une pile dans laquelle la génération d’une tension électrique se fait grâce à l’oxydation sur une électrode d’un combustible réducteur (par exemple l’hydrogène) couplée à la réduction sur l’autre électrode d’un oxydant, tel que l’oxygène de l’air. L’application envisagée dans un moyen terme est la voiture électrique dont le carburant est le gaz hydrogène compressé, une filière moins énergivore et plus commode à stocker. Voir : Stockage de l’hydrogène.

L’interface et la communication homme-machine trouvent rapidement une place importante avec l’emploi des enceintes et des objets connectés, des robots, des assistants personnels intelligents ou agents conversationnels (ou encore Chabots’). Le marché des enceintes connectées se profile ainsi : 6,57 millions d’unités vendues en 2016 avec un objectif de 95,25 millions d’unités en 2019 ; les marques internationales occidentales d’enceintes (smart speakers) comme Amazon, Apple et Google sont menées de près par les marques chinoises Alibaba, Xiaomi et Baidu qui pénètrent plus facilement le marché chinois pour d’évidentes raisons linguistiques (Source : https://www.usinenouvelle.com/article/62-millions-d-enceintes-connectees-a-ecouler-en-2018-plus-du-double-qu-en-2017.N766304 ].

Avec des lunettes et des casques spécialement conçus et fabriqués, la mise en œuvre pratique de la réalité qualifiée de virtuelle, d’augmentée et même de mixte. Par exemple, grâce à la start-up ‘Hypno VR’ de Strasbourg, une solution logicielle a été développée avec des casques de réalité virtuelle pour réveiller l’hypnose médicale après des anesthésies sous hypnose lors desquelles le patient choisi l’univers visuel (alpin, plage, plongée) et musical (symphonique, électro, etc..). Et, dans le secteur de l’aviation, des formations en réalité virtuelle et augmentée vont bientôt servir pour entraîner les équipages de cabine.

Se font jour également dans le domaine de la santé : l’assistance médicale , la télémédecine , l’aide au diagnostic et la détection des maladies , ainsi que le traitement de certaines pathologies, notamment des technologies de stimulation cérébrale (pour apaiser les désagréments physiques et mentaux). « La thérapie par réalité virtuelle présente des avantages concrets pour certains troubles mentaux : du matériel bon marché et convivial pourrait aider à s’intégrer au grand public. Certains traitements sont prêts tandis que d’autres en sont encore aux premiers tests ! ».

Le traitement du langage naturel permet ente autre la traduction automatique, la reconnaissance vocale et les corrections automatiques dans une langue donnée.

Le domaine de la robotique (l’ensemble des techniques permettant la conception et la réalisation de machines automatiques ou robots ) a pénétré certains secteurs de la production industrielle, de la productique (l’ensemble des techniques informatiques de mise en œuvre des systèmes de production automatisés), et enfin de la logistique dans les magasins pour une distribution commerciale d’objets à grande échelle.

Dans des secteurs comme l’agriculture, des propositions ont été avancées et des réalisations sont en cours : des capteurs au sol, dans l’air et dans les arbres peuvent optimiser l’irrigation des vergers ; en fertilisation, un algorithme spécialisé avec des analyses de sol conjointes à des observations par satellite, peuvent optimiser les doses de fertilisants à répandre sur les champs cultivés, etc…

Tout le secteur de l’éducation, de la pédagogie et des formations professionnelles est en voie d’adaptation et les professionnels concernés vont devoir réagir (si possible de façon intelligente et pertinente) à toutes sortes de sollicitations pour exercer leur joli métier. Par exemple, une nouvelle gamme commerciale de parcours éducatifs hybrides, alliant technologie et management, est destinée à la formation initiale et continue. Et la réalité mixte est proposée pour faciliter l’apprentissage des enfants autistes , tandis que des robots anglophones sont utilisés pour améliorer l’anglais des Japonais à l’école, etc…

Les techniques de l’information et de la communication ou TIC qui est selon Wikipédia « la transcription de l’anglais information and communication technologies, ICT) ; c’est une expression, principalement utilisée dans le monde universitaire, pour désigner le domaine de la télématique, c’est-à-dire les techniques de l’informatique, de l’audiovisuel, des multimédias, d’Internet et des télécommunications qui permettent aux utilisateurs de communiquer, d’accéder aux sources d’information, de stocker, de manipuler, de produire et de transmettre l’information sous différentes formes : texte, musique, son, image, vidéo et interface graphique interactive (IHM). Les textes juridiques et réglementaires utilisent la locution communications électroniques. Les nouvelles technologies de l’information et de la communication (NTIC) posent des questions nouvelles quant à leur intégration sociétale et à leurs besoins en ressources (matériaux, énergie)… ».

Ces techniques ont été largement mises en œuvre dans le monde de l’éducation et de la formation professionnelle. Ce sujet a été abordé dans les articles suivants parus sur le site ISIAS :

’Arrivée des ‘MOOC’ et des outils pédagogiques interactifs. Usages et risques sanitaires, sociaux, écologiques et psychologiques’, par Jacques Hallard dimanche 4 octobre 2015.

’Les MOOC se mettent en place mais les risques qui les accompagnent doivent être pris en compte’ par Jacques Hallard samedi 17 octobre 2015.

’La santé des jeunes est menacée par les ondes’ par Jacques Hallard samedi 9 juillet 2016.

’Faut-il se réjouir, s’inquiéter ou se moquer des MOOC qui se répandent dans l’enseignement et les formations ?’ par Jacques Hallard lundi 18 décembre 2017.

’Les pratiques d’apprentissage à l’école … et ailleurs, à partir de l’observation du cerveau par les neurosciences, et à l’aide des technologies de l’information et de la communication pour l’enseignement (TICE), des formations en ligne ouvertes à tous ou MOOC (de l’anglais ‘massive open online course’) et des ‘classes inversées’’ par Jacques Hallard mardi 2 janvier 2018.

Par ailleurs, des matériaux nouveaux sont mis à l’étude et en cours de développement comme les nanofibres de carbone qui sont des structures cylindriques composées de feuillets de graphène organisés selon une géométrie précise. Par exemple, une nanofibrede fabrication chinoise peut supporter le poids de 160 éléphants et cette résistance de la nanofibre, inventée par les chercheurs de Pékin, pourrait même révolutionner l’industrie spatiale !

Les propriétés de la bioluminescence appliquée vont être testées pour l’éclairage public et une « cellule hybride photo-électrochimique et voltaïque (HPEV) » est capable de transformer la lumière et l’eau en deux types d’énergies, soit l’hydrogène et l’électricité.

Des modes de fonctionnement informatique en systèmes arborescents et collectifs se mettent en place, comme la chaîne de blocs ou blockchain’ : « une technologie de stockage et de transmission d’informations, qui est transparente, sécurisée (relativement !) et qui fonctionne sans organe central de contrôle »… « Des monnaies virtuelles et des crypto-monnaies utilisent les chaînes de blocs pour leur sécurité »… « La chaîne de blocs pose des questions d’ordre juridique »… « Une chaîne de blocs rend possible la traçabilité des produits de la chaîne alimentaire »…

Le passage à des applications de la physique quantique va encore accélérer le travail numérique et des objets comme le microscope quantique à effet tunnel et la boussole quantique vont offrir des capacités dont on ne saisit pas encore toutes les applications qui pourront en résulter. Par exemple, Volkswagen veut utiliser la puissance du quantique pour améliorer le trafic dans les agglomérations et ce constructeur d’automobiles pourrait proposer une solution clé en main pour les villes du monde dans le but de gérer des flottes de véhicules autonomes grâce à la puissance des ordinateurs quantiques…

Retour au début de l’introduction

C.
De nouveaux périls se profilent-ils avec la généralisation de l’intelligence artificielle ?

Mais, d’un autre côté, face à toutes ces applications du numérique et de l’intelligence artificielle, l’intrusion généralisée et rapide de celles-ci laisse apparaître des faiblesses, des incertitudes, des dangers et des risques dont on peut citer quelques aspects.

Les attaques informatiques, la cyberdélinquance et la cybercriminalité qui vont imposer d’imaginer et de financer des mesures de protection pour la cybersécurité. Par exemple, des agents chinois ont été inculpés par les États-Unis pour des vol de données numériques : cet espionnage économique été effectué contre des sociétés d’aéronautique américaines et françaises par la technique de ‘fishing’ ou d’hameçonnage à l’aide de logiciels malveillants.

La transformation du monde de l’emploi paraît évidente et certaine, sans doute avec une raréfaction des postes de travail , d’où une nécessité d’assurer des actions éducatives et de formation pour répondre à une reconversion vers de nouveaux métiers.

Les disponibilités de certains éléments chimiques (tels que des métaux rares) risquent de poser un problème pour fabriquer les objets dans des secteurs aussi stratégiques que l’électronique grand public, la téléphonie, les véhicules électriques, le traitement des carburants, l’éolien, etc... Ces matériaux sont en particulier nécessaires aux applications de l’IA et ils vont devenir des ressources rares et donc géostratégiques. Dans certains pays, ces éléments pourraient freiner le développement dans le secteur du numérique. Un exemple est donné par la course mondiale au lithium dans la logique de la transition énergétique et numérique.

La pollution spatiale doit être considérée aussi bien par une intensification du trafic dans les zones urbaines (par la multiplication des engins volants, dont les drones (« un aéronef sans-pilote ni humain à bord et le plus souvent télécommandé »), que dans l‘espace où des objets, des matériaux, en bref des déchets spatiaux s’accumulent déjà.

La transition numérique fera-t-elle exploser notre consommation d’énergie ? Il est urgent de prendre conscience des énormes besoins énergétiques qui sont indispensables pour alimenter tous les équipements numériques de très grande puissance des centre de données (en anglais data centers), ainsi que leur importante contribution aux émissions aux émissions de gaz à effet de serre. Sur le plan énergétique, s’ajoutent les mêmes contraintes et exigences pour le fonctionnement des canaux de communication vers les fournisseurs d’accès et pour tous les appareils utilisés : ordinateurs personnels, assistants personnels (enceintes connectées), tablettes numériques, consoles de jeux vidéo et toute la panoplie des téléphones mobiles.

Pour Laurent Radisson (‘actu-environnement.com’ - 05 octobre 2018), La surconsommation numérique se révèle insoutenable pour l’environnement : « La croissance exponentielle du numérique constitue une menace pour le climat et les ressources naturelles, révèle ‘The Shift Project’ [association française présidée par Jean-Marc Jancovici ]. Ce think tank recommande d’adopter urgemment un scénario de sobriété numérique… »

Pour Marion Garreau (‘usinenouvelle.com’ - 05/10/2018) : La transition numérique actuelle participe au dérèglement climatique, alerte un rapport – Y aura-t-il « Bientôt autant de CO2 émis par le numérique que par l’Inde ? … Parmi les solutions préconisées : réduire la fréquence de renouvellement des équipements numériques dans les sphères privées et économiques ; réduire au maximum le partage de documents par mail ; faire une offre de smartphones capables de cumuler un usage professionnel et personnel, etc… »

Il faut également s’inquiéter d’urgence des effets putatifs sur la santé publique des champs électromagnétiques dans lesquels les êtres humains sont de plus en plus soumis au cours de leur existence. Voir les Effets avérés ou supposés des champs électromagnétiques sur la santé et les Effets biologiques des champs électromagnétiques.

Des inégalités sociales sont générées par les offres d’accès au numérique et à l’IA, et les possibilités techniques, culturelles et financières qui sont limitées chez beaucoup de nos contemporains pour y avoir accès. A plan social, une fracture numérique est à l’œuvre entre les classes sociales et entre les pays : intégration ou exclusion résultent de « cette limite imaginaire entre des groupes sociaux qui se sentent bien intégrés à la « société de l’information », d’autre part, et ceux qui se sentent exclus de cette société, d’autre part ». Pour examiner « comment s’articulent le numérique et la pauvreté », voir par exemple l’enregistrement de France Culture intitulé « La dématérialisation et le numérique renforceraient-ils les inégalités sociales ? » (Soft Power, 1h28). « Qui dit précarité sociale dit bien souvent précarité numérique. Alors que la dématérialisation tend à renforcer les inégalités, le numérique est-il encore un vecteur d’émancipation sociale ? ».

La concentration des très grands opérateurs mondiaux du numérique posent également problème : ils étendent et imposent leurs services et leurs produits à l’échelle mondiale, mais aussi leurs pouvoirs de domination sur les usagers et les consommateurs ; ils outrepassent même les possibilités de régulation par des instances gouvernementales qui devraient être garantes du bien-être des populations, de leurs choix et de leur autonomie, de l’acceptation non contrainte, voire le refus de certaines des propositions technologiques destinées à des populations ciblées par de très puissantes actions de marketing exercées par ces opérateurs transnationaux. Il en résulte même un asservissement psychique et matériel du fait d’une soumission à des appareils, à des données, à des messages d’actualité et même à des infox (ou fake news) et à des injonctions proférées par des entités malveillantes, à visée purement commerciale. On peut, pour s’en convaincre, écouter ceci : Éric Sadin : l’asservissement par l’Intelligence Artificielle ? Interview d’Éric Sadin, en direct le 08/11/2018 à 19h.

Selon Jean-Luc Biacabe (Directeur du pôle de politique économique / ‘Le Echos.fr’ (29/03/2017) : Les plateformes numériques vont-elles dominer le monde économique ? - « Le risque s’accroît que quelques entreprises acquièrent une position hégémonique… » ; « La saison de publication des comptes 2016 s’est achevée pour les GAFAM. Bilan : 94,6 milliards de dollars de résultats nets, 560 milliards de chiffre d’affaires, 2.460 milliards de capitalisation boursière. Chacune de ces sociétés a une histoire différente : explosion du résultat pour Facebook, du chiffre d’affaires pour Amazon, de la régularité dans la performance pour Google. Certaines donnent des signes de maturité (Microsoft, Apple), d’autres n’ont pas fini la phase de croissance exponentielle des profits (Facebook, Amazon). Mais toutes partagent en commun d’être hors normes avec des capitalisations boursières s’échelonnant de 385 milliards à 750 milliards de dollars, quand la première capitalisation boursière française ne dépasse pas 130 milliards… »… « Il est urgent de leur imposer de partager les données qu’elles collectent. Sinon, le scénario hégémonique pourrait devenir réalité ».

Le vent tourne-t-il ? Selon Arnaud Leparmentier, (‘lemonde.fr’, 21 novembre 2018) rapporte que Les GAFA ont perdu près de 1 000 milliards de dollars de valeur depuis cet été (2018) – « La dépression qui frappe Wall Street s’est aggravée … avec un plongeon d’Apple. Après avoir tiré la cote depuis des mois, les technologies accélèrent sa chute… Apple, l’entreprise qui valait 1.000 milliards de dollars (880 milliards d’euros) cet été (2018), a perdu un quart de sa valeur depuis le plus haut niveau du 3 octobre 2018.

Les orientations politiques et stratégiques, ainsi que les options des industriels, des artisans et des entrepreneurs de toutes sortes vont devenir cruciaux pour tenir compte des nouveaux risques encourus, pour apprécier les opportunités d’adopter, d’accompagner, de différer ou de refuser les nouveaux dispositifs et systèmes mis à la disposition des administrés, des clients et des usagers potentiels. Aux critères purement financiers qu’il leur faut considérer, ne vont pas manquer de se glisser des considérations éthiques et morales que vont devoir se coltiner des institutions appropriées et des personnalités compétentes (si possible !).

Comment formuler une approche globale aux préoccupations éthiques en intelligence artificielle ? se demandait Grégoire Catimel-Marchand le 13 novembre 2018 - « L’intelligence artificielle est de plus en plus présente dans nos vies. Elle numérise nos chèques lors de dépôts bancaires, embellit les photos de nos téléphones intelligents, conduira bientôt nos voitures et est de plus en plus utilisée dans l’industrie… Il se trouve que les comportements immoraux de notre société apparaissent lors d’analyses statistiques, il faut donc éviter qu’un système d’IA tire des conclusions à partir de données biaisées… » - © 1977-2018 Le Délit « un journal francophone hebdomadaire, produit pendant les sessions d’automne et d’hiver par les étudiants de l’Université McGill et distribué à différents points sur le campus et au centre-ville de Montréal ».

Au plan des états, ces technologies du numérique et de l’intelligence artificielle en particulier, rendent possible des contrôles massifs des populations, pouvant nuire aux libertés individuelles. Par exemple, « en Chine, d’ici deux ans, le gouvernement chinois déploiera sur l’ensemble de son territoire, un système de notation des citoyens  ; d’ores et déjà, dans le cas d’une note négative, cela peut aller d’une interdiction de prêt bancaire, ou d’accès à un logement social, à limiter l’accès à des transports en commun. Le gouvernement chinois a ainsi empêché les « citoyens malhonnêtes » de prendre au total 11 millions de vols et 4 millions de trajets de train. Dans le cas de citoyens possédant une note positive, ce système donnerait une sorte de statut VIP. VIP « signifie en anglais « personne très importante » (Very Important Person, du russe viesima imenitaïa persona) et désigne par exemple les chefs d’État, les politiciens, les personnes très riches, les célébrités… ».

Très en vogue au niveau mondial, le système de reconnaissance faciale n’est pas infaillible non plus. En Chine encore, le système chinois a identifié par erreur la femme d’affaires chinoise la plus puissante de l’Empire du Milieu, en train de traverser un passage piéton au feu rouge : son visage était simplement présent sur l’affiche d’un bus qui traversait la route à ce moment-là !

Retour au début de l’introduction

D.
Pour en savoir plus sur les technologies numériques (ou digitales) et sur l’intelligence artificielle

Tous les sujets abordés ci-dessus seront repris plus en détail par la suite. Quelques autres articles traduits, et portant sur l’Intelligence Artificielle, ont déjà été postés sur le site ISIAS :

’L’intelligence artificielle pourrait améliorer les prévisions en ce qui concerne les répliques des séismes.’ par Carolyn Gramling , samedi 29 septembre 2018 - français

’Le système d’intelligence artificielle décrit ici utilise le même type de câblage cérébral que celui que les mammifères utilisent pour se mouvoir. La dépendance du système à l’égard des cellules de grille virtuelles pourrait nous renseigner sur notre propre sens de l’orientation’ par Maria Temming jeudi 23 août 2018 - français

’Une nouvelle forme d’Intelligence Artificielle (IA) peut se concentrer sur une seule voix dans une foule : le programme mis au point peut identifier la source émettrice et supprimer tout le bruit de fond en utilisant à la fois des repères visuels et sonores’ par Maria Temming mercredi 5 septembre 2018 - français

Nous vous recommandons également ces publications diffusées par ‘Yonne Lautre » :

Intelligence artificielle : Le cheval de Troie du techno-libéralisme, 28 octobre 2018, par Yonne Lautre – « Face aux promesses de l’intelligence artificielle, il devient urgent de cerner les transformations qui se dessinent, pour s’emparer du combat politique sur les choix « civilisationnels » qui s’avancent … ». Source :
https://www.politis.fr/articles/2018/10/intelligence-artificielle-le-cheval-de-troie-du-techno-liberalisme-39523/


L’intelligence artificielle, négation de l’incertitude inhérente à la vie, 19 octobre 2018, par Yonne Lautre - « L’Intelligence artificielle ou l’enjeu du siècle », d’Éric Sadin, procède à une anatomie au scalpel de l’intelligence artificielle, de son histoire, de ses caractéristiques, de ses domaines d’application, des intérêts en jeu, et constitue un appel à privilégier des modes d’existence fondés sur de tout autres aspirations… ». Source : https://reporterre.net/OEP-L-intelligence-artificielle-ou-la-negation-de-l-incertitude-inherente-a-la

Laissons encore une place à Serge Soudoplatoff  : « L’intelligence artificielle est l’un des sujets de bouleversements majeurs qui affectent notre époque. Rarement une évolution technologique n’aura engendré autant d’opportunités de résolutions de problèmes, autant de changements dans les usages, autant de peurs aussi. Pourtant, il ne s’agit absolument pas d’une rupture technologique. L’intelligence artificielle s’inscrit dans la continuité de l’informatique dont la puissance de calcul ne cesse de croître, augmentée par la disponibilité de grandes masses de données que le monde Internet sait agréger ».

« L’intelligence artificielle ne se résume pas à gagner les championnats du monde de GO ; elle permet maintenant aux voitures de rouler sans conducteurs, aux robots de devenir de plus en plus autonomes, aux médecins de faire des diagnostics plus fins, aux avocats de faire des contrats plus précis. Après l’information, puis la connaissance, c’est maintenant au tour de l’expertise d’être disponible partout, accessible à tous. Sa rareté, qui jusqu’ici a été source d’un profit légitime mais considérable, est en passe de se transformer en abondance. Seuls les experts les plus pointus, qui auront compris comment tirer parti de la nouveauté qu’apporte l’intelligence artificielle, survivront. Mais c’est potentiellement une très bonne nouvelle pour l’ensemble de l’humanité… »

In ‘L’intelligence artificielle : l’expertise partout accessible à tous’ – Février 2018 – Serge Soudoplatoff – Diffusé par la ‘Fondation pour l’innovation politique’ : un think tank libéral, progressiste et européen voir Fondapol – PDF Source : http://www.fondapol.org/wp-content/uploads/2018/02/122-SOUDOPLATOF_2018-02-16_web.pdf

Ce dossier est la 1ère Partie d’une Série intitulée : « L’ère des technologies numériques (ou digitales) et de l’intelligence artificielle  ». Il se propose de faire connaissance avec l’IA à partir d’un ensemble d’une bonne vingtaine de documents sélectionnés, écrits ou sonores, qui figurent dans le Sommaire ci-après.

Retour au début de l’introduction

Retour au début du dossier

Sommaire

1. VIDEO 1:42 - C’est quoi, l’intelligence artificielle ? Document ‘La Croix’, le 03/04/2018

2. Vidéo d’immersion dans l’actualité de l’Intelligence Artificielle -Intelligence artificielle : un danger pour l’Homme ?Réalisateur : Maxime Chappet - Producteur : France Télévisions - Auteur : Arnaud Aubry - Production : 2018

3. Entretien enregistré de Jean-Claude Heudin : comment est née l’intelligence artificielle ? Document ‘Futura Tech’

4. Intelligence artificielle contre bêtise artificielle - Vidéo de 4 minutes (chargée d’humour) Par Guillaume Meurice, 10 octobre 2018, émission de ‘France Inter’.

5. Définition du Numérique d’après Wikipédia

6. Numérique - Définition de ‘Futura Tech’Classé sous : informatique

7. Quelle est la différence entre un son analogique et un son numérique ? Note de ‘Test-Achats’21 décembre 2017

8. Le numérique, c’est quoi ? – Communiqué de l’ ESIEA

9. Digital ou numérique, la fin d’une polémique ? Par Thierry Dumoulin, lundi 08 janvier 2018 – Document www.dsih.fr

10. Extrait de l’article Wikipédia sur Digital

11. Une brève histoire de l’intelligence artificielle {{}}Par David Larousserie 27 septembre 2018 - Document ‘Le Monde’

12. Cinq idées reçues sur l’intelligence artificielle Par Elisa BraunMis à jour le 06/09/2018 à 11:11 - Document ‘Le Figaro.fr Tech & Web’

13. Qu’est-ce que l’intelligence artificielle  ? [Décryptage par Ouest France]REUTERS Ouest-France Modifié le 10/10/2017

14. L’intelligence artificielle, sans foi ni loi ?18/10/2018 - Enregistrement France Culture de 33 minutes - Dans le cadre de La Grande table idéespar Olivia Gesbert du lundi au vendredi de 12h55 à 13h30

15. Intelligence artificielle : de nombreux défis à relever – 27/02/2018 – Document canadien ‘institut-grasset.qc.ca’

16. Yann Le Cun : ’L’IA vise à démultiplier l’intelligence humaine’Paris Match - Interview Romain Clergeat -

17. Brève histoire de l’intelligence artificielle Par Valentin Blanchot Twitter@vblanchot 20 août 2018 – Document ‘siecledigital.fr’

18. Intelligence artificielle – Dossier très complet diffusé par ‘wikimonde.com’

19. L’IA est stupide et dangereuse Par Taverne mardi 9 janvier 2018 – Document ‘agoravox.fr’.

20. Sélection d’accès à divers documents pédagogiques sur l’intelligence artificielle

Addenda -L’Université du futur, un outil de réflexion et de prospective dédiée à la révolution numérique. Une initiative du Conseil Régional de Nouvelle Aquitaine

Actualités - Éducation, santé, agriculture, quels futurs pour les IA et la blockchain ? Par HelenaGeorge Twitter@HelenaGrg 27 novembre 2018

Retour au début du sommaire

Retour à l’introduction

Retour au début du dossier

1.
VIDEO 1:42 - C’est quoi, l’intelligence artificielle ? Document ‘La Croix’, le 03/04/2018 à 13h55

« Dans le monde, des milliers de machines (robots, ordinateurs, téléphones portables…) fonctionnent grâce à une « intelligence artificielle ». Mais, en France, trop peu d’entreprises se spécialisent encore dans ce domaine, en comparaison aux États-Unis ou à la Chine. Le gouvernement français vient donc de demander à des experts en robotique comment innover en matière d’intelligence artificielle (l’IA). Mais comment développer l’IA ? Les « machines » dépasseront-elles l’intelligence humaine un jour ? ‘1jour 1actu’ te répond en vidéo ! »

Source : https://www.la-croix.com/Famille/VIDEO-Cest-quoi-lintelligence-artificielle-2018-04-03-1200928739

Retour au sommaire

2.
Vidéo d’immersion dans l’actualité de l’Intelligence Artificielle

Intelligence artificielle : un danger pour l’Homme ? Réalisateur : Maxime Chappet - Producteur : France Télévisions - Auteur : Arnaud Aubry - Production : 2018 - Publié le 14-06-2018 - Mis à jour le 23-07-2018 - Decod’actu - Saison 3 – Durée 3:14.

Intelligence artificielle : attention danger ?

Les plus grands scientifiques et chefs d’entreprise du monde le répètent : méfions-nous de l’intelligence artificielle ! Que ce soit Frank Wilczek, prix Nobel de physique, ou encore des hommes d’affaire comme Bill Gates et Elon Musk, tous ont tiré la sonnette d’alarme ! Oui, mais contre quoi ?

Qu’est-ce que l’intelligence artificielle ?

Car donner une définition précise de ce qu’est l’intelligence artificielle n’est pas si facile... Pour faire simple, l’IA, c’est l’ensemble des théories et des techniques — informatiques bien sûr, mais aussi mathématiques — mobilisées pour réaliser des programmes capables de simuler l’intelligence humaine. L’objectif de l’IA, selon ses défenseurs, est de nous simplifier la vie et d’accroître les performances d’à peu près tout ce qui nous entoure ! L’intelligence artificielle a d’ailleurs conquis petit à petit tous les recoins de notre univers : dans nos voitures, nos maisons, notre smartphone, mais aussi à Wall Street ou chez notre assureur par exemple.

Pour ses détracteurs, c’est un danger : même Stephen Hawking, prestigieux astrophysicien, prévoyait le pire en 2014 : « Je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité ». La menace serait donc sérieuse !

L’intelligence artificielle, opportunité ou menace ?

Quels sont les arguments de ces sonneurs d’alerte ? Il y a tout d’abord des risques pour l’emploi : les ordinateurs deviennent de plus en plus intelligents et ils pourraient même à terme rendre l’homme obsolète. Certains imaginent même l’IA remplacer les hommes dans les activités intellectuelles et reléguer ces derniers aux tâches subalternes. Selon une étude de l’Université d’Oxford publiée en mai 2017, il y a 50 % de chances que l’intelligence artificielle surpasse les humains pour à peu près n’importe quelle tâche d’ici 45 ans. 

Autre problème de taille : l’IA est dépourvue d’éthique. Ce qui pose de nombreuses questions quand les machines se mettent à prendre des décisions qui ont un impact sur la vie des hommes : que ce soit pour le calcul du prix d’une mutuelle ou d’une assurance, ou l’acceptation, ou non, d’un prêt à la banque. Bref, l’intelligence artificielle peut potentiellement entraîner des discriminations, à l’image de celles qui existent dans nos sociétés.

C’est enfin la menace des armes autonomes, drones, chars et mitrailleuses automatisées, des armes qui pourraient voir leur développement — et leur déploiement — se faire plus rapidement que la législation qui les encadre.

Cependant, réduire l’intelligence artificielle à ces menaces serait une erreur. Car l’IA apporte d’ores et déjà de nombreuses solutions à l’Homme. L’alliance des Big data, c’est-à-dire la récupération et l’analyse d’un nombre élevé de données, et de l’IA, permet par exemple de mieux diagnostiquer et soigner les maladies ou de prévenir les risques climatiques. 

Alors, l’IA : danger ou chance ? Un peu des deux, tant qu’existe un équilibre entre les améliorations permises par les progrès techniques et les régulations nécessaires pour protéger les citoyens.

ActualitéÉducation au numériquepremièrequatrièmesecondeterminaletroisième

© 2018 France Télévisions – Source : https://education.francetv.fr/matiere/actualite/premiere/video/intelligence-artificielle-un-danger-pour-l-homme

Retour au sommaire

3.
Entretien enregistré de Jean-Claude Heudin : comment est née l’intelligence artificielle ? Document ‘Futura Tech’

Interview : comment est née l’intelligence artificielle ? L’intelligence artificielle vise à mimer le fonctionnement du cerveau humain, ou du moins sa logique lorsqu’il s’agit de prendre des décisions. Jean-Claude Heudin, [un scientifique français s’intéressant à l’intelligence artificielle, la vie artificielle et, plus généralement, aux sciences de la complexité] ; il est directeur du laboratoire de recherche de l’IIM (Institut de l’Internet et du multimédia), nous explique ici l’origine de ces recherches. 

L’intelligence artificielle (IA, ou AI en anglais pour Artificial Intelligence) consiste à mettre en œuvre un certain nombre de techniques visant à permettre aux machines d’imiter une forme d’intelligence réelle. L’IA se retrouve implémentée dans un nombre grandissant de domaines d’application.

La notion voit le jour dans les années 1950 grâce au mathématicien Alan Turing. Dans son livre Computing Machinery and Intelligence, ce dernier soulève la question d’apporter aux machines une forme d’intelligence. Il décrit alors un test aujourd’hui connu sous le nom « Test de Turing » dans lequel un sujet interagit à l’aveugle avec un autre humain, puis avec une machine programmée pour formuler des réponses sensées. Si le sujet n’est pas capable de faire la différence, alors la machine a réussi le test et, selon l’auteur, peut véritablement être considérée comme « intelligente ».

De Google à Microsoft en passant par Apple, IBM ou Facebook, toutes les grandes entreprises dans le monde de l’informatique planchent aujourd’hui sur les problématiques de l’intelligence artificielle en tentant de l’appliquer à quelques domaines précis. Chacun a ainsi mis en place des réseaux de neurones artificiels constitués de serveurs et permettant de traiter de lourds calculs au sein de gigantesques bases de données.

Illustration - L’intelligence artificielle au service des humains.&nbsp ;©Blurredculture.com

Quelques exemples d’usage d’IA

La vision artificielle, par exemple, permet à la machine de déterminer précisément le contenu d’une image pour ensuite la classer automatiquement selon l’objet, la couleur ou le visage repéré.

Les algorithmes sont en mesure d’optimiser leurs calculs au fur et à mesure qu’ils effectuent des traitements. C’est ainsi que les filtres antispam deviennent de plus en plus efficaces au fur et à mesure que l’utilisateur identifie un message indésirable ou au contraire traite les faux-positifs.

La reconnaissance vocale a le vent en poupe avec des assistants virtuels capables de transcrire les propos formulés en langage naturel puis de traiter les requêtes soit en répondant directement via une synthèse vocale, soit avec une traduction instantanée ou encore en effectuant une requête relative à la commande.

Un potentiel infini

Au fur et à mesure de l’évolution de ces travaux, l’intelligence artificielle passe du simple chabot générique à un système de gestion de fonds automatique en finance, une aide au diagnostic en médecine, une évaluation des risques dans le domaine des prêts bancaires ou des assurances ou encore un allié décisionnel sur le terrain militaire.

Alors qu’en 2015 le marché de l’intelligence artificielle pesait 200 millions de dollars, on estime qu’en 2025, il s’élèvera à près de 90 milliards de dollars.

À voir aussi  : intelligence artificielle | vie artificielle | tpe intelligence artificielle |

Futura-Sciences - ©2001-2018 Futura-Sciences, tous droits réservés - Groupe MadeInFutura

Résultat de recherche d’images pour ’futura-sciences’

https://www.futura-sciences.com/tech/definitions/informatique-intelligence-artificielle-555/

Retour au sommaire

4.
Intelligence artificielle contre bêtise artificielle - Vidéo de 4 minutes (chargée d’humour). Par Guillaume Meurice, mercredi 10 octobre 2018, dans le cadre d’une émission de ‘France Inter’. « Guillaume Meurice s’est rendu au salon Think Paris, le rendez-vous de la technologie au service de l’entreprise intelligente ».

Source : https://www.franceinter.fr/emissions/le-moment-meurice/le-moment-meurice-10-octobre-2018

Retour au sommaire

5.
Définition du Numérique d’après Wikipédia

On dit numérique une information qui se présente sous la forme de nombres qui sont associés à une indication de la grandeur à laquelle ils s’appliquent, permettant les calculs, les statistiques, la vérification des modèles mathématiques. Numérique s’oppose à analogique.

Les ordinateurs développés depuis la seconde moitié du XXe siècle ont évolué à partir de machines à calculer programmables. Ils traitent désormais des données qu’on a pris l’habitude de désigner comme numériques, parce que des nombres binaires les représentent. Par synecdoque, on dit numérique tout ce qui fait appel à des systèmes informatiques. La culture numérique désigne les relations sociales dans les circonstances où dominent les médias basés sur ces systèmes.

Sommaire

Retour au sommaire

6.
Numérique - Définition de ‘Futura Tech’ - Classé sous : informatique

Qualifie une représentation de l’information par un nombre fini de valeurs discrètes.

Se dit, par opposition à analogique, de la représentation de données ou de grandeurs physiques au moyen de caractères - des chiffres généralement - et aussi des systèmes, dispositifs ou procédés employant ce mode de représentation discrète.

Les progrès des technologies de l’information et de la communication reposent pour l’essentiel sur une innovation technique fondamentale : la numérisation. Dans les systèmes traditionnels - dits analogiques - les signaux (radio, télévisions, etc.) sont véhiculés sous la forme d’ondes électriques continues. Avec la numérisation, ces signaux sont codés comme des suites de nombres, eux-mêmes souvent représentés en système binaire par des groupes de 0 et de 1. Le signal se compose alors d’un ensemble discontinu de nombres : il est devenu un fichier de nature informatique.

Anglais : digital, numerical, numeric.- Source : https://www.futura-sciences.com/tech/definitions/informatique-numerique-584/

Retour au sommaire

7.
Quelle est la différence entre un son analogique et un son numérique ? Note de ‘Test-Achats’ 21 décembre 2017

Même si la traditionnelle platine analogique semble connaître une deuxième jeunesse, la musique numérique est devenue la norme. Mais quelle est la différente entre un son analogique et numérique ?

Avant toute chose, rappelons que la musique – et le son en général – est toujours analogique. Autrement dit, le son numérique n’existe pas. La différence entre les deux réside dans la façon dont les signaux (en l’occurrence sonores) sont traités et sauvegardés. Si, dans le cas de la technologie numérique, un signal sonore est converti en système binaire (à base de 1 et de 0), la technologie analogique conserve le signal sonore sous sa forme non codée.

Ondes sonores

Dans le graphique ci-dessous, la ligne verte représente une onde sonore. Dans le cas d’un 33T (analogique), les ondes sonores sont littéralement gravées dans le support. Les microsillons ainsi creusés sont lus par une aiguille. Pour graver de la musique sur un CD (numérique), l’ordinateur doit d’abord mesurer la hauteur (l’amplitude) des ondes sonores (traits bleus). Sur base de celle-ci, il opèrera une conversion en 1 et 0. Plus il fera de mesures, plus la qualité du signal sonore final sera élevée. Concrètement, un morceau musical sur un CD s’exprime comme suit : 1001 1110 0001 1010 0111 1111 etc. A l’intérieur du lecteur de CD, un convertisseur numérique/analogique ou DAC retransforme le signal numérique en signal analogique.

EVERYTHING_YOU_WANTED _TO_KNOW-ABOUT_DACs

Signal sonore analogique converti en signal numérique

Source belge : https://www.test-achats.be/hightech/audio/news/difference-son-analogique-numerique

Retour au sommaire

8.
Le numérique, c’est quoi ? – Communiqué de l’ ESIEA

Les technologies numériques réinventent notre société en investissant progressivement tous les domaines de notre vie quotidienne et tous les secteurs de l’économie. De l’innovation médicale à la mobilité, en passant par la communication, l’industrie, la sécurité, le traitement de l’information, le développement des loisirs… le numérique révolutionne nos manières de produire et d’interagir avec notre environnement.

Le numérique est partout. Il a déterminé des changements profonds dans la société mais également dans la vie et le fonctionnement des entreprises.

Le numérique nous accompagne dans notre quotidien. Il est là lorsqu’on consulte nos messages sur nos smartphones, lorsqu’on contacte notre ami qui habite sur un autre continent, lorsqu’on effectue un achat sur un site de e-commerce ou encore lorsqu’on commande à distance le chauffage de notre maison. Oui, le numérique est partout et le monde se transforme avec de nouveaux usages, l’émergence de technologies innovantes et l’offre de services nouveaux aux usagers et clients.

Le secteur du numérique est porteur d’emploi. C’est un levier important de la croissance et de la compétitivité des pays. Le secteur du numérique en France, c’est 35.000 nouveaux recrutements en 2016 et plusieurs milliers d’emplois créés tous les ans.

Toutes les entreprises, qu’elles soient du secteur du numérique ou pas, font usage du numérique pour se développer, améliorer leurs processus internes ou offrir de nouveaux produits ou services. C’est ainsi que le secteur de la finance, qui est le secteur qui recueille le plus de données numériques, a recours au Big Data (capture, stockage, analyse… de données massives) pour traiter et analyser les données et en tirer une information à valeur ajoutée. De la même façon, le secteur des transports utilise des systèmes embarqués et offre des services numériques innovants pour répondre aux enjeux de réduction de trafic, de sécurisation des modes de transports ou de systèmes de billettique multi-supports. Les transports sont eux aussi entrés dans l’ère du numérique.

Ce sont tous les secteurs d’activités qui font usage du numérique et appel à de nombreuses familles de métiers. La médecine avec tous les dispositifs embarqués intelligents qui permettent de recueillir les données du patient

et de les transmettre aux médecins, ou avec les robots qui permettent de la chirurgie de précision ; le secteur de la viticulture qui utilise des robots pour vérifier la maturité des raisins ou le secteur de l’énergie qui fait une utilisation massive des capteurs intelligents pour une gestion intelligente de la consommation de l’énergie.

Au cœur du numérique, l’informatique et l’électronique se complètent pour former un instrument global, qui permet aux diplômés de l’ESIEA d’évoluer dans tous les secteurs d’activité. L’ingénieur ESIEA, c’est un passionné de numérique, qui sait collaborer et innover, et qui a appris à apprendre.

Photo - Louis JOUANNY, Directeur Général du Groupe ESIEA

L’ESIEA prépare ses étudiants à de nombreuses familles de métiers du numérique et leur permet, grâce à la formation qu’elle dispense, de s’insérer avec aisance dans l’entreprise. En leur offrant l’opportunité de faire leurs propres choix de parcours, l’école leur permet d’occuper divers postes en conception et programmation de systèmes embarqués mais également dans les systèmes d’information utiles au fonctionnement des entreprises et au traitement de leurs données. L’offre de parcours ne s’arrête pas là puisque l’école propose à ses étudiants de les accompagner dans la création de leur start’up.

À Paris ou Laval, notre formation pluridisciplinaire, modulaire et par l’action, allie un haut niveau technico-scientifique avec des enseignements en Formation Humaine et Management.

ESIEA : Ecole ingénieur Paris - Laval - Ecole ingénieur informatique -

Image associée

Source du communiqué : https://www.esiea.fr/accueil/numerique-cest/

Retour au sommaire

9.
Digital ou numérique, la fin d’une polémique ? Par Thierry Dumoulin, lundi 08 janvier 2018 – Document www.dsih.fr

Le ‘GCS UniHA’ vient de renommer sa filière NTIC en filière Santé digitale et numérique. Cette initiative est de nature à réconcilier les tenants du parler vrai et ceux du parler bien.

Du bon usage des mots

Le débat semble sans fin. Pour certains « digital » s’impose par sa modernité, et l’hégémonie de l’anglais dans les technologies semble valider cet usage. Pour mémoire, « digital » qui en anglais signifie « numérique » a envahi notre langue, alors que le terme « digital » existe déjà en français et signifie « relatif aux doigts ». C’est ce qu’on appelle un glissement sémantique. Or les glissements sémantiques sont à l’origine de nombreux problèmes, y compris en informatique où ils causent des erreurs de programmation. En dehors de l’informatique, le glissement sémantique, quand il n’est pas le fait d’une simple erreur, peut également être un moyen rhétorique utilisé à des fins manipulatoires. C’est pourquoi, par principe, j’ai toujours été opposé à l’emploi d’un terme pour un autre et donc de « digital » pour « numérique ». Il ne s’agit pas de se battre contre l’introduction de mots anglo-saxons dans notre langue. Ce combat est perdu d’avance. Simplement, quand un mot existe déjà avec un sens différent, et que l’équivalent français du mot anglais existe lui aussi, je ne vois pas l’intérêt de le remplacer. Et puis je trouve que le snobisme du « franglais » qui sévit encore chez les professionnels de la technologie est dépassé, désuet, voire même ringard.

Santé digitale et numérique

Voilà où j’en étais concernant le « digital » quand j’ai appris que nos collègues d’UniHA ont renommé la filière NTIC « Santé digitale et numérique ». De prime abord, la formule paraît redondante, mais en accolant les deux termes, nos homologues d’UniHA ont fait à mon avis un choix judicieux. En effet, la présence de ces deux mots ensemble montre clairement qu’ils ont dans notre contexte des significations distinctes. En laissant au terme numérique son caractère technique, on le laisse faire écho aux technologies bien connues des ingénieurs. Derrière numérique, l’informaticien que je suis voit défiler des pages de 0 et de 1, des codes ASCII et des valeurs hexadécimales.

Que penser alors de la santé digitale ?

Un processus ne se numérise pas

À la base de la transformation numérique que nous vivons au quotidien se trouve un merveilleux théorème mathématique de la théorie de l’information. Inventé par Claude Shannon, ingénieur et mathématicien. Il énonce que tout signal (acoustique, lumineux, électrique…) peut se représenter sous forme de nombres et, à partir de là, avec des 0 et des 1. On peut donc numériser une image médicale, un électrocardiogramme, l’activité électrique d’un neurone, bref tout type de signal. C’est ainsi qu’il est possible de stocker et de transmettre ces éléments en utilisant des ordinateurs et des réseaux informatiques.

En revanche, le théorème ne s’applique pas à une activité humaine, à un processus ou à une organisation et encore moins à la santé en général. Adosser un processus ou une organisation à des technologies numériques ne consiste pas à les numériser. C’est en transformer les usages à base de logiciels et d’équipements numériques divers. En ce sens, le digital s’appuie sur le numérique. Le digital concerne l’usage des technologies dans sa dimension humaine et organisationnelle.

Et l’hôpital numérique alors ?

Du coup, faut-il dire hôpital numérique ou hôpital digital ? Si on applique la logique précédente, disons que la transformation digitale de l’hôpital est l’affaire des professionnels métiers, des maîtrises d’ouvrage, des directions fonctionnelles et que la transformation numérique est celle des ingénieurs. Le terme retenu par UniHA est donc bien approprié. Nous œuvrons tous pour la santé digitale et numérique.

L’auteur  : Thierry Dumoulin est responsable du département Infrastructures numériques et services de proximité au CHU de Nantes. Ingénieur diplômé de l’École centrale de Nantes, où il intervient dans le cursus informatique, il a débuté sa carrière chez un grand constructeur avant de rejoindre les hôpitaux en 1997. Ses différentes missions (direction de projets, démarche qualité…) l’ont conduit à aborder un très large éventail de problématiques dans le domaine du numérique : aspects applicatifs, technologiques, méthodologiques et organisationnels, sécurité des SI.

numérique, ntic, uniha, gcs - DSIH, le Magazine de l’Hôpital orienté systèmes d’ information -Qui sommes-nous ? Mentions légales - www.dsih.fr-

Résultat de recherche d’images pour ’dsih santé’

Source : http://www.dsih.fr/article/2793/digital-ou-numerique-la-fin-d-une-polemique.html

Retour au sommaire

10.
Extrait de l’article Wikipédia sur Digital

Le terme digital est l’adjectif associé au substantif doigt (exemple : tracé digital ; empreinte digitale ; comput digital). Digital est également un anglicisme (digit signifie « chiffre » en anglais) employé en France dans les années 1970 à 1990. Il est depuis les années 2000 remplacé en français par le terme « numérique »1,2,3. Le passage d’une information analogique à une information numérique est appelée numérisation, alors que le passage d’une technologie matérielle à une technologie numérique est généralement appelée virtualisation ou dématérialisation.

Dérive du terme

L’utilisation du terme « digital » pour « numérique » provient d’une extension erronée de digital display, ou affichage à 7 segments des années 1980 pour tout affichage de nombres, puis à toute numérisation. Le succès des afficheurs à 7 segments (digits en anglais, c’est-à-dire « chiffres »), fait que le terme digital display est devenu par la même dérive que celle de la marque frigidaire pour réfrigérateur, le synonyme d’affichage numérique, même quand l’évolution de la technologie a fait évoluer cet affichage vers un affichage à matrice de points. Le passage dans le langage courant de « digital » en lieu et place de numérique est dû à un manque de culture informatique, et probablement de connaissance de la langue anglaise. Cette utilisation erronée se retrouve dans certains événements commerciaux comme la Journée de la femme digitale.

Mais sémantiquement, le terme digital en français comme en anglais provenant du mot latin digitum signifiant « doigt », n’a rien à voir avec nombre ou numérisation, mais plutôt avec le fait de compter avec les doigts ou « sur ses doigts ». Ainsi les afficheurs digitaux, apparus dans les années 1980, évitaient de compter en binaire sur les doigts et ont ainsi laissé place à l’expression affichage « digital ».

Sémantiquement, un calculateur digital pourrait s’apparenter à un boulier, un instrument toujours employé dans les années 2010 en Asie, grâce auquel le calcul s’effectue avec les doigts, ce qui explique également que « digital » (chiffres + doigts) ait été employé dans les années 1970 à 1990 en lieu et place du terme « numérique ».

Expressions anglaises

En langue anglaise

En langue française

Digital signal Signal logique
Digital electronics Électronique numérique
Digital computer Ordinateur numérique
Digital data Donnée (informatique)
Digital divide Fracture numérique (géographique)
Digital economy Économie numérique
Digital media
Digital television Télévision numérique
Digital terrestrial television Télévision numérique terrestre
Digital radio Radio numérique
Digital audio Son numérique (musique)
Digital library Bibliothèque numérique
Digital publishing Édition électronique
Digital evidence preuve numérique
Digital image Image numérique
Digital textbook Livre numérique
Digital watermarking Tatouage numérique
Digital content Contenu numérique
Digital poetry Poésie numérique
Digital filter Filtre numérique
Digital marketing Marketing électronique
Digital hardcore Digital hardcore
Digital elevation model Modèle numérique de terrain
Digital object identifier Digital object identifier / (identifiant numérique d’objet)
World Digital Library Bibliothèque numérique mondiale
Digital camera Appareil photographique numérique
Digital photography Photographie numérique
Digital printing Impression numérique
Digital forensics
Digital signature Signature numérique
Digital pen Stylo numérique
Digital copy
Digital humanities Humanités numériques
Digital distribution Distribution numérique
Digital clock montre à affichage numérique
Digital currency Monnaie électronique
Digital recording
Digital zoom Redimensionnement d’image ou parfois Zoom numérique
Digital cinema Cinéma numérique
Digital transformation E-transformation
Digital electronics Électronique numérique
Digital literacy Alphabétisme informatique
Digital rights
Digital native Enfant du numérique
Digital artifact
Digital curation
Digital Audio Tape DAT : Digital Audio Tape
Digital asset Asset
Digital pet Animal de compagnie virtuel
Digital piano Piano numérique
Digital citizen Internet citoyen
Digital Subscriber Line DSL : Digital Subscriber Line (« ligne d’accès numérique » ou « ligne numérique d’abonné »)
Personal digital assistant Assistant personnel
Digital history Histoire numérique
Digital identity Identité numérique (Internet)
Digital physics Physique numérique (théorique)
Digital topology Topologie numérique

Article complet à lire sue ce site : https://fr.wikipedia.org/wiki/Digital

Retour au sommaire

11.
Une brève histoire de l’intelligence artificielle Par David Larousserie Publié le 27 septembre 2018 à 10h00 - Mis à jour le 27 septembre 2018 à 15h35 – Document ‘Le Monde’ - Article complet réservé aux abonnés !

Les réseaux de neurones et l’apprentissage profond, racontés de l’intérieur par un de ses pionniers.

Le livre. Tout va très vite avec l’intelligence artificielle. En quelques années, cette technique a envahi tous les secteurs, guidant des véhicules autonomes, faisant parler nos téléphones ou autres assistants ­vocaux, jouant au go mieux que des humains, reconnaissant à la chaîne des images aussi bien de la vie courante que d’examens médicaux… Tout aussi rapidement, elle a ­déclenché de nombreuses controverses avec son goût immodéré pour les données, y compris très personnelles, ou pour ses prétentions à mettre l’humanité au chômage.

Et, en à peine six ans d’existence médiatique, voici que sort le premier livre racontant l’histoire passionnante du maillon-clé qui a fait renaître l’intelligence artificielle : le deep learning ou « apprentissage profond ». Le seul défaut de cette lecture captivante est que le livre est en anglais.

L’auteur, Terrence Sejnowski, n’est autre que l’un de ces pionniers qui, malgré les hauts et les bas de sa discipline, a su tenir bon depuis la fin des années 1970 jusqu’à aujourd’hui. Ce professeur de l’université de Californie à San Diego illustre à merveille les différentes facettes de cette histoire. Physicien théorique ­jusqu’à sa thèse (1978), il est aujourd’hui ­neuroscientifique, spécialiste du cerveau, toujours très porté sur l’intelligence artificielle, manipulant des objets mathématiques appelés réseaux de neurones, au comportement analogue à celui des vrais neurones.

Systèmes complexes

C’est son directeur de thèse, John Hopfield, qui le poussa vers le mystère de l’intelligence. Ce dernier s’y mit aussi en relançant, en 1982, l’intérêt de la communauté pour les systèmes complexes formés par des neurones en interaction. Aux Etats-Unis, Terry Sejnowski rencontrera également un autre pionnier du domaine, Geoffrey Hinton, aujourd’hui professeur à l’université de Toronto, avec qui il fit les premières percées.

Il croisa aussi la route du jeune Français Yann LeCun, désormais chez Facebook, qui permit aussi à ces techniques de décoller. Même si son rôle est un peu minoré, notre vedette nationale, ­venue, elle, du courant « informatique », se trouve deux fois en photo dans le livre, dont une à 26 ans seulement lors d’une conférence organisée par Terry Sejnowksi.

Article réservé à nos abonnés - Lire aussi Enquête au cœur de l’intelligence artificielle, ses promesses et ses périls

Le livre ne se contente pas de raconter cette histoire, débutée en fait dans les années 1950. Il explique aussi brillamment et simplement ce que sont ces réseaux de neurones et les techniques d’apprentissage. Surtout, il montre les liens, plus forts qu’il n’y paraît, entre les vrais circuits neuronaux et leurs avatars artificiels, comme dans les circuits de la récompense ou le cortex visuel. Le défaut est de mettre plus en avant les travaux de l’auteur que ceux des autres.

La suite est réservée aux abonnés. Déjà abonné ? Se connecter - Avoir accès à tous les contenus du Monde en illimité sur le site et les applications. Soutenir le journalisme d’investigation et une rédaction indépendante de plus de 400 journalistes. Le Monde.fr - Actualités et Infos en France et dans le monde

Résultat de recherche d’images pour ’lemonde.fr’

Source : https://www.lemonde.fr/sciences/article/2018/09/27/une-breve-histoire-de-l-intelligence-artificielle_5360883_1650684.html

Retour au sommaire

12.
Cinq idées reçues sur l’intelligence artificielle Par Elisa BraunMis à jour le 06/09/2018 à 11:11 - Document ‘Le Figaro.fr Tech & Web’ – Avec une vidéo 6:26.

Intelligence artificielle : du fantasme à la réalité

L’intelligence artificielle va-t-elle dépasser l’homme ? Pourrait-elle déclencher une guerre ou encore peut-elle voler nos emplois ? Le professeur Jean-Gabriel Ganascia fait le point sur cette technologie qui effraie autant qu’elle fascine.

Née dans les années 1950, cette discipline scientifique entre de façon plus en plus concrète dans notre quotidien. Son développement rapide alimente espoirs et fascination mais aussi beaucoup d’idées reçues.

Elle est actuellement l’un des arguments marketing les plus puissants qui sert à vendre de tout, même des parfums. Elle propulse les salaires de chercheurs à des niveaux inégalés dans la Silicon Valley et suscite une fascination mêlée de crainte dans l’imaginaire collectif. Derrière l’effet de mode du sujet, certains scientifiques s’agacent du fait que l’intelligence artificielle (IA) relève parfois davantage de fiction que de science. Bon nombre d’idées reçues circulent et participent à l’élaboration d’une économie de promesses plus artificielles que réelles. En voici cinq, parmi les plus récurrentes.

L’intelligence artificielle est à 100% artificielle

FAUX : Pour fonctionner correctement et réaliser leurs prouesses, les intelligences artificielles ont besoin de beaucoup d’attention humaine. Si l’on souhaite qu’un ordinateur reconnaisse des chatons sur des images pour créer un moteur de recherche (comme ce que propose Google Images par exemple), il faut encore que des humains lui montrent des milliers d’images de félins. Bien souvent, cette phase d’entraînement supervisé revient plutôt aux internautes qu’aux ingénieurs de la Silicon Valley. Google a ainsi eu le premier l’idée de faire participer ses utilisateurs à l’entraînement des machines. Pour identifier un utilisateur, l’entreprise lui présente un exercice irréalisable par les machines, comme retranscrire des caractères, identifier des chats parmi des images. Ce sont les fameux « captcha » qui demandent si vous n’êtes pas des robots. Grâce à ce travail gratuit et insoupçonné des internautes, Google a pu entraîner ses IA à la reconnaissance de caractères ou d’images, qui permettent à des services comme Google Books ou Google Images de fonctionner.

 » LIRE AUSSI : Comment nous améliorons sans le savoir les intelligences artificielles des grandes entreprises

Parfois, quelques clics ne suffisent pas : il faut ainsi des millions d’internautes pour se relayer et entraîner des programmes plus complexes, voués un jour à se passer totalement d’humains. On estime ainsi aujourd’hui qu’entre 45 et 90 millions de personnes dans le monde sont ainsi des « ouvriers du clic » réguliers. Facebook a récemment été épinglé pour avoir eu recours à ces humains pour prendre la relève quand son robot de conversation, l’assistant M, était incapable de répondre correctement. Amazon a également recours et vend les services d’opérateurs humains via la plateforme Amazon Mechanical Turk pour faire le ménage dans le bazar que laissent les algorithmes imparfaits. Microsoft se sert de l’UHRS, Google d’Ewoq et IBM s’appuie sur la plateforme Mighty AI. La main-d’œuvre a beau être dispersée entre internautes lambdas comme grands chercheurs, au bout des fils qui agitent les intelligences artificielles, ce sont toujours bien des humains qui jouent les marionnettistes.

L’intelligence artificielle va voler nos emplois

PAS VRAIMENT : La menace du remplacement des humains par des machines fait souvent l’objet de déclarations fracassantes. La discussion passionne particulièrement les grands cabinets d’audit et les instituts de recherche, qui publient régulièrement études et rapports sur un phénomène qui n’est rien d’autre que celui de l’automatisation. Aucun n’est totalement neutre dans ce débat : certains peuvent chercher à obtenir ou maintenir des subventions pour leurs départements de recherche avec un sujet en vogue, d’autres à vendre des prestations de conseils à de nouveaux clients. D’une étude à l’autre, on peut passer d’un chiffre alarmiste à un phénomène marginal. Le cabinet de conseil en stratégie Roland Berger avait ainsi écrit en 2014 que d’ici à 2025, 20% des tâches pourraient être automatisées, menaçant 3 millions de salariés français dans les secteurs de l’agriculture, du bâtiment, des services aux entreprises et aux particuliers… Mais sa méthodologie reprenait celle tirée du travail de deux chercheurs d’Oxford en 2013, qui ne tenait pas compte des emplois créés par la robotisation et considérait qu’au sein d’une même profession, chaque emploi fonctionnait de la même façon. La communauté scientifique l’avait vivement critiquée

Plusieurs organismes publics sont venus remettre en question ces affirmations. Les chiffres du Bureau of Labour américain avancent ainsi que les indicateurs de l’automatisation corrélée à la croissance du chômage sont en fait... en baisse aux États-Unis. Certaines études comme celle de l’International Federation of Robotics ou du Center for Economic Performance disent même les robots créent de l’emploi dans l’industrie. En mai 2016, des experts de l’OCDE ont tranché : seulement 9 % des travailleurs français présenteraient « un risque élevé de substitution » par l’intelligence artificielle. Début 2017, les conclusions du rapport duConseil d’orientation pour l’emploi allaientdans la même direction : « moins de 10% des emplois cumulent des vulnérabilités qui pourraient en menacer l’existence dans un contexte d’automatisation », soit une menace indirecte pour 1,49 million de salariés et non le triple ou le quintuple. Même ces estimations prudentes sont à prendre avec des pincettes, tant les facteurs de diffusion de l’IA dans les prochaines années sont sujets à des incertitudes : le coût économique de la technologie par rapport aux gains en productivité, en qualité ou bien-être au travail, les questions de sécurité physique des salariés ou de risque juridique pour les employeurs et assureurs sont encore incertains et freinent l’adoption de l’IA.

 » LIRE AUSSI : Non, les robots ne vont pas remplacer tous les salariés

On apprend aux intelligences artificielles à penser comme des humains

PAS ENCORE Le terme même d’« intelligence artificielle » est en partie responsable de cette erreur. Parler d’intelligence, c’est impliquer qu’un ordinateur puisse être doté de cette faculté cognitive proprement humaine. C’est d’ailleurs dans cette perspective que la discipline de l’IA a émergé dans les années 1950, où le courant de la cybernétique souhaitait reproduire avec des ordinateurs le fonctionnement du cerveau - décomposé en facultés comme la mémoire, la vision, le raisonnement ou encore la démonstration. Après un « hiver de l’IA » lié au manque de puissance des ordinateurs pour progresser en ce sens, les chercheurs contemporains comme Yann Le Cun ou Geffrey Hinton ont remis au goût du jour en 2012 une technique de recherche cybernétique imitant le fonctionnement des synapses du cerveau : l’apprentissage profond, ou « deep learning » qui demande aux machines d’apprendre d’elles-mêmes en imitant le fonctionnement des neurones biologiques impliqués dans la résolution de problème.

 » LIRE AUSSI :Intelligence artificielle, du fantasme à la réalité

Cette technique est bio-inspirée mais elle n’est pas biomimétique : un enfant comprend vite que lorsque sa maman se cache derrière un rideau, elle existe toujours. La machine non. « Il lui manque encore le sens commun », explique Yann LeCun. Cette intelligence artificielle est donc appelée « faible », c’est-à-dire qu’elle a d’énormes compétences, mais uniquement sur des tâches précises. Reconstruire artificiellement un cerveau reste au-delà de nos capacités technologiques actuelles. D’une part, parce que les neurosciences sont un champ récent et que l’on connaît encore mal le fonctionnement du cerveau et d’autre part, parce que les technologies nécessaires à la construction d’IA fortes n’existent pas encore. Cela n’empêche pas l’existence d’un discours alarmiste sur le moment où naîtra l’intelligence artificielle forte, c’est-à-dire capable de penser, se penser, s’émouvoir et agir librement, sans supervision. 

L’intelligence artificielle est plus objective que les humains quand elle prend des décisions

FAUX - Les amis suggérés sur un réseau social comme Facebook, l’attribution d’un poste dans l’administration, l’itinéraire d’un chauffeur Uber ou encore les recommandations de films sur Netflix... Les algorithmes sont au cœur de décisions importantes comme quotidiennes. Mais les exemples de discriminations algorithmiques se multiplient. Le service de livraison d’Amazon ne couvre pas certains quartiers où vivent des populations défavorisées. Le prix des packs d’entraînement au Scholastic Assessment Test (SAT), l’équivalent du baccalauréat américain, varie selon les quartiers d’habitation d’une même ville et unlogiciel de prédiction du crime aux États-Unis reprend à son compte des principes de discrimination à l’égard des Afro-Américains.

 » LIRE AUSSI : Intelligence artificielle : quelle régulation pour le code ?

En cause : les biais algorithmiques, c’est-à-dire des erreurs de conception bien humaines dans l’écriture des programmes informatiques. Elles sont le plus souvent masquées au nom d’un principe de rationalité mathématique, alors que la décision de faire payer davantage les habitants d’une région pour l’achat d’un produit en ligne est par exemple une décision strictement humaine. Les racines du problème sont autant à chercher du côté du manque de parité dans le milieu du code que de l’absence de certaines compétences, selon le chercheur Surya Mattu : « L’informatique, en tant que discipline, n’a pas la même rigueur en termes d’éthique que les sciences sociales », précise-t-il à Regards Sur Le Numérique. « Ce n’est pas tellement que les gens ont une confiance aveugle dans les algorithmes en tant que construction mathématique, mais plutôt qu’ils n’ont pas les moyens de les questionner. C’est un peu comme les médicaments : lorsque vous en prenez, vous ne connaissez pas forcément leur composition exacte. Et il est difficile de prouver que tel médicament a un effet néfaste si vous êtes le seul à le remarquer… »

L’intelligence artificielle va surpasser l’homme

FAUX - L’ingénieur Ray Kurzweil est l’un des techno prophètes les plus connus de la « singularité », ce moment où l’intelligence des machines deviendrait supérieure à l’intelligence humaine et qu’il fixe à 2045. « La singularité, ça m’énerve », déclarait lui Jean Ponce, chercheur en vision artificielle à l’École normale supérieure, lors d’une conférence organisée par Google dans ses locaux parisiens, en avril 2017. « Je ne vois aucun indice que la machine intelligente soit plus proche de nous aujourd’hui qu’avant », assurait-il. Personne n’est réellement en mesure de dire qu’elle le sera un jour : « On oublie que le vivant ne fonctionne pas comme une machine », soutient Miguel Benasayag, auteur du livre Cerveau augmenté, homme diminué (La Découverte, 2016) au Monde. D’après lui, le monde n’est pas modélisable de façon aussi binaire que l’on programme un ordinateur. 

La question est moins de savoir si l’IA sera capable de nous dépasser demain que de savoir à quelles fins elle est utilisée aujourd’hui, une fois qu’on l’a dépouillée des habits du marketing, des peurs et des fantasmes. « Lorsqu’elle ne sert pas à augmenter nos compétences (médicales, éducatives, industrielles), elle utilise nos données personnelles et nos profils sociaux pour anticiper nos besoins et nous proposer des services toujours plus personnalisés, explique Frédéric de Gombert dans une tribune au Monde. Lorsque l’IA est utilisée pour réduire les taux de criminalité dans une ville ou pour renforcer la productivité de certains métiers, on oublie que les humains ne sont pas que productifs. Ils sont aussi sensibles, émotifs, doués de moralité. » Et capables de distinguer les idées reçues sur l’intelligence artificielle ?

LIRE NOTRE DOSSIER SPÉCIAL : INTELLIGENCE ARTIFICIELLE, LA NOUVELLE RÉVOLUTION

Actualités High Tech, nouveautés Web & mobile par Le Figaro -Plan du site Charte CGU CGV Infos cookies FAQ Contact Abonnements Services Mentions légales Publicité

Résultat de recherche d’images pour ’‘Le Figaro.fr Tech & Web’’

Source : http://www.lefigaro.fr/secteur/high-tech/2018/01/19/32001-20180119ARTFIG00276-cinq-idees-recues-sur-l-intelligence-artificielle.php

Retour au sommaire

13.
Qu’est-ce que l’intelligence artificielle  ? [Décryptage par Ouest France]

Illustration REUTERS Ouest-France Modifié le 10/10/2017 à 17h58

L’intelligence artificielle (IA) est devenue omniprésente : les géants Google, Apple, Facebook, Amazon, Microsoft investissent massivement pour en doter leurs produits, des nouvelles start-up se créent tous les jours autour de l’IA, les experts prédisent qu’elle va profondément transformer les emplois et la société. Mais de quoi parle-t-on précisément ? Éléments de réponse avec Eric Sibony, cofondateur et directeur scientifique de Shift Technology, en partenariat avec Les Cahiers Lysias.

Il est difficile de comprendre ce qui est en train de se passer tant les communications sur le sujet sont nombreuses et portent à confusion. Nous nous proposons dans cet article de présenter de manière synthétique ce qu’est l’IA, par une description de son objet et de ses techniques.

L’objet de l’intelligence artificielle

L’intelligence artificielle est le domaine scientifique qui traite de l’étude, la conception et la mise en œuvre de «  machines intelligentes  ». Il se situe aujourd’hui à l’intersection de très nombreux domaines de l’informatique et des mathématiques appliquées, et il est difficile d’en donner une définition qui fasse consensus. Celle que nous posons ici a le mérite d’être synthétique et générique, mais il faut bien sûr préciser ce que l’on entend par «  machine intelligente  » pour qu’elle ait un intérêt.

Il convient d’abord de rappeler qu’ici, le mot «  machine  » ne désigne pas un objet physique mais plutôt un système automatique capable de traiter de l’information. L’objet d’étude de l’intelligence artificielle est donc différent de celui de la robotique, qui se consacre aux machines qui effectuent des mouvements dans l’espace.

Ainsi, quand on parle de « robot » en intelligence artificielle on fait référence à un programme informatique faisant preuve d’une certaine forme d’intelligence, comme HAL 9 000 dans 2001 l’Odyssée de l’espace ou Jarvis dans Iron Man, plutôt qu’à une machine humanoïde comme dans Terminator ou dans les œuvres d’Isaac Asimov.

Un monde de plus en plus digital

Ainsi, quand on parle de « robot » en intelligence artificielle on fait référence à un programme informatique faisant preuve d’une certaine forme d’intelligence, comme HAL 9 000 dans 2001 l’Odyssée de l’espace ou Jarvis dans Iron Man, plutôt qu’à une machine humanoïde comme dans Terminator ou dans les œuvres d’Isaac Asimov.

Cette distinction est importante car dans un monde de plus en plus digital, l’intelligence artificielle n’a pas besoin d’attendre les progrès de la robotique pour avoir un impact sur le monde.

Si cette distinction est facile à saisir, il est moins évident de caractériser ce que l’on entend par une machine «  intelligente  ». Cela renvoie bien sûr à la question plus générale de ce qu’est l’intelligence. Si cette question peut être traitée par exemple par la psychologie, la philosophie ou la science-fiction, ce n’est pas l’objet de l’intelligence artificielle d’y répondre.

La position de l’intelligence artificielle est plutôt de considérer que nous, êtres humains, avons une compréhension intuitive de ce qu’est l’intelligence et donc que nous pouvons juger si une machine fait preuve d’intelligence ou non. C’est le principe sur lequel repose le «  test de Turing  », proposé par Alan Turing en 1950. Celui-ci consiste à faire discuter une machine avec un être humain sans que ce dernier ne sache si son interlocuteur est une machine ou un humain. S’il n’arrive pas à conclure si c’est une machine ou un humain, c’est que la machine fait suffisamment preuve «  d’intelligence  ».

Les assistants vocaux

Le test de Turing n’est cependant pas utilisable en pratique pour évaluer le niveau d’intelligence d’une machine. En effet, à part si l’on souhaite évaluer une machine dont le but est de simuler une conversation humaine, le test de Turing ne donne aucune indication sur la méthode à adopter. Par exemple, un outil de tri automatique de photo peut faire preuve d’une certaine forme d’intelligence et pourtant il ne passera jamais le test de Turing, puisqu’il n’est même pas capable d’avoir une conversation.

C’est également le cas pour les assistants vocaux comme Siri (Apple), Cortana (Microsoft), Alexa (Amazon) ou Google Home (Google). Quand on demande à l’un d’eux des informations sur son prochain rendez-vous, on ne veut pas seulement que ceux-ci simulent une réponse d’un être humain, on veut qu’ils donnent des informations exactes.

Un assistant vocal est donc considéré comme «  intelligent  » s’il répond correctement aux questions qu’on lui pose ou fait les actions qui correspondent aux demandes qu’on lui fait. En réalité d’ailleurs, personne ne va confondre un assistant vocal avec une intelligence humaine, si bien que ces assistants peuvent être considérés comme intelligents alors qu’aucun d’eux ne passe le test de Turing.

Photo - Marvin Minsky (1927, 2016) co-fondateur avec l’informaticien John McCarthy du Groupe d’intelligence artificielle du Massachusetts Institute of Technology (MIT) | Wikipedia

En pratique, pour mesurer le niveau d’intelligence d’une machine, il faut d’abord définir une tâche que l’on considère comme complexe, ou comme le formule Marvin Minsky, un des fondateurs du domaine de l’IA, comme étant «  pour l’instant, accomplie de façon plus satisfaisante par des êtres humains  ». On considérera alors qu’une machine est « intelligente » par rapport à une certaine tâche complexe – en général celle pour laquelle elle a été conçue – si son niveau de performance pour celle-ci est suffisamment élevé. Ces tâches « complexes » peuvent se répartir en pratique en plusieurs catégories, en fonction du niveau d’expertise requis pour qu’un être humain puisse les résoudre :

  Tâches réalisables par la plupart des êtres humains. Exemples : tri de photos, conduite, recommandation de produits

  Tâches réalisables par des êtres humains qualifiés. Exemples : diagnostic médical, détection de la fraude, traduction.

  Tâches réalisables par des êtres humains géniaux. Exemples  : jeu intellectuel au niveau du champion du monde, découverte scientifique révolutionnaire, création artistique de génie.

Il est intéressant de noter que la difficulté d’une tâche pour une machine n’est pas corrélée à la difficulté pour un être humain d’effectuer cette tâche (il s’agit d’ailleurs du paradoxe de Moravec). Les machines ont par exemple dépassé le niveau humain aux échecs depuis 1997, avec la victoire de Deep Blue sur le champion du monde Gary Kasparov. À l’inverse, les machines sont encore très loin de pouvoir répondre à des questions simples sur une histoire pour enfant.

La difficulté d’une tâche pour une machine dépend en fait en premier lieu de la précision avec laquelle la tâche est définie. Nous détaillons ce point plus bas.

Véhicule autonome intelligent

Le niveau d’intelligence d’une machine pour une tâche étant donc donné par sa performance pour celle-ci, on peut dire qu’une machine est « intelligente » si sa performance est suffisamment satisfaisante. Ce niveau dépend bien sûr de la tâche. On considérera par exemple qu’un véhicule autonome est intelligent s’il peut aller d’un point A à un point B en conduisant aussi bien qu’un conducteur humain normal ; ce n’est pas nécessaire qu’il conduise aussi bien que le champion du monde de formule 1.

À l’inverse, un chatbot simulant une discussion humaine ne sera jugé intelligent que s’il garde un comportement « humain » face à tout type de conversation. Par exemple, le chatbot Tay de Microsoft sur Twitter a été retiré au bout de 24h car il avait « appris » à tenir des propos racistes sous l’action d’utilisateurs provocateurs. Il n’a donc pas su faire preuve de morale, ce qui est inacceptable pour ce genre d’application.

L’IA s’intéresse dans un premier lieu aux tâches réalisables

Dans les catégories de tâches décrites, nous avons omis celle des tâches qu’aucun être humain ne peut réaliser, comme prédire avec précision la météo ou le cours de la bourse. De plus en plus de modèles et algorithmes utilisés en IA sont en effet appliqués à ce genre de problèmes de prédiction. Ils ne touchent pas cependant au cœur de l’objet de l’IA.

Ces problèmes sont effectivement extrêmement chaotiques par nature et on ne sait même pas si l’on pourra un jour les résoudre ou s’il y a en fait une limite infranchissable sur la précision des prédictions. À l’inverse, il est naturel de penser que les tâches réalisables par le cerveau humain sont potentiellement réalisables par des machines. C’est pourquoi l’IA s’intéresse dans un premier lieu aux tâches réalisables par des êtres humains.

La méthode générale actuelle pour résoudre les tâches décrites précédemment est de concevoir une machine pour chaque tâche. Si une machine est capable de résoudre une certaine tâche avec un niveau de performance satisfaisant mais n’est capable d’en résoudre aucune autre, on dit qu’elle présente une intelligence «  faible  ».

Si elle est capable de résoudre un ensemble de tâches prédéfinies, elle présente toujours une intelligence faible, puisqu’elle applique pour chaque tâche la méthode de résolution associée. Elle peut en plus résoudre la tâche d’identifier automatiquement la tâche à résoudre parmi l’ensemble des tâches prédéfinies, cela ne fait qu’une tâche prédéfinie en plus.

Intelligence forte

Le but ultime de l’intelligence artificielle est d’aboutir à des machines faisant preuve d’une intelligence «  forte  », c’est-à-dire capables de résoudre n’importe quelle tâche qu’un être humain peut résoudre, y compris celle de déterminer quelle est « la tâche à résoudre » dans une situation donnée. Une telle machine serait capable de remplacer un être humain pour n’importe quelle tâche (non manuelle), ce qui révolutionnerait sans doute l’économie et la société (ce n’est cependant pas l’objet de cet article de détailler ce point).

Il se trouve cependant que l’on ne sait pas véritablement quelles tâches résolvent les humains, si bien qu’on ne sait pas quelles tâches donner à résoudre aux machines. Comme le disait John Von Neumann : «  Si vous me dites précisément ce qu’une machine ne peut pas faire, je pourrai vous construire une machine qui fait exactement ça  ». Ainsi, il se pourrait que le grand défi du domaine de l’intelligence artificielle – la création d’une intelligence artificielle forte – réside plus dans la définition de son objectif que dans sa résolution.

Photo - Le mathématicien John Von Neumann. | Wikipedia

Les techniques de l’intelligence artificielle

Les questions de l’intelligence artificielle sont apparues très vite après le développement des premiers ordinateurs. Alan Turing et Jon Von Neumann, considérés comme les deux fondateurs de l’informatique, s’y sont d’ailleurs tous deux intéressés. Le domaine de l’intelligence artificielle a connu cependant un développement très limité comparé à celui de l’informatique en général. Beaucoup de domaines de l’informatique ont en effet connu un essor fulgurant au cours de la 2e moitié du XXe siècle : par exemple les simulations numériques ont révolutionné de nombreuses industries, les bases de données, les systèmes de transactions, l’ingénierie logicielle l’informatique grand public ou encore l’Internet ont profondément changé notre société.

A l’inverse, l’intelligence artificielle n’a eu jusqu’à récemment qu’un impact très faible sur l’économie ou la société. Les premières machines intelligentes conçues dans les années 50 démontraient pourtant des capacités impressionnantes, si bien que la communauté pensait qu’une machine faisant preuve d’intelligence forte serait conçue dans les 20 ans. Les problèmes se sont avérés être bien plus difficiles que prévus et les progrès ont fortement ralenti. Les financements du domaine ont été suspendus, menant à un ralentissement de la recherche en IA dans les années 70-80, période appelée «  hiver de l’IA  ».

L’apparition de l’informatique dans les entreprises

Le domaine de l’IA a redémarré dans les années 90 avec l’apparition de l’informatique dans les entreprises et les premières utilisations de machines intelligentes, par exemple pour lire automatiquement des chèques ou des enveloppes. Cela a provoqué un regain d’intérêt pour l’IA, une augmentation des financements et une redynamisation du domaine. Ce redémarrage s’est également accompagné d’un rapprochement avec les statistiques, apportant à la fois des outils théoriques pour mieux comprendre les machines intelligentes et des méthodes pratiques pour en concevoir de nouvelles.

C’est cependant depuis les années 2010 que l’intelligence artificielle connaît une véritable explosion tant sur le plan académique qu’industriel, avec le développement du big data, de la data science et du deep learning.

https://media.ouest-france.fr/v1/pictures/ffbd3bb29b23999deb5e76e82d2b0335-qu-est-ce-que-l-intelligence-artificielle-decryptage.png?width=630&height=0&fill=0&focuspoint=50%2C25&cropresize=1

La différence entre Artificial Intelligence (AI), Machine Learning, et Deep Learning, | NVDIA Blog

Dans le but de résoudre des tâches réalisables par des humains, le domaine de l’IA a naturellement développé des principes correspondant aux processus cognitifs humains. Un des principes les plus utilisés est celui de l’apprentissage. Les êtres humains font en effet preuve d’une très grande capacité d’apprentissage, leur permettant d’acquérir des nouvelles capacités intellectuelles tout au long de leur vie : apprentissage du langage, de capacités de raisonnement, de nouvelles langues, de nouveaux métiers…

Il est difficile de savoir si l’apprentissage est le seul processus à l’œuvre dans l’acquisition de ces compétences mais il est raisonnable de penser que si une machine peut apprendre, elle peut potentiellement résoudre un grand nombre de tâches. Un sous-domaine de l’intelligence artificielle s’est donc spécialisé dans les machines qui apprennent automatiquement, c’est l’apprentissage automatique (machine learning en anglais).

La reconnaissance de chiffres manuscrits

D’un point de vue informatique, on considère qu’une machine apprend si elle identifie « par elle-même » une façon de résoudre une tâche donnée. Considérons l’exemple de la reconnaissance de chiffres manuscrits. On dispose d’images contenant chacune un chiffre entre 0 et 9 écrit à la main et on veut concevoir une machine capable de donner pour une telle image le chiffre qu’elle représente. Informatiquement, une image est un tableau en deux dimensions (une matrice) où chaque case, appelée un pixel, contient un nombre.

Pour simplifier, on peut supposer que les images sont en noir et blanc contrasté, si bien qu’un pixel est noir ou blanc, que l’on représente respectivement par convention par les valeurs 0 et 1. Une image 256x256 est donc un tableau avec 256 cases par ligne et par colonne, chacune remplie d’un 1 ou d’un 0. Le problème consiste donc à définir une fonction, dite « de décision », qui envoie un tel tableau sur un des 10 chiffres possibles entre 0 et 9.

Une approche possible est de définir cette fonction « à la main » et d’implémenter une machine qui l’applique. De telles fonctions ont été proposées dans la littérature, en exploitant des propriétés géométriques ou topologiques des courbes que font les chiffres manuscrits. L’autre approche est de faire apprendre cette fonction par la machine. Pour cela, on constitue un «  jeu de données d’apprentissage  », c’est-à-dire on sélectionne un ensemble d’images et on labellise chacune avec le chiffre qu’elle contient.

Algorithmes statistiques

On fournit ensuite cet ensemble d’exemples avec les réponses à la machine et on lui fait trouver la meilleure fonction de décision possible qui soit (globalement) compatible avec ces exemples, grâce à différents types d’algorithmes statistiques. Cette démarche reproduit une partie de l’apprentissage des enfants : quand un enfant apprend à lire les chiffres, on lui montre des exemples avec les réponses, et il trouve par lui-même comment les identifier (en général l’apprentissage exploite en fait également d’autres modes de transmission du savoir, voir plus bas).

La difficulté dans cette approche est de concevoir une machine capable de généraliser. En effet, une fois le jeu de données d’apprentissage fourni à la machine, le but n’est pas qu’elle sache identifier les chiffres contenus dans les images de cet ensemble. Cela serait résolu de manière triviale en le stockant et en y accédant à chaque décision. L’objectif est que la machine soit capable de correctement identifier le chiffre contenu dans une image qui n’était pas dans cet ensemble.

C’est pourquoi la performance d’une machine apprenante se mesure sur un jeu de donnée de test, c’est-à-dire un ensemble d’exemples labellisés dont la machine n’a pas connaissance pendant sa phase d’apprentissage. Une machine avec un haut niveau de performance aura ainsi réussi à trouver, à partir des exemples du jeu de données d’apprentissage, une fonction de décision suffisamment générale pour identifier le chiffre contenu dans n’importe quelle image.

Data science et Big Data

De manière assez naturelle, le niveau de performance d’une machine après apprentissage dépend de deux facteurs : sa capacité de généralisation, et la représentativité du jeu de données d’apprentissage. Ce dernier étant souvent tiré uniformément au hasard, sa représentativité dépend directement de son nombre. Ainsi, il est difficile d’avoir une performance élevée avec seulement quelques exemples, mais cela est plus facile avec plusieurs millions. C’est sur la base de ce principe que s’est développé le big data.

Avec la diminution drastique du coût de stockage des données est apparue la possibilité d’entraîner des machines sur des jeux de données de plusieurs millions voire milliards d’exemples et donc potentiellement d’aboutir à des machines extrêmement performantes.

Si ce principe simple offrait une belle promesse, son application s’est avérée être limitée. Pour obtenir un jeu de données d’apprentissage important il ne suffit pas en effet de disposer de beaucoup de données, il faut que celles-ci soient labellisées. S’il est concevable de labelliser à la main 1 000 ou 10 000 exemples, cela devient beaucoup trop coûteux pour 1 000 000 d’exemples. Obtenir un jeu de données d’apprentissage d’une telle taille n’est donc possible que si la labellisation est faite de manière automatique.

C’est le cas par exemple en publicité ciblée ou en recommandation sur internet, où le clique d’un utilisateur fait office de label de pertinence pour le produit proposé. Mais dans de nombreux cas les données ne sont pas acquises avec leurs labels.

La «  data science  »

Ce coup de projecteur a néanmoins fait prendre conscience de la valeur que peuvent avoir les données pour entraîner des machines apprenantes. Cela a mené à l’identification de méthodes et techniques clés pour mettre en œuvre ces machines, en machine learning mais aussi en ingénierie de la donnée, constituant la « data science ». Le domaine de l’IA a également abouti à un ensemble de modèles et algorithmes standards pour les machines, chacun faisant preuve d’une capacité de généralisation variable en fonction de la tâche à résoudre.

Le deep learning

Et puis le deep learning est arrivé. Il s’agit du sous-domaine du machine learning qui traite des modèles de «  réseaux de neurones profonds  ». Inspirés du fonctionnement du cerveau humain, les réseaux de neurones sont parmi les premiers modèles à avoir été inventés en IA, dès les années 50.

Après plusieurs phases de développement au cours du XXe siècle, ils ont perdu l’intérêt de la majorité de la communauté dans les années 2000. Ils ont fait un retour fracassant en 2012, quand une équipe de chercheurs a largement dominé la compétition annuelle de classification d’images ImageNet grâce à un réseau de neurones profond. L’année d’après, toutes les équipes utilisaient des modèles similaires. Depuis, le deep learning a été introduit dans de très nombreuses tâches, devançant à chaque fois de très loin les modèles concurrents, même ceux issus de décennies de recherche spécifique, comme en traitement d’image, en traitement de l’audio ou en traduction automatique.

Illustration - L’intelligence artificielle (IA) est devenue omniprésente. | DR

Le deep learning se démarque en intelligence artificielle par plusieurs prouesses. La première est le niveau de performance atteint : celui-ci est très proche du niveau humain pour de plus en plus de tâches, notamment de perception complexe, que l’on n’imaginait pas résoudre il y a encore quelques années. La deuxième est sa généricité : même si l’application à une nouvelle tâche nécessite beaucoup d’ajustements, c’est l’utilisation d’un ou plusieurs réseau (x) de neurones profond(s) qui permet à chaque fois d’atteindre ce niveau de performance. La troisième enfin est l’intuition que nous avons de sa capacité de généralisation.

De nombreuses expériences font en effet penser que les réseaux de neurones profonds ont la capacité d’apprendre des concepts abstraits par eux-mêmes, comme ceux de genre ou de lunettes de soleil. Ils semblent ainsi produire des représentations des données que les chercheurs ont pendant longtemps tenté de définir « à la main ».

Très difficile d’interpréter un réseau de neurones

Il y a cependant beaucoup de choses qu’on ne comprend pas aujourd’hui à propos du deep learning. D’abord on ne comprend pas pourquoi il est si performant, en particulier pourquoi les réseaux de neurones profonds présentent une capacité de généralisation beaucoup plus importante que les réseaux de neurones peu profonds. Ensuite, il est très difficile d’interpréter un réseau de neurones profond qui a été entraîné sur un jeu de données, et certains montrent parfois des comportements chaotiques qu’on ne comprend pas, en affectant par exemple des valeurs différentes à des images qui ne diffèrent que d’un seul pixel.

Enfin, l’entraînement des réseaux de neurones profonds nécessite beaucoup d’ingénieries dans chaque cas d’application, reposant principalement sur des observations empiriques ou intuitions plutôt que sur des principes clairement formalisés.

Créer une intelligence artificielle forte

Comprendre tous ces aspects permettrait d’améliorer encore les modèles et algorithmes et potentiellement de les généraliser. Certains modèles appris parviennent effectivement à dépasser la performance humaine, mais ceux-ci nécessitent encore beaucoup plus de données que la quantité disponible pour un être humain. En outre, le deep learning a démontré sa performance sur quelques tâches notamment de perception (ex : identification et reconnaissance d’objets) ou de jeux de réflexion (ex : jeu de Go) mais reste encore très loin du niveau humain sur les tâches avec une forte composante sémantique (ex : compréhension d’une histoire).

Illustration - Les êtres humains font en effet preuve d’une très grande capacité d’apprentissage, leur permettant d’acquérir des nouvelles capacités intellectuelles tout au long de leur vie. | DR

Il est aujourd’hui difficile de savoir si ces lacunes vont être comblées avec l’augmentation de la puissance de calcul et donc de la taille des modèles exploitables ou si le deep learning présente en fait des limites inhérentes qui l’empêcheront d’atteindre le but ultime de l’IA : créer une intelligence artificielle forte.

Le futur de l’intelligence artificielle

Il semble cependant que le deep learning, comme les autres modèles et algorithmes du machine learning, présente une limite propre à la théorie actuelle de l’apprentissage statistique : il « apprend » à partir d’exemples de bonnes et mauvaises réponses pour une tâche donnée. Cela correspond à un enfant qui apprendrait seulement avec des QCM corrigés.

Il est évident que ce mode d’enseignement est très inefficace, et c’est pourquoi l’humanité transmet son savoir grâce à des professeurs qui enseignent aux élèves en leur expliquant les principes fondamentaux et en leur expliquant la nature de leur erreur quand ils font une faute. Reproduire ce mode d’apprentissage de manière automatique nécessite d’abord de le formaliser de manière mathématique, ce qui n’est pas fait aujourd’hui par la théorie de l’apprentissage statistique.

On peut cependant penser que l’apprentissage non supervisé existe, puisque l’humanité a réussi par elle-même à créer des concepts fournissant une bonne représentation du monde. Mais est-ce la seule représentation possible ? Et en quoi peut-on considérer qu’elle est pertinente ? Si c’est parce qu’elle lui a permis de progresser, n’a-t-elle pas été sélectionnée par l’évolution et donc dans ce sens n’a-t-elle pas exploité une certaine forme de supervision (ou renforcement) ?

L’apprentissage supervisé ou non supervisé permet ainsi de résoudre de nombreuses tâches, et grâce au deep learning bien plus que ce qu’on pouvait imaginer il y a cinq ans, mais présente des limites théoriques qui laissent encore des doutes sur sa capacité à produire une intelligence artificielle forte. Le domaine de l’intelligence artificielle jouit néanmoins aujourd’hui d’un attrait incomparable, tant au niveau des financements que des personnes ; même les plus grands mathématiciens commencent à s’y intéresser. La dynamique est donc plus que jamais lancée pour résoudre de plus en plus de tâches et aboutir un jour à l’intelligence artificielle forte.

À propos de l’auteur. Eric SIBONY, Cofondateur et Directeur Scientifique, Shift Technology

Shift Technology est une start-up française spécialisée dans l’application de l’intelligence artificielle à la détection de la fraude à l’assurance. Elle fournit aux assureurs une solution informatique qui détecte les déclarations de sinistres ou demandes de remboursement suspectes et envoie pour chacune une explication détaillée de la suspicion. En tant que Cofondateur et Directeur Scientifique, Eric Sibony dirige l’équipe de recherche de Shift Technology et supervise la conception de la solution et ses évolutions. Il est diplômé de l’École Polytechnique et titulaire d’un doctorat en machine learning de Télécom Paristech.

Retrouvez ce point de vue dans les Cahiers Lysias avec pour thème : Pourquoi la France a besoin d’une culture du numérique.

Ouest-France : toute l’actualité en direct, l’info en continu en France ..Mentions légales Données personnelles Cookies Qui sommes-nous ? Tarifs de références Charte utilisateur Plan du site Plan des élections - © Ouest-France

Résultat de recherche d’images pour ’ouest france’

Source : https://www.ouest-france.fr/reflexion/point-de-vue/qu-est-ce-que-l-intelligence-artificielle-decryptage-5239115

Retour au sommaire

14.
L’intelligence artificielle, sans foi ni loi ? 18/10/2018 - Enregistrement France Culture de 33 minutes - Dans le cadre de
La Grande table idéespar Olivia Gesbert du lundi au vendredi de 12h55 à 13h30

Doit-on craindre l’intelligence artificielle ? Comment les rapports entre humain et technologie évolueront-t-ils ? On en parle avec Yann Le Cun, chercheur en intelligence artificielle et vision artificielle, co-auteur de ’La Plus Belle Histoire de l’intelligence’.

Illustration - Conférence mondiale de l’intelligence artificielle 2018 • Crédits : VCG / Contributeur - Getty

Il est le cerveau de l’intelligence artificielle chez Facebook, pionnier du deep learning - une méthode d’apprentissage où la machine apprend par elle-même - ,passé par les Universités de Toronto, New York et le Collège de France, titulaire de la chaire tournante ’informatique et sciences numériques’ au Collège de France en 2016 ... Yann Le Cun est aujourd’hui l’invité de la Grande Table des idées. 

Dans ‘La Plus Belle Histoire de l’intelligence (Robert Laffont, 2018), entretien avec le psychologue cognitiviste Stanislas Dehaene mené par Jacques Girardon, le spécialiste des neurones artificiels nous conte une longue histoire des origines de la vie jusqu’à aujourd’hui, entre découverte et questions d’éthique.

Une fresque de l’intellect qui nous mène des peintures rupestres aux horizons de l’I.A., en passant par l’intelligence de l’huître et la morale des robots.

[L’intelligence], c’est l’un des plus grands mystères scientifiques d’aujourd’hui 
(Yann Le Cun)

On n’a pas de technique aujourd’hui qui permette de reproduire les capacités d’apprentissage des animaux et des humains. 
(Yann Le Cun)

Les émotions sont inséparables de l’intelligence. 
(Yann Le Cun)

Bibliographie  : 1èrede couverture

La Plus Belle Histoire de l’intelligenceYann Le Cun, Stanislas Dehaene et Jacques Girardon Robert Laffont, 2018

Intervenants

Yann LeCun directeur du laboratoire d’Intelligence Artificielle de Facebook, professeur d’informatique et de neurosciences à l’université de New York et titulaire de la chaire annuelle « Informatique et sciences numériques » au Collège de France.

À découvrir

Consommation numérique : la fabrique à CO2(.0)

Homo sapiens devient-il homo informaticus ?

L’intelligence artificielle va-t-elle détruire des emplois ?

Les secrets de l’intelligence artificielle

Tags : intelligence artificielle technologie Collège de France machine sciences cognitives Yann Le Cun Informatique apprentissage Sciences

L’équipe – Production : Olivia Gesbert – Réalisation : Peire Legras, Marie Plaçais.Avec la collaboration de : Oriane Delacroix, Laura Dutech-Perez, Henri Le Blanc - Production déléguée : Maja Neskovic

logo france culture

Source : https://www.franceculture.fr/emissions/la-grande-table-2eme-partie/lintelligence-artificielle-sans-foi-ni-loi

Retour au sommaire

15.
Intelligence artificielle : de nombreux défis à relever – 27/02/2018 – Document canadien ‘institut-grasset.qc.ca’ - Photo

La révolution de l’intelligence artificielle est à nos portes. Les avancées dans le domaine sont telles que dans un avenir proche, l’arrivée des premières machines équipées d’IA devrait commencer à bouleverser profondément la nature du travail dans plusieurs grands secteurs comme la santé, la finance, le commerce, l’agriculture et le transport. Pour que tout le monde puisse tirer profit de cette nouvelle technologie révolutionnaire, de nombreux défis restent néanmoins à relever.

Qu’est-ce que l’intelligence artificielle ?

L’intelligence artificielle (IA) est une technologie développée en vue de reproduire l’intelligence humaine sur des machines. Depuis quelques années maintenant, les géants de la Silicon Valley (Google, Amazon, Microsoft, Apple, Facebook, etc.) investissent des milliards de dollars pour équiper leurs prochains produits de cette technologie qui permet d’aller au-delà d’une programmation initiale.

Naissance de nouveaux métiers

Avec les nombreuses avancées qu’offre l’IA, les habiletés nécessaires dans la majorité des emplois d’aujourd’hui ne le seront plus dans les années à venir. Dans une étude dévoilée en 2016 dans The Future of Jobs, on apprend que 65 % des emplois qu’occuperont les enfants d’âge primaire n’existent pas à l’heure actuelle. Les gouvernements et les entreprises devront donc prendre rapidement les devants pour que la technologie de l’IA puisse être bénéfique à tout le monde.

Les métiers que pourront exercer les étudiants après leur DEC en programmation seront amenés à évoluer sous d’autres formes. L’IA ouvre, par exemple, la voie à de grandes améliorations pour les développeurs informatiques, notamment en ce qui a trait à l’efficacité du codage. De nombreux postes de programmeurs d’intelligence artificielle seront également à pourvoir.

Il faudra également anticiper les bouleversements en formant les individus. Des formations pour se reconvertir ou travailler en adéquation avec l’IA devront être proposées dans tous les domaines (droit, médecine, éducation, informatique, sciences sociales, etc.).

Les défis juridiques et éthiques

Pour tirer tous les bénéfices de la robotique et de l’IA, il faudra régler plusieurs grandes questions éthiques et juridiques essentielles. En effet, en plus d’assurer la protection des droits d’auteur et des données personnelles, il faudra réussir à trouver les réponses à une question fondamentale liée à l’utilisation de l’IA : déterminer à qui revient responsabilité en cas de dommage causé par la technologie.

Les étudiants de notre programme en techniques de l’informatique, ainsi que tous les individus de la société, devraient voir dans les années à venir leurs modes de vie changer progressivement. Les questions éthiques sont au centre des préoccupations, que ce soit sur la protection des données et les politiques fiscales, éducatives et sociales.

Montréal est considérée aujourd’hui comme un haut lieu du développement de l’IA et compte également se distinguer en étant à l’avant-garde de la réflexion éthique dans le domaine. Pour que la technologie soit profitable à l’ensemble de la société, une répartition juste de ses avantages est essentielle.

Une nouvelle révolution en marche !

La révolution numérique qui fait son chemin sera la 4e révolution industrielle. Plusieurs défis (usage néfaste, encadrement, etc.) concernant la souveraineté, le domaine militaire ou même la sécurité des démocraties, seront également à relever pour faire en sorte que l’IA puisse être au service du bien-être de l’humanité tout en assurant le développement durable.

Vous souhaitez intégrer le monde passionnant et émergeant des nouvelles technologies ? Notre DEC en Techniques de l’informatique est fait pour vous ! Informez-vous dès maintenant sur nos cours de programmation informatique en remplissant une demande d’information ci-dessous !

Sources :
Challenges. (2017). Intelligence artificielle : il faut relever le défi juridique. Repéré à : challenges.fr/tribunes/intelligence-artificielle-il-est-urgent-de-relever-le-defi-juridique_453696
Maddyness. (2017). #IA L’intelligence artificielle va-t-elle signer la mort du code informatique ? Repéré à : maddyness.com/technologie/2017/12/01/ia-intelligence-artificielle-mort-du-code-informatique
Le Devoir. (2017). Aurez-vous encore un emploi demain ? Repéré à : ledevoir.com/societe/513351/jodie-wallis-directrice-de-ai-canada-accenture
Siècle Digital. (2018). Intelligence artificielle et apprentissage automatique : les prédictions pour 2018. Repéré à : siecledigital.fr/2018/02/20/intelligence-artificielle-et-apprentissage-automatique-predictions-2018
LinkedIn. (2017). Les défis que l’Intelligence artificielle lance à notre société. Repéré à : linkedin.com/pulse/les-d%C3%A9fis-que-lintelligence-artificielle-lance-%C3%A0-brochard-garnier
Le Devoir. (2017). Montréal peut être à l’avant-garde de la réflexion éthique sur l’intelligence artificielle. Repéré à : ledevoir.com/opinion/idees/511912/montreal-peut-etre-a-l-avant-garde-de-la-reflexion-ethique-sur-l-intelligence-artificielle
Ouest-France. (2017). Qu’est-ce que l’intelligence artificielle ? [Décryptage]. Repéré à : ouest-france.fr/reflexion/point-de-vue/qu-est-ce-que-l-intelligence-artificielle-decryptage-5239115

Institut Grasset 220, Fairmount Ouest Montréal (Québec) H2T 2M7 institut@grasset.qc.ca - Connexion étudiants/employés - Contactez-nous - EMPLOIS ET STAGES - © 2018 L’Institut Grasset

https://www.institut-grasset.qc.ca/wp-content/themes/ig_theme/assets/logo.png

Source : https://www.institut-grasset.qc.ca/2018/02/27/intelligence-artificielle-de-nombreux-defis-relever/

Retour au sommaire

16.
Yann Le Cun : ’L’IA vise à démultiplier l’intelligence humaine’ Paris Match | Publié le 27/01/2018 à 15h27 - Interview Romain Clergeat - Photo - Yann LeCun dirige le laboratoire d’intelligence artificielle de Facebook. Julien Faure. Toute reproduction interdite…

Le boss de l’intelligence artificielle de Facebook : c’est lui. Ce Français de 57 ans est l’inventeur du deep learning (l’apprentissage profond) une des méthodes qui permet aujourd’hui les progrès foudroyants dans l’IA. Alors que le réseau social vient d’annoncer vouloir former en France 65 000 personnes d’ici 2019, nous l’avons rencontré. 

Toute reproduction interdite (Dommage ! Il faut aller à la source).

Source : https://www.parismatch.com/Actu/Sciences/Yann-Le-Cun-L-IA-vise-a-demultiplier-l-intelligence-humaine-1447787

Retour au sommaire

17.
Brève histoire de l’intelligence artificielle Par Valentin Blanchot Twitter@vblanchot 20 août 2018 – Document ‘siecledigital.fr’

Des dates et des moments importants dans l’évolution de l’IA.

Illustration - Sous le terme intelligence artificielle (IA) on regroupe l’ensemble des “théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence.” Cette pratique permet à l’Homme de mettre un système informatique sur la résolution de problématiques complexes intégrant de la logique. D’une façon plus commune, lorsque l’on parle d’intelligence artificielle, on entend aussi par là des machines imitant certains traits de l’Homme.

L’intelligence artificielle avant 2000

Preuve que ce n’est pas une science d’aujourd’hui, les premières traces de l’IA remontent à 1950 dans un article d’Alan Turing intitulé “Computing Machinery and Intelligence” dans lequel le mathématicien explore le problème de définir si une machine est consciente ou non. De cet article découlera ce que l’on appelle aujourd’hui le Test de Turing qui permet d’évaluer la capacité d’une machine à tenir une conversation humaine.

Une autre origine probable remonte quant à elle à 1949 dans une publication de Warren Weaver avec un mémo sur la traduction automatique des langues qui émet l’idée qu’une machine pourrait très bien effectuer une tâche qui relève de l’intelligence humaine.
L’officialisation de l’intelligence artificielle comme véritable domaine scientifique date de 1956 lors d’une conférence aux États-Unis qui s’est tenue au Dartmouth College. Par la suite, ce domaine atteindra de prestigieuses universités comme celles de Stanford, du MIT, ou encore d’Édimbourg.

Dès le milieu des années 60, la recherche autour de l’IA sur le sol américain était principalement financée par le Département de la Défense. Dans le même temps, des laboratoires ouvrent çà et là à travers le monde. Certains experts prédisaient à l’époque que « des machines seront capables, d’ici 20 ans, de faire le travail que toute personne peut faire ». Si l’idée était visionnaire, même en 2018 l’intelligence artificielle n’a pas encore pris cette importance dans nos vies.

En 1974 arrive une période appelée le « AI Winter ». Beaucoup d’experts ne réussissent pas à faire aboutir leurs projets et les gouvernements britannique et américain réduisent leurs financements pour les académies. Ils préfèrent soutenir des idées ayant plus de chances de déboucher sur quelque chose de concret.

Dans les années 80, le succès des systèmes experts permet de relancer les projets de recherche sur l’intelligence artificielle. Un système expert était un ordinateur capable de se comporter comme un expert (humain), mais dans un domaine bien précis. Grâce à ce succès, le marché de l’IA atteint une valeur d’un milliard de dollars, ce qui motive les différents gouvernements à de nouveau soutenir financièrement plus de projets académiques.

Le développement exponentiel des performances informatiques, notamment en suivant la loi de Moore, permet entre 1990 et 2000 d’exploiter l’IA sur des terrains jusqu’alors peu communs. On retrouve à cette époque le data mining, ou encore les diagnostics médicaux. Il faudra attendre 1997 pour une véritable sortie médiatique lorsque le fameux Deep Blue créé par IBM a battu Garry Kasparov, alors champion du monde d’échec.

2000 – 2010 : l’IA représente un enjeu de société

Au début des années 2000, l’intelligence artificielle s’intègre dans une grande quantité de films de « science-fiction » présentant des scénarios plus ou moins réalistes. Le plus marquant du nouveau millénaire étant certainement Matrix, premier volet de la saga sorti en salles le 23 juin 1999. S’en suivra A.I. de Steven Spielberg sorti en 2001, inspiré par Stanley Kubrick, puis I, Robot (2004). Metropolis (1927) Blade Runner (1982), Tron (1982), et Terminator (1984) avaient déjà pavé la voie, mais l’on ne connaissait pas encore assez bien l’IA et ses applications pour imaginer de réels scénarios.

Entre 2000 et 2010, notre société vit un véritable boom informatique. Non seulement la loi de Moore poursuit son bonhomme de chemin, mais les Hommes s’équipent. Les ordinateurs personnels deviennent de plus en plus accessibles, Internet se déploie, les smartphones voient le jour … La connectivité et la mobilité lancent l’ère de l’Homo Numericus.

Jusqu’à 2010, on s’interroge également sur l’éthique de l’intégration de l’IA dans de nombreux secteurs. Ainsi, en 2007 la Corée du Sud dévoile une charte de l’éthique des robots dans le but de poser des limites et des normes aux utilisateurs ainsi qu’aux constructeurs. En 2009, le MIT lance un projet réunissant de grands scientifiques de l’IA pour réfléchir aux grandes lignes de la recherche sur ce domaine.

À partir de 2010 : l’IA sans limites

Dès le début de notre décennie, l’IA s’illustre grâce aux prouesses de Waston d’IBM. En 2011, ce super-cerveau a battu en direct les deux plus grands champions de Jeopardy !. Un exercice loin d’être simple pour un ordinateur. Néanmoins, après Deep Blue, les années 2010 marquent un tournant dans la médiatisation des recherches.

La loi de Moore continue de guider les progrès de l’intelligence artificielle, mais le traitement de la donnée vient renforcer tout cela. Pour exécuter une tâche, un système n’a besoin que de règles. Lorsqu’il s’agit d’avoir une réflexion ou de livrer la réponse la plus juste possible, il faut que ce système apprenne. C’est ainsi que les chercheurs développent de nouveaux procédés pour le machine learning puis le deep learning. Rapidement, ces approches nourries par les données passent de nombreux records, poussant de nombreux autres projets à suivre cette voie. De plus, le développement des technologies pour l’intelligence artificielle permet de lancer des projets très divers et de ne plus penser calcul pur et dur, mais d’intégrer le traitement des images.

C’est à partir de ce moment que certaines sociétés vont prendre les devants. En effet, la problématique de l’IA n’est plus d’avoir les cerveaux pour élaborer des systèmes, mais d’avoir de la donnée à traiter. C’est pour cela que Google devient rapidement un pionnier. En 2012, la firme de Mountain View n’avait que quelques projets d’usages, contre 2 700 trois ans plus tard. En 2013, Facebook ouvre le Facebook Artificial Intelligence Research (FAIR) dirigé par Yann Le Cun. Un tournant qui éloigne le géant de sa mission sociale pour se tourner vers les sciences. Amazon, Microsoft, Apple, Netflix, Tesla ne sont pas en reste non plus, de même de nombreuses sociétés chinoises.

La gestion des données permettra de mettre l’IA en application pour comprendre des radiographies mieux que les médecins, conduire des voitures, faire de la traduction, jouer à des jeux vidéo complexes, créer des musiques, voir à travers un mur, imaginer une partie manquante d’une photographie … Les domaines où les intelligences artificielles performent sont plus que nombreux et cela soulève de nombreuses questions sur le rôle professionnel de l’Homme dans les années à venir.

La place médiatique qu’occupe désormais l’intelligence artificielle ne place presque plus les questions qui concernent ce domaine entre les mains des chercheurs, mais dans le débat public. Cela crée logiquement autant de tensions que d’excitations. Malheureusement, nous ne sommes qu’aux prémices de l’intégration massive de ces technologies. Les décennies à venir nous réservent encore bien des surprises.

Source : https://siecledigital.fr/2018/08/20/histoire-intelligence-artificielle/?utm_source=Newsletter&utm_campaign=bd2e7ea304-RSS_EMAIL_CAMPAIGN&utm_medium=email&utm_term=0_3b73bad11a-bd2e7ea304-259561653

Retour au sommaire

18.
Intelligence artificielle – Dossier très complet diffusé par ‘wikimonde.com’

Photo avec exemple  : les assistants personnels intelligents sont l’une des applications concrètes de l’intelligence artificielle dans les années 2010.

L’intelligence artificielle (IA) est « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence »1. Elle correspond donc à un ensemble de concepts et de technologies plus qu’à une discipline autonome constituée. D’autres, remarquant la définition peu précise de l’IA, notamment la CNIL, la définissent comme « le grand mythe de notre temps »2.

Souvent classée dans le groupe des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux), à la logique mathématique (sous-discipline des mathématiques et de la philosophie) et à l’informatique. Elle recherche des méthodes de résolution de problèmes à forte complexité logique ou algorithmique. Par extension elle désigne, dans le langage courant, les dispositifs imitant ou remplaçant l’homme dans certaines mises en œuvre de ses fonctions cognitives3.

Ses finalités et son développement suscitent, depuis toujours, de nombreuses interprétations, fantasmes ou inquiétudes s’exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques.

Définition

Le terme « intelligence artificielle », créé par John McCarthy, est souvent abrégé par le sigle « IA » (ou « AI » en anglais, pour Artificial Intelligence). Il est défini par l’un de ses créateurs, Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique »a,4. On y trouve donc le côté « artificiel » atteint par l’usage des ordinateurs ou de processus électroniques élaborés et le côté « intelligence » associé à son but d’imiter le comportement. Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d’autres capteurs, dans la commande d’un robot dans un milieu inconnu ou hostile.

Même si elles respectent globalement la définition de Minsky, il existe un certain nombre de définitions différentes de l’IA qui varient sur deux points fondamentaux5 :

  • les définitions qui lient la définition de l’IA à un aspect humain de l’intelligence, et celles qui la lient à un modèle idéal d’intelligence, non forcément humaine, nommée rationalité ;
  • les définitions qui insistent sur le fait que l’IA a pour but d’avoir toutes les apparences de l’intelligence (humaine ou rationnelle), et celles qui insistent sur le fait que le fonctionnement interne du système d’IA doit ressembler également à celui de l’être humain et être au moins aussi rationnel.
    Historique

Article détaillé : Histoire de l’intelligence artificielle.

Historiquement, elle trouve son point de départ dans les années 1950 avec les travaux d’Alan Turing, qui se demande si une machine peut « penser ». Le développement croissant des technologies informatiques (puissance de calcul) et des techniques algorithmiques (notamment l’apprentissage profond ou deep learning) ont permis la réalisation de programmes informatiques surpassant l’homme dans certaines de ses capacités cognitives emblématiques : le jeu d’échecs en 1997, le jeu de go en 2016 et le poker en 2017.

L’une des origines de l’intelligence artificielle se trouve probablement dans l’article d’Alan Turing « Computing Machinery and Intelligence » (Mind, octobre 1950)6, où Turing explore le problème et propose une expérience maintenant connue sous le nom de test de Turing dans une tentative de définition d’un standard permettant de qualifier une machine de « consciente ». Il développe cette idée dans plusieurs forums, dans la conférence « L’intelligence de la machine, une idée hérétique »7, dans la conférence qu’il donne à la BBC 3e programme le 15 mai 1951 « Les calculateurs numériques peuvent-ils penser ? »8 ou la discussion avec M.H.A. Newman, Sir Geoffrey Jefferson et R.B. Braithwaite les 14 et 23 janvier 1952 sur le thème « Les ordinateurs peuvent-ils penser ? »9. L’autre origine probable est la publication, en 1949, par Warren Weaver de son mémorandum sur la traduction automatique des langues10 qui suggère qu’une machine puisse faire une tâche qui relève typiquement de l’intelligence humaine.

On considère que l’intelligence artificielle, en tant que domaine de recherche, a été créée à la conférence qui s’est tenue sur le campus de Dartmouth College pendant l’été 195611 à laquelle assistaient ceux qui vont marquer la discipline. L’intelligence artificielle se développe ensuite surtout aux États-Unis à l’université Stanford sous l’impulsion de John McCarthy, au MIT sous celle de Marvin Minsky, à l’université Carnegie-Mellon sous celle de Allen Newell et Herbert Simon et à l’université d’Édimbourg sous celle de Donald Michie. En France, l’un des pionniers est Jacques Pitrat.

Toutefois le sujet de l’intelligence artificielle est un sujet dont les bornes peuvent varier. Par exemple, la recherche d’un itinéraire était considéré comme un problème d’intelligence artificielle dans les années 1950, alors que depuis que des applications sont dotées d’algorithmes pour résoudre ces questions la recherche d’itinéraires n’est plus considérée comme de l’intelligence artificielle12.

Personnalités de l’intelligence artificielle

Prix Turing

Plusieurs prix Turing ont été attribués à des pionniers de l’intelligence artificielle, dont :

Cette section est vide, insuffisamment détaillée ou incomplète. est la bienvenue ! Comment faire ?

L’intelligence artificielle est un sujet d’actualité au XXIe siècle. En 2004, l’Institut Singularity a lancé une campagne Internet appelée « Trois lois dangereuses » : « Three Laws Unsafe » (en lien avec les trois lois d’Asimov) pour sensibiliser aux questions de la problématique de l’intelligence artificielle et l’insuffisance des lois d’Asimov en particulier. (Singularity Institute for Artificial Intelligence 2004)13.

En 2005, le projet Blue Brain est lancé, il vise à simuler le cerveau des mammifères. Il s’agit d’une des méthodes envisagées pour réaliser une IA. Ils annoncent de plus comme objectif de fabriquer, dans dix ans, le premier « vrai » cerveau électronique14. En mars 2007, le gouvernement sud-coréen a annoncé que plus tard dans l’année, il émettrait une charte sur l’éthique des robots, afin de fixer des normes pour les utilisateurs et les fabricants. Selon Park Hye-Young, du ministère de l’Information et de la communication, la Charte reflète les trois lois d’Asimov : la tentative de définition des règles de base pour le développement futur de la robotique. En juillet 2009, en Californie une conférence organisée par l’Association for the Advancement of Artificial Intelligence (AAAI), où un groupe d’informaticiens se demande s’il devrait y avoir des limites sur la recherche qui pourrait conduire à la perte de l’emprise humaine sur les systèmes informatiques, et où il est également question de l’explosion de l’intelligence (artificielle) et du danger de la singularité technologique conduisant à un changement d’ère, ou de paradigme totalement en dehors du contrôle humain15,16.

En 2009, le Massachusetts Institute of Technology (MIT) a lancé un projet visant à repenser la recherche en intelligence artificielle. Il réunira des scientifiques qui ont eu du succès dans des domaines distincts de l’IA. Neil Gershenfeld déclare « Nous voulons essentiellement revenir 30 ans en arrière, et de revoir quelques directions aujourd’hui gelées »17.

En novembre 2009, l’US Air Force cherche à acquérir 2 200 PlayStation 318 pour utiliser le processeur cell à 7 ou 8 cœurs qu’elle contient dans le but d’augmenter les capacités de leur superordinateur constitué de 336 PlayStation 3 (total théorique 52,8 petaFLOPS en double précision). Le nombre sera réduit à 1 700 unités le 22 décembre 200919. Le projet vise le traitement vidéo haute-définition, et l’« informatique neuromorphique », ou la création de calculateurs avec des propriétés/fonctions similaires au cerveau humain18.

Le 27 janvier 2010, l’US Air Force demande l’aide de l’industrie pour développer une intelligence avancée de collecte d’information et avec la capacité de décision rapide pour aider les forces américaines pour attaquer ses ennemis rapidement à leurs points les plus vulnérables. L’US Air Force utilisera une intelligence artificielle, le raisonnement ontologique, et les procédures informatique basées sur la connaissance, ainsi que d’autres traitement de données avancées afin de frapper l’ennemi au meilleur point20. D’autre part, d’ici 2020, plus de mille bombardiers et chasseurs F-22 et F-35 de dernière génération, parmi plus de 2 500 avions militaires, commenceront à être équipés de sorte que, d’ici 2040, tous les avions de guerre américains soient pilotés par intelligence artificielle, en plus des 10 000 véhicules terrestres et des 7 000 dispositifs aériens commandés d’ores et déjà à distance21.

Le 16 février 2011, Watson, le superordinateur conçu par IBM, remporte deux des trois manches du jeu télévisé Jeopardy ! en battant largement ses deux concurrents humains en gains cumulés. Pour cette IA, la performance a résidé dans le fait de répondre à des questions de culture générale (et non un domaine technique précis) dans des délais très courts. En février 2016, l’artiste et designer Aaron Siegel propose de faire de Watson un candidat à l’élection présidentielle américaine afin de lancer le débat sur « le potentiel de l’intelligence artificielle dans la politique »22.

En mai 2013, Google ouvre un laboratoire de recherches dans les locaux de la NASA. Grâce à un super calculateur quantique conçu par D-Wave Systems et qui serait d’après cette société 11 000 fois plus performant qu’un ordinateur actuel (de 2013)23, ils espèrent ainsi faire progresser l’intelligence artificielle et notamment l’apprentissage automatique. Raymond Kurzweil est engagé en décembre 2012 par Google afin de participer et d’améliorer l’apprentissage automatique des machines et des IA24.

Entre 2014 et 2015, à la suite du développement rapide du deep learning, et à l’encontre des penseurs transhumanistes, quelques scientifiques et membres de la communauté high tech craignent que l’intelligence artificielle ne vienne à terme dépasser les performances de l’intelligence humaine. Parmi eux, l’astrophysicien britannique Stephen Hawking25, le fondateur de Microsoft Bill Gates26 et le PDG de Tesla Elon Musk27.

Les géants de l’Internet s’intéressent de plus en plus à l’IA28. Le 3 janvier 2016, le patron de Facebook, Mark Zuckerberg, s’est donné pour objectif de l’année de « construire une intelligence artificielle simple pour piloter ma maison ou m’aider dans mon travail »[réf. nécessaire]. Il avait déjà créé en 2013 le laboratoire Facebook Artifical Intelligence Research (FAIR) dirigé par le chercheur français Yann LeCun et ouvert un laboratoire de recherche permanente dans le domaine à Paris29.

Apple a de son côté récemment acquis plusieurs start-up du secteur (Perceptio, VocalIQ, Emotient et Turi)30.

En janvier 2018, des modèles d’intelligence artificielle développés par Microsoft et Alibaba réussissent chacun de leur côté à battre les humains dans un test de lecture et de compréhension de l’Université de Stanford. Le traitement du langage naturel imite la compréhension humaine des mots et des phrases et permet maintenant aux modèles d’apprentissage automatique de traiter de grandes quantités d’informations avant de fournir des réponses précises aux questions qui leur sont posées31.

En France

En France, les pionniers sont Alain Colmerauer, Gérard Huet, Jean-Louis Laurière, Claude-François Picard, Jacques Pitrat et Jean-Claude Simon32. Un congrès national annuel, « Reconnaissance de formes et intelligence artificielle », est créé en 1979 à Toulouse33. En lien avec l’organisation de la conférence IJCAI à Chambéry en 1993, et la création d’un GRECO-PRC34 « intelligence artificielle », en 1983, il donne naissance à une société savante, l’Association française pour l’intelligence artificielle (AFIA) en 1989, qui, entre autres, organise des conférences nationales en intelligence artificielle35.

http://upload.wikimedia.org/wikipedia/commons/thumb/6/61/Ai_for_humanity_logo.svg/220px-Ai_for_humanity_logo.svg.png

Logo de la conférence « AI for Humanity » organisée le 29 mars 2018 au Collège de France.

Au début des années 2000, des sociologues liés à l’EHESS, spécialistes de l’analyse de corpus, expérimentent la mise au point d’un « sociologue numérique » appelé Marlowe qui crée un pont entre intelligence artificielle et sciences sociales36.

Le 17 janvier 2017, le fonds de capital-risque Serena Capital lance un fonds de 80 millions d’euros destiné à l’investissement dans les start-ups européennes du big data et de l’intelligence artificielle37. Le 19 janvier 2017, une audition se tient au Sénat : « L’intelligence Artificielle menace-t-elle nos emplois ? »38. Le 20 janvier 2017, Axelle Lemaire entend valoriser les potentiels scientifiques et industriels français grâce au projet « France IA »39.

En janvier 2017, dans le cadre de sa mission de réflexion sur les enjeux éthiques et les questions de société soulevés par les technologies numériques, la Commission nationale de l’informatique et des libertés (CNIL) annonce l’organisation d’un débat public sur les algorithmes et l’intelligence artificielle40. Le 15 décembre 2017, à l’issue d’un débat ayant mobilisé 60 partenaires (institutions publiques, associations, entreprises, acteurs du monde de la recherche, société civile)41, elle publie son rapport « Comment permettre à l’Homme de garder la main ? »42 comprenant des recommandations pour la construction d’un modèle éthique d’intelligence artificielle.

En septembre 2017, Cédric Villani, premier vice-président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST)43, est chargé de mener une consultation publique sur l’intelligence artificielle44. Il rend son rapport le 28 mars 201845, à la veille d’une intervention du président de la République Emmanuel Macron au Collège de France pour annoncer la stratégie de la France dans ce domaine46. Il y dévoile un plan de 1,5 milliard d’euros sur l’ensemble du quinquennat, ainsi qu’une évolution de la législation française pour permettre la mise en application de l’intelligence artificielle, en particulier concernant la circulation des véhicules autonomes47. Parallèlement à ces annonces, il est interviewé par Wired, magazine de référence pour la communauté mondiale des nouvelles technologies, et y exprime sa vision de l’intelligence artificielle, à savoir que les algorithmes utilisés par l’État doivent être ouverts, que l’intelligence artificielle doit être encadrée par des règles philosophiques et éthiques et qu’il faut s’opposer à l’usage d’armes automatiques ou de dispositifs prenant des décisions sans consulter un humain48,49.

Test de Turing

http://upload.wikimedia.org/wikipedia/commons/thumb/e/e4/Turing_Test_version_3.png/220px-Turing_Test_version_3.png

Schéma du test de Turing. Article détaillé : Test de Turing.

À l’orée des années 1950, entre la naissance de la cybernétique et l’émergence quelques années plus tard de l’intelligence artificielle, alors que les meilleurs esprits du temps s’interrogent sur la possibilité de construire des machines pensantes, Alan Turing propose, dès le début d’un article demeuré célèbre, un test pour déterminer si une machine peut être définie comme « consciente »50.

Définir l’intelligence est un défi et il n’est pas certain qu’on puisse y arriver un jour d’une façon satisfaisante. C’est cette remarque qui poussa le mathématicien britannique Alan Turing, il y a soixante ans, à proposer « le jeu de l’imitation » qui fixait un objectif précis à la science naissante des ordinateurs que l’on n’appelait pas encore informatique en francophonie. Ce « jeu de l’imitation » suggérait qu’un juge fictif puisse dialoguer d’une part avec une machine et d’autre part avec un humain à l’aide d’un terminal sans pouvoir les discriminer51.

Jusqu’à ce jour, aucun logiciel n’a encore pu réussir ce test, à savoir se comporter de façon à ne pas être discriminé d’un humain, malgré de nombreuses tentatives. Devant la persistance de ces échecs certains informaticiens[Lesquels ?] pensent que mettre au point un programme aussi complexe ne démontrera pas l’intelligence des programmes ni leur capacité à penser.

De nos jours, une machine peut certes réviser et faire évoluer des objectifs qu’on lui a attribués. Une machine peut même être programmée pour pouvoir restructurer sa connaissance initiale à partir d’informations reçues ou perçues. Mais la machine d’aujourd’hui ne pense pas à proprement parler, car elle n’a pas conscience d’elle-même (et en particulier de ses limites), elle ne peut pas ultimement décider de ses buts ni imaginer de nouvelles formes de représentations du monde50.

Intelligence artificielle forte Article détaillé : Philosophie de l’intelligence artificielle.

Définition

Le concept d’intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, mais d’éprouver une impression d’une réelle conscience de soi, de « vrais sentiments » (quoi qu’on puisse mettre derrière ces mots), et « une compréhension de ses propres raisonnements »52.

L’intelligence artificielle forte a servi de moteur à la discipline, mais a également suscité de nombreux débats. En se fondant sur l’hypothèse, que tendent à confirmer les neurosciences et que des chercheurs n’hésitent pas à affirmer53, que la conscience a un support biologique et donc matériel, les scientifiques ne voient généralement pas d’obstacle de principe à créer un jour une intelligence consciente sur un support matériel autre que biologique. Selon les tenants de l’IA forte, si à l’heure actuelle il n’y a pas d’ordinateurs ou de robots aussi intelligents que l’être humain, ce n’est pas un problème d’outil mais de conception. Il n’y aurait aucune limite fonctionnelle (un ordinateur est une machine de Turing universelle avec pour seules limites les limites de la calculabilité), il n’y aurait que des limites liées à l’aptitude humaine à concevoir les logiciels appropriés (programme, base de données...). Elle permet notamment de modéliser des idées abstraites.

Estimation de faisabilité

Comparer la capacité de traitement de l’information d’un cerveau humain à celle d’un ordinateur peut aider à comprendre les ordres de grandeur pour estimer la possibilité pratique ou non d’une intelligence artificielle forte, de même qu’un simple calcul de puissance en kW permet grosso modo de dire qu’un camion donné pourra espérer transporter commodément telle ou telle charge ou si cela lui sera impossible. Voici quelques exemples d’ordres de grandeur en traitement de l’information :

  • Balance Roberval : 1 bit par seconde (comparaison de deux poids) ;
  • mainframe typique des années 1970 : 1 million d’opérations par seconde sur 32 bits ;
  • Intel Paragon XP/S, 4 000 processeurs i860 @ 50 MHz (1992) : 160 milliards d’opérations par seconde.
    Cette puissance n’est pas à prendre au pied de la lettre. Elle précise surtout les ordres de grandeur en présence et leur évolution relativement rapide (2015).

L’intelligence artificielle n’avait donné que des résultats mitigés sur les ordinateurs typiques de 1970 effectuant 107 opérations logiques par secondeb,54. Le cerveau humain, formé de 1011 neurones ne pouvant chacun commuter plus de 100 fois par seconde en raison de leur temps de relaxation permettait beaucoup plus de traitements logiques par unité de temps (1013 opérations logiques par seconde)54. « Ce » handicap technique précis n’existe plus sur les ordinateurs actuels (2015), travaillant en 64 bits et avec des horloges cadencées à 4 GHz environ.

Il s’agit là de processeurs destinés au particulier. Concernant des machines comme Blue Gene, le rapport du nombre de comparaisons par seconde entre ordinateur et cerveau ont même changé de sens.

Un article de 201355 examine par plusieurs voies quelle pourrait être la capacité mémoire nécessaire et, selon le mode de calcul, obtient des chiffres très différents : 1 To, 100 To, 2 500 To (voir big data), évoquant aussi par jeu 300 Mo, soit 60 MP3 de 3 minutes.

Le matériel serait donc maintenant présent. Du logiciel à la mesure de ce matériel resterait à développer. En effet, l’important n’est pas de raisonner plus vite, en traitant plus de données, ou en mémorisant plus de choses que le cerveau humain56, l’important est de traiter les informations de manière appropriée.

L’IA souligne la difficulté à expliciter toutes les connaissances utiles à la résolution d’un problème complexe. Certaines connaissances dites implicites sont acquises par l’expérience et mal formalisables. Par exemple, qu’est-ce qui distingue un visage familier de deux cents autres ? Nous ne savons pas toujours clairement l’exprimerc. L’apprentissage de ces connaissances implicites par l’expérience est exploitée depuis les années 1980 (voir Réseau de neurones). Néanmoins, un autre type de complexité apparaît : la complexité structurelle. Comment mettre en relation des modules spécialisés pour traiter un certain type d’informations, par exemple un système de reconnaissance des formes visuelles, un système de reconnaissance de la parole, un système lié à la motivation, à la coordination motrice, au langage, etc. En revanche, une fois un système cognitif conçu et son apprentissage par l’expérience réalisé, l’« intelligence » correspondante peut être distribuée en un grand nombre d’exemplaires, par exemple sur les portables d’actuaires ou de banquiers pouvant ainsi, comme le rappelle un slogan, dire oui ou non, mais le dire tout de suite grâce à des applications dites de credit scoring.

Enfin, au-delà de la simple technique, il reste à savoir de quel type serait la relation entre l’homme et la machine intelligente : bonne et peut-être non exempte de bugs, comme dans Les Robots d’Asimov, ou carrément hostile comme dans Terminator sont deux exemples possibles57.

Diversité des opinions

Les principales opinions soutenues pour répondre à la question d’une intelligence artificielle forte (c’est-à-dire douée d’une sorte de conscience) sont les suivantes :

  • Impossible : la conscience serait le propre des organismes vivants (supérieurs), et elle serait liée à la nature des systèmes biologiques. Cette position est défendue principalement par des religieux[réf. souhaitée].
  • Impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l’organisation matérielle serait fondée sur des processus quantiques. Cette position est défendue notamment par Roger Penrose. Des algorithmes quantiques sont théoriquement capables de mener à bien des calculs hors de l’atteinte pratique des calculateurs conventionnels (complexité en

au lieu de

, par exemple, sous réserve d’existence du calculateur approprié). Au-delà de la rapidité, le fait que l’on puisse envisager des systèmes quantiques en mesure de calculer des fonctions non-Turing-calculables (voir Hypercalcul) ouvre des possibilités qui - selon Jack Copeland - sont fondamentalement interdites aux machines de Turing ; cette dernière possibilité est cependant généralement niée par les spécialistes du calcul quantique[réf. souhaitée].

    • Problème : On ne dispose pas encore pour le moment d’algorithmes d’IA à mettre en œuvre dans ce domaine. Tout cela reste donc spéculatif. Par ailleurs, il n’est nullement clair que cela ait quoi que ce soit à voir avec la conscience.
  • Impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l’organisation matérielle mimerait le fonctionnement du cerveau humain, par exemple avec des circuits électroniques spécialisés reproduisant le fonctionnement des neurones.
    • Problème : Le système en question répondant exactement de la même façon que sa simulation sur ordinateur - toujours possible - au nom de quel principe leur assigner une différence ?58
  • Impossible avec les algorithmes classiques manipulant des symboles (logique formelle), car de nombreuses connaissances sont difficiles à expliciter mais possible avec un apprentissage par l’expérience de ces connaissances à l’aide d’outils tels que des réseaux de neurones formels, dont l’organisation logique et non matérielle s’inspire des neurones biologiques, et utilisés avec du matériel informatique conventionnel.
    • Problème : si du matériel informatique conventionnel est utilisé pour réaliser un réseau de neurones, alors il est possible de réaliser l’IA avec les ordinateurs classiques manipulant des symboles (puisque ce sont les mêmes machines, voir Thèse de Church-Turing). Cette position parait donc incohérente. Toutefois, ses défenseurs (thèse de l’IA forte) arguent que l’impossibilité en question est liée à notre inaptitude à tout programmer de manière explicite, elle n’a rien à voir avec une impossibilité théorique. Par ailleurs, ce que fait un ordinateur, un système à base d’échanges de bouts de papier dans une salle immense peut le simuler quelques milliards de fois plus lentement. Or il peut rester difficile à admettre que cet échange de bouts de papiers « ait une conscience ». Voir Chambre chinoise. Selon les tenants de l’IA forte, cela ne pose toutefois pas de problème.
  • Impossible car la pensée n’est pas un phénomène calculable par des processus discrets et finis. Pour passer d’un état de pensée au suivant, il y a une infinité non dénombrable, une continuité d’états transitoires. Cette idée est réfutée par Alain Cardon (Modéliser et concevoir une Machine pensante).
  • Possible avec des ordinateurs manipulant des symboles. La notion de symbole est toutefois à prendre au sens large. Cette option inclut les travaux sur le raisonnement ou l’apprentissage symbolique basé sur la logique des prédicats, mais aussi les techniques connexionnistes telles que les réseaux de neurones, qui, à la base, sont définies par des symboles. Cette dernière opinion constitue la position la plus engagée en faveur de l’intelligence artificielle forte.
    Des auteurs comme Douglas Hofstadter (mais déjà avant lui Arthur C. Clarke ou Alan Turing) (voir le test de Turing) expriment par ailleurs un doute sur la possibilité de faire la différence entre une intelligence artificielle qui éprouverait réellement une conscience, et une autre qui simulerait exactement ce comportement. Après tout, nous ne pouvons même pas être certains que d’autres consciences que la nôtre, y compris chez des humains, éprouvent réellement quoi que ce soit, si ce n’est par une pétition de principe qui spécule que chaque humain se retrouve à l’identique chez tous les autres. On retrouve là le problème connu du solipsisme en philosophie.

Travaux complémentaires

Le mathématicien de la physique Roger Penrose59 pense que la conscience viendrait de l’exploitation de phénomènes quantiques dans le cerveau (voir microtubules), empêchant la simulation réaliste de plus de quelques dizaines de neurones sur un ordinateur normal, d’où les résultats encore très partiels de l’IA. Il restait jusqu’à présent isolé sur cette question. Un autre chercheur a présenté depuis une thèse de même esprit quoique moins radicale : Andrei Kirilyuk60.

Cette spéculation reste néanmoins marginale par rapport aux travaux des neurosciences. L’action de phénomènes quantiques est évidente[réf. nécessaire] dans le cas de la rétine (quelques quanta de lumière seulement suffisent à une perception) ou de l’odorat, mais elle ne constitue pas une condition préalable à un traitement efficace de l’information. En effet, le traitement de l’information effectué par le cerveau est relativement robuste[réf. nécessaire] et ne dépend pas de l’état quantique de chaque molécule, ni même de la présence ou de la connexion de neurones isolés.

Cela dit, l’intelligence artificielle est loin de se limiter aux seuls réseaux de neurones, qui ne sont généralement utilisés que comme classifieurs. Les techniques de résolution générale de problèmes et la logique des prédicats61, entre autres, ont fourni des résultats significatifs et sont exploités par des ingénieurs et chercheurs dans plusieurs domaines (en particulier depuis Mycin en 1973 pour le diagnostic des maladies du sang).

Intelligence artificielle faible

Article détaillé : Intelligence artificielle faible.

La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais, cette fois, la machine simule l’intelligence, elle semble agir comme si elle était intelligente. On en voit des exemples concrets avec les programmes conversationnels qui tentent de passer le test de Turing, comme ELIZA. Ces logiciels parviennent à imiter de façon grossière le comportement d’humains face à d’autres humains lors d’un dialogue.

Joseph Weizenbaum, créateur du programme ELIZA, met en garde le public dans son ouvrage Computer Power and Human Reason : si ces programmes « semblent » intelligents, ils ne le sont pas : ELIZA simule très grossièrement un psychologue en relevant immédiatement toute mention du père ou de la mère, en demandant des détails sur tel élément de phrase et en écrivant de temps en temps « Je comprends. », mais son auteur rappelle qu’il s’agit d’une simple mystification : le programme ne comprend en réalité rien.

Les tenants de l’IA forte admettent que s’il y a bien dans ce cas simple simulation de comportements intelligents, il est aisé de le découvrir et qu’on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d’une machine et celui d’un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de « simulation de l’intelligence » est contesté et devrait, toujours selon eux, être remplacé par « reproduction de l’intelligence ».

Les tenants de l’IA faible arguent que la plupart des techniques actuelles d’intelligence artificielle sont inspirées de leur paradigme. Ce serait par exemple la démarche utilisée par IBM dans son projet nommé Autonomic computing. La controverse persiste néanmoins avec les tenants de l’IA forte qui contestent cette interprétation.

Simple évolution, donc, et non révolution : l’intelligence artificielle s’inscrit à ce compte dans la droite succession de ce qu’ont été la recherche opérationnelle dans les années 1960, la supervision (en anglais : process control) dans les années 1970, l’aide à la décision dans les années 1980 et le data mining dans les années 1990. Et, qui plus est, avec une certaine continuité.

Il s’agit surtout d’intelligence humaine reconstituée, et de programmation ad hoc d’un apprentissage, sans qu’une théorie unificatrice n’existe pour le moment (2011). Le Théorème de Cox-Jaynes indique toutefois, ce qui est un résultat fort, que sous cinq contraintes raisonnables, tout procédé d’apprentissage devra être soit conforme à l’inférence bayésienne, soit incohérent à terme, donc inefficace62.

Estimation de faisabilité

Le sémanticien François Rastier, après avoir rappelé les positions de Turing et de Grice à ce sujet, propose63 six « préceptes » conditionnant un système de dialogue évolué, en précisant qu’elles sont déjà mises en œuvre par des systèmes existants :

  • objectivité (utilisation d’une base de connaissance par le système) ;
  • textualité (prise en compte d’interventions de plus d’une phrase, qu’elles émanent du système ou de l’utilisateur) ;
  • apprentissage (intégration au moins temporaire d’informations issues des propos de l’utilisateur) ;
  • questionnement (demande de précisions de la part du système) ;
  • rectification (suggestion de rectifications à la question posée, lorsque nécessaire) ;
  • explicitation (explicitation par le système d’une réponse qu’il a apportée précédemment).
    Il suggère aussi que le système devrait être en mesure de se faire par lui-même une représentation de l’utilisateur auquel il a affaire, pour s’adapter à lui. De son côté, l’utilisateur a tendance à s’adapter au système à partir du moment où il a bien compris qu’il s’adresse à une machine : il ne conversera pas de la même manière avec un système automatisé qu’avec un interlocuteur humain, ce qui présente pour le concepteur l’avantage pragmatique de simplifier certains aspects du dialogue.

Courants de pensée

La cybernétique naissante des années 1940 revendiquait très clairement son caractère pluridisciplinaire et se nourrissait des contributions les plus diverses : neurophysiologie, psychologie, logique, sciences sociales… Et c’est tout naturellement qu’elle envisagea deux approches des systèmes, deux approches reprises par les sciences cognitives et de ce fait l’intelligence artificielle : une approche par la décomposition (du haut vers le bas) et une approche contraire par construction progressive du bas vers le haut.

Ces deux approches se révèlent plutôt complémentaires que contradictoires : on est à l’aise pour décomposer rapidement ce que l’on connaît bien, et une approche pragmatique à partir des seuls éléments que l’on connaît afin de se familiariser avec les concepts émergents est plus utile pour les domaines inconnus. Elles sont respectivement à la base des hypothèses de travail que constituent le cognitivisme et le connexionnisme, qui tentent aujourd’hui (2005) d’opérer progressivement leur fusion.

Le HOWTO de Linux sur l’intelligence artificielle v3.064, révisé le 15 décembre 2012, adopte pour la commodité du lecteur la taxinomie suivante :

  • Systèmes symboliques ;
  • Connexionnisme ;
  • Calcul évolutif (algorithmes génétiques, par exemple) ;
  • Alife (vie artificielle) et Complexité ;
  • Agents et robotique.
    Cognitivisme

Le cognitivisme considère que le vivant, tel un ordinateur (bien que par des procédés évidemment très différents), manipule essentiellement des symboles élémentaires. Dans son livre La société de l’esprit, Marvin Minsky, s’appuyant sur des observations du psychologue Jean Piaget, envisage le processus cognitif comme une compétition d’agents fournissant des réponses partielles et dont les avis sont arbitrés par d’autres agents. Il cite les exemples suivants de Piaget :

  • L’enfant croit d’abord que plus le niveau d’eau est élevé dans un verre, plus il y a d’eau dans ce verre. Après avoir joué avec des transvasements successifs, il intègre le fait que la notion de hauteur du liquide dans le verre entre en compétition avec celle du diamètre du verre, et arbitre de son mieux entre les deux.
  • Il vit ensuite une expérience analogue en manipulant de la pâte à modeler : la réduction de plusieurs objets temporairement représentés à une même boule de pâte l’incite à dégager un concept de conservation de la quantité de matière.
    Au bout du compte, ces jeux d’enfants se révèlent essentiels à la formation de l’esprit, qui dégagent quelques règles pour arbitrer les différents éléments d’appréciation qu’il rencontre, par essais et erreurs.

Connexionnisme

Le connexionnisme, se référant aux processus auto-organisationnels, envisage la cognition comme le résultat d’une interaction globale des parties élémentaires d’un système. On ne peut nier que le chien dispose d’une sorte de connaissance des équations différentielles du mouvement, puisqu’il arrive à attraper un bâton au vol. Et pas davantage qu’un chat ait aussi une sorte de connaissance de la loi de chute des corps, puisqu’il se comporte comme s’il savait à partir de quelle hauteur il ne doit plus essayer de sauter directement pour se diriger vers le sol. Cette faculté qui évoque un peu l’intuition des philosophes se caractériserait par la prise en compte et la consolidation d’éléments perceptifs dont aucun pris isolément n’atteint le seuil de la conscience, ou en tout cas n’y déclenche d’interprétation particulière.

Synthèse

Trois concepts reviennent de façon récurrente dans la plupart des travaux :

  • la redondance (le système est peu sensible à des pannes ponctuelles) ;
  • la réentrance (les composants s’informent en permanence entre eux ; cette notion diffère de la réentrance en programmation) ;
  • la sélection (au fil du temps, les comportements efficaces sont dégagés et renforcés).
    Différentes facettes

On peut considérer différents dispositifs intervenant, ensemble ou séparément, dans un système d’intelligence artificielle tels que :

Au fil du temps, certains langages de programmation se sont avérés plus commodes que d’autres pour écrire des applications d’intelligence artificielle. Parmi ceux-ci, Lisp et Prolog furent sans doute les plus médiatisés. ELIZA (le premier agent conversationnel, donc pas de la « véritable » intelligence artificielle) tenait en trois pages de SNOBOL. On utilise aussi, plus pour des raisons de disponibilité et de performance que de commodité, des langages classiques tels que C ou C++. Lisp a eu pour sa part une série de successeurs plus ou moins inspirés de lui, dont le langage Scheme et les langages typés de la programmation fonctionnelle comme Haskell ou OCaml.

Des programmes de démonstration de théorèmes géométriques simples ont existé dès les années 1960 ; et des logiciels tels que Maple ou Mathematica effectuent aujourd’hui des travaux d’intégration symbolique qui, il y a trente ans encore, étaient du ressort d’un étudiant de mathématiques supérieures.

Domaines d’application

Illustration - Un robot NAO en 2014.

Illustration - Un assistant personnel intelligent fournissant un service client sur une page d’un site web, l’une des nombreuses applications très primitives de l’intelligence artificielle.

Article détaillé : Applications de l’intelligence artificielle.

https://www.myrhline.com/wp-content/uploads/2020/12/Fotolia_137032982_S-640x427.jpg

L’intelligence artificielle : une pratique de plus en plus utilisée par les entreprises ? 14 juin 2017 – « Aujourd’hui, les entreprises ont l’obligation de s’adapter aux changements permanents et doivent impérativement transformer leurs pratiques pour rester dans l’ère du temps. Et l’intelligence artificielle est une nouvelle méthode pour y procéder. Néanmoins est-elle réellement efficace ? Explications ! » - Source : https://www.myrhline.com/actualite-rh/lintelligence-artificielle-pratique-de-plus-plus-utilisee-entreprises.html

L’intelligence artificielle a été utilisée (ou intervient) dans une variété de domaines.

Finance et banques

  • la banque, avec des systèmes experts d’évaluation de risque lié à l’octroi d’un crédit (credit-scoring)[réf. souhaitée] ;
  • la finance avec des projets comme ceux de Bridgewater Associates où une intelligence artificielle va gérer entièrement un fonds67 ou encore la plateforme d’analyse prédictive Sidetrade.
    Militaire

Le domaine militaire utilise des systèmes tels que les drones, les systèmes de commandement et d’aide à la décision.

L’utilisation des intelligences artificielles dans le domaine militaire est devenu de plus en plus important. Les États-Unis ont dépensé 18 milliards de dollars pour trois années de recherches dans tous les domaines requis à l’automatisation de l’armement militaire68.

Une course aux armements à base d’IA est en cours, tel qu’illustré par le projet Maven aux États-Unis69.

Médecine

Article détaillé : Intelligence artificielle dans la santé.

  • la médecine, avec les systèmes experts d’aide au diagnostic[réf. souhaitée].
    En 2018, Google DeepMind, filiale de Google spécialisée dans la recherche avancée en intelligence artificielle, a publié les résultats d’une expérimentation d’intelligence artificielle pouvant détecter les maladies oculaires. Les résultats indiquent que l’IA le fait avec une marge d’erreur plus faible que les ophtalmologues70.

Droit

  • le droit, dans la perspective de prédire les décisions de justice, d’aider à la décision et de trancher les cas simples[réf. souhaitée].
    Logistique et transports

L’intelligence artificielle a par exemple été utilisée depuis longtemps dans la conception de joueurs artificiels pour le jeu d’échecs. Toutefois, c’est dans les jeux vidéo que l’intelligence artificielle s’est le plus popularisée.

Celle-ci bénéficie en effet des progrès de l’informatique, avec par exemple les cartes graphiques dédiées qui déchargent le processeur principal des tâches graphiques. Le processeur principal peut désormais être utilisé pour développer des systèmes d’IA plus perfectionnés. Par exemple, l’intelligence artificielle peut être utilisée pour « piloter » des bots (c’est-à-dire les personnages artificiels) évoluant dans les MMOGs ou les mondes virtuels, mais on peut aussi citer son utilisation dans des jeux de simulation, ou pour animer des personnages artificiels.

Dans le domaine du jeu vidéo, l’IA caractérise toute prise de décision d’un personnage (ou d’un groupe) géré par le jeu, et contraint par l’intérêt ludique : une « meilleure » IA ne donne pas forcément un jeu plus jouable71, l’objectif est de donner l’illusion d’un comportement intelligent71. L’éventail de sujets (recherche de chemin, animation procédurale, planifications stratégiques…) sont réalisables par des techniques classiques issues de l’IA symbolique (automates, script, systèmes multi-agents…), fortement dépendante de l’expertise humaine72. Cette approche est préférée par rapport aux techniques d’intelligence artificielle plus académiques (réseaux de neurones, algorithmes génétiques), car mieux contrôlée73. Ces approches partagent toutes les mêmes contraintes de ressources restreintes, que ce soit en mémoire, en temps de développement, ou en temps de calcul, même si globalement ces ressources augmentent plus les projets sont récents73. Jusqu’à la fin des années 1990, l’IA dans les jeux vidéo (plus particulièrement dans les jeux de stratégie en temps réel) a été délaissée par rapport au rendu visuel et sonore. L’« évolution vers des univers toujours plus réalistes, leur peuplement par des personnages […] aux comportements crédibles devient une problématique importante »72. Pour éviter ce contraste, et coupler dans le même temps au délestage d’une grosse partie de l’aspect graphique des processeurs vers les cartes graphiques74, on constate à cette période une augmentation des ressources investies dans l’IA (temps de développement, ressource processeur)74. Certains jeux sont précurseurs (Creatures, Black and White) car l’IA y constitue l’élément central ludique[réf. nécessaire]. Partant d’une approche à base de règles rigides, les jeux utilisent alors des IA plus flexibles, diversifiant les techniques mises en œuvre71. Aujourd’hui la plupart des jeux vidéo utilisent des solutions ad hoc, il existe néanmoins des solutions middleware et également des solutions matérielles75 toutefois très minoritaires [réf. nécessaire].

Avec les jeux en réseau, le besoin d’IA a tout d’abord été négligé74, mais, particulièrement avec l’apparition des jeux massivement multijoueur, et la présence d’un nombre très important de joueurs humains se confrontant à des personnages non joueur, ces derniers ont un besoin très important de pouvoir s’adapter à des situations qui ne peuvent être prévues. Actuellement ces types de jeux intéressent particulièrement des chercheurs en IA, y trouvant un environnement adéquat pour y éprouver différentes architectures adaptatives72.

L’« IA scriptée » est une forme d’intelligence artificielle sans apprentissage, du type : « si le joueur a telle position, alors faire prendre tel chemin à deux PNJ », sans que le logiciel sache que cela encercle le joueur, ou ne varie sa stratégie.

Art

Dès la fin des années 1980, des artistes s’emparèrent de l’intelligence artificielle pour donner un comportement autonome à leurs œuvres. Les français Michel Bret, Edmond Couchot et Marie-Hélène Tramus furent des pionniers ainsi qu’en témoignent des œuvres comme La Plume et Le Pissenlit (1988)76 puis La Funambule (2000), animée par un réseau de neurones. L’américain Karl Sims, en partenariat avec la société Thingking Machines, créa en 1993 Genetic Images, basées sur des algorithmes génétiques. Le couple franco-autrichien Laurent Mignonneau et Christa Sommerer créent depuis le début des années 1990 de nombreuses œuvres dans le champ de la vie artificielle, parmi lesquelles Interactive plant growing (1992) ou A-Volve (1994). Le français Florent Aziosmanoff propose quant à lui de considérer que l’emploi de l’intelligence artificielle dans l’art conduit à l’émergence d’une nouvelle discipline d’expression, qu’il nomme le Living art77.

Autres domaines

Il lui reste à faire, entre autres, en intelligence artificielle faible :

  • générateur de film complet, en image de synthèse, de A à Z, à partir des souhaits des utilisateurs [pertinence contestée][réf. souhaitée] ;
  • robot employé de maison [réf. souhaitée] ;
  • le débogage informatique [réf. souhaitée] ;
  • en programmation informatique [réf. souhaitée] ;
  • en journalisme : des « robots journalistes » pourraient à terme aider les journalistes en les débarrassant de tâches ingrates, notamment la veille ou la vérification des fake news78.
    Précurseurs

Si les progrès de l’intelligence artificielle sont récents, ce thème de réflexion est tout à fait ancien, et il apparaît régulièrement au cours de l’histoire. Les premiers signes d’intérêt pour une intelligence artificielle et les principaux précurseurs de cette discipline sont les suivants.

Automates - rticle connexe : Automate.

Une des plus anciennes traces du thème de « l’homme dans la machine » date de 800 avant notre ère, en Égypte. La statue du dieu Amon levait le bras pour désigner le nouveau pharaon parmi les prétendants qui défilaient devant lui, puis elle « prononçait » un discours de consécration. Les Égyptiens étaient probablement conscients de la présence d’un prêtre actionnant un mécanisme et déclarant les paroles sacrées derrière la statue, mais cela ne semblait pas être pour eux contradictoire avec l’incarnation de la divinité. Vers la même époque, Homère, dans L’Iliade (XVIII, 370–421), décrit les automates réalisés par le dieu forgeron Héphaïstos : des trépieds munis de roues en or, capables de porter des objets jusqu’à l’Olympe et de revenir seuls dans la demeure du dieu ; ou encore, deux servantes forgées en or qui l’assistent dans sa tâche. De même, le Géant de bronze Talos, gardien des rivages de la Crète, était parfois considéré comme une œuvre du dieu.

Vitruve, architecte romain, décrit l’existence entre le IIIe et le Ier siècle avant notre ère, d’une école d’ingénieurs fondée par Ctesibius à Alexandrie, et concevant des mécanismes destinés à l’amusement tels des corbeaux qui chantaient. Héron L’Ancien décrit dans son traité « Automates », un carrousel animé grâce à la vapeur et considéré comme anticipant les machines à vapeur. Les automates disparaissent ensuite jusqu’à la fin du Moyen Âge. On a prêté à Roger Bacon la conception d’automates doués de la parole ; en fait, probablement de mécanismes simulant la prononciation de certains mots simples.

Léonard de Vinci a construit en 1515 un automate en forme de lion pour amuser le roi de France, François I79. Gio Battista Aleotti et Salomon de Caus, eux, ont construit des oiseaux artificiels et chantants, des flûtistes mécaniques, des nymphes, des dragons et des satyres animés pour égayer des fêtes aristocratiques, des jardins et des grottes. René Descartes, lui, aurait conçu en 1649 un automate qu’il appelait « ma fille Francine ». Il conduit par ailleurs une réflexion d’un modernisme étonnant sur les différences entre la nature des automates, et celles d’une part des animaux (pas de différence) et d’autre part celle des hommes (pas d’assimilation). Ces analyses en font le précurseur méconnu d’un des principaux thèmes de la science-fiction : l’indistinction entre le vivant et l’artificiel, entre les hommes et les robots, les androïdes ou les intelligences artificielles.

Reproduction - Le canard artificiel de Vaucanson (1738). Jacques de Vaucanson a construit en 1738 un « canard artificiel de cuivre doré, qui boit, mange, cancane, barbote et digère comme un vrai canard ». Il était possible de programmer les mouvements de cet automate, grâce à des pignons placés sur un cylindre gravé, qui contrôlaient des baguettes traversant les pattes du canard. L’automate a été exposé pendant plusieurs années en France, en Italie et en Angleterre, et la transparence de l’abdomen permettait d’observer le mécanisme interne. Le dispositif permettant de simuler la digestion et d’expulser une sorte de bouillie verte fait l’objet d’une controverse. Certains commentateurs estiment que cette bouillie verte n’était pas fabriquée à partir des aliments ingérés, mais préparée à l’avance. D’autres estiment que cet avis n’est fondé que sur des imitations du canard de Vaucanson. Malheureusement, l’incendie du Musée de Nijni Novgorod en Russie vers 1879 détruisit cet automate.

Les artisans Pierre et Louis Jaquet-Droz fabriquèrent parmi les meilleurs automates fondés sur un système purement mécanique, avant le développement des dispositifs électromécaniques. Certains de ces automates, par un système de cames multiples, étaient capables d’écrire un petit billet (toujours le même). Enfin, Les Contes d’Hoffmann (et ballet) L’Homme au sable décrit une poupée mécanique dont s’éprend le héros.

Pensée automatique

Parmi les premiers essais de formalisation de la pensée, les tentatives suivantes peuvent être citées :

  • Raymond Lulle, missionnaire, philosophe, et théologien espagnol du XIIIe siècle, a fait la première tentative pour engendrer des idées par un système mécanique. Il combinait aléatoirement des concepts grâce à une sorte de règle à calcul, un zairja, sur laquelle pivotaient des disques concentriques gravés de lettres et de symboles philosophiques. Il baptisa sa méthode Grand Art (Ars Magna), fondée sur l’identification de concepts de base, puis leur combinaison mécanique soit entre eux, soit avec des idées connexes. Raymond Lulle appliqua sa méthode à la métaphysique, puis à la morale, à la médecine et à l’astrologie. Mais il n’utilisait que la logique déductive, ce qui ne permettait pas à son système d’acquérir un apprentissage, ni davantage de remettre en cause ses principes de départ : seule la logique inductive le permet.
  • Gottfried Wilhelm Leibniz, au XVIIe siècle, a imaginé un calcul pensant (calculus rationator), en assignant un nombre à chaque concept. La manipulation de ces nombres aurait permis de résoudre les questions les plus difficiles, et même d’aboutir à un langage universel. Leibniz a toutefois démontré que l’une des principales difficultés de cette méthode, également rencontrée dans les travaux modernes sur l’intelligence artificielle, est l’interconnexion de tous les concepts, ce qui ne permet pas d’isoler une idée de toutes les autres pour simplifier les problèmes liés à la pensée.
  • George Boole a inventé la formulation mathématique des processus fondamentaux du raisonnement, connue sous le nom d’algèbre de Boole. Il était conscient des liens de ses travaux avec les mécanismes de l’intelligence, comme le montre le titre de son principal ouvrage paru en 1854 : Les lois de la pensée (The laws of thought), sur l’algèbre booléenne.
  • Gottlob Frege perfectionna le système de Boole en formalisant le concept de prédicat, qui est une entité logique soit vraie, soit fausse (toute maison a un propriétaire), mais contenant des variables non logiques, n’ayant en soit aucun degré de vérité (maison, propriétaire). Cette formalisation eut une grande importance puisqu’elle permit de démontrer des théorèmes généraux, simplement en appliquant des règles typographiques à des ensembles de symboles. La réflexion en langage courant ne portait plus que sur le choix des règles à appliquer. Par ailleurs, l’utilisateur joue un rôle important puisqu’il connaît le sens des symboles qu’il a inventés et ce sensd n’est pas toujours formalisé, ce qui ramène au problème de la signification en intelligence artificielle, et de la subjectivité des utilisateurs.
  • Bertrand Russell et Alfred North Whitehead publièrent au début du XXe siècle un ouvrage intitulé Principia mathematica, dans lequel ils résolvent des contradictions internes à la théorie de Gottlob Frege. Ces travaux laissaient espérer d’aboutir à une formalisation complète des mathématiques.
  • Kurt Gödel démontre au contraire que les mathématiques resteront une construction ouverte, en publiant en 1931 un article intitulé « Des propositions formellement indécidables contenues dans les Principia mathematica et autres systèmes similaires ». Sa démonstration est qu’à partir d’une certaine complexité d’un système, on peut y créer plus de propositions logiques qu’on ne peut en démontrer vraies ou fausses. L’arithmétique, par exemple, ne peut trancher par ses axiomes si on doit accepter des nombres dont le carré soit -1. Ce choix reste arbitraire et n’est en rien lié aux axiomes de base. Le travail de Gödel suggère qu’on pourra créer ainsi un nombre arbitraire de nouveaux axiomes, compatibles avec les précédents, au fur et à mesure qu’on en aura besoin. Si l’arithmétique est démontrée incomplète, le calcul des prédicats (logique formelle) est au contraire démontré par Gödel comme complet.
  • Alan Turing invente des machines abstraites et universelles (rebaptisées les machines de Turing), dont les ordinateurs modernes sont considérés comme des concrétisations. Il démontre l’existence de calculs qu’aucune machine ne peut faire (un humain pas davantage, dans les cas qu’il cite), sans pour autant que cela constitue pour Turing un motif pour douter de la faisabilité de machines pensantes répondant aux critères du test de Turing.
  • Irving John Good80, Myron Tribus et E.T. Jaynes ont décrit de façon très claire les principes assez simples d’un robot à logique inductive utilisant les principes de l’inférence bayésienne pour enrichir sa base de connaissances sur la base du Théorème de Cox-Jaynes. Ils n’ont malheureusement pas traité la question de la façon dont on pourrait stocker ces connaissances sans que le mode de stockage entraîne un biais cognitif. Le projet est voisin de celui de Raymond Lulle, mais fondé cette fois-ci sur une logique inductive, et donc propre à résoudre quelques problèmes ouverts.
  • Robot à logique inductive81.
  • Des chercheurs comme Alonzo Church ont posé des limites pratiques aux ambitions de la raison, en orientant la recherche (Herbert Simon, Michael Rabin, Stephen Cook) vers l’obtention des solutions en temps fini, ou avec des ressources limitées, ainsi que vers la catégorisation des problèmes selon des classes de difficulté (en rapport avec les travaux de Cantor sur l’infini)[réf. souhaitée].
    Questionnements - Article connexe : Éthique de l’intelligence artificielle.

Les succès en IA encouragent les spéculations. Dans les milieux technophiles, on verse en général dans l’enthousiasme, le mouvement transhumaniste en est la meilleure expression. Au contraire, d’autres s’inquiètent et sont portées par des interrogations, parfois alarmistes, y compris dans la sphère de la haute technologie. Ainsi, des figures réputées telles que Bill Gates — ancien PDG de Microsoft et « figure emblématique de la révolution informatique de la fin du XXe siècle »82 — pensent qu’il faut rester très prudent quant aux développements futurs de ces technologies, qui pourraient devenir liberticides ou dangereuses.

Le développement de l’intelligence artificielle suscite un grand nombre de questions, notamment celle relative à la possibilité pour les robots ou cyborgs d’accéder un jour à la conscience, d’éprouver des émotions et finalement se substituer aux humains. Certaines de ces réactions sont ouvertement optimistes, d’autres sont au contraire pessimistes. En 2016, l’INRIA publie un premier Livre blanc consacré à l’IA83.

Espoirs et enthousiasme

Une description spectaculaire d’un possible avenir de l’intelligence artificielle a été faite par le statisticien anglais Irving John Good : « supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. La conception de telles machines faisant partie des activités intellectuelles, cette machine pourrait à son tour créer des machines meilleures qu’elle-même ; cela aurait sans nul doute pour effet une réaction en chaîne de développement de l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que la machine ultra intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir »84.

Photo - Pour l’Américain Ray Kurzweil, l’intelligence artificielle dépassera bientôt l’intelligence naturelle.

La mutation qu’évoque Good correspond à un changement qualitatif du principe même de progrès, et certains la nomment « singularité »85 qui est un concept central pour de nombreux transhumanistes, qui s’interrogent très sérieusement sur les dangers ou les espoirs d’un tel scénario, certains allant jusqu’à envisager l’émergence d’un « dieu » numérique appelé à prendre le contrôle du destin de l’humanité, ou à fusionner avec elle.

Good estimait à un peu plus d’une chance sur deux la mise au point d’une telle machine avant la fin du XXe siècle. La prédiction ne s’est toujours pas réalisée, en 2012, mais elle avait imprégné le public à l’époque : le cours de l’action d’IBM quadrupla[réf. nécessaire] (bien que les dividendes trimestriels versés restèrent à peu de près constants) dans les mois qui suivirent la victoire de Deep Blue sur Garry Kasparov. Une partie du grand public était en effet persuadée qu’IBM venait de mettre au point le vecteur d’une telle explosion de l’intelligence et que cette compagnie en tirerait profit. L’espoir fut déçu : une fois sa victoire acquise, Deep Blue, simple calculateur évaluant 200 millions de positions à la seconde, sans conscience du jeu lui-même, fut reconverti en machine classique utilisée pour l’exploration de données.

Le développement de l’intelligence artificielle suscite l’enthousiasme des transhumanistes, notamment celui de l’ingénieur américain Ray Kurzweill, selon qui il est évident qu’à plus ou moins long terme, l’intelligence - jusqu’alors confinée dans son support biologique, le cerveau - deviendra progressivement non-biologique et considérablement plus puissante au point que des cyborgs remplaceront les humains, ceci en vertu de ce qu’il appelle le principe de singularité86.

Critiques et inquiétudes

Photo - Le développement de l’intelligence artificielle suscite un certain nombre de craintes, y compris au sein de la sphère high tech. En 2015, Bill Gates, ex-PDG de Microsoft, s’inquiète à ce sujet87.

Le développement de l’intelligence artificielle ne génère pas que de l’enthousiasme, il suscite également les plus vives inquiétudes, en premier lieu d’un certain nombre d’auteurs de science-fiction, tels Isaac Asimov, William Gibson ou Arthur C. Clarke qui, sur le modèle du récit de l’Apprenti sorcier, décrivent le risque d’une perte de contrôle des humains sur le processus technique. Tout récemment, différents intellectuels ont également pris position.

Ainsi l’astrophysicien Stephen Hawking, selon qui le risque est réel que des machines deviennent un jour plus intelligentes que les humains et finissent par les dominer, voire se substituer à eux, de la même façon que les humains ont exterminé certaines espèces animales et la majorité des virus88. Il pose en novembre 2017 au salon technologique Web Summit de Lisbonne la question suivante « Serons-nous aidés par l’intelligence artificielle ou mis de côté, ou encore détruits par elle ? »89

D’autres personnalités reconnues, notamment dans le milieu de la high tech, expriment publiquement des craintes similaires. C’est ainsi le cas, en 2015, de Bill Gates, Elon Musk et Bill Joy90. Selon le spécialiste américain de l’informatique Moshe Vardi, l’intelligence artificielle pourrait mettre 50 % de l’humanité au chômage. « Nous approchons d’une époque où les machines pourront surpasser les hommes dans presque toutes les tâches ». Son avènement poserait, à terme, la question de l’utilité même de l’espèce humaine91.

Certains industriels prennent ces risques au sérieux. Ainsi, en 2016, Google pose la question du manque de contrôle potentiel d’agents apprenants qui pourraient apprendre à empêcher leur interruption dans une tâche. C’est dans ce sens que la firme développe un « bouton rouge » intégré en bas niveau dans les IA permettant de désactiver les intelligences artificielles, sans possibilité de contournement par celle ci (au delà de simplement « tuer » l’IA, l’objectif de ce « bouton rouge » est aussi de la geler dans son process, en évitant de l’arrêter, et éviter ainsi une remise à zéro des apprentissages ou des calculs en cours)92.

Ce risque est aussi pris au sérieux sur le plan juridique. Ainsi, le parlement européen, a demandé à la commission d’étudier le fait qu’un robot doté d’une intelligence artificielle puisse être considéré comme une personne juridique93. Dans le cadre d’un dommage causé par une intelligence artificielle, celle-ci pourrait être condamnée à réparer un dommage causé à un tiers. Il serait envisageable de conférer la personnalité électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers. Au même titre qu’une personne morale et physique.

Critique de la technique et de la technologie

Comme l’explique l’historien François Jarrige, la critique de l’intelligence artificielle trouve son origine dans celle - plus ancienne et plus générale - des techniques et de la technologie, dont Lewis Mumford (aux États-Unis)94, Jacques Ellul (en France)95 et Günther Anders (en Allemagne)96 sont au XXe siècle les principaux instigateurs, et qui inspire aujourd’hui différents cercles militants (en France, par exemple : Pièces et Main d’Œuvre97 et Technologos98)99.

Selon Jarrige, leurs thèses restent peu connues ou controversées du fait que le « progrès » et l’« État » restent encore largement surestimés. Ainsi, reprenant les analyses d’Ellul100, les animateurs du groupe Technologos estiment que l’État est de loin le moins qualifié pour enrayer l’autonomisation du processus technicien101 et qu’il appartient aux individus de briser les mythes de l’État providence et du progrès technique : « Ce n’est pas la technique qui nous asservit mais le sacré transféré à la technique (...). Ce n’est pas l’État qui nous asservit, c’est sa transfiguration sacrale »102.

Dans un rapport en date de février 2018 intitulé The Malicious Use of Artificial Intelligence 26 experts spécialistes en intelligence artificielle mettent en garde contre les dangers d’un usage criminel de l’IA : augmentation de la cybercriminalité, conduire à des utilisations de drones ou de robots à des fins terroristes, etc.103.

Questionnements éthiques

Le 28 septembre 2016, les géants du secteurs de l’intelligence artificielle mettent en place un « partenariat pour l’intelligence artificielle au bénéfice des citoyens et de la société »104. L’année suivante, Google DeepMind se dote d’une unité en interne pour aborder les questions éthiques105.

Le 18 juillet 2018, 2 400 chercheurs, ingénieurs et personnalités du secteur de l’intelligence artificielle signent une lettre ouverte106, s’engageant à « ne jamais participer ou soutenir le développement, la fabrication, le commerce ou l’usage d’armes létales autonomes ». La lettre précise notamment que « La décision de prendre une vie humaine ne devrait jamais être déléguée à une machine. ». Parmi les signataires, se trouvent Elon Musk, les dirigeants de Google DeepMind, Stuart Russell, Yoshua Bengio ou encore Toby Walsh107.

Perspectives et projections dans le futur

Des chercheurs de l’Institut de l’avenir de l’humanité de l’Université d’Oxford, de l’Université de Yale et d’AI Impact ont sondé 352 experts en apprentissage par machine pour prévoir les progrès de l’IA au cours des prochaines décennies108.

Les experts ont été interrogés sur le calendrier des capacités et des professions spécifiques, ainsi que leurs prédictions quant à savoir quand l’IA deviendra supérieure aux humains dans toutes les tâches108. Et quelles en seraient les implications sociales également108. Les chercheurs ont prédit que les machines seront meilleures que les humains dans le domaine de la traduction de langues d’ici 2024108. Elles seraient capables de rédiger des essais d’ici 2026108. De conduire des camions d’ici 2027 et travailler dans le commerce et la vente en 2031108.

D’ici 2050, elles pourront écrire des best-sellers ou exécuter des travaux de chirurgiens108. Selon les chercheurs, il existe 50 % de chance pour que l’intelligence artificielle dépasse les humains dans tous les domaines en seulement 45 ans108. Et, selon la même probabilité, ils disent que les machines pourraient prendre en charge tous les emplois humains en 120 ans108. Certains disent même que cela pourrait se produire plus tôt108.

Dans la science-fiction

Illustration - HAL 9000. Article détaillé : Liste d’ordinateurs de fiction.

Voir aussi la catégorie :

Nuvola apps kpager.svg  Intelligence artificielle dans l’art et la culture 

Le thème d’une machine capable d’éprouver une conscience et des sentiments — ou en tout cas de faire comme si tel était le cas — constitue un grand classique de la science-fiction, notamment dans la série de romans d’Isaac Asimov sur les robots.

Ce sujet a toutefois été exploité très tôt, comme dans le récit des aventures de Pinocchio, publié en 1881, où une marionnette capable d’éprouver de l’amour pour son créateur cherche à devenir un vrai petit garçon, ou dans L’Homme le plus doué du monde, une nouvelle de l’Américain Edward Page Mitchell où le cerveau d’un simple d’esprit est remplacé par un ordinateur inspiré des recherches de Charles Babbage. Le roman Le Miroir flexible de Régis Messac propose quant à lui le principe d’une intelligence artificielle faible, mais évolutive, avec des automates inspirés de formes de vie simples, réagissant à certains stimuli tels que la lumière. Cette trame a fortement inspiré le film A.I. Intelligence artificielle réalisé par Steven Spielberg, sur la base des idées de Stanley Kubrick, lui-même inspiré de Brian Aldiss. L’œuvre de Dan Simmons, notamment le cycle d’Hypérion, contient également des exposés et des développements sur le sujet. Autre œuvre majeure de la science fiction sur ce thème, Destination vide de Frank Herbert, met en scène de manière fascinante l’émergence d’une intelligence artificielle forte.

Les androïdes faisant preuve d’intelligence artificielle dans la fiction sont nombreux : le personnage de Data de la série télévisée Star Trek : The Next Generation est un être cybernétique doué d’intelligence, avec des capacités importantes d’apprentissage. Il est officier supérieur sur le vaisseau Enterprise et évolue aux côtés de ses coéquipiers humains qui l’inspirent dans sa quête d’humanité. Il est la représentation type de l’androïde, tel qu’il était pensé dans les années 1980. Son pendant cinématographique est Bishop dans les films Aliens (1986) et Alien 3 (1992). Dans le manga Ghost in the Shell, une androïde s’éveille à la conscience. Dans la saga Terminator avec Arnold Schwarzenegger, le T-800 reprogrammé, conçu initialement pour tuer, semble dans la capacité d’éprouver des sentiments humains. Par ailleurs, les Terminators successifs sont envoyés dans le passé par Skynet, une intelligence artificielle qui a pris conscience d’elle-même, et du danger que représentent les humains envers elle-même….

Lire la suite de l’article avec toutes les notes et références sur ce site : http://wikimonde.com/article/Intelligence_artificielle

Auteurs : Aoineko, Anthere, Shaihulud, Meszigues, MarcQuinton, Hashar, Almak, Valéry Beaud, Marc Girod, Parmentier, Med, Ryo, Snark Boojum, Youandme, Koxinga, Vargenau, Looxix, Albin, Orthogaffe, Vincent Ramos, Traroth, Ellisllk, Spicalioth, Jeffdelonge, Céréales Killer, Jmtrivial, Aurelienc, Kelson, JMVF, (:Julien :), Howard Drake, Moala, HasharBot, Abrahami, Nojhan, Deuxtroy, Kneiphof, Gem, Zubro, Koyuki, Jd, Tom frwiki, Toch, FoeNyx, Virgile, RegisDecamps, ZeroJanvier, Okki, Ludo78, Fafnir, Verdy p, Alkarex, Sanao, Phe, Marc Mongenet, MedBot, Alex Marandon, Sam Hocevar, Zirco, Neuromancien, Oblic, Phe-bot, Ivanoff, Turb, FH, François-Dominique, Bibi Saint-Pol, Domsau2, Romainhk, Guiwald, W’rkncacnter, Ollamh, Markadet, Hégésippe Cormier, Kassus, Tarap, Tuilindo, Jean-no, Hesoneofus, Artocarpus, GL, Jef-Infojef, Bradipus, Fclautiaux, Pixeltoo, N…

Résultat de recherche d’images pour ’wikimonde.com’

Source : http://wikimonde.com/article/Intelligence_artificielle

Retour au sommaire

19.
L’IA est stupide et dangereuse Par Taverne mardi 9 janvier 2018 – Document ‘agoravox.fr’.

Haut du formulaire

Bas du formulaire

Haut du formulaire

Bas du formulaire

Nous allons tenter de montrer ici que ce qui fait le danger de l’Intelligence artificielle, ce n’est pas son intelligence forte à venir mais au contraire sa stupidité irrémédiable. L’IA même forte est loin de pouvoir prétendre égaler l’esprit humain et même animal. Pour deux raisons au moins. Elle n’a pas l’instinct de survie, elle n’a la notion du juste. Or, même l’être le plus primitif possède ces deux fonctions. Et ces deux fonctions manquantes chez l’IA font que l’IA n’est pas accessible à la sensibilité, à l’émotion, à l’intuition. Ces trois choses ne peuvent qu’être simulées par une machine, pas vécues. Il en résulte que la plus grande partie de l’intelligence, sa part essentielle, échappe complètement à l’IA. A l’opposé, l’IA peut nous surclasser dans l’art de penser juste (voir mon article : une méthode pour penser juste) qui requiert du sang-froid, du recul, de la distance avec les choses et les émotions. Si on résume ainsi les faits : l’IA est à la fois stupide et dangereuse.

I – L’IA ne peut pas connaître l’idée du juste

Antonio Damasio, grande figure américaine des neurosciences, auteur notamment de « L’erreur de Descartes » et de « Spinoza avait raison », écrit dans son dernier livre paru, « L’Ordre étrange des choses » que les simples bactéries préhistoriques avaient déjà le sens du juste. En cela, il confirme ce que j’ai évoqué dans mon article (« La gestion des migrants et les faux dilemmes ») dans lequel j’explique que le juste possède un enracinement fondamental dans la nature même et que nous devons nous en inspirer avant d’échafauder des lois morales. Damasio explique que les bactéries qui sentent un « déserteur » le chassent parce que l’égoïsme de celui-ci met en péril la cohésion du groupe de cellules et donc à terme sa survie. Une cellule, tout un groupe d’animaux primitifs, est capable d’exclure un individu qui va contre la notion de juste, le juste étant une nécessité vitale collective.

Ce qui est juste trouve son fondement dans ce qui est bon pour soi ou pour le groupe, ce qui est injuste est ce qui est mauvais à l’échelle collective comme sur un plan personnel. Damasio donne l’exemple couramment observé dans la nature de la rétractation et de la détente : une cellule dont le métabolisme, les échanges sont satisfaisants se détend. Confrontée à un stress, elle se rétracte. (source : L’Obs n°2772). On peut le voir aussi avec les plantes dont les feuilles et les fleurs se détendent pour capter ce qui est bon (la lumière) et se replient pour se protéger. Cette règle naturelle trouve aussi à s’appliquer dans le groupe social qui se détend et fait preuve d’hospitalité envers les inconnus quand il va bien (nourriture en abondance) mais qui se repliera sur lui-même s’il se sent menacé. Une société évoluée doit perpétuer cette règle naturelle mais en dissociant bien les cas. J’ai donné l’exemple des migrants qui provoquent une peur panique excessive au sein de notre nation qui répond par des réflexes inadaptés et surtout injustes. Alors qu’elle pourrait lutter plus efficacement contre l’immigration non légitime et non souhaitable si elle savait raison garder. Mais surtout, ce qu’il faut avoir en tête pour reste dans le sujet, c’est que l’IA est encore moins apte que les êtres humains à apprécier les situations et à leur appliquer des réponses justes. L’IA n’étant pas d’origine naturelle, le juste est une notion qui lui échappe à jamais. Face à la question aussi complexe que l’immigration, ses réponses seraient épouvantables car elle inapte, fondamentalement, à approcher ce genre de complexité humaine et sociale.

II – L’IA n’est (pas) créative

Revenons à la thèse de Damasio. Cet auteur dit aussi que l’être vivant, tout comme le corps social, ne se transforme que lorsque sa survie l’exige. Ce sont les situations de souffrance qui nous poussent à rechercher des solutions. L’évolution naturelle n’ignore pas non plus ce principe. Mais l’IA n’est pas issue de la sélection naturelle et elle n’est pas équipée de l’instinct de survie. Son potentiel créatif est ainsi très faible, du fait même de la nature de sa conception. Elle n’a pas connu non plus les stades liés à l’avancée en âge, stades qui nous modifient considérablement et nous font avancer. L’IA est d’ailleurs incapble de comprendre l’idée de l’âge d’une personne !

Avec l’instinct de survie, il y a les émotions. Et ces émotions prennent toujours part à nos choix décisifs, que ce soit les émotions négatives (peur, dégoût, honte, tristesse, colère) que les émotions positives (joie, bien-être, empathie…). Et l’émotion de grandir telle que nous venons de l’évoquer ci-dessus. Quoi que l’on fasse, l’IA ne pourra jamais ressentir ces états, indissociables de la puissance de vie et de l’instinct de survie qu’elle n’a pas.

III – La condition humaine est étrangère à l’IA

Ceci est le troisième argument.

Si l’on pouvait dresser un profil d’une vie humaine standard, on listerait un certains nombres de choses que l’IA ne peut pas acquérir :

 nos buts dans la vie (bonheur, vérité, justice, liberté),

 nos moteurs (confiance, désir, volonté),

 nos méthodes (intuition, sensibilité, imagination, motivation, sens de l’effort et du dépassement),

 nos moyens (le savoir et l’ignorance délibérée de certaines choses, la mémoire et un certain oubli nécessaire, la vérité et l’art du mensonge et de la fiction incluant l’humour).

Dans cette liste, cherchez donc l’IA !

La conscience de la mort inévitable influe considérablement sur le comportement humain au point que ce dernier régle sa vie sur cette angoisse récurrente. Il deviendra croyant ou décidera de vivre vite (ou au contraire de se préserver au maximum pour durer longtemps). Il développera des valeurs et des croyances en réactions de l’idée de sa fin. Il développera des vertus pour gagner son salut, etc. L’IA en est incapable.

Autre exemple. Face à la souffrance, à son sentiment d’impuissance dans un monde infini et au sein duquel l’individu se sent fort peu de chose, l’être humain développe un égo, une volonté de puissance, ainsi que des mythes rassurants pour se donner de l’importance. Il développera va domestiquer sa propre nature, chercher à se dépasser. Il sera capable de sacrifice personnel ou d’héroïsme, deux idées inconcevables pour une machine qui n’a pas cette force issue de la nature. C’est ainsi que l’individu acquiert de la valeur à ses propres yeux, démarche nécessaire pour sa survie mentale et pour la construction de son identité. Chez l’IA au contraire, pas d’égo ni de volonté de puissance, ni d’identité forgée à la force des épreuves et dans la confrontation aux autres et aux aléas de la vie.

Quant au libre arbitre aussi, l’homme, la femme, peuvent choisir de diriger leur attention comme ils le décident : pour écouter un interlocuteur malgré le brouhaha ambiant, pour écouter une musique, pour regarder une chose qui l’intéresse , pour reconstituer un souvenir et le revivre (voir Proust). L’être humain choisit ses centres d’intérêt et définit en conséquence le champ de son attention et donc aussi le champ de sa conscience. L’IA est attentive seulement à ce que pour quoi on l’a programmée.

Enfin, il y tout l’aspect relationnel qui fait l’intelligence humaine. Un humain qui vivrait solitaire depuis toujours n’aurait ni identité ni le sens du juste, parce qu’il ne serait jamais entré en interaction avec des congénères. Il serait comme une machine dite ’intelligente’ : sans identité propre (créée de façon empirique et « naturelle ») et sans justice, sans empathie non plus (elle sera seulement programmée, simulée !). On sait que les interactions jouent un rôle important dans la formation des intelligences humaines prises isolément ou collectivement. C’est ainsi que les humains aiment communier ou se déchirer en mettant en scène des enjeux qui amplifient leurs émotions. Les humains ont besoin d’émotion et, pour ce faire, ils créent beaucoup d’histoire, se font la guerre, etc. L’IA n’a pas en elle un instinct qui la pousse à rechercher les émotions fortes.

Et, puisqu’il faut aussi le dire, elle n’a pas de désir sexuel et ne connaît pas le plaisir physique. Pourtant, l’amour enrichit notre conscience et notre intelligence générale. L’IA est aussi stupide sur ce point-là. Avouez que cela fait déjà beaucoup de points sur lesquels l’IA n’égale ni l’homme ni l’animal. Ni même parfois le végétal. L’interaction c’est enfin l’amitié, l’amour. Depuis toujours elles mènent le monde. Qu’adviendra-t-il si à l’avenir elles ne font plus partie des facteurs et des paramètres qui dessinent les grands choix de nos sociétés, de nos lois, de nos existences ?

Tous ces manques, irrémédiables, font de l’intelligence artificielle dite forte une source de danger très inquiétante pour nous dans le futur. L’intelligence artificielle est stupide et à trop vivre à son contact, l’homme risque de le devenir aussi. Il risque de perdre des points de QI (on dit que cela a déjà commencé) et pas seulement cette forme d’intelligence mesurable, mais sa sensibilité et son imagination aussi. Quand un être dépend avant tout de lui-même pour survivre et faire ses choix difficiles, sa souffrance et ses efforts participent au développement de son intelligence grâce aux réponses ingénieuses qu’il doit élaborer dans son autonomie totale pour faire face à tout cela. Mais s’ils se reposent sur des algorithmes pour prendre des décisions et sur les choix qu’on lui propose grâce aux traces laissées dans son ordinateur, il perd en capacité de jugement et en étendue d’entendement.

La machine n’aura jamais cette relation avec l’univers et le cosmos, cette communion avec la nature et avec notre corps. Elle n’a pas le sens de la danse, ni de la transe, ni la joie créatrice. Elle ne sentira jamais la palpitation de la vie, la sève de toutes choses, ni les sensations propre à l’intimité (trouble amoureux, pudeur, honte...). Il est une question, grande source de la philosophie et des sciences, qu’avec l’IA, l’homme pourrait ne plus se poser, une question qui pourtant l’a de tous temps accommpagné et a suscité la curiosité de son esprit : la question ’pourquoi ?’

Sur le même thème

L’intelligence artificielle n’est-elle qu’un cerveau artificiel ?
Intelligence artificielle : réalités ou fantasmes ?
Principes de guerre et intelligence artificielle
L’intelligence artificielle : futur bras droit des médecins ?
Les trois grandes libertés de l’être humain


Source : https://www.agoravox.fr/tribune-libre/article/l-ia-est-stupide-et-dangereuse-200403

Retour au sommaire

20.

Sélection d’accès à divers documents pédagogiques sur l’intelligence artificielle

Qu’est-ce que l’intelligence artificielle ? L’apprentissage machinehttps://www.college-de-france.fr/.../UPL4485925235409209505_Intelligence_Artifici...

Intelligence Artificielle – Inriahttps://www.inria.fr/content/download/103897/1529370/.../AI_livre-blanc_n01.pdf

http://Introduction à L'Intel...

Introduction à L’Intelligence Artificielle - Département d’informatique et ...www.iro.umontreal.ca/ aimeur/cours/ift6261/Ch1-Intro-IA-IFT6261-H-11.pdf

Initiation à l’Intelligence Artificielle - Mines Saint-Étiennehttps://www.emse.fr/ picard/cours/1A/IA/prolog.pdf2010-2011 Avoir un aperçu (forcément partiel) de l’Intelligence Artificielle .....

L’intelligence artificiellehttps://www.ccmontmagny.com/sites/.../22%20nov%20-%20conf6%20-%20IA.PDF- 31 oct. 2017 - L’intelligence artificielle. Place à la prochaine revolution industrielle. Alain Lavoie. Irosoft. Hugo Larochelle. Google Brain. Narjes Boufaden.

Intelligence artificielle - ppt video online télécharger – SlidePlayer L’intelligence Artificielle – Canalblog 2009-2010p9.storage.canalblog.com/98/38/493197/73842073.ppt- Première partie : Historique de l’intelligence artificielle ; Qu’est-ce que l’IA ? Les grands domaines de l’IA. Deuxième partie : Généralités et historique du système ...

Retour au début du dossier

Retour à l’introduction

Retour au début su sommaire


Addenda - L’Université du futur, un outil de réflexion et de prospective dédiée à la révolution numérique. Une initiative du Conseil Régional de Nouvelle Aquitaine – Message de la ’Région Nouvelle-Aquitaine’ en date du 23/11/18 11:28 – Extraits.

Robotisation, médecine, travail, éducation… Comment l’intelligence artificielle va-t-elle changer nos vies ? Des spécialistes des nouvelles technologies, de l’économie, médecins, intellectuels, élus, seront présents le 30 novembre 2018 au Théâtre de l’Union à Limoges pour réfléchir aux grandes disruptions qui se profilent. Parce que l’anticipation et l’innovation constituent la clef de voûte de notre développement, la Région a créé l’Université du Futur pour répondre aux grands défis du siècle. Portée par le Docteur François Vincent, président de la Commission « Enseignement supérieur » de la Nouvelle - Aquitaine, l’Université du Futur est un outil de prospective et de réflexion sur la révolution numérique et ses conséquences vertigineuses dans tous les domaines.

Donner au grand public une vision panoramique d’un nouveau monde numérique en débattre, créer des vocations, et permettre à chacun de mieux anticiper l’avenir, notamment pour l’orientation des jeunes, seront les missions principales de l’Université du Futur. Interdisciplinaire par définition, l’Université du Futur devra contribuer à transformer les menaces des nouvelles technologies en autant d’opportunités de développement économique, et donc en création de valeurs et d’emplois.

Dans un univers numérique largement anglo-saxon, l’Université du Futur dispensera une vision francophone, humaniste et raisonnée des technologies de rupture qui impactent ou impacteront tous les domaines : économie, santé, mobilité, agriculture, sécurité, éducation ou encore culture. Au sein du pôle Développement Économique de la Région Nouvelle-Aquitaine, l’Université du Futur a également pour vocation de contribuer au développement des technologies d’avenir à travers nos territoires : nanotechs, biotechs, infotechs, sciences cognitives, Intelligence Artificielle ... Et de veiller à toujours privilégier l’intérêt de l’humain en accompagnant le progrès, car « Science sans conscience n’est que ruine de l’âme ». Alain ROUSSET, président du Conseil régional de Nouvelle-Aquitaine

Vidéo à écouter à la source : penser la révolution numérique pour préparer le futur

Comment faire en sorte que ce nouveau monde reste malgré tout humain ?

Rarement l’humanité n’a été confrontée à d’aussi grands défis. Nous passons à une vitesse stupéfiante d’un ancien monde, qui paraissait immuable, à un nouveau monde numérique à la fois fascinant et effrayant.

L’intelligence artificielle (IA) est un des grands enjeux du siècle. Si nous sommes encore à l’âge de pierre du cerveau électronique, l’IA est déjà supérieure à l’homme dans de nombreux domaines, comme les échecs, le jeu de go, ou le traitement des données. Son évolution future, combinée à celle de la robotique et de la génétique, va profondément bouleverser l’humanité et la société dans les décennies qui viennent.

Des spécialistes des nouvelles technologies, de l’économie, médecins, intellectuels, élus, seront présents le 30 novembre au Théâtre de l’Union à Limoges pour réfléchir aux grandes disruptions qui se profilent. Et tenter de répondre à la question ultime : comment faire en sorte que ce nouveau monde reste malgré tout humain ?

Programme et inscriptions > à la source : - Contacts à Bordeaux : Hôtel de Région 14, Rue François de Sourdis 33 077 Bordeaux cedex 05 57 57 80 00- © Région Nouvelle-Aquitaine - 2018

Image associée

Retour au début du sommaire

Retour à l’introduction

Retour au début du dossier


Actualités - Éducation, santé, agriculture, quels futurs pour les IA et la blockchain ? L’étude révèle les plus gros impacts de la blockchain et de l’IA selon les interrogés Par HelenaGeorge Twitter@HelenaGrg 27 novembre 2018

Le ‘MIT Technology Review’ vient de sortir une étude réalisée courant septembre 2018 sur l’impact de l’intelligence artificielle et de la blockchain en 2019. Elle a été réalisée sur 346 personnes (c’est peu pour marquer une tendance), lors des conférences EmTech qui ont eu lieu du 11 au 14 septembre dernier au MIT, puis en ligne. Cette étude concentre avant tout des questions relatives à l’impact de ces 2 technologies sur la vie quotidienne des individus.

Effectivement, l’IA a déjà des incidences sur nos usages et notre quotidien, comme la manière dont nous travaillons. Elle est au cœur de l’actualité, tout comme la blockchain, qui prend de plus en plus d’ampleur avec de nouveaux projets qui en émanent chaque jour. Selon cette étude, 68% des personnes interrogées pensent que le plus gros impact social de l’intelligence artificielle en 2019 sera sur lasanté, notamment au niveau des diagnostics médicaux et de la génétique. Le deuxième plus gros impact concernerait les énergies renouvelables (30%), suivies de l’éducation (18%) puis de l’agriculture (17%).

Pour ce qui est de l’incidence de l’IA sur le travail en entreprise, 54% pensent que le plus gros impact en 2019 concernera la suppression des tâches répétitives. Plus de la moitié estiment que l’intelligence artificielle leur permettra de se concentrer davantage sur les décisions et la stratégie grâce à l’optimisation et automatisation des tâches.

Du côté de la blockchain, 30% estiment que le plus gros impact concernera l’augmentation des réglementations gouvernementales, car la blockchain connait un développement accru et les gouvernements doivent faire face à de nouveaux enjeux économiques encore peu régulés. 30% pensent également que la blockchain engendrera davantage de problèmes de sécurité.

En revanche, le troisième plus gros impact relevé par l’étude est une augmentation de l’adoption de cette technologie par les individus, probablement en lien avec l’augmentation des règlementations et l’ampleur du sujet dans l’actualité économique.

Voir l’infographie originale en anglais

Source : https://siecledigital.fr/2018/11/27/education-sante-agriculture-quels-futurs-pour-les-ia-et-la-blockchain/?utm_source=Newsletter&utm_campaign=5f11cd13b7-RSS_EMAIL_CAMPAIGN&utm_medium=email&utm_term=0_3b73bad11a-5f11cd13b7-259561653

Retour au début du sommaire

Retour à l’introduction

Retour au début du dossier

A suivre…

Remerciements à Dario Pellegrini pour sa contribution à la veille documentaire sur l’IA.


Auteur : Jacques Hallard , Ingénieur CNAM, consultant indépendant – 29/11/2018

Site ISIAS = Introduire les Sciences et les Intégrer dans des Alternatives Sociétales

http://www.isias.lautre.net/

Adresse : 585 Chemin du Malpas 13940 Mollégès France

Courriel : jacques.hallard921@orange.fr

Fichier : ISIAS Intelligence artificielle Faire connaissance avec l’Intelligence Artificielle (IA) .2

Mis en ligne par Pascal Paquin de Yonne Lautre, un site d’information, associatif et solidaire(Vie du site & Liens), un site inter-associatif, coopératif, gratuit, sans publicité, indépendant de tout parti.

http://yonnelautre.fr/local/cache-vignettes/L150xH102/arton1769-4f507.jpg?1465390125

— -