Accueil > Pour en savoir plus > Sciences formelles > Intelligence artificielle > "Quelques méthodes et techniques aboutissant à l’Intelligence Artificielle (…)

"Quelques méthodes et techniques aboutissant à l’Intelligence Artificielle (IA) : de l’Histoire des sciences du 17ème siècle, jusqu’aux applications numériques actuelles" par Jacques Hallard

mardi 19 novembre 2019, par Hallard Jacques



ISIAS IA

Quelques méthodes et techniques aboutissant à l’Intelligence Artificielle (IA) : de l’Histoire des sciences du 17ème siècle, jusqu’aux applications numériques actuelles – Avec une revue rapide des impacts sanitaires

Jacques Hallard , Ingénieur CNAM, site ISIAS et Bastien 18/11/2019

Série : L’ère des technologies numériques (ou digitales) et de l’intelligence artificielle (IA)

{{}}Source

Plan : Résumé Introduction Sommaire Informations sur conférences et colloques Publications antérieures (MOOC, TICE, Transhumanisme, Intelligence Artificielle IA) {{}}Auteurs



Résumé

A. Les prémices de l’IA : les animaux comme machines (Descartes) et les automates (canard de Vaucanson) ; les premières machines à calculer (Pascal et Babbage). Les contributions d’Alan Turing (test d’une « machine pensante ») et de Clause Shannon (théorie de l’information).

B. Le codage binaire en informatique et ses unités de débit ; tutoriels pédagogiques et conversions d’un nombre hexadécimal en un nombre binaire ou l’inverse.

C. Rappels sur l’informatique, le numérique et le système Internet avec hardware (quincaillerie) et software (logiciel). La circulation des données à travers les trois couches du cyberespace (accès Doc. Infographie ‘Le Monde’). L’IA actuelle, l’apprentissage automatique ou ‘machine learning’ et l’apprentissage profond ou ‘deep learning’. Les perspectives de l’IA avec une vidéo 46:36 de Yann LeCun et « L’intelligence artificielle nous veut-elle du bien ?  » : un enregistrement de 42 minutes de France Culture en date du 22/10/2019.

D. Revue sur les techniques SDSL, ADSL, fibres optiques, réseaux de téléphonie mobile 4G et 5G, et rapport 2019 sur la prééminence mondiale de la Chine en la matière.

E. Point sur les impacts sanitaires des radiofréquences (champs électromagnétiques ou CEM), en particulier les effets de la 5G sur la santé des êtres vivants. Voir directement : Ce qu’il faut retenir - Limiter les expositions professionnelles aux champs électromagnétiques (Document INRS Santé et Sécurité au travail).

Informations sur les conférences et colloques

Publications antérieures sur ISIAS : MOOC (acronyme formé des initiales de massive open online course, en français formation en ligne ouverte à tous ou FLOT, ou encore cours en ligne ouvert et massif ou CLOM) , TICE (Technologies de l’information et de la communication pour l’enseignement) , Transhumanisme, Intelligence Artificielle ou IA).

Retour au début du résumé


Introduction

Le présent dossier à usage didactique est constitué d’une sélection de 37 documents répartis dans 5 rubriques répertoriées de A et E et détaillées dans le sommaire ci-dessous, ainsi que des Informations sur des Conférences Publiques et des Séminaires sur l’Intelligence Artificielle, d’une part, et la liste des Publications antérieures postées sur le site ISIAS et portant sur les mots-clés suivants : MOOC, TICE, Transhumanisme, Intelligence Artificielle (IA).

La rubrique A porte sur l’histoire des sciences depuis le 17ème siècle en la matière avec quelques contributions majeures : le point de vue de Descartes (1596-1650) qui considère avant tout les animaux comme des machines ; l’invention de la ‘roue pascaline’ : première calculatrice arithmétique réalisée par Blaise Pascal (1623-1662) ; la construction des automates dont le fameux canard de Jacques de Vaucanson (1709-1782) ; les machines à calculer analytiques et à différences de Charles Babbage (1791-1871).

Puis est évoquée l’histoire d’Alan Turing (1912-1954), un mathématicien et cryptologue britannique, auteur de travaux qui fondent scientifiquement l’informatique.et plus particulièrement son test imaginé pour définir une « machine pensante ». Ensuite, une brève histoire de Claude Shannon, un ingénieur américain, créateur de la théorie de l’information. Les travaux de Claude Shannon, étaient bien connus et enseignés activement à l’Université de Californie à Berkeley aux Etats-Unis ; ils allaient en particulier inspirer directement la mise au point de tests statistiques non paramétriques qui furent introduits et enseignés notamment à Paris, au Conservatoire National des Arts et Métiers (CNAM) – Source : Journal de la société statistique de Paris – Jean Dufrénoy - Photo. Enseignement de la statistique à l’université de Californie à Berkeley Journal de la société statistique de Paris, tome 112, no2 (1971), p. 132-135 < http://www.numdam.org/article/JSFS_1971__112_2_132_0.pdf - « Lors des expérimentations dans les travaux de recherche, la quantité d’information des données, obtenues à partir des observations, est transformée en ‘n log n’ , pour l’étude statistique comparative de séries de proportions de variables discrètes  » - Références : Dufrénoy, Jean (1894-1972). Professeur d’Agriculture, biologie végétale et production agricole (1954-1964) ; note biographique par Philippe Manchon - Publications de l’Institut national de recherche pédagogique - Année 1994 19 pp. 459-468 - Fait partie d’un numéro thématique : Les professeurs du Conservatoire National des Arts et Métiers. Dictionnaire biographique 1794-1955. Tome 1 : A - K– Source : https://www.persee.fr/doc/inrp_0298-5632_1994_ant_19_1_8439

La rubrique B porte sur le système de notation et de codage binaire en informatique, rappelle ses ordres de grandeur et ses unités utilisées et propose, à travers deux tutoriels, d’apprendre le codage binaire en 3 minutes et de convertir un nombre hexadécimal en un nombre binaire, ainsi que l’inverse.

La rubrique C propose un rappel des notions générales sur l’informatique, le numérique ou digital, les matériels (hardware ou quincaillerie) et les logiciels (software), ainsi que sur l’infrastructure du système Internet et les notions d’apprentissage automatique ou ‘machine learning’ et l’apprentissage profond ou ‘deep learning’ comme branches spécialisées de l’Intelligence Artificielle (IA).

Cette rubrique renvoie aussi à document infographique du journal ‘Le Monde’ qui décrit la circulation des données à travers les trois couches du cyberespace. Puis deux documents audiovisuels rapportent, d’une part, un exposé sur « La prochaine révolution de l’Intelligence artificielle » par Yann LeCun, professeur d’informatique et de neurosciences à l’université de New York avec une vidéo 46:36 du 05 juillet 2018 ; et d’autre part, un enregistrement de 42 minutes de France Culture en date du 22/10/2019, intitulé « L’intelligence artificielle nous veut-elle du bien ? »

La rubrique Dréunit quelques techniques de la communication numérique : XDSL par liaison filaire, fibres optiques, réseaux de téléphonie mobile, dont 4G et 5G. Un point sur la 5G dans le monde est rapporté, ainsi qu’un rapport 2019 sur les tendances des usages numériques en Chine, visant les marchés des objets connectés et des voitures autonomes à travers le monde, selon une étude de ‘siecledigital.fr’.

Un progrès a été apporté sur le plan pratique, par la mise en œuvre de circuits intégrés dont le but est le traitement géométrique de données graphiques : c’est l’emploi d’un processeur graphique, ou GPU (de l’anglais Graphics Processing Unit) ; selon Wikipédia, « c’ est un circuit intégré présent la plupart du temps sur une carte graphique (mais pouvant aussi être intégré sur une carte-mère ou dans un CPU) et assurant les fonctions de calcul de l’affichage. Un processeur graphique a généralement une structure hautement parallèle (voir accélération matérielle) qui le rend efficace pour une large palette de tâches graphiques comme le rendu 3D, en Direct3D ou en OpenGL, la gestion de la mémoire vidéo, le traitement du signal vidéo, la décompression Mpeg, etc… Leur parallélisme massif les rend aussi intéressants comme processeurs de calcul matriciel, le minage de cryptomonnaies ou pour des cassages de code en « force brute »[1] d’archives chiffrées. Enfin, leur rapport performance/prix les avantage pour le calcul[2]. Peu d’entreprises conçoivent de tels processeurs : les plus connues sont NVIDIA, AMD (anciennement ATI) et Intel. Il y a aussi d’autres fabricants désormais moins importants, ou moins connus du grand public, comme Qualcomm, S3 Graphics, Matrox, 3DLabs (en), ARM XGI (en). Ces entreprises sont dites « fabless », c’est-à-dire qu’elles conçoivent les circuits graphiques, mais ne les fabriquent pas en série. D’autres entreprises (Asus, MSI, PNY…) se chargent ensuite de proposer des cartes graphiques intégrant ces processeurs. Ce sont les entreprises constructrices. Celles-ci prennent en général une certaine liberté de modification des fréquences de fonctionnement des GPU par rapport aux fréquences de base préconisées par les concepteurs. C’est le principe de l’overclocking. Bien entendu, ces modifications nécessitent un choix rigoureux dans le système de refroidissement, car bien souvent, les fréquences en hausse provoquent également en contrepartie une hausse de température, à l’image des CPU. Ces fréquences varient entre les constructeurs et selon les modèles et les systèmes de refroidissement proposés par ces entreprises. L’écart de performance entre les modèles de référence (fournis par les concepteurs) et les constructeurs varie et certains GPU personnalisés peuvent même présenter un gain non négligeable par rapport au GPU de référence… » - Source : https://fr.m.wikipedia.org/wiki/Processeur_graphique

Les technologies ne cessent d’évoluer : par exemple, « avec la nouvelle génération du Deep Learning, les ‘GPU NVIDIA® Tesla®’ sont accélérés par les cœurs Tensor, une nouvelle technologie révolutionnaire qui délivre des performances d’IA incomparables…. »

Par ailleurs, il convient de noter que si l’on peut aujourd’hui se permette de réaliser de tels travaux numériques (avec sons, textes, vidéos, photos) et faire appel en routine à l’intelligence artificielle dans beaucoup de domaines et de secteurs d’activité, c’est bien parce que la technologie a fait d’énormes progrès technique au cours des dernières décennies : il n’était pas concevable, par exemple il y a encore 10 ans, de générer des tableaux et des œuvres artistiques a partir d’un ordinateur sans une intervention humaine, car la puissance de calcul ne le permettait justement pas encore.

La croissance de la puissance de calcul des ordinateurs avait été envisagée par un docteur en chimie et en physique, par ailleurs chef d’entreprise américain ayant créé ‘Intel’, dans une publication portant sur une loi empirique portant son nom : « dans un article publié en 1965 dans la revue Electronics[1] , Gordon E. Moore, alors directeur de la recherche-développement de ‘Fairchild Semiconductor’ (une entreprise fabriquant des semi-conducteurs dont il était l’un des fondateurs), envisageait l’avenir des circuits intégrés inventés en 1958 par l’Américain Jack Kilby (qui recevra le prix Nobel de physique en 2000). En 1965, ces circuits étaient constitués de plusieurs composants (transistors, résistances, condensateurs, etc.) intégrés sur une même plaquette et assurant plusieurs fonctions (on les appelle aujourd’hui des puces électroniques)…. » – La suite sur ce site : https://www.cairn.info/revue-futuribles-2017-2-page-79.htm

Selon Wikipédia, « Les lois de Moore sont des lois empiriques qui ont trait à l’évolution de la puissance de calcul des ordinateurs et de la complexité du matériel informatique. Au sens strict, on ne devrait pas parler de « lois de Moore » mais de « conjectures de Moore » puisque les énoncés de Moore ne sont que des suppositions. Il existe trois « lois » de Moore, deux authentiques (au sens où elles furent émises par Gordon E. Moore), et une série de « lois » qui ont en commun de se prétendre « loi de Moore » mais qui n’en sont que des simplifications inexactes… » - Source : https://fr.m.wikipedia.org/wiki/Loi_de_Moore

D’une certaine façon, « la ‘loi de Moore’ anticipe l’avenir de l’électronique » selon l’article de Pierre Papon , publié dans Futuribles 2017/2 (N° 417) - Voir le graphique qui indique le nombre de transistors par microprocesseur de 1970 (1.000 unités) à 2015 (vers 10 milliards d’unités) – Au cours de cette période, la puissance et la complexité des équipements numériques ont été de pair avec une miniaturisation du matériel comme le montre un dessin humoristique :

HUMOUR ORDINATEUR IMAGE DESSINS, Galerie CreationSource : http://www.c-fun.fr/image-rigolote-ordinateur/

La rubrique E regroupe des informations sur les impacts sanitaires des radiofréquences (champs électromagnétiques ou CEM), en particulier des réseaux de téléphonie mobile 5G. Les risques pour la santé sont évoqués et plusieurs articles d’actualité précisent que « portés près du corps, certains smartphones seraient nocifs… », selon des travaux de l’ANSES (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail).

Se retrouvent finalement à la fin du sommaire, des informations sur des conférences publiques et des séminaires qui traitent de l’Intelligence Artificielle, ainsi qu’un regroupement de nos publications antérieures sur le site ISIAS à partir des mots-clefs suivants : MOOC (acronyme formé des initiales de massive open online course, en français formation en ligne ouverte à tous ou FLOT, ou encore cours en ligne ouvert et massif ou CLOM) , TICE (Technologies de l’information et de la communication pour l’enseignement) , Transhumanisme, Intelligence Artificielle ou IA).

Retour au début de l’introduction

Retour au résumé

Retour au début du dossier


Sommaire

A. Un bref regard sur l’histoire des sciences avec quelques contributions majeures

1. Pour Descartes (1596-1650), les animaux ne sont que de machines organiques - Introduction d’un article Wikipédia

2. A propos de la première machine à calculer de Blaise Pascal (1623-1662) – Introduction de Wikipédia

3. A propos du canard automate de Jacques de Vaucanson (1709-1782)

4. L’histoire des machines analytiques et à différences de Charles Babbage (1791-1871)

5. L’histoire d’Alan Turing et de son test pour une machine pensante

6. L’histoire de Claude Shannon créateur de la théorie de l’information

B. Le système de codage binaire et les unités de débit binaire

7. Le codage binaire d’après un document ‘commentcamarche.net’

8. Tout savoir sur le système de notation binaire en informatique

9. Tableau des Ordre de Grandeur des unités de débit binaire

10. [TUTO] Apprendre le binaire en 3 minutes ! 05 juin 2015 - JUCKCLIE

11. Tutoriel - Conversion d’un nombre hexadécimal en un nombre binaire ou l’inverse - 29 décembre 2015 – Vidéo 2:59 - Christophe Golfier

C. L’informatique, le numérique et le système Internet avec hardware (quincaillerie) et software (logiciel)

12. Introduction de l’article Wikipédia sur l’Informatique

13. Quelle différence entre hardware (quincaillerie) et software (logiciel) ? Document ‘apprendreinformatique.fr’

14. Rappel technique sur les matériels et logiciels utilisés d‘après Wikipédia

15. Introduction de l’article Wikipédia concernant Internet en général

16. Aspects techniques de l’infrastructure Internet - Extrait d’une documentation Wikipédia

17. Circulation des données à travers les trois couches du cyberespace – Accès au document infographique ‘Le Monde’

18. En Intelligence Artificielle, quelles sont les différences entre l’apprentissage automatique ou ‘machine learning’ et l’apprentissage profond ou ‘deep learning’ Par Valentin Blanchot Twitter@vblanchot 30 janvier 2019

19. La prochaine révolution de l’Intelligence artificielle - Yann LeCun, à l’USI – Vidéo 46:36 - 05 juillet 2018 - USI Events

19bis. L’intelligence artificielle nous veut-elle du bien ? – Enregistrement de 42 minutes de France Culture 22/10/2019

D. Quelques techniques de communication numérique

20. Introduction d’un article Wikipédia sur l’ADSL

21. Introduction d’un article Wikipédia sur les fibres optiques

22. Comment faire installer la fibre optique dans une maison ? Document ‘echosdunet.net’

23. Le très haut débit avec la Fibre Orange – Extraits un communiqué d’Orange

24. Technologie / fonctionnement - SDSL, ADSL, Fibre optique : quelles différences pour mon entreprise ? Document communiqué par ‘companeo.com’

25. La technologie 4G quatrième génération du réseau de téléphonie mobile Document ‘futura-sciences.com/tech’

26. Introduction d’un article Wikipédia sur la technologie 5G, cinquième génération du réseau de téléphonie mobile

27. Réseau 5G : quels seront les premiers pays à en profiter ? Par Isabelle Leva - Mise à jour le 11/06/2019 – Communiqué émanant de ‘selectra.info/telecom’

28. Avec la 5G, la Chine vise les marchés des objets connectés et des voitures autonomes Extraits de l’Étude de ‘siecledigital.fr/2019’ sur les tendances des usages numériques 2019 en Chine – Par Geneviève Fournier Twitter@FournierGenevi1 18 octobre 2019

E. Informations sur les impacts sanitaires des radiofréquences (champs électromagnétiques ou CEM), en particulier de la 5G

29. Effets des champs électromagnétiques sur la santé - Des effets avérés ou supposés – Document ‘inrs.fr/risques’

29 bis. Selon une étude, les écrans modifieraient la structure du cerveau des enfants Par Mathilde Rochefort - Publié le 6 novembre 2019 à 16h34 – Document ‘siecledigital.fr’

30. Champs électromagnétiques extrêmement basses fréquences - Effets sanitaires et travaux de l’ANSES - Mis à jour le 03/05/2017

31. Santé - faut-il avoir peur des ondes électromagnétiques ? - Par Cécile Thibert - Mis à jour le 19/11/2018 à 15:33 – Document ‘sante.lefigaro.fr’

32. Technologie 5G : des risques pour la santé ? Par Arthur Carpentier Publié le 08 août 2019 à 18h06 - Mis à jour le 11 août 2019 à 13h44 – Document « Les Décodeurs ‘Le Monde’ »

33. Technologie 5G : quels sont les risques pour la santé ? AFP, publié le lundi 21 octobre 2019 à 16h35 – Document ‘© AFP, FABRICE COFFRINI’

34. Portés près du corps, certains smartphones seraient nocifs Par Le Figaro avec AFP – Mis à jour le 22 octobre 2019

35. Actualités - Troubles de l’attention, du sommeil, du langage… « La multiplication des écrans engendre une décérébration à grande échelle  » Propos recueillis par Pascale Santi et Stéphane Foucart Publié le 21 octobre 2019 à 17h18 - Mis à jour le 23 octobre 2019 à 08h00 – Document ‘Le Monde Science & Médecine Rendez-vous page 8’.

Informations - Conférences Publiques et séminaires sur l’Intelligence Artificielle

Publications antérieures sur ISIAS : MOOC, TICE, Transhumanisme, Intelligence Artificielle (IA).

Retour au début du sommaire

Retour au début de l’introduction

Retour au résumé

Retour au début du dossier

A.
Un bref regard sur l’histoire des sciences avec quelques contributions majeures

1.
Pour Descartes (1596-1650), les animaux ne sont que de machines organiques - Introduction d’un article Wikipédia

René Descartes, né le 31 mars 1596 à La Haye-en-Touraine (aujourd’hui Descartes) et mort le 11 février 1650 à Stockholm, est un mathématicien, physicien et philosophe français. Il est considéré comme l’un des fondateurs de la philosophie moderne. Il reste célèbre pour avoir exprimé dans son Discours de la méthode le cogiton 1 — « Je pense, donc je suis » — fondant ainsi le système des sciences sur le sujet connaissant face au monde qu’il se représente. En physique, il a apporté une contribution à l’optique et est considéré comme l’un des fondateurs du mécanisme. En mathématiques, il est à l’origine de la géométrie analytique2. Certaines de ses théories ont par la suite été contestées (théorie de l’animal-machine) ou abandonnées (théorie des tourbillons ou des esprits animaux). Sa pensée a pu être rapprochée de la peinture de Nicolas Poussin3 pour son caractère clair et ordonné. Le cogito marque la naissance de la subjectivité moderne.

Sa méthode scientifique, exposée à partir de 1628 dans les Règles pour la direction de l’esprit, puis dans le Discours de la méthode en 1637, affirme constamment une rupture par rapport à la scolastique enseignée dans l’Université. Le Discours de la méthode s’ouvre sur une remarque proverbiale « Le bon sens est la chose du monde la mieux partagée »4 pour insister davantage sur l’importance d’en bien user au moyen d’une méthode qui nous préserve, autant que faire se peut, de l’erreur. Elle se caractérise par sa simplicité et prétend rompre avec les interminables raisonnements scolastiques. Elle s’inspire de la méthode mathématique, cherchant à remplacer la syllogistique aristotélicienne utilisée au Moyen Âge depuis le XIIIe siècle5.

Comme Galilée, il se rallie au système cosmologique copernicien6 ; mais, par prudence envers la censure, il « avance masqué », en dissimulant partiellement ses idées nouvelles sur l’homme et le monde dans ses pensées métaphysiques5, idées qui révolutionneront à leur tour la philosophie et la théologie. L’influence de René Descartes sera déterminante sur tout son siècle : les grands philosophes qui lui succèderont développeront leur propre philosophie par rapport à la sienne, soit en la développant (Arnauld, Malebranche), soit en s’y opposant (Locke, Hobbes, Pascal, Spinoza, Leibniz).

Il affirme un dualisme substantiel entre l’âme et le corps7, en rupture avec la tradition aristotélicienne. Il radicalise sa position en refusant d’accorder la pensée à l’animal, le concevant comme une « machine »8, c’est-à-dire un corps entièrement dépourvu d’âme. Cette théorie sera critiquée dès son apparition mais plus encore à l’époque des Lumières, par exemple par Voltaire, Diderot ou encore Rousseau. A la fin du XXe siècle, Antonio Damasio à la lumière des neurosciences, dans son livre L’Erreur de Descartes, montre que le corps et l’esprit fonctionnent de manière indissociable9.

Sommaire

Voir également : « Nicolas Millet – Des animaux sans âme, ou la fabuleuse histoire des animaux-machines selon Descartes  » Publié le 28 février 2019 par rdvphiloorleanstours - Illustration d’un oiseau vu comme une machine – Source : https://rdvphiloorleanstours.wordpress.com/2019/02/28/nicolas-millet-des-animaux-sans-ame-ou-la-fabuleuse-histoire-des-animaux-machines-selon-descartes/

Portrait de Descartes – Extrait de l’étude : « Le lien entre sensibilité et pensée dans la critique de l’automatisme animal de Descartes : Bayle, La Mettrie, Maupertuis » - Par Agnese Pignataro - Cahiers antispécistes n°26 – Source : https://www.cahiers-antispecistes.org/le-lien-entre-sensibilite-et-penseedans-la-critique-de-lautomatisme-animal-de-descartes-bayle-la-mettrie-maupertuis/

Voir aussi : « « Les animaux sont-ils comparables à des machines » ? (textes) - Publié le 12 juin 2012 par lenuki > Illustration humoristique – Source : http://lenuki69.over-blog.fr/article-les-animaux-sont-ils-comparables-a-des-machines-textes-106827983.html

Retour au sommaire

2.
A propos de la première machine à calculer de Blaise Pascal (1623-1662) – Introduction de Wikipédia

Blaise Pascal inventeur de la première machine à calculer

Blaise Pascal, né le 19 juin 1623 à Clairmont (aujourd’hui Clermont-Ferrand) en Auvergne et mort le 19 août 1662 à Paris, est un mathématicien, physicien, inventeur, philosophe, moraliste et théologien français2. Enfant précoce, il est éduqué par son père. Les premiers travaux de Pascal concernent les sciences naturelles et appliquées. Il contribue de manière importante à l’étude des fluides et clarifie les concepts de pression et de vide en étendant le travail de Torricelli. Il est l’auteur de textes importants sur la méthode scientifique. À 19 ans3,4, il invente la première machine à calculer5,6 et après trois ans de développement et cinquante prototypes, il la présente à ses contemporains en la dédiant au chancelier Séguier7. Dénommée machine d’arithmétique, puis ‘roue pascaline’ et enfin pascaline, il en construisit une vingtaine d’exemplaires dans la décennie suivante8. Mathématicien de premier ordre, il crée deux nouveaux champs de recherche majeurs. Tout d’abord, il publie un traité de géométrie projective à seize ans ; ensuite il développe en 1654 une méthode de résolution du « problème des partis » qui, donnant naissance au cours du XVIIIe siècle au calcul des probabilités, influencera fortement les théories économiques modernes et les sciences sociales. Après une expérience mystique qu’il éprouve en novembre 16549,10, il se consacre à la réflexion philosophique et religieuse, sans toutefois renoncer aux travaux scientifiques. Il écrit pendant cette période Les Provinciales et les Pensées, publiées seulement après sa mort qui survient deux mois après son 39e anniversaire, alors qu’il a été longtemps malade. Le 8 juillet 2017, dans un entretien au quotidien italien La Repubblica, le pape François annonce que Blaise Pascal « mériterait la béatification » et qu’il envisageait de lancer la procédure officielle.

Reproduction - Blaise Pascal (anonyme, 2e ou 3e quart du XVIIe siècle, Château de Versailles1). Extrait du site : https://fr.wikipedia.org/wiki/Blaise_Pascal

La roue pascaline : première calculatrice arithmétique de Blaise Pascal

La pascaline, initialement dénommée machine d’arithmétique puis roue pascaline1, est une calculatrice mécanique inventée par Blaise Pascal et considérée comme la première machine à calculer2,3. C’est en 1642, à l’âge de dix-neuf ans, qu’il en conçut l’idée4, voulant soulager la tâche de son père qui venait d’être nommé surintendant de la Haute-Normandie par le cardinal de Richelieu et qui devait remettre en ordre les recettes fiscales de cette province5 ; elle permettait d’additionner et de soustraire deux nombres d’une façon directe et de faire des multiplications et des divisions par répétitions.

C’est en 1645, après trois ans de recherches et cinquante prototypes, que Pascal présenta sa première machine en la dédiant au chancelier de France, Pierre Séguier6. Il construisit une vingtaine de pascalines dans la décennie suivante souvent en les perfectionnant ; huit de ces machines ont survécu jusqu’à nos jours, une neuvième fut assemblée au XVIIIe siècle avec des pièces restantes7. Un privilège royal, promulgué par Louis XIV8, lui donna l’exclusivité de la production de machines à calculer en France9,10.

Illustration : Une pascaline, signée par Pascal en 1652, visible au musée des arts et métiers du Conservatoire national des arts et métiers à Paris. Extrait du site : https://fr.wikipedia.org/wiki/Pascaline

Retour au début du sommaire

3.
A propos du canard automate de Jacques de Vaucanson (1709-1782)

L’inventeur et mécanicien Jacques Vaucanson selon Wikipédia

Jacques Vaucanson, ou Jacques de Vaucanson1, né le 24 février 1709 à Grenoble et mort le 21 novembre 1782 à Paris, est un inventeur et mécanicien français. Il invente plusieurs automates dont le canard de Vaucanson. Portrait de Jacques Vaucanson (peint en 1784). Extrait du site : https://fr.wikipedia.org/wiki/Jacques_Vaucanson*

L’automate ‘Canard de Vaucanson’ selon Wikipédia

IllustrationReconstitution de fantaisie et iatro-mécaniste du Canard de Vaucanson, publiée dans Scientific American en 1899180 : les aliments sont broyés et non dissous dans l’estomac. Cette reconstitution, souvent reproduite depuis, illustre un paradoxe relevé par Doyon et Liaigre : en dépit de la longévité de l’automate et du grand intérêt qu’il a suscité, son iconographie est remarquablement pauvre181.

Le Canard de Vaucanson, également appelé le Canard digérant, digérateur ou défécateur, est un canard automate, créé par Jacques de Vaucanson vers 1734 et présenté au public en 1739, célèbre tant pour le naturel, la complexité et la diversité de ses mouvements que pour la manière réaliste dont il simule la digestion et la défécation. Cet automate impressionne vivement le public, assoit la renommée de Vaucanson et devient un symbole du rationalisme scientifique des Lumières. Il connaît une longue exploitation, jusqu’à la fin du XIXe siècle, les circonstances de sa disparition restant incertaines. Sa digestion par dissolution des aliments est généralement considérée comme étant le produit d’expédients plutôt que d’une réelle simulation du processus physiologique. Extrait du site : https://fr.wikipedia.org/wiki/Canard_de_Vaucanson

Retour au début du sommaire

4.
L’histoire des machines analytiques et à différences de Charles Babbage (1791-1871)

Introduction de l’article Wikipédia sur Charles Babbage

Charles Babbage, né le 26 décembre 1791 et mort le 18 octobre 1871 à Londres, est un polymathe, mathématicien et inventeur visionnaire britannique du XIXe siècle qui fut l’un des principaux précurseurs de l’informatique.

Il fut le premier à énoncer le principe d’un ordinateur. C’est en 1834, pendant le développement d’une machine à calculer destinée au calcul et à l’impression de tables mathématiques (la machine à différences) qu’il eut l’idée d’y incorporer des cartes du métier Jacquard, dont la lecture séquentielle donnerait des instructions et des données à sa machine, et donc imagina l’ancêtre mécanique des ordinateurs d’aujourd’hui. Il n’acheva jamais sa machine analytique, mais il passa le reste de sa vie à la concevoir dans les moindres détails et à en construire un prototype. Un de ses fils en construisit l’unité centrale (le moulin) et l’imprimante en 1888 et fit une démonstration réussie de calcul de table à l’académie royale d’astronomie en 19081.

C’est entre 1847 et 1849 que Charles Babbage entreprit d’utiliser les avancées technologiques de sa machine analytique pour concevoir les plans d’une deuxième machine à différences no 2 qui, à spécifications égales, demandait trois fois moins de pièces que la précédente. En 1991, à partir de ces plans, on a pu reconstruire une partie de cette machine qui fonctionne parfaitement en utilisant les techniques qui étaient disponibles au XIXe siècle ce qui montre qu’elle aurait pu être construite du vivant de Charles Babbage.

Sommaire

Retour au début du sommaire

Les contributions scientifiques de Charles Babbage (1791-1871)

Conception d’un ordinateur

Illustration - Une partie de la machine à différences de Charles Babbage

L’objectif de Charles Babbage était avant tout de concevoir des tables nautiques, astronomiques et mathématiques exactes, car celles de son époque étaient truffées d’erreurs5. Charles Babbage s’aperçoit en effet que les tables de calculs comportent beaucoup d’erreurs, responsables, entre autres, de beaucoup d’accidents de navigation. Du coup, il essaie de concevoir une machine (Difference Engine 1) qui pourrait exécuter le travail sans faute, les erreurs humaines étant occasionnées par la fatigue ou l’ennui.

Il caresse ainsi cette idée depuis 1812. Deux facteurs semblent avoir contribué à sa décision de concevoir un tel appareil : sa connaissance des tables de logarithmes, et le travail déjà commencé dans ce domaine par Blaise Pascal (avec la « Pascaline ») et Gottfried Leibniz (multiplicatrice). Au cours de la conception de la machine, il entre en correspondance avec une jeune femme, Ada Lovelace : citée par Charles Babbage dans ses comptes-rendus de 1843, elle apparaît comme à l’origine de la résolution d’un algorithme basé sur une séquence de Bernoulli6. C’est d’ailleurs sous son nom, « Lady Ada », qu’elle publie le premier algorithme destiné à être exécuté sur une machine7 : la machine à différences de Charles Babbage. Dans une correspondance avec Sir Humphry Davy en 1822, Charles Babbage y discute de certaines applications d’une telle machine, notamment pour le calcul et l’impression des tables mathématiques, et y discute aussi des principes d’une machine à calculer.

La machine à différences

Il présente un modèle de sa machine à différences à la Société royale d’astronomie en 1821. Le but de la machine est de calculer les polynômes en utilisant une méthode de calcul dite méthode des différences. La société approuve ce projet et demande au gouvernement britannique de lui accorder une bourse de 1 500 £ en 1823.

Débute alors la construction de cette machine qui ne sera jamais terminée. Il y eut deux problèmes. Premièrement, le frottement affectant les embrayages de l’époque grippait le mécanisme et les vibrations étaient gênantes. Deuxièmement, Charles Babbage modifiait perpétuellement la conception de son projet. En 1833, 17 000 £ avaient été déboursées pour le projet sans aucun résultat satisfaisant, entraînant la brouille avec son constructeur, Joseph Clement.

Un roman de science-fiction (steampunk) de William Gibson et Bruce Sterling, La Machine à différences, est construit autour de l’uchronie : « Et si Charles Babbage avait réussi à construire ses machines à différences ».

La machine analytique

Article détaillé : Machine analytique.

Illustration - Modèle d’essai d’une partie de la machine analytique, construit par Charles Babbage, exposée au Science Museum de Londres.

Illustration - Les cartes utilisées par Charles Babbage pour sa machine analytique. Les cartes d’instructions sont au premier plan, devant les cartes de données.

Une avancée fondamentale en matière d’automatisation des calculs fut réalisée par Charles Babbage entre 1834 et 1836. Il y définit les principaux concepts sur lesquels reposent les machines informatiques,

La machine analytique de Charles Babbage utilisait des cartes perforées pour ses données et ses instructions8.

Mais Charles Babbage fut dans l’incapacité, malgré ses efforts, de réaliser sa machine car les techniques de l’époque (roues dentées, leviers, tambours) étaient insuffisantes.

Charles Babbage a été le premier lauréat de la médaille d’or de la Royal Astronomical Society en 1824.

La machine à différences no 2

Difference Engine no 2 (Computer History Museum).

Pendant son travail sur la machine analytique, Charles Babbage se rendit compte qu’il pouvait simplifier les plans de sa machine à différences.

Entre 1847 et 1849, il dessina les plans de la machine à différences no 2. Cette nouvelle machine requérait trois fois moins de pièces que la machine à différences no 1, tout en offrant une puissance de calcul équivalente. Charles Babbage n’essaya jamais de la construire.

En 1985, le musée des sciences de Londres entreprit de construire un exemplaire de la machine à différences no 2, afin de célébrer le 200e anniversaire de Babbage en 1991.
Le module de calcul fut terminé à temps en 1991, et c’est finalement en 2002 que la machine fut totalement achevée avec son module d’impression et de stéréotype.

Construite en respectant scrupuleusement les plans originaux, elle est composée de 8 000 pièces, pèse 5 tonnes, mesure 3 mètres de large, 2 mètres de haut et 45 cm de profondeur. Cet exemplaire est aujourd’hui exposé au musée des sciences de Londres. Un autre exemplaire, commandité par un des donateurs du projet, Nathan Myhrvold, fut terminé au printemps 2008 par le musée des sciences de Londres. Cet exemplaire a été exposé au Computer History Museum de Californie jusqu’en mai 2009, il a rejoint ensuite la collection privée de M. Myhrvold.

Source de cet extrait : https://fr.wikipedia.org/wiki/Charles_Babbage#Contributions_scientifiques

Retour au début du sommaire

5.
L’histoire d’Alan Turing et de son test pour une machine pensante

Introduction de Wikipédia sur Alan Mathison Turing

Alan Mathison Turing, né le 23 juin 1912 à Londres et mort le 7 juin 1954 à Wilmslow, est un mathématicien et cryptologue britannique, auteur de travaux qui fondent scientifiquement l’informatique. Pour résoudre le problème fondamental de la décidabilité en arithmétique, il présente en 1936 une expérience de pensée que l’on nommera ensuite machine de Turing et des concepts de programme et de programmation, qui prendront tout leur sens avec la diffusion des ordinateurs, dans la seconde moitié du XXe siècle. Son modèle a contribué à établir la thèse de Church, qui définit le concept mathématique intuitif de fonction calculable.

Durant la Seconde Guerre mondiale, il joue un rôle majeur dans la cryptanalyse de la machine Enigma utilisée par les armées allemandes. Ce travail secret ne sera connu du public que dans les années 1970. Après la guerre, il travaille sur un des tout premiers ordinateurs, puis contribue au débat sur la possibilité de l’intelligence artificielle, en proposant le test de Turing. Vers la fin de sa vie, il s’intéresse à des modèles de morphogenèse du vivant conduisant aux « structures de Turing ».

Poursuivi en justice en 1952 pour homosexualité, il choisit pour éviter la prison la castration chimique par prise d’œstrogènes. Il est retrouvé mort par empoisonnement au cyanure le 7 juin 1954 dans la chambre de sa maison à Wilmslow. La reine Élisabeth II le reconnaît comme héros de guerre et le gracie à titre posthume en 2013.

Article complet ici : https://fr.wikipedia.org/wiki/Alan_Turing

Retour au début du sommaire

Le test de Turing est une proposition de test d’intelligence artificielle fondée sur la faculté d’une machine à imiter la conversation humaine. Décrit par Alan Turing en 1950 dans sa publication Computing machinery and intelligence, ce test consiste à mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain.

Si la personne qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test. Cela sous-entend que l’ordinateur et l’humain essaieront d’avoir une apparence sémantique humaine. Pour conserver la simplicité et l’universalité du test, la conversation est limitée à des messages textuels entre les protagonistes.

Article complet ici : https://fr.wikipedia.org/wiki/Test_de_Turing

Retour au début du sommaire

Vidéo 10:17- Le test de Turing : les débuts de l’intelligence artificielle le blob, l’extra-média - ’Les machines peuvent-elles penser ?’ se demande le célèbre mathématicien britannique Alan Turing. Pour répondre à cette question, il met au point le jeu dit de l’imitation, un test qu’aucune intelligence artificielle n’a pu réussir à ce jour... Catégorie : Science et technologie – Source : https://www.youtube.com/watch?v=k0vmuYQAkW4

Retour au début du sommaire

Grande traversée : l’énigmatique Alan Turing Par Amaury Chardeau Les 13, 14, 16 et 17 août 2018, de 9h05 à 11h dans le cadre des émissions de France Culture Savoirs- L’équipe – Production : Amaury Chardeau – Réalisation : Yvon Croizier

D’ Alan Mathison Turing (1912-1954), le grand public n’a longtemps rien su. En quelques années, Turing est devenu la figure rêvée du génie scientifique maltraité par les conventions morales d’une époque.

Toutes les diffusions -
Les dernières émissions

  • 20 sec Illustration - Les mythologies d’Alan Turing - LE 17/08/2018
    ’Très rapidement, il est tombé dans l’oubli, jusqu’à ce qu’on le réveille, comme Blanche-Neige, par un baiser. Cinquante ans plus tard, le monde reconnait...
  • 1h49 Illustration - Le bug - LE 16/08/2018
    Le 8 juin 1954 est découvert, allongé sur son lit dans sa maison des environs de Manchester, le corps sans vie d’Alan Turing. A ses côtés une pommes enduite...
  • 1h49 Illustration - Des marguerites à l’ordinateur LE 14/08/2018
    En 1945, après son apport décisif dans le cassage des codes de l’Enigma allemande pendant la guerre, Turing poursuit ses travaux sur les machines et contribue...
  • 1h49 Illustration - Enigma, la guerre du code - LE 13/08/2018
    En 1939, la guerre vient d’éclater et Alan Turing, jeune mathématicien britannique sorti de Cambridge, rejoint Bletchley Park où, dans le plus grand secret,...

Partenaire :

Le Courrier InternationalLe Courrier International

logo france culture

Source : www.franceculture.fr/emissions/lenigmatique-alan-turing

Retour au sommaire

6.
L’histoire de Claude Shannon créateur de la théorie de l’information

Biographie de Claude Elwood Shannon d’après Wikipédia

Claude Elwood Shannon (30 avril 1916 à Petoskey1, Michigan - 24 février 2001 à Medford, Massachusetts) est un ingénieur en génie électrique et mathématicien américain. Il est l’un des pères, si ce n’est le père fondateur, de la théorie de l’information. Article complet sur ce site : https://fr.wikipedia.org/wiki/Claude_Shannon

Claude Shannon : une biographie (CNRS) - Publié le 10/03/2017 – Photo - Par Jacobs, Konrad — http://owpdb.mfo.de/detail?photo_id=3807

Claude Elwood Shannon (30 avril 1916 à Petoskey, Michigan - 24 février 2001 à Medford, Massachusetts) est un ingénieur en génie électrique et mathématicien américain. Il est l’un des pères de la théorie de l’information.

Pendant la Seconde Guerre mondiale, Shannon travaille pour les services secrets de l’armée américaine, en cryptographie, chargé de localiser de manière automatique dans le code ennemi les parties signifiantes cachées au milieu du brouillage. Son travail est exposé dans un rapport secret (déclassifié dans les années 1980 seulement), qui donne naissance après-guerre à un article, A Mathematical Theory of Communications (1948), qui fut repris en 1949 sous forme de livre. Cet ouvrage est centré autour de la problématique de la transmission du signal.

Ces travaux popularisent l’utilisation du mot bit comme mesure élémentaire de l’information numérique.

Il faut au moins un bit pour coder deux états (par exemple « pile » et « face », ou 0 et 1) et deux bits permettent de coder quatre états (00, 01, 10, 11). Les 26 lettres de l’alphabet nécessitent au minimum 5 bits …. Site du texte à la source : https://culturemath.ens.fr/content/claude-shannon-une-biographie-cnrs

Retour au début du sommaire

Concernant Claude Shannon (30 avril 1916 [Petoskey] - 24 février 2001 [Medford]) – Document ‘bibmath.net/bio’

Photo - Claude Shannon est un ingénieur électricien et un mathématicien du XXiè siècle, souvent considéré comme le père de la théorie de l’information. Il est né le 30 avril 1916 à Petoskey, dans le Michigan. Son père est un juge, et sa mère est le proviseur du lycée de Gaylord, une autre ville du Michigan. Il étudie à l’université du Michigan où il suit un double cursus en électricité et en mathématiques. Il obtient une licence dans ces deux disciplines en 1936, avant de poursuivre ses études au réputé MIT (Massachusetts Institute of Technology). Il soutient en 1940 une thèse de doctorat en mathématiques (elle portait sur des applications des mathématiques à la génétique) et un mémoire de master en électricité. Si la première fut largement ignorée, la seconde, qui explique comment utiliser les algèbres de Boole pour l’analyse des signaux électriques, est restée célèbre.

En 1941, il est embauché dans les laboratoires de la compagnie de téléphone AT&T Bell. Immédiatement, il travaille sur des projets en liaison avec les services secrets, qui lui font notamment aborder des questions de cryptographie. En 1949, il se marie ; par la suite, il aura trois enfants.

Shannon travaille aux laboratoires de Bell jusqu’en 1971. Parallèlement à cela, il est aussi professeur au MIT de 1958 à 1978. Ses contributions essentielles concernent :

  • la théorie de la transmission des signaux ; Shannon comprend que toute donnée, même la voix ou des images, peut se transmettre à l’aide d’une suite de 0 et de 1 (les bits), ouvrant la voie aux communications numériques et non plus analogiques. Il montre aussi comment le fait d’ajouter certains bits à un message peut permettre de vérifier que les autres ont été correctement transmis (on parle de code correcteur d’erreurs).
  • l’entropie, qui mesure la quantité d’information portée par un message numérique ; cette notion est très importante en cryptographie ou en compression de données.
  • l’intelligence artificielle ; il conçoit par exemple le premier ordinateur qui joue aux échecs.
    Shannon est aussi un personnage très original, connu pour déambuler dans les couloirs du MIT sur son monocycle tout en jonglant ! Il a reçu de nombreux honneurs, dont la médaille nationale des sciences des mains du Président Johnson en 1966, et le prix Kyoto en 1985. A la fin de sa vie, il souffre de la maladie d’Alzheimer, ce qui le conduit dans une maison de repos du Massachusetts. Il y décède le 24 février 2001, à l’âge de 84 ans.

Les entrées du Dicomaths correspondant à Shannon : Introduction à la théorie de l’information - Signaler une erreur, une faute d’orthographe Contribuer au site Crédits

Extrait de http://www.bibmath.net/bios/index.php?action=affiche&quoi=shannon

Retour au début du sommaire

Introduction à la théorie de l’information selon Shannon

On considère une épreuve aléatoire, et une variable aléatoire X associée à cette épreuve. Comment mesurer l’information moyenne apportée par la connaissance de X sur l’épreuve aléatoire ? Prenons l’exemple suivant : on lance un dé non pipé et on considère les 3 variables aléatoires suivantes :

  • X1 qui vaut 0 si le nombre tiré est pair, 1 s’il est impair.
  • X2 qui vaut 0 si le nombre tiré est 1 ou 2, 1 si le nombre tiré est 3 ou 4, 2 si le nombre tiré est 5 ou 6.
  • X3 qui vaut le nombre tiré.
     Il est intuitivement clair que la connaissance de X3 renseigne plus sur le déroulement de l’épreuve aléatoire que la connaissance de X2, qui elle-même renseigne plus que celle de X1. La notion d’entropie permet de mathématiser cette heuristique :

Définition : Si X est une variable aléatoire discrète, l’entropie de X est définie par :

http://www.bibmath.net/dico/e/images/entropie1.gif

Dans cette définition, la base du logarithme est souvent choisie égale à 2. L’entropie se mesure alors en shannons, ou en bits (binary information unit).

Il nous faut encore mesurer l’incertitude ou le désordre, liée à l’expérience aléatoire. Si a1,...,aN est l’ensemble des issues possibles de l’expérience, l’entropie vaut :

http://www.bibmath.net/dico/e/images/entropie2.gif

On retrouve ici la définition physique (ou mieux, thermodynamique) de l’entropie : mesure du désordre d’un système. La variable aléatoire X renseigne totalement sur le déroulement de l’expérience E si H(X)=H(E).

Exemple :

Il est facile de voir que parmi les variables à n valeurs, l’entropie H(X) est maximale lorsque X est équirépartie : une variable aléatoire apporte en moyenne un maximum d’informations lorsqu’elle peut prendre chaque valeur avec une égale probabilité.

Dans cet exemple, l’incertitude totale liée à l’expérience est log 6.

  • On vous présente 10 cartons sur lesquels sont inscrits sur la face cachée un nombre (tous les nombres sont différents). Vous pouvez poser des questions du type : ’Est-ce que le nombre sur ce carton est plus élevé que sur celui-là’. Vous payez un franc par question, et vous en recevez 15 lorsque vous savez réordonner les cartons. Acceptez-vous de jouer ?
    Il y a 10 ! façons d’ordonner les cartons. L’incertitude sur l’ordre dans lequel ils sont rangés vaut donc log(10 !) = 21,8 shannons environ. Chaque réponse apporte au plus un shannon d’information. Il faudra, du point de vue de la théorie de l’information, 22 questions en moyenne pour reconstituer l’ordre. Il ne faut pas jouer ! L’argument précédent est toutefois heuristique. Il ne dit pas en particulier quelles sont les questions à poser pour retrouver l’ordre après 22 questions.

La théorie de l’information a été mise au point par Shannon en 1947. Son projet était de quantifier la sécurité des méthodes de cryptographie. En particulier, il a montré que l’algorithme utilisé pour chiffrer le téléphone rouge entre Moscou et Washington était le plus sûr possible.

Bibm@th, la bibliothèque des mathématiques² - www.bibmath.net - Toutes les biographies - Signaler une erreur, une faute d’orthographe Contribuer au site Crédits

Résultat de recherche d’images pour ’Bibm@th logo’

Extrait de http://www.bibmath.net/dico/index.php?action=affiche&quoi=./e/entropie.html

Retour au début du sommaire

B.
Le système de codage binaire et les unités de débit binaire

7.
Le codage binaire d’après un document ‘commentcamarche.net’


Présentation du binaire

Vers la fin des années 30, Claude Shannon démontra qu’à l’aide de « contacteurs » (interrupteurs) fermés pour « vrai » et ouverts pour « faux » il était possible d’effectuer des opérations logiques en associant le nombre 1 pour « vrai » et 0 pour « faux ».

Ce codage de l’information est nommé base binaire. C’est avec ce codage que fonctionnent les ordinateurs. Il consiste à utiliser deux états (représentés par les chiffres 0 et 1) pour coder les informations.

L’homme calcule depuis 2000 ans avant Jésus-Christ avec 10 chiffres (0, 1, 2, 3, 4, 5, 6, 7, 8, 9), on parle alors de base décimale (ou base 10). Toutefois dans des civilisations plus anciennes ou pour certaines applications actuelles d’autres bases de calcul ont et sont toujours utilisées :

  • base sexagésimale (60), utilisée par les Sumériens. Cette base est également utilisée dans le système horaire actuel, pour les minutes et les secondes ;
  • base vicésimale (20), utilisée par les Mayas ;
  • base duodécimale (12), utilisée par les anglo-saxons dans leur système monétaire jusqu’en 1960 : un « pound » représentait vingt « shilling » et un « shilling » représentait douze « pences ». Le système d’heure actuel fonctionne également sur douze heures (notamment dans la notation anglo-saxonne) ;
  • base quinaire (5), utilisée par les Mayas ;
  • base binaire (2), utilisée par l’ensemble des technologies numériques.

Notre vidéo à la source



Bit

Le terme bit (b avec une minuscule dans les notations) signifie « binary digit », c’est-à-dire 0 ou 1 en numérotation binaire. Il s’agit de la plus petite unité d’information manipulable par une machine numérique. Il est possible de représenter physiquement cette information binaire :

  • par un signal électrique, magnétique ou lumineux , qui, au-delà d’un certain seuil, correspond à la valeur 1 ;
  • par des aspérités géométriques dans une surface ;
  • grâce à des bistables, c’est-à-dire des composants électroniques qui ont deux états d’équilibre (l’un correspond à l’état 1, l’autre à 0).
    Avec un bit il est ainsi possible d’obtenir deux états : soit 1, soit 0. Grâce à 2 bits, il est possible d’obtenir quatre états différents (2*2) :
00
0 1
1 0
1 1

Avec 3 bits, il est possible d’obtenir huit états différents (2*2*2) :

Valeur binaire sur 3 bits

Valeur décimale

000 0
001 1
010 2
011 3
100 4
101 5
110 6
111 7

Pour un groupe de n bits, il est possible de représenter 2^n valeurs.

Poids des bits

Dans un nombre binaire, la valeur d’un bit, appelée poids, dépend de la position du bit en partant de la droite. A la manière des dizaines, des centaines et des milliers pour un nombre décimal, le poids d’un bit croît d’une puissance de deux en allant de la droite vers la gauche comme le montre le tableau suivant :

Nombre binaire

1 1 1 1 1 1 1 1
Poids 2^7 = 128 2^6 = 64 2^5 = 32 2^4 = 16 2^3 = 8 2^2 = 4 2^1 = 2 2^0 = 1


Conversions - Pour convertir un mot binaire en nombre décimal, il suffit de multiplier la valeur de chaque bit par son poids, puis d’additionner chaque résultat. Ainsi, le mot binaire 0101 vaut en décimal :

2^3x0 + 2^2x1 + 2^1x0 + 2^0x1
= 8x0 + 4x1 + 2x0 + 1x1
= 5


Octet - L’octet (en anglais byte ou B avec une majuscule dans les notations) est une unité d’information composée de 8 bits. Il permet par exemple de stocker un caractère, tel qu’une lettre ou un chiffre.

Ce regroupement de nombres par série de 8 permet une lisibilité plus grande, au même titre que l’on apprécie, en base décimale, de regrouper les nombres par trois pour pouvoir distinguer les milliers. Le nombre « 1 256 245 » est par exemple plus lisible que « 1256245 ».

Une unité d’information composée de 16 bits est généralement appelée mot (en anglais word).

Une unité d’information de 32 bits de longueur est appelée mot double (en anglais double word, d’où l’appellation dword).

Pour un octet, le plus petit nombre est 0 (représenté par huit zéros 00000000), et le plus grand est 255 (représenté par huit chiffres « un » 11111111), ce qui représente 256 possibilités de valeurs différentes.

2^7 =1282^6 =642^5 =322^4 =162^3 =82^2 =42^1 =22^0 =1
0 0 0 0 0 0 0 0
1 1 1 1 1 1 1 1


KiloOctets, MégaOctets

Longtemps l’informatique s’est singularisée par l’utilisation de différentes valeurs pour les unités du système international. Ainsi beaucoup d’informaticiens ont appris que 1 kilooctet valait 1024 octets. Or, depuis décembre 1998, l’organisme international IEC a statué sur la question (http://physics.nist.gov/cuu/Units/binary.html). Voici donc les unités standardisées :

  • Un kilooctet (ko ou kB) = 1000 octets
  • Un Mégaoctet (Mo ou MB) = 1000 ko = 1 000 000 octets
  • Un Gigaoctet (Go ou GB) = 1000 Mo = 1 000 000 000 octets
  • Un Téraoctet (To) = 1000 Go = 1 000 000 000 000 octets

Nota

Attention ! De nombreux logiciels (parfois même certains systèmes d’exploitation) utilisent toujours la notation antérieure à 1998 pour laquelle :
  • Un kilooctet (ko) = 2^10 octets = 1024 octets
  • Un Mégaoctet (Mo) = 2^20 octets = 1024 ko = 1 048 576 octets
  • Un Gigaoctet (Go) = 2^30 octets = 1024 Mo = 1 073 741 824 octets
  • Un Téraoctet (To) = 2^40 octets = 1024 Go = 1 099 511 627 776 octets

L’IEC a également défini le kilo binaire (kibi), le méga binaire (Mébi), le giga binaire (Gibi), le tera binaire (Tebi).
Voici leurs définitions :

  • Un kibioctet (kio ou kiB) vaut 2^10 = 1024 octets
  • Un Mébioctet (Mio ou MiB) vaut 2^20 = 1 048 576 octets
  • Un Gibioctet (Gio ou GiB) vaut 2^30 = 1 073 741 824 octets
  • Un Tébioctet (Tio ou TiB) vaut 2^40 = 1 099 511 627 776 octets

Il est également utile de noter que la communauté internationale dans son ensemble utilise préférentiellement le nom de « byte » plutôt que le terme « octet » purement francophone. Cela donne les notations suivantes pour kilobyte, mégabyte, gigabyte et terabyte :

kB, MB, GB, TB

Nota

Notez l’utilisation d’un B majuscule pour différencier Byte et bit.

Voici une capture d’écran du logiciel Internet Explorer, navigateur internet, montrant l’utilisation de cette notation :

https://img-19.ccm2.net/_6Kieuwa9icBKh9TLzUxIiBQ1DM=/374x/2b8a9152b4924f89ba6bd0929146fccd/ccm-encyclopedia/nWCrstPicxM50oEZ-s-.png


Opérations en binaire - Les opérations arithmétiques simples telles que l’addition, la soustraction et la multiplication sont faciles à effectuer en binaire.

Addition binaire

L’addition en binaire se fait avec les mêmes règles qu’en décimale :
On commence à additionner les bits de poids faible (les bits de droite) puis on a des retenues lorsque la somme de deux bits de même poids dépasse la valeur de l’unité la plus grande (dans le cas du binaire : 1), cette retenue est reportée sur le bit de poids plus fort suivant...

Par exemple :

{{}} 0 1 1 0 1
+ 0 1 1 1 0
- - - - - -
1 1 0 1 1


Multiplication binaire

La table de multiplication en binaire est très simple :

  • 0x0=0
  • 0x1=0
  • 1x0=0
  • 1x1=1
    La multiplication se fait en formant un produit partiel pour chaque digit du multiplicateur (seuls les bits non nuls donneront un résultat non nul). Lorsque le bit du multiplicateur est nul, le produit partiel est nul, lorsqu’il vaut un, le produit partiel est constitué du multiplicande décalé du nombre de positions égal au poids du bit du multiplicateur.

Par exemple :

{{}} {{}} 0 1 0 1 multiplicande
x 0 0 1 0 multiplicateur
- - - - - -
0 0 0 0
0 1 0 1
0 0 0 0
- - - - - -
0 1 0 1 0

Cet article est régulièrement mis à jour par des experts sous la
direction de Jean-François Pillou, fondateur de CommentCaMarche
et directeur délégué au développement numérique du groupe Figaro.


A voir également

Ce document intitulé « Le codage binaire » issu de CommentCaMarche (https://www.commentcamarche.net/) est mis à disposition sous les termes de la licence Creative Commons. Vous pouvez copier, modifier des copies de cette page, dans les conditions fixées par la licence, tant que cette note apparaît clairement.

A lire aussi : Code binaire

Source : https://www.commentcamarche.net/contents/95-le-codage-binaire

Retour au sommaire

8.
Tout savoir sur le système de notation binaire en informatique

Le système binaire est le système de numération utilisant la base 2. On nomme couramment bit (de l’anglais binary digit, soit « chiffre binaire ») les chiffres de la numération binaire positionnelle. Un bit peut prendre deux valeurs, notées par convention https://fr.wikipedia.org/wiki/0_(ch... et 1.

Le système binaire est utile pour représenter le fonctionnement de l’électronique numérique utilisée dans les ordinateurs. Il est donc utilisé par les langages de programmation de bas niveau.

Sommaire

Retour au sommaire

9.
Tableau des ordres de grandeur des unités de débit binaire (OG / Système international (SI))

Le débit binaire est une mesure de la quantité de données numériques transmises par unité de temps

Unités de débit binaire v · d · m 
Système international (SI)
Unité Notation Valeur
bit par seconde bit/s ou b/s ou bps 1 bit/s
kilobit par seconde kbit/s ou kb/s 103 bit/s
mégabit par seconde Mbit/s ou Mb/s 106 bit/s
gigabit par seconde Gbit/s ou Gb/s 109 bit/s
térabit par seconde Tbit/s ou Tb/s 1012 bit/s
pétabit par seconde Pbit/s 1015 bit/s
exabit par seconde Ebit/s 1018 bit/s
zettabit par seconde Zbit/s 1021 bit/s
yottabit par seconde Ybit/s 1024 bit/s

Source : https://fr.wikipedia.org/wiki/D%C3%A9bit_binaire

Retour au sommaire

10.
[TUTO] Apprendre le binaire en 3 minutes ! 05 juin 2015 - JUCKCLIE

Apprenez a convertir des nombres en binaire en toute simplicité ! Même un enfant de CP bien vénère y arrive... Donc bon ! / !\ Sur les réseaux sociaux / !\ N’hésitez pas a poser vos questions ! Facebook : https://www.facebook.com/juckcliefr Twitter : https://twitter.com/JuckclieTV - Catégorie : Science et technologie – Source :

Source : https://www.youtube.com/watch?v=_kpAWHDsVzA

Retour au sommaire

11.
Tutoriel - Conversion d’un nombre hexadécimal en un nombre binaire ou l’inverse - 29 décembre 2015 – Vidéo 2:59 - Christophe Golfier

Tutoriel pour apprendre à convertir un nombre hexadécimal en un nombre binaire ou l’inverse - Catégorie : People et blogs

Source : https://www.youtube.com/watch?v=thzfa_JxjP8

Retour au sommaire

C.
L’informatique, le numérique et le système Internet avec hardware (quincaillerie) et software (logiciel)

12.
Introduction de l’article Wikipédia sur l’Informatique

L’informatique est un domaine d’activité scientifique, technique et industriel concernant le traitement automatique de l’information par l’exécution de programmes informatiques par des machines : des systèmes embarqués, des ordinateurs, des robots, des automates, etc.

Ces champs d’application peuvent être séparés en deux branches, l’une, de nature théorique, qui concerne la définition de concepts et modèles, et l’autre, de nature pratique, qui s’intéresse aux techniques concrètes de mise en œuvre. Certains domaines de l’informatique peuvent être très abstraits, comme la complexité algorithmique, et d’autres peuvent être plus proches d’un public profane. Ainsi, la théorie des langages demeure un domaine davantage accessible aux professionnels formés (description des ordinateurs et méthodes de programmation), tandis que les métiers liés aux interfaces homme-machine sont accessibles à un plus large public.

Photo - Salle informatique de la bibliothèque d’Art et d’Archéologie de Genève

Sommaire

Retour au début du sommaire

13.
Quelle différence entre hardware (quincaillerie) et software (logiciel) ? Document ‘apprendreinformatique.fr’

Les deux concepts Hardware et Software sont deux domaines différents. En effet, le hardware désigne le matériel physique constituant les ordinateurs de bureau, le PC, les matériels externes tandis que le software est un logiciel et une application qui parcourt un ordinateur.

Tout d’abord, le software est un mot anglais qui veut dire le logiciel. Il est une partie invisible d’un ordinateur. En effet, les logiciels sont utilisés pour faciliter et pour faire durer la vie d’un ordinateur. Les logiciels sont caractérisés par de séquences d’instruction interprétable via une machine. Ils déterminent les tâches qui peuvent être analysées par la machine. Les données du logiciel sont organisées en fichier. La machine prend la place de l’ordinateur ou un calculateur.

Selon les experts, le software est dénommé la partie intelligente d’un ordinateur. Il fait fonctionner la machine ou le PC. Le software est un ensemble de programmes qui sont exécutables par une ou plusieurs machines. Il est immatériel et il peut être stocké grâce à un support de mémoire. Ainsi, même à l’intérieur d’un ordinateur, le Software est une pièce maîtresse d’un ordinateur. Vous pouvez distinguer 3 grandes catégories de logiciel, dont le logiciel système, le logiciel d’application et le logiciel de programmation. Vous avez entendu parler de Microsoft ou MS-DOS, ce sont des logiciels utilisés tous les jours par les internautes, les particuliers et les professionnels. Pour pouvoir travailler, un ordinateur a besoin d’un software et d’un hardware.

Ainsi, d’une manière générale, le software et le hardware sont indissociables. Tandis que le hardware est le côté matériel physique ou informatique. Il est caractérisé par des pièces détachées des appareils informatiques. Ils se placent à l’intérieur et à l’extérieur du boîtier de l’ordinateur. Les pièces sont fabriquées par différentes firmes et par différentes marques. Elles sont montées sur des circuits imprimés. Pour un bon fonctionnement de votre ordinateur, vous devez utiliser des matériels informatiques compatibles et qui respectent les normes. Toutes les pièces intégrées dans l’ordinateur peuvent recevoir des informations. Elles peuvent également les envoyer, les stocker et les traiter. Toutes les opérations de hardware doivent suivre les instructions de chaque logiciel. Pour un problème de votre outil informatique, vous devez contacter soit un technicien de maintenance informatique hardware soit un technicien qui se spécialise à la maintenance informatique software. De nombreux experts restent disponibles sur la toile pour vous dépanner à tout moment.

Source : http://www.apprendreinformatique.fr/quelle-difference-entre-hardware-et-software/

Retour au début du sommaire

14.
Rappel technique sur les matériels et logiciels utilisés d‘après Wikipédia

Les utilisateurs d’Internet emploient communément les matériel et logiciel suivants :

  • un ordinateur personnel ou tout autre équipement terminal d’un réseau : assistant personnel, tablette numérique, console de jeux vidéo, téléphone mobile ;
  • un canal de communication vers le fournisseur d’accès :
    - fibre optique,
    - ligne téléphonique fixe : ligne analogique, xDSL,
    - ligne téléphonique mobile : 4G, LTE, 3G+, 3G, Edge, GPRS, GSM (CSD),
    - Internet par satellite 
  • un fournisseur d’accès à Internet (FAI) (en anglais ISP pour Internet Service Provider)…
    Extrait de ce site : https://fr.wikipedia.org/wiki/Internet

Retour au sommaire

15.
Introduction de l’article Wikipédia concernant Internet en général

Internet est le réseau informatique mondial accessible au public. C’est un réseau de réseaux, à commutation de paquets, sans centre névralgique, composé de millions de réseaux aussi bien publics que privés, universitaires, commerciaux et gouvernementaux, eux-mêmes regroupés en réseaux autonomes (il y en avait plus de 91 000 en 20191). L’information est transmise via Internet grâce à un ensemble standardisé de protocoles de transfert de données, qui permet des applications variées comme le courrier électronique, la messagerie instantanée, le pair-à-pair et le World Wide Web. C’est l’apparition de ce dernier qui a popularisé Internet.

Un internaute est une personne qui utilise un accès à internet. Cet accès peut être obtenu grâce à un fournisseur d’accès via divers moyens de communication électronique : soit filaire (réseau téléphonique commuté à bas débit, ADSL, fibre optique jusqu’au domicile), soit sans fil (WiMAX, par satellite, 3G+, 4G, ou 5G).

Un nombre croissant d’objets peuvent se connecter à Internet, cette évolution est appelée l’Internet des objets.

Sommaire

Retour au début du sommaire

16.
Aspects techniques de l’infrastructure Internet - Extrait d’une documentation Wikipédia - Schéma - Transit du trafic IP entre un ordinateur et un serveurb.

Internet est constitué de la multitude de réseaux répartis dans le monde entier et interconnectés. Chaque réseau est rattaché à une entité propre (université, fournisseur d’accès à Internet, armée) et est associé à un identifiant unique appelé Autonomous System (AS) utilisé par le protocole de routage BGP. Afin de pouvoir communiquer entre eux, les réseaux s’échangent des données, soit en établissant une liaison directe, soit en se rattachant à un nœud d’échange (point de peering). Ces échanges peuvent se limiter au trafic entre leurs utilisateurs respectifs (on parle alors de peering) ou bien inclure le trafic de tiers (il s’agit alors d’accord de transit). Un opérateur qui fournit un service de transit Internet à d’autres fournisseurs d’accès est appelé carrier. Ces accords d’échange de trafic sont libres, ils ne font pas l’objet d’une régulation par une autorité centrale.

Chaque réseau est connecté à un ou plusieurs autres réseaux. Lorsque des données doivent être transmises d’un ordinateur vers un autre appartenant à un AS différent, il faut alors déterminer le chemin à effectuer parmi les réseaux. Les routeurs chargés du trafic entre les AS disposent généralement d’une table de routage complète (Full routing table)25 de plus de 440 000 routes en 201326, et transmettent le trafic à un routeur voisin et plus proche de la destination après consultation de leur table de routage.

Des chercheurs israéliens de l’université Bar-Ilan ont déclaré, après avoir analysé les nœuds reliant l’ensemble des sites, qu’internet est un réseau méduse. Ils la définissent comme ayant un cœur dense connecté à une multitude d’autres sites, qui ne sont reliés entre eux que par ce cœur, semblable à un maillage à structure fractale. Cette zone permet à 70 % du réseau de rester connecté sans passer par le cœur. Les chercheurs indiquent donc cette zone comme piste pour désengorger le trafic, en répartissant mieux les sites de cette zone27.

En pratique, ces connexions sont réalisées par des infrastructures matérielles, et des protocoles informatiques. Ces connexions permettent notamment de relier des connexions grand public à des Centre de traitement de données.

Connexions grand public

Article détaillé : Accès à Internet.

L’accès à internet est souvent vendu sous la forme d’offre commerciale de services, avec un abonnement fixe ou un paiement aux données consommées. Certaines organisations, notamment les universités européennes, disposent de leurs propres réseaux (ex. : Renater).

Pour accéder à internet il faut disposer d’un équipement IP ainsi que d’une connexion à un fournisseur d’accès. Pour cela, l’utilisateur emploie les matériel et logiciel suivants :

Article détaillé : Centre de traitement de données.

Les centres de traitement de données sont des lieux occupés par des serveurs.

Avant la bulle Internet, des millions de mètres carrés destinés à abriter de tels centres furent construits dans l’espoir de les voir occupés par des serveurs. Depuis, la concentration des centres s’est poursuivie, avec le développement de centres spécialisés pour lesquels les défis les plus importants sont la maîtrise de la climatisation et surtout de la consommation électrique. Ce mouvement a été intégré dans le green computing et vise à aboutir à des centres de traitement de données dits écologiques pour lesquels sont apparus des outils spécialisés28.

Infrastructures matérielles

Article détaillé : Maillage de l’infrastructure Internet en France.

Internet repose sur la transmission d’information d’un point à un autre. Cette transmission se fait généralement au moyen d’ondes électromagnétiques. Les différents points sont donc connectés soit physiquement, soit indirectement à travers d’autres points.

Ces ondes peuvent être transmises dans l’air (technologies sans fil), dans une fibre optique ou dans un câble métallique (technologies filaires). Lorsque l’information doit passer d’une voie vers une autre, elle est aiguillée au moyen de matériels dédiés (switch, routeurs).

Protocoles logiciels

Les protocoles logiciels utilisés sur internet sont les conventions structurant les échanges d’informations nécessaires au transfert des contenus applicatifs pour l’usager final. Ils permettent notamment d’identifier les interfaces (donc les machines), de s’assurer de la réception des données envoyées, et de l’interopérabilité.

Internet fonctionne suivant un modèle en couches, similaire au modèle OSI. Les éléments appartenant aux mêmes couches utilisent un protocole de communication pour s’échanger des informations.

Un protocole est un ensemble de règles qui définissent un langage afin de faire communiquer plusieurs ordinateurs. Ils sont définis par des normes ouvertes, les RFC (RFC 79129, RFC 100030, RFC 146231 et RFC 158032).

Chaque protocole a des fonctions propres et, ensemble, ils fournissent un éventail de moyens permettant de répondre à la multiplicité et à la diversité des besoins sur internet.

Les principaux sont les suivants, classés selon leur couche (IP, TCP et UDP) ; couches applicatives :

  • IP (Internet Protocol) aussi appelé IPv4 : protocole réseau qui définit le mode d’échange élémentaire entre les ordinateurs participant au réseau en leur donnant une adresse unique sur celui-ci. Cependant, en raison du nombre d’internautes croissant, une nouvelle norme voit le jour ; nommée IPv6, elle permet d’accueillir un plus grand nombre d’utilisateurs.
    • TCP : responsable de l’établissement de la connexion et du contrôle de la transmission. C’est un protocole de remise fiable. Il s’assure que le destinataire a bien reçu les données, au contraire d’UDP.
      • HTTP (HyperText Transfer Protocol) : protocole mis en œuvre pour le chargement des pages web.
      • HTTPS : pendant du HTTP pour la navigation en mode sécurisé.
      • FTP (File Transfer Protocol) : protocole utilisé pour le transfert de fichiers sur Internet.
      • FTPS (File Transfer Protocol Secure) : pendant du FTP pour le transfert de fichiers sécurisés
      • SMTP (Simple Mail Transfer Protocol) : mode d’échange du courrier électronique en envoi.
      • POP3 (Post Office Protocol version 3) : mode d’échange du courrier électronique en réception.
      • IMAP (Internet Message Access Protocol) : un autre mode d’échange de courrier électronique.
      • IRC (Internet Relay Chat) : protocole de discussion instantanée.
      • NNTP (Network News Transfer Protocol) : protocole de transfert de message utilisé par les forums de discussion Usenet
      • SSL ou TLS : protocoles de transaction sécurisée, utilisés notamment pour le paiement sécurisé.
    • UDP : permet de communiquer, de façon non fiable mais légère, par petits datagrammes.
      • DNS (Domain Name System) : système de résolution de noms Internet.
    • ICMP (Internet Control Message Protocol) : protocole de contrôle du protocole IP.
      À la suite de l’épuisement des adresses IPv4, le protocole IPv6 a été développé. Celui-ci dispose d’un espace d’adressage considérable.

Indépendamment du transfert entre deux points, les routeurs doivent pouvoir s’échanger des informations de routage. Un IGP (Interior Gateway Protocol) et un EGP (Exterior gateway protocol) comme BGP (Border Gateway Protocol) satisfont ce besoin.

Source du document rapporté : https://fr.wikipedia.org/wiki/Internet#Technique

Retour au début du sommaire

17.
Circulation des données à travers les trois couches du cyberespace – Accès au document infographique ‘Le Monde’

1 - Le réseau physique du numérique Voir ici

2 - La circulation des données – Voir ici

3 - Le contenu – Voir ici

Référence : www.lemonde.fr/international/visuel/2018/07/23/cyberespace-la-guerre-mondiale-des-donnees_5334901_3210.html

Voir aussi ceci le cas échéant :

Source : http://ookawa-corp.over-blog.com/2018/07/circulation-des-donnees-a-travers-les-trois-couches-du-cyberespace.html

Retour au sommaire

18.
En Intelligence Artificielle, quelles sont les différences entre l’apprentissage automatique ou ‘machine learning’ et l’apprentissage profond ou ‘deep learning’ Par Valentin Blanchot Twitter@vblanchot 30 janvier 2019 - Illustration - ©Franck.V / Unsplash

On vous explique l’évolution de l’intelligence artificielle et ses modes d’apprentissage. Du machine learning, jusqu’aux GANs, en passant par les réseaux de neurones artificiels.

Si le terme intelligence artificielle est né en 1950 dans un article publié par Alan Turing, son application n’aura jamais été aussi performante que depuis ces dernières années. Néanmoins, l’IA comme domaine scientifique existe depuis 1956 suite à la conférence tenue au Darmouth College, ce qui sonne le début de l’histoire de l’intelligence artificielle. Aujourd’hui, elle vient de pair avec d’autres termes comme algorithme, machine learning, réseau de neurones artificiels, deep learning … Voyons ensemble ce qui hiérarchise tout cela.

Depuis 2012, les composants informatiques sont de plus en plus puissants et de moins en moins chers. Cela permet à des projets de recherche de voir le jour plus facilement. D’autre part, l’engouement pour l’intelligence artificielle a lancé de vastes plans d’optimisations de la collecte des données qu’il s’agisse de dossiers médicaux, d’images, de vidéos, ou des données de cartographies. C’est d’autant plus vrai lorsqu’on constate le faible coût que représente le stockage des données aujourd’hui. Grâce à tout cela, l’IA s’est perfectionnée et elle a trouvée de nouveaux terrains de jeu dans la médecine, dans le traitement des images, dans la programmation informatique, et même dans l’agriculture. C’est alors qu’émergent des termes comme machine learning, réseaux de neurones artificiels, GAN, ou encore deep learning, selon la complexité du travail appliqué à ces programmes.

L’intelligence artificielle faible.

Par définition, l’IA faible est un programme qui n’est pas doté de sens et se concentre uniquement sur la tâche pour laquelle il a été programmé. On la met en opposition à l’IA forte, qui, elle, est dotée de conscience et donc d’une sensibilité particulière. Cependant, l’IA forte reste encore du domaine de la science-fiction. Toutes les intelligences artificielles que nous croisons dans la vraie vie sont faibles.

Dans leur état le plus basique, elles ne sont qu’un algorithme qui n’évolue pas, et qui ne se base pas sur une quantité de données. Ceci en opposition au machine learning ou au deep learning. Ensuite, l’exemple le plus sommaire, d’une IA, c’est le robot contre lequel vous jouez aux échecs, à Warcraft, ou qui anime vos parties de Theme Hospital.

Dès lors que l’exploitation de la donnée entre en jeu, on commence à apprendre aux machines. Ainsi elles évoluent, se perfectionnent continuellement, et c’est dans les années 90 que le machine learning entre en jeu.

L’apprentissage automatique sacré par Deep Blue

Dès lors qu’entre en jeu un concept d’apprentissage, bon nombre de scientifiques rêvent de passer le test de Turing, évoqué en 1950 dans l’ordinateur et l’intelligence. Ce test consiste à engager une conversation masquée entre un humain, une machine, et un autre humain. Si le premier humain n’est pas en mesure de désigner l’interlocuteur qui est une machine, alors cette dernière passe le test de Turing.

La toute première fois qu’on parle de machine learning, c’est en 1959, lorsque Arthur Samuel a présenté pour IBM un programme jouant au jeu de dames. Sa particularité ? Il l’améliorait à chaque partie. L’informaticien a créé un système qui permettait au programme de se souvenir de chaque position qu’il avait déjà vu, avec les opportunités qu’elles offraient. Il l’a également fait jouer contre lui-même comme autre moyen d’apprentissage. Grâce à ces données, Arthur Samuel a fait évoluer son programme et il aurait ainsi été en mesure de battre le 4ème meilleur joueur de dames des États-Unis. Il s’agit également du premier programme informatique à jouer à un jeu de plateau à un niveau avancé.

Le véritable sacre de l’apprentissage automatique survient lorsqu’en 1997 Deep Blue bat Garry Kasparov aux échecs, invaincu jusqu’alors. Le superordinateur créé par IBM inspirera la naissance de Watson, mais aussi de nombreux projets d’apprentissage des intelligences artificielles. Le développement rapide de l’information, du traitement des données, et du cloud nous emmènera jusqu’à AlphaGo développé par DeepMind, rachetée par Google en 2014.

Depuis longtemps, nous, internautes, avons entraînés des systèmes de machine learning. En aidant à Google à identifier un chat, un panneau STOP, ou un feu de signalisation lors d’un CAPTCHA la plupart du temps. Au départ, l’IA fait difficilement la différence entre l’image d’un chat et celle d’un buisson. À force de lui dire « sur cette image il y a un chat, mais pas sur celles-ci » le programme comprend ce qu’est un chat. Seulement, pour progresser, il faut développer le bon algorithme d’apprentissage, et il faut du temps.

Aujourd’hui, le machine learning continue d’être utilisé, mais plus dans le cas de systèmes experts, ou de superordinateurs. Ces techniques ont posé les bases permettant de faire émerger des intelligences artificielles plus complexes, creusant plus profond. C’est le cas des réseaux de neurones artificiels.

Les réseaux de neurones artificiels : un fonctionnement calqué sur nos cerveaux

Si le terme « réseau de neurones » émerge depuis peu dans les médias, c’est qu’il était très difficile à mettre en place jusqu’à récemment. En effet, faire raisonner un programme comme raisonne le cerveau humain nécessite une puissance informatique impressionnante. C’est pour cette raison que les théories étaient fréquentes, mais aucune application ne voyait le jour. Pourtant cette approche est née avec les premières réflexions sur l’intelligence artificielle dans les années 1950.

Pour comprendre le fonctionnement d’un réseau de neurones (artificiel), imaginez plusieurs couches, avec des connexions entre elles. Chaque couche peut correspondre à une tâche, et chaque neurone a une mission bien précise. Dans le cas où l’on veut savoir si une image représente un feu tricolore, on doit dire s’il y a trois ronds pour les lumières, si la forme générale est rectangulaire, si une des lumières est allumée en vert orange ou rouge, si la taille correspond, etc. Chacun de ces attributs est évalué, avec un taux de certitude. En passant chaque couche, et en associant les résultats, le réseau est capable de livrer un taux de certitude. Exemple : à 97% c’est un feu tricolore, à 12% ce sont des LEGO, à 5% on voit des boutons de chemise. À la fin, le réseau est informé s’il a vu juste ou non.

Au départ, le réseau se trompe, beaucoup, vraiment beaucoup. À force de confronter ses résultats avec la réalité, à force de voir différentes images, il apprend. Que le feu de signalisation soit à l’horizontale, que l’image soit en noir et blanc, qu’il y ait une pluie battante, ou qu’il fasse nuit, il l’identifiera de mieux en mieux.

C’est à partir de ce fonctionnement, et grâce, encore une fois, au développement des capacités de calcul des ordinateurs, qu’est né le deep learning.

Plus il y a de couches, plus c’est ‘deep’

Dès lors que l’on a compris l’intérêt de créer des structures complexes, avec plus de couches, et plus de données, bon nombre de projets ont vu le jour. Ils ont bien souvent été financés au sein des GAFAM, mais également dans des écoles, ou dans d’autres structures privées. Leurs applications sont nombreuses, mais les plus connus sont dédiés à l’imagerie médicale, le traitement du langage, la reconnaissance vocale, etc. On est loin du feu tricolore.

La première fois que l’on parle de deep learning, c’est grâce à la professeure Rina Dechter en 1986. Ensuite, cette approche est mise en pratique par Yann LeCun en 1989. L’actuel boss de l’IA chez Facebook avait à l’époque utilisé un réseau de neurones artificiel profond afin de reconnaître les codes postaux écrits à la main sur des lettres. Un programme simple aujourd’hui, mais qui avait nécessité trois jours d’apprentissage.

Des recherches et des études sur la structure des réseaux de neurones continueront d’animer la communauté scientifique jusqu’en 2009, année où cette pratique prend son envol. On considère cette année comme le big bang du deep learning. À ce moment-là, Nvidia met ses processeurs graphiques (GPU) à contribution. Pour Andrew Ng, cofondateur de Google Brain, l’exploitation des GPU pourrait créer des systèmes d’apprentissage profond jusqu’à 100 fois plus rapides. L’entraînement des algorithmes passerait de plusieurs semaines à seulement quelques jours.

C’est ainsi que Andrew Ng crée une architecture avec bien plus de couches et de neurones qu’auparavant. Il l’entraîne ensuite avec des contenus provenant de 10 millions de vidéos YouTube afin que son programme puisse identifier et extraire les images avec des chats. Nous sommes en 2012.

C’est à cette date que l’IA explose véritablement. La vaste disponibilité des GPU permet de créer des traitements parallèles pour les programmes et ainsi les rendre plus rapides, moins chers, et même plus puissants. Ajoutons à cela, depuis 2015, la quantité astronomique de données que l’on peut utiliser et stocker, et les intelligences artificielles ont tout pour s’épanouir
.
Aujourd’hui, des IA sont capables de faire des tâches précises bien mieux que l’Homme. Conduire, identifier une tumeur, joueur à un jeu vidéo, recommander un film, etc. Le deep learning a permis aux chercheurs de mettre en place bien des éléments pratiques du machine learning, et ce, pour un meilleur futur.

Un schéma pour tout comprendre sur l’intelligence artificielle

Toutes (ou presque) les théories d’apprentissage, les structures de réseaux de neurones artificiels, les applications de certains traitements ont vu le jour dès les premiers instants de l’intelligence artificielle. Cependant, l’informatique aura été la clé de son épanouissement et de sa mise en pratique. De l’intelligence artificielle basique au ‘deep learning’, il aura fallu attendre des décennies.

Voir l’illustration sur l’évolution des techniques depuis les années 1950 - Crédit : Nvidia

Chaque approche évolue de son côté, et permet de renforcer l’autre dans le cas où l’on va plus profond dans l’apprentissage. Les structures, les fonctionnements, les concepts sont constamment remis en question. C’est le cas d’une technique que Yann LeCun a qualifié d’idée « la plus intéressante des 10 dernières années dans le domaine du Machine Learning. »

Lire l’article complet à la source suivante : https://siecledigital.fr/2019/01/30/differences-intelligence-artificielle-machine-learning-deep-learning/

Retour au début du sommaire

19.
La prochaine révolution de l’Intelligence artificielle - Yann LeCun, à l’USI – Vidéo 46:36 - 05 juillet 2018 - USI Events

Informations et inscription sur http://www.usievents.com Pour sa seconde intervention à USI, Yann LeCun nous parle de l’état de l’Intelligence Artificielle, son histoire mais aussi les défis des prochaines décennies à venir en matière d’Intelligence Artificielle. Suivez USI sur Twitter : https://twitter.com/USIEvents Retrouvez USI sur LinkedIn : http://linkd.in/13Ls21Y - Abonnez-vous à notre chaine : http://bit.ly/19sPpSp - Catégorie : Science et technologie

Source : https://www.youtube.com/watch?v=2WiPx6thH2E

Retour au début du sommaire

19bis.
L’intelligence artificielle nous veut-elle du bien ? – Enregistrement de 42 minutes de France Culture 22/10/2019 – Dans le cadre des émissions
L’Invité(e) des Matinspar Guillaume Erner du lundi au vendredi de 7h40 à 8h et de 8h20 à 8h45

Derrière le terme de ’deep learning’ se trouve un changement de paradigme technologique : les machines passent du statut de simples exécutantes à celui d’apprenantes autonomes. Quelle éthique faut-il inculquer aux intelligences artificielles pour que ces évolutions respectent nos libertés ?

Image - Silhouette en code binaire. Crédits : Getty

A la veille de l’audition de Marc Zuckerberg par la Chambre des représentants, nous nous penchons sur les avancées que permet l’intelligence artificielle mais aussi sur les inquiétudes qu’elle soulève. Si les recherches en IA envahissent tous les domaines et bouleversent le quotidien, elles ne suscitent pas moins de nombreuses inquiétudes. Et avec le “deep learning” ou “l’apprentissage profond”, les machines passent du statut de simples exécutantes à celui d’apprenantes autonomes. Face à ces évolutions, la question des libertés individuelles se pose. L’intelligence artificielle peut-elle tout apprendre ? Quels en sont les gardes-de-fou et qui doit les mettre en place ? La démocratie et les droits y survivront-ils ?

Pour en parler, nous recevons Yann Le Cun, professeur d’informatique et de neurosciences à l’université de New York, lauréat du prix Turing 2019 et dirige la recherche fondamentale sur Facebook. Il est auteur de ’Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond’ (Odile Jacob). 

Il sera rejoint par Gaspard Koenig, philosophe, enseignant à Science Po, président du think-tank GenerationLibre, et auteur de ’La fin de l’individu. Voyage d’un philosophe au pays de l’intelligence artificielle’ (L’Observatoire).

À ÉCOUTER AUSSI 58 min. La Méthode scientifique Y a-t-il un cerveau dans la machine ?

Bibliographie : 1èrede couverture - Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond.Yann Le Cun Odile Jacob, 2019

Intervenants : Yann Le Cun, directeur du laboratoire d’Intelligence Artificielle de Facebook, professeur d’informatique et de neurosciences à l’université de New York et titulaire de la chaire annuelle « Informatique et sciences numériques » au Collège de France. Gaspard Koenig, philosophe, enseignant à Science Po, président du think-tank GenerationLibre

À découvrir

L’intelligence artificielle made in France

L’intelligence artificielle fera-t-elle émerger de nouvelles idées ?

Intelligence artificielle : y a-t-il eu une prise de conscience en 2017 ?

Tags : intelligence artificielle Technologie Sciences

L’équipe – Production : Guillaume Erner - Production déléguée : Pauline Chanu – Réalisation : David Jacubowiez - Avec la collaboration de : Elodie Piel, Maiwenn Guizou, Léa Capuano, Louison Carroué

logo france culture

Source : [https://www.franceculture.fr/emissions/linvite-des-matins/lintelligence-artificielle-nous-veut-elle-du-bien?actId=ebwp0YMB8s0XXev-swTWi6FWgZQt9biALyr5FYI13OooDBJkPcQykd8SkIKwMoFh&actCampaignType=CAMPAIGN_MAIL&actSource=546071#xtor=EPR-2-LaLettre22102019]

Retour au début du sommaire

D.
Quelques techniques de communication numérique

20.
Introduction d’un article Wikipédia sur l’ADSL

L’ADSL (de l’anglais Asymmetric Digital Subscriber Line) est une technique de communication numérique (couche physique) de la famille xDSL. Elle permet d’utiliser une ligne téléphonique, une ligne spécialisée, ou encore une ligne RNIS (en anglais ISDN pour integrated services digital network), pour transmettre et recevoir des données numériques de manière indépendante du service téléphonique conventionnel (c’est-à-dire analogique). À ce titre, cette méthode de communication diffère de celle utilisée lors de l’exploitation de modems dits « analogiques », dont les signaux sont échangés dans le cadre d’une communication téléphonique (similaire au fax, c’est-à-dire sur des fréquences vocales). La technologie ADSL est massivement mise en œuvre par les fournisseurs d’accès à Internet pour le support des accès dits « haut-débit ».

Sommaire

Description - Le sigle ADSL vient de l’anglais asymmetric digital subscriber line, qui se traduit fonctionnellement par « [liaison] numérique [à débit] asymétrique [sur] ligne d’abonné »1. La terminologie française officielle recommande l’expression « liaison numérique asymétrique »2, mais le sigle « ADSL » reste le plus largement utilisé dans le langage courant.

Comme son nom l’indique, la technologie ADSL fournit un débit asymétrique. Le flux de données est plus important dans un sens de transmission que dans l’autre. Contrairement à la technologie SDSL pour laquelle le débit est symétrique, donc équivalent en émission et en réception, le débit de données montant d’une communication ADSL (upload) est plus faible que le débit descendant (download), dans un rapport qui varie généralement entre 5 et 20.

Retour au début du sommaire

21.
Introduction d’un article Wikipédia sur les fibres optiques

Photo de fibres optiques.

Une fibre optique est un fil dont l’âme1, très fine, en verre ou en plastique, a la propriété de conduirela lumière et sert pour la fibroscopie, l’éclairage ou la transmission de données numériques. Elle offre un débit d’information nettement supérieur à celui des câbles coaxiaux et peut servir de support à un réseau « large bande » par lequel transitent aussi bien la télévision, le téléphone, la visioconférence ou les données informatiques. Le principe de la fibre optique date du début du XXe siècle mais ce n’est qu’en 1970 qu’est développée une fibre utilisable pour les télécommunications, dans les laboratoires de l’entreprise américaine Corning Glass Works (actuelle Corning Incorporated).

Entourée d’une gaine protectrice, la fibre optique peut être utilisée pour conduire de la lumière entre deux lieux distants de plusieurs centaines, voire milliers, de kilomètres. Le signal lumineux codé par une variation d’intensité est capable de transmettre une grande quantité d’information. En permettant les communications à très longue distance et à des débits jusqu’alors impossibles, les fibres optiques ont constitué l’un des éléments clés de la révolution des télécommunications. Ses propriétés sont également exploitées dans le domaine des capteurs (température, pression, etc.), dans l’imagerie et dans l’éclairage.

Sommaire

Voir aussi : Les différents types de fibre optique - Multi ou Mono ?

Il existe 2 grands types de fibres :

  • Multimode : dans lequel il existe différents modes de propagation de la lumière au sein du coeur de la fibre.
  • Monomode : dans lequel il existe un seul mode de propagation de la lumière, le mode en ligne droite.
    En fonction du type de la fibre, nous allons voir que les caractéristiques de celle-ci (atténuation, bande passante, portée...) évoluent.

Document à consulter sur ce site : http://igm.univ-mlv.fr/ dr/XPOSE2009/Transmission_sur_fibre_optique/types.html

Retour au début du sommaire

22.
Comment faire installer la fibre optique dans une maison ? Document ‘echosdunet.net’ - Illustration

Faire installer la fibre optique dans une maison constitue un processus en 3 étapes : vérifier l’éligibilité de la ligne à l’internet très haut débit, souscrire une offre auprès d’un opérateur et enfin convenir d’un rendez-vous avec des techniciens qualifiés afin qu’ils procèdent aux travaux nécessaires directement au domicile.

Installation fibre optique : vérifier l’éligibilité de son logement

Le déploiement de la fibre optique, d’abord initié dans les zones urbaines densément peuplées, s’étend désormais aux lotissements et aux zones pavillonnaires. En plus des immeubles et des appartements, on recense aujourd’hui pas moins de 350.000 maisons éligibles à la fibre optique en France.

Avant d’entamer des démarches pour installer la fibre optique dans une maison, il convient de s’assurer de l’éligibilité de son domicile. En boutique, sur internet ou par téléphone, les fournisseurs mettent à disposition un test d’éligibilité à la fibre optique. Celui-ci permet d’identifier les opérateurs couvrant le logement et la vitesse de connexion qu’ils proposent.

Il est également possible de tester son éligibilité à la fibre optique en nous contactant directement au 09 75 18 80 51 (lundi-vendredi 9H-21H ; samedi 10H-19H) ou en déposant une demande de rappel gratuit.

Choisir son fournisseur : quatre acteurs majeurs pour deux technologies fibre

Pour l’essentiel, l’accès au très haut débit en France relève de quatre opérateurs principaux que sont Orange, Free, SFR Altice et Bouygues, qui délivrent la fibre optique grâce à deux procédés distincts : le FTTH (Fiber to the home) et le FTTLA (Fiber to the last amplifier). En fonction de sa zone d’habitation, du type de logement et de l’opérateur choisi, l’usager pourra bénéficier de l’une ou de l’autre de ces technologies.

Le FTTH propose un raccordement « 100% fibre » grâce à l’installation d’une prise fibre optique à l’intérieur du logement. Il offre une grande stabilité de connexion et un meilleur débit montant que le FTTLA.

Le FTTLA utilise le réseau fibre jusqu’à un nœud optique, qui peut par exemple être une armoire de rue. Un câble coaxial prend alors le relais afin d’assurer la fin du raccordement. Le FTTLA présente l’avantage de ne pas nécessiter de travaux dans les logements où le câble est déjà installé. Il ne requiert pas non plus l’installation d’une prise fibre optique.

Actuellement, la couverture FTTLA est encore largement majoritaire en France. Elle est notamment exploitée par SFR (bientôt appelé Altice) qui modernise le vaste réseau SFR-Numericable en remplaçant peu à peu l’ensemble des câbles coaxiaux par de la fibre optique. Orange privilégie lui la technologie FTTH qui s’étend progressivement sur le territoire et représente une solution d’avenir.

Bien qu’il soit important de savoir distinguer FTTH et FTTLA avant d’installer la fibre optique chez soi, il est bon de préciser que dans les deux cas le client bénéficiera d’une connexion très haut débit et de performances largement supérieures à celles d’une connexion ADSL. En cas d’éligibilité à la fibre optique auprès de plusieurs fournisseurs, le choix de l’opérateur dépend alors davantage des services associés à l’offre, de la technologie embarquée dans la box ou encore du coût de l’abonnement.

Les frais de raccordement des maisons individuelles

Si le raccordement des immeubles et appartements n’est pas à la charge du client, les opérateurs facturent en revanche souvent des frais de raccordement pour les maisons individuelles.

  • Orange demande 149€ de frais pour un raccordement souterrain ou aérien.
  • Bouygues offre les 10 premiers mètres de fibre. Au-delà d’un câble de 10 mètres, des frais de 50 € sont demandés tous les 10 mètres supplémentaires.
  • SFR Altice propose un tarif de 149€ pour un raccordement souterrain, contre 299€ pour un raccordement aérien.
  • Free est le seul opérateur qui à ce jour propose un raccordement 100% gratuit en maison individuelle.

Opérateur

Coût du raccordement

Offre Fibre de base

Comment contacter l’opérateur

Orange

Gratuit en souterrain - 149€ en aérien Offre Livebox Zen Plus d’informations et souscription sur le site d’Orange

Bouygues Telecom

Gratuit en souterrain - 149€ en aérien

50€ supplémentaires tous les 10 mètres de câble

Offre Bbox Must Appeler le 09 87 67 18 00 ou demander à vous faire rappeler

SFR

149€ en souterrain - 299€ en aérien Offre Fibre Starter SFR Appeler le 09 87 67 96 18 ou demander à vous faire rappeler

Free

Gratuit Offre Freebox Revolution contacter le service client de Free

Les étapes de l’installation de la fibre optique dans une maison

Une fois le test d’éligibilité et le choix du fournisseur effectués, le futur abonné doit souscrire une offre fibre et fixer une date de rendez-vous pour le passage des techniciens. L’installation fibre dure généralement de 2 à 4 h, en fonction du type d’installation (en aérien ou en souterrain) et de la distance qui sépare le point de branchement le plus proche de la maison à la prise fibre optique. Ce reportage retrace étape par étape l’installation de la fibre dans un pavillon par des techniciens Orange.

  • A l’extérieur de la propriété, les techniciens commencent par ouvrir la chambre dont dépend la maison afin de récupérer le point de branchement.
  • Grâce à un câble de tirage, la fibre est tirée dans le fourreau déjà emprunté par le câble téléphonique.
  • Généralement, l’arrivée des fourreaux se trouve dans le garage, non loin du compteur électrique. Il convient au client de s’assurer que cet emplacement soit accessible aux installateurs et non obstrué par un meuble, par exemple.
  • Selon les considérations pratiques ou esthétiques du client et après examen de l’habitation, les techniciens déterminent le trajet le plus adapté pour faire circuler la fibre jusqu’à la prise fibre optique : en utilisant l’un des fourreaux, sur les plinthes ou encore à travers la cloison.
  • La prise fibre optique est installée et soudée. Son emplacement est important puisqu’elle sera reliée à la box. Il s’agit de prendre en compte l’agencement de la maison mais également la manière dont le client souhaite connecter ses équipements à la box (Ethernet, WI-FI ou courant porteur en ligne).
  • Les installateurs paramètrent la box et testent son débit. Si tout est en ordre, l’installation est alors terminée.
    Source : https://www.echosdunet.net/dossiers/comment-faire-installer-fibre-optique-dans-maison

Retour au début du sommaire

23.
Le très haut débit avec la Fibre Orange – Extraits un communiqué d’Orange

Le plan France Très Haut Débit (THD) a été lancé par le gouvernement en 2013 afin de couvrir l’intégralité du territoire national d’ici 2022, avec un accès internet performant, d’un débit minimum de 30 méga pour l’ensemble des logements, entreprises et administrations.

Ce plan a pour objectif de :

    • Donner accès aux usages numériques à tous les citoyens
    • Permettre la modernisation des services publics y compris dans les zones rurales et les montagnes
    • Renforcer la compétitivité de l’économie française et son attractivité
      Le plan THD mobilise un investissement de 20 Milliards d’euros, sur 10 ans, partagé entre l’Etat, les collectivités territoriales et les opérateurs privés.

Les opérateurs privés s’engagent à couvrir les territoires urbains par la Fibre, soit 60 % des logements et locaux professionnels et ils assurent le déploiement du réseau.

Les collectivités territoriales avec le soutien de l’État et de l’Union européenne s’engagent à couvrir les territoires ruraux, soit 40 % des logements et locaux professionnels et elles contractualisent des partenariats avec des opérateurs télécoms…

Les étapes du déploiement

Le déploiement de la fibre optique (FTTH) s’effectue en 2 grandes phases :

    • Le déploiement dans les rues appelé déploiement horizontal
    • Le déploiement à l’intérieur des immeubles et pour les pavillons appelé déploiement vertical. Le principe du déploiement en France suit la règle de la mutualisation du réseau vertical. Ainsi, un seul opérateur déploie cette partie terminale du réseau, mais tous les Fournisseurs d’Accès à Internet peuvent commercialiser leurs offres et services à l’abonné final, moyennant la location de la ligne.
      Pour déployer son réseau en fibre optique dans les rues jusqu’au point de mutualisation, Orange utilise les infrastructures souterraines existantes qui accueillent aujourd’hui les réseaux cuivre et câble, mais aussi celles des collectivités locales, ou encore de certains réseaux d’égouts (notamment à Paris).

Découvrez en vidéo comment cela se passe concrètement sur le terrain - Pour simplifier, ce déploiement de la Fibre comporte 4 grandes étapes…

Tous les détails sont accessibles à cette source : https://reseaux.orange.fr/maison/fibre-optique

Retour au début du sommaire

24.
Technologie / fonctionnement - SDSL, ADSL, Fibre optique : quelles différences pour mon entreprise ? Document communiqué par ‘companeo.com’

Réponse : ADSL et SDSL font partie de la famille des xDSL, c’est-à-dire que ces deux technologies utilisent le réseau téléphonique pour transporter les données. La fibre optique, quant à elle, est un fil de verre ou de plastique très fin qui conduit la lumière et permet de parcourir de longues distances à grande vitesse sans aucun affaiblissement.

La principale différence entre l’ADSL, la SDSL et la fibre est le débit qu’elles proposent. L’ADSL délivre un débit inférieur à celui de la SDSL qui elle-même produit moins de vitesse de transfert de données que la fibre optique.

En d’autres termes, les vitesses de connexion au Web vont crescendo entre l’ADSL, la SDLS et la fibre optique qui reste la solution la plus performante à ce jour.

Autre différence majeure : l’installation du réseau. Si l’ADSL et la SDSL utilisent les lignes téléphoniques déjà existantes au sein d’une entreprise, la fibre optique nécessite pour sa part une installation supplémentaire.

Les abonnements fibre optique sont plus onéreux que l’ADSL mais souvent moins que le SDSL. Néanmoins, choisir la fibre implique d’être dans une zone d’éligibilité. Or, aujourd’hui, seules les grandes agglomérations sont couvertes.

Cet article issu de notre guide pratique sur les opérateurs télécoms vous aidera à choisir entre ADSL, SDSL et fibre optique. Opérateur Télécoms FAQ

Source : https://www.companeo.com/operateur-telecoms/FAQ/sdsl-adsl-fibre-optique-pour-entreprise

Retour au début du sommaire

25.
La technologie 4G quatrième génération du réseau de téléphonie mobile Document ‘futura-sciences.com/tech’

La 4G/LTE (Long Term Evolution, en anglais) désigne la quatrième génération du réseau de téléphonie mobile qui introduit du très haut débit pouvant aller, en théorie, jusqu’à 150 Mbit/s. La spécificité de la 4G par rapport aux réseaux cellulaires précédents est le passage à une structure IP (Internet Protocol) pour le transport des communications vocales et des SMS sous forme de paquets de données.

La 4G accompagne l’avènement des smartphones et le développement de nouveaux usages fortement consommateurs de données numériques et de bande passante : visiophonie, lecture de vidéo ou de musique en streaming, jeu vidéo en ligne, applications géolocalisées, partage de contenus, etc. Selon les mesures effectuées par l’Arcep (l’Autorité de régulation des communications électroniques et des postes), le débit médian du réseau 4G en France est de 17,9 Mbit/s en téléchargement contre 7,2 Mbit/s pour le réseau 3G. En débit montant, la vitesse de transfert est de 5,5 Mbit/s en 4G contre 1,5 Mbit/s en 3G.

Déploiement de la 4G en France

En France, l’attribution des licences 4G a fait l’objet d’une mise à l’encan qui a rapporté 3,5 milliards d’euros à l’État. Quatre opérateurs exploitent ce réseau de nouvelle génération : Bouygues Telecom, Free Mobile, Orange et SFR. Le déploiement opérationnel de la 4G a débuté en 2012 pour des clients professionnels avant d’être étendu l’année suivante aux particuliers.

Évolution de la couverture 4G en France entre avril 2016 et avril 2017. © Arcep 

La 4G et la VoLTE

L’une des évolutions technologiques importantes de la 4G est la VoLTE (voice over LTE) qui assure une qualité supérieure des appels vocaux sans trop empiéter sur la bande passante car les en-têtes des paquets de données sont plus petits que les paquets IP standard. Autre avantage, la VoLTE permet de garder active la connexion 4G pendant la communication téléphonique. Elle nécessite des terminaux compatibles.

Source : https://www.futura-sciences.com/tech/definitions/technologie-4g-14703/

Retour au début du sommaire

26.
Introduction d’un article Wikipédia sur la technologie 5G, cinquième génération du réseau de téléphonie mobile

En télécommunications, la 5G est la cinquième génération des standards pour la téléphonie mobile. Elle succède à la quatrième génération, appelée 4G1.

La technologie 5G est considérée par certains comme une « technologie clé »2 qui pourrait permettre – à l’horizon fin 2019 / début 2020 – de bénéficier de débits de télécommunication mobile de plusieurs gigabits de données par seconde.

Concrètement, cela représenterait un potentiel jusqu’à mille fois plus performant que les réseaux mobiles employés en 20103 et jusqu’à 100 fois plus rapides que la 4G4. Les principales entreprises technologiques concernées ont signé les premières spécifications communes du standard, à la suite de nombreux essais des différents acteurs, à Lisbonne en décembre 20175.

La 5G est bien un changement de génération car il donnera accès à des très hauts débits dépassant de 2 niveaux de magnitude la 4G avec des temps de latence très courts et une haute fiabilité permettant la mise en place d’applications de contrôle commande à distance dans de multiples domaines (par exemple téléchirurgie, voitures autonomes, automatisation industrielle)6

Avec ces débits potentiels, la 5G vise à répondre à la demande croissante de données avec l’essor des smartphones et objets communicants, connectés en réseau. Ce type de réseau devrait favoriser le cloud computing, l’intégration, l’interopérabilité d’objets communicants et de smartgrids et autres réseaux dits intelligents, dans un environnement domotisé, contribuant à l’essor du concept de « ville intelligente ». Cela pourrait également développer la synthèse d’images 3D ou holographique, le datamining, la gestion du big data et du tout-internet « Internet of Everything » (expression évoquant un monde où tous les ordinateurs et périphériques pourraient communiquer entre eux). D’autres applications concernent les jeux interactifs et multijoueurs complexes, la traduction automatique et assistée instantanée…

Des scientifiques et médecins alertent depuis 2017 sur les effets de la 5G.

Sommaire

Source de l’article complet : https://fr.wikipedia.org/wiki/5G

Retour au début du sommaire

27.
Réseau 5G : quels seront les premiers pays à en profiter ? Par Isabelle Leva - Mise à jour le 11/06/2019 – Communiqué émanant de ‘selectra.info/telecom’

Feu vert pour la course à la 5G depuis que la Finlande a annoncé en juin dernier, être le premier pays au monde à en avoir équipé deux de ses villes, Tampere et Tallinn. D’autres pays sont apparus dans les médias pour communiquer sur les tests qu’ils réalisent en ce moment. Quels sont ces pays et en quoi la 5G semble-t-elle si révolutionnaire ?

Plusieurs pays de l’UE ont lancé leurs expérimentations sur la 5G

Le pays en tête est celui qui a vu naître la célèbre marque de téléphonie mobile, Nokia, la Finlande. En juin dernier, l’un des principaux opérateurs de télécommunications finlandais, Elisa, a en effet clamé pouvoir commercialiser la 5G et que celle-ci est accessible à tous. C’est le premier pays à proposer une offre commerciale concrète, c’est-à-dire deux types de forfaits mobiles adaptés à la nouvelle technologie : l’un à 44,90€/mois avec la data en illimité et l’autre à 49,90€/mois avec appels et internet en illimité. En termes de débits, elle peut aller jusqu’à 600 Mbits/seconde mais les représentants d’Elisa ont précisé qu’ils pouvaient la pousser à 2 Gbit/seconde. Cela semble très prometteur, à un détail près. A ce jour, il n’existe pas de téléphone portable compatible avec leur réseau donc ils vont devoir attendre encore un peu pour avoir des abonnés. Leurs tests ont pour l’instant été effectués à l’aide de prototypes de la marque chinoise Huawei qui ne seront pas disponibles pour le grand public avant 2019.

La Finlande n’est pas la seule dans cette course qui motive beaucoup de pays. Saint-Marin, micro Etat du nord-est de l’Italie, a surpris en indiquant qu’il était le premier Etat à se doter entièrement de la 5G en 2018. Saint-Marin ne fait pas partie de l’Union Européenne. Il faut dire que concernant les pays de l’UE : Parlement et Commissions européens ont pris les devants en mars dernier pour faciliter la mise en place de la 5G dans ses différents Etats membres. Le Royaume-Uni, ayant encore un pied dans l’UE, a déjà annoncé un investissement de 1,15 milliard de livres pour le nouveau réseau qu’il va développer conjointement avec l’Allemagne.

L’Italie a précisé que Bari et Matera, deux petites villes de la région des Pouilles, au sud du pays, vont pouvoir développer le réseau 5G courant 2018, tandis que des tests ont également été réalisés à Milan et à Turin. La Belgique a également commencé tôt ses premières expérimentations et devrait prendre une place correcte pour la commercialisation de la 5G. La course va être serrée puisque les dates posées par les différents pays sont courant 2019 et 2020 pour une intégration, qu’ils espèrent totale ou presque en 2025.

Comment se situe la France dans la course à la 5G ?

Alors que la France avait eu du mal à se mettre à la 4G et que celle-ci n’a pas fini d’être déployée sur le territoire, elle semble prendre les devants avec la 5G. Administrativement parlant, le gouvernement a annoncé, il y a quelques jours à peine, sa feuille de route permettant aux opérateurs : SFR, Bouygues Telecom et Orange qui ont commencé leurs expérimentations, d’orienter au mieux leurs recherches et l’installation de la 5G. L’Arcep (Autorité de Régulation des Communications Electroniques et des Postes) a, de son côté, créé ce qu’elle appelle ses ’pilotes 5G’ qui permettent aux opérateurs et autres acteurs de la 5G (marques de téléphonie mobile notamment) d’envoyer une demande afin de tester le réseau dans différentes zones de France. Ainsi :

Photo de la collaboration entre Bouygues Telecom et Huawei pour la 5G

  • SFR travaille main dans la main avec Nokia et une première connexion 5G a pu être établie dans les locaux de Nokia, au sud de Paris. Ils ont obtenu également début juillet le droit d’étendre leurs tests dans les villes Toulouse et Nantes.
  • Bouygues Telecoms a lancé, avec Huawei, ses tests à Bordeaux dont les résultats sont satisfaisants, affirment-ils.
  • L’Arcep a attribué à Orange diverses villes pour ses expérimentations : Lille, Douai, Marseille et en 2019, le quartier de Paris Opéra.
    En termes de budget, nous n’avons pas de chiffres exacts mais les opérateurs ont affirmé investir près d’un milliard d’euros dans l’innovation de la 5G. Orange notamment, a augmenté son budget d’investissement de 3,1% en 2018, passant à 7,4 milliards d’euros.

La 5G : challenge entre les Etats-Unis et la Chine

La 5G représente un grand pas vers les technologies du futur. En Chine, les fondateurs de Huawei, le fabricant de smartphones, WeChat, le Facebook chinois - et ses 980 millions d’utilisateurs - ou encore le site d’e-commerce Alibaba, l’ont bien compris. Une étude menée par l’association américaine des opérateurs de télécommunications a montré que la Chine était le premier pays, au niveau mondial à se développer autant dans ce domaine.

Le pays asiatique a annoncé être capable de lancer la 5G fin 2018 pour une commercialisation en 2019. Cela ferait donc de la Chine, le premier pays au monde à être équipé de la 5G. Cette avancée fait suite au plan ’China 2025’ pour une Chine dite proactive, mis en place par le gouvernement du président actuel Xi Jinping.

Outre-Atlantique, les opérateurs américains Sprint et T Mobile ont décidé de fusionner pour unir leurs efforts dans le challenge de la 5G. Ils vont ainsi réunir 127 millions d’abonnés. Les Etats-Unis ont aussi communiqué le nom de plusieurs villes qui seront équipées de la 5G d’ici la fin de l’année, parmi elles Atlanta en Géorgie, Dallas et Waco au Texas grâce à la collaboration du plus grand opérateur, Verizon. Elles devraient être douze au total. AT&T, le deuxième plus grand opérateur américain, effectue ainsi des tests près de son siège au Texas, notamment à Austin.

Mais pour le moment, que ce soit en Europe, aux Etats-Unis, en Chine ou encore en Corée du sud, pionniers en la matière, la 5G n’est pas encore une réalité.

La Corée du Sud, premier pays à faire profiter officiellement de la 5G à ses habitantsEn effet, la Corée du Sud a été le premier pays, depuis le 3 avril dernier, à proposer des offres 5G aux sud-coréens, en même temps que le Samsung Galaxy S10 5G. Selon le quotidien local et anglophone, Korea Times, le pays compterait désormais un million d’abonnés (notamment via l’opérateur SK telecom).

Réseau 5G : Comment fonctionne-t-il ?

Ce nouveau réseau, héritier de la 4G, a tous les yeux des pays tournés vers lui parce qu’il offre des possibilités technologiques et d’innovations inouïes. Mais avant de pouvoir comprendre le fonctionnement de cette mine d’or, voici un petit récapitulatif des réseaux qui existent pour le moment.

Pour l’instant, neuf types de réseaux existent et sont disponibles sur smartphones :

  • Le réseau 2G ou GSM pour Global System for Mobile Communications a été créé en 1982 et permet uniquement le lancement et la réception des appels sur téléphones mobiles.
  • Le réseau GPRS 2,5G permet l’échange de data légère : SMS, data avec une vitesse maximale de 171,2 Kbits/seconde, ce qui est assez faible.
  • Le réseau EDGE 2,75G ou Enhanced Data Rates for GSM Evolution : l’objectif de ce réseau est similaire à la 2G mais le débit, lui, est plus rapide : 384 Kbits/seconde, maximum.
  • Le réseau 3G permet d’échanger de la data (SMS mais aussi MMS donc des images) avec un débit allant jusqu’à 1,9 Mbits/seconde, soit 5 fois plus vite que ses ancêtres.
  • Le réseau 3G + il permet d’atteindre une vitesse de 14,4 Mbits/seconde soit 7,5 fois plus rapide que la 3G.
  • Le réseau H+ est aussi appelé Dual Carrier ou HSPA+. Le débit peut aller jusqu’à 42 Mbits/seconde. C’est le prédécesseur de la 4G et il est souvent utilisé dans des zones où celle-ci n’a pas encore été déployée.
  • Le réseau 4G passe à une vitesse supérieure pouvant aller jusqu’à 100 Mbits/seconde. En réalité, la vitesse se rapproche des 19 Mbits/seconde.
  • Le réseau 4G + ou 4G LTE Advanced propose un débit entre 200 et 300 Mbits/seconde depuis 2017. Encore faut-il avoir un téléphone portable qui s’y prête.
  • Le réseau 4G+ UHD pour ultra haut débit : ou 4G ++. La vitesse pouvant atteindre 300 Mbits/seconde. Il n’y a que certains smartphones haut de gamme qui sont capables de supporter ce réseau : les iPhone 7 et supérieurs, les Samsung Galaxy à partir du 7 etc.
    Aujourd’hui, la 4G est le principal réseau utilisé par les opérateurs. En 2017, à quelques jours d’intervalles, SFR, Bouygues Telecom et Free ont précisé qu’ils couvraient chacun plus de 90% du territoire français. Free, de son côté, n’a pas communiqué sur ses chiffres mais semblerait un peu derrière ses concurrents, on sait juste que la société de Xavier Niel visait les 85% de la population.

La 5G devrait être capable de proposer un débit allant de 1 Gbit/seconde à 10 Gbits/seconde pour les appareils les plus performants. Plus rapide que la fibre optique donc. Pour le fonctionnement de ces réseaux, des bandes de fréquences doivent être attribuées pour éviter leur saturation, une saturation provoquée lorsqu’il y a trop de monde connecté sur un même réseau, puisque la performance d’internet est divisée par le nombre de personnes qui l’utilisent.

Ces fréquences passent par ce que l’on appelle des faisceaux hertziens. Ces faisceaux sont distribués entre deux antennes physiques, sur la terre, disposées sur deux zones géographiques distinctes qui couvrent des centaines de km. Par exemple en France, pour la 5G, l’Arcep a attribué des fréquences en bande 3,6-3,8 GHz à Orange et Bouygues Telecom.

Qu’apporte la 5G par rapport aux autres réseaux ?

Si l’on en croit les déclarations des différents fabricants de téléphonie mobile et les opérateurs de télécommunications français et internationaux, la 5G va offrir un large spectre de possibilités grâce à sa vitesse allant jusqu’à 10 Gbits/seconde. Tout d’abord, les gouvernements des Etats concernés ont fait savoir que ce nouveau réseau allait permettre l’ultra connectivité entre les individus.

Ainsi, une personne lambda pourra communiquer avec des tiers grâce à son smartphone beaucoup plus rapidement. L’un des points phares de la 5G est la réduction du temps de latence, passant ainsi d’une demi seconde à 10 millisecondes. Votre connexion sera en théorie beaucoup plus réactive et d’une bien meilleure qualité. Il sera notamment possible de regarder des vidéos en Ultra Haute Définition et en 3D sur votre smartphone grâce à l’association entre la réalité virtuelle et la 5G. Bien sûr la vitesse de chargement des applications sur smartphones, les jeux et la navigation sur internet sera décuplée.

Du côté des entreprises, d’après ce qu’elles avancent, les champs d’exploitation de la 5G sont gigantesques notamment en matière de domotique et d’automatisation des véhicules. Une association américaine a été fondée pour l’occasion en 2016, la 5GAA, et compte désormais 70 membres, parmi lesquels des opérateurs de téléphonie mobile : par exemple AT&T, opérateur américain, Orange, Vodafone... Des fabricants de smartphones comme Nokia et Samsung et des constructeurs de voitures : Nissan, Land Rover, Audi ou encore le groupe français PSA.

Quels smartphones sont compatibles avec la 5G ?

C’est peut-être là que la 5G trouve ses limites pour l’instant. Si un appel réussi en 5G a été réalisé entre la Corée du Sud et les Etats-Unis en mars dernier, grâce aux appareils de la marque coréenne Samsung, les portables compatibles avec la 5G n’existent pas encore sur le marché. D’ailleurs, l’appareil utilisé par Samsung lors de cet appel ressemble plus à une tablette qu’à un smartphone. Mais pas de panique, pour les plus impatients, les premiers téléphones portables connectables au réseau 5G arriveront en 2019. Les tarifs ne sont pas encore connus mais Huawei et Samsung risquent fortement d’être les premiers arrivants. Apple n’a pas encore fait d’annonce sur le sujet.

Vous souhaitez acheter un smartphone 4G avec un forfait mobile en attendant l’arrivée de la 5G ? - Contactez Selectra pour qu’un conseiller vous oriente parmi les offres partenaires les plus compétitives, en fonction de vos besoins 09 75 18 33 47ouRappel gratuit

Source : https://selectra.info/telecom/actualites/acteurs/reseau-5g-quels-seront-premiers-pays-a-profiter

Retour au début du sommaire

28.
Avec la 5G, la Chine vise les marchés des objets connectés et des voitures autonomes Extraits de l’Étude de ‘siecledigital.fr/2019’ sur les tendances des usages numériques 2019 en Chine – Par Geneviève Fournier Twitter@FournierGenevi1 18 octobre 2019

Un rapport qui fait état des évolutions du marché numérique en Chine en 2019

Le pays semble distancer ses concurrents avec la 5G apparaissant désormais comme un objet plus qu’important pour le futur des objets connectés, ou pour le marché des voitures autonomes par exemple. Le pays travaille sur de grands projets à l’international, et les équipements Huawei sont à l’origine de 65 % des réseaux 5G à travers le monde, comme il était rappelé aux États-Unis, tandis qu’ils envisageaient un retrait de la fabrication des appareils 5G en Chine il y a peu. Un autre pays, comme le Japon, souhaite reprendre le flambeau de l’innovation. Poussé par les J.O de 2020, celui-ci mise très largement sur le développement du réseau Rakuten lors du passage à la 5G. Celle-ci représente un marché gigantesque pour l’avenir, donnant accès à de nombreux nouveaux usages, tout le monde en est conscient, la Chine en premier.

La Chine utilise massivement l’intelligence artificielle dans bon nombre de domaines.

Le contrôle des accès est régenté grâce à cette technologie. La Chine utilise la reconnaissance faciale et le développement des algorithmes (machine learning) servant à contrôler l’accès de certains lieux comme les gares ferroviaires. Les passagers peuvent passer devant un lecteur de reconnaissance faciale, et voir leur compte débité automatiquement, grâce au stockage de leurs données. Tout simplement. Même chose pour certains hôtels, comme le FlyZoo, qui offre un service de robots à intelligence artificielle capables de vous laisse entrer – ou non – dans votre chambre grâce un système de reconnaissance faciale.

Le service clientèle s’agrémente lui aussi d’un service de système d’intelligence artificielle en 3D, permettant aux utilisateurs d’essayer des vêtements grâce à un avatar. La Chine n’est pas la seule à utiliser ce système, IKEA propose le même type de service à ses clients en leur permettant de visualiser leurs futurs achats dans leur habitat grâce à l’application IKEA Place.

La surveillance des citoyens s’applique également grâce à un système de reconnaissance faciale et de vision artificielle ou numérique, contrôlé par les autorités : que ce soit pour la sélection des profils suspects lors de chasses aux criminels, de contrôle des trafics, ou d’identification des citoyens quand ils enfreignent certaines règles. Le pays est connu pour son système de vidéosurveillance extrêmement développé, qui ne cesse d’être plus pointu, exemple : « la super caméra » inventée par un groupe de chercheurs, qui devrait être en mesure d’identifier un individu parmi des dizaines de milliers de personnes.

Les municipalités utilisent également l’intelligence artificielle pour se transformer en « ville intelligente », notamment en utilisant un système capable de d’adapter l’utilisation des ressources électriques en fonction du trafic et des conditions météorologiques. Enfin, d’autres applications ne cessent de voir le jour, permettant l’appréciation des services médicaux.

La Chine a déjà fait part de l’importance selon elle d’investir dans l’intelligence artificielle pour les infrastructures. : » Dans le domaine de l’amélioration de la gestion des villes, il y a un grand espace qui permet aux différentes entreprises de développer et de déployer leur potentiel en termes d’IA. Chaque joueur prend sa petite part du gâteau« , déclarait Tencent au China Daily il y a deux ans déjà.

Nombreux sont les services qui vont pouvoir profiter de l’intelligence artificielle, et de la reconnaissance faciale, que ce soit dans le domaine administratif, il suffit de penser aux applications en train de se mettre en place, type Alicem en France. Le domaine de la santé devrait en profiter également, principalement grâce aux capteurs NFC, capables de jouer un rôle préventif pour les patients, voire détecter des maladies. Tencent a d’ailleurs créé en 2018 une unité commerciale appelée « groupe des industries du cloud et intelligentes » avec pour objectif de travailler avec des industries spécialisées dans la grande distribution, la médecine, l’éducation et les transports pour implanter peu à peu des systèmes d’IA dans ces domaines.

La Chine et son crédit social

Le crédit social, lancé en 2014, et fondé sur un système de notation des citoyens devient une réalité en Chine. L’évaluation des citoyens chinois notés sur leur comportement et leurs actions, entraine une récolte d’informations reposant sur des données mises à disposition : l’accès au casier judiciaire, la récupération des données sur les réseaux sociaux comme Weibo ou WeChat, les notes du fisc, etc. Le programme conçu pour être effectif en 2020, a pour ambition de favoriser un comportement citoyen, couvrant ainsi les « infractions telles que fumer dans un endroit public, utiliser un billet périmé, omettre de payer ses amendes, s’acquitter d’une assurance sociale », rapportait Reuters.

En fonction de leur note, les citoyens se voient privés de certains droits, comme celui de se déplacer. Treize millions d’individus ont été jugés « non fiables » par le rapport de données tenu par la Cour suprême de Chine. Ces personnes sont interdites de prendre l’avion, ou le train rapide, l’étude ne précise pas pour combien temps. Les remontrances établies par le gouvernement chinois s’appliqueraient également au domaine des finances. Certains seraient dans l’impossibilité d’acheter un appartement ou de monter une entreprise, comme le rapportait un journaliste chinois sur France Inter, ayant été en procès avec la justice chinoise. À l’inverse, les personnes ayant un crédit élevé seraient privilégiés et pourraient plus facilement obtenir un poste de fonctionnaire, ou une place à l’école pour son enfant d’après ce qu’on peut lire dans Ouest france.

Photo - La ville de Shanghai de nuit © Adi Constantin – Unsplash

La liste n’est pas exhaustive, le rapport stipule qu’il n’existe pas un système fixe de réprimandes ou de scores à évaluer, mais tout un panel de critères qui divergent en fonction des villes et des provinces du pays. Exemple, à Pékin on risque une perte de points en mangeant dans le métro, tandis que c’est en promenant son chien qu’une réprimande peut tomber à Shangaï. Les critères d’évaluation ne seraient d’ailleurs pas toujours communiqués à l’ensemble des citoyens, comme le rapporte Ouest france.

Enfin le rapport stipule que la société travaille sur une application de scoring en collaboration avec le Comité central de la Ligue de la jeunesse communiste (CYLCC), et la Commission de développement et de réforme nationale (NRDC) du groupe des dirigeants chinois. Cela donne des avantages à ceux qui ont obtenu de bons résultats, comme éviter le premier cycle d’entretiens d’embauche.

Que dire, si ce n’est que le « crédit social » semble être entièrement fondé sur un service de surveillance accru, et un système de distribution de bénéfices et de punitions aléatoires. Il est d’autant plus troublant de constater que ces règles ne sont pas légiférées au niveau national et de ce fait, pas toujours référencées. Si celles-ci posent question d’un point de vue législatif, elles en posent encore davantage du point vue des libertés universelles et des droits fondamentaux, auxquelles chaque être humain peut se prévaloir. Dans un pays dont le parlement a modifié la Constitution pour permettre à son président Xi Jinping, élu depuis 2013, de le rester pour un « durée illimitée », il y a de quoi réfléchir un peu.

Plus d’informations sur : Chine

Retour au début du sommaire

E.
Informations sur les impacts sanitaires des radiofréquences (champs électromagnétiques ou CEM), en particulier de la 5G

29. Effets des champs électromagnétiques sur la santé - Des effets avérés ou supposésDocument ‘inrs.fr/risques’

Les champs électromagnétiques peuvent avoir des conséquences sur la santé des salariés exposés. Leurs effets sur l’organisme peuvent être directs : échauffement des tissus biologiques, stimulation du système nerveux, troubles visuels… Ils peuvent être indirects, en provoquant des blessures ou en aggravant une situation de travail dangereuse : projection d’objets ferromagnétiques, déclenchement d’une explosion ou d’un incendie… Le point sur les effets connus et sur ce qui reste à démontrer.

Pour une très large gamme d’intensités, les champs électromagnétiques peuvent avoir des effets, directs ou indirects, sur la plupart des systèmes physiologiques. Ils peuvent également perturber le fonctionnement des dispositifs médicaux actifs implantés ou non comme les pacemakers ou les pompes à insuline. La survenue de tels effets à court terme est réduite par le respect des valeurs limites et des bonnes pratiques de prévention.

Les articles R. 4453-3 et R. 4453-4 Code du travail définissent des valeurs seuils en fonction des effets sur la santé.

Effets directs des champs statiques, électriques ou magnétiques

Les champs électriques statiques peuvent provoquer des réactions cutanées. En effet, ils induisent au niveau de la peau des personnes exposées une modification de la répartition des charges électriques. Cette modification est perceptible surtout au niveau des poils et des cheveux (seuil de perception : 10 kV/m, seuil de sensations désagréables : 25 kV/m).

Les champs magnétiques statiques peuvent être à l’origine :

  • d’une modification de l’électrocardiogramme (ECG) au-delà de 8 T ;
  • d’effets sensoriels (nausées, vertiges, goût métallique au-delà de 2 T).
    Ces effets peuvent survenir en cas d’exposition à un champ magnétique statique de très grande intensité et lorsqu’on se déplace dans le champs.

Effets directs dus aux courants induits

Ces effets sont fonction de la densité de courant induit dans l’organisme humain (produit du champ électrique interne et de la conductivité du corps humain). L’unité de cette densité de courant induit est l’ampère par mètre carré (A/m2).

Effets dus aux courants induits en fonction de leur densité

  • Inférieure à 10 mA/m2 : pas d’effet connu sur la santé
  • De 10 à 100 mA/m2 : effets visuels et nerveux, soudure des os
  • De 100 à 1 000 mA/m2 : stimulation des tissus excitables
  • Supérieure à 1 000 mA/m2 : fibrillation
    Cancérogénicité

Sur la base de plusieurs études épidémiologiques mettant en évidence un risque accru de leucémie chez des enfants vivant à proximité de lignes à haute tension, le CIRC a classé les champs électromagnétiques très basses fréquences (inférieur à 100 kHz) comme « peut-être cancérogènes pour l’homme » (groupe 2B).

En 2011, le CIRC a également classé les champs électromagnétiques radiofréquences comme « peut-être cancérogènes pour l’homme » (groupe 2B). Ce classement a été établi suite à quelques études épidémiologiques, sur la base d’un risque accru de gliome (un type de cancer malin du cerveau) associé à l’utilisation de téléphone sans fil.

À ce jour, il n’a pas été possible d’établir un lien de causalité entre les expositions incriminées et l’apparition de leucémies lors d’exposition à des champs magnétiques de très basses fréquences..

De manière générale, les études sont, à ce jour, insuffisantes pour conclure définitivement sur le caractère cancérogène ou non des champs électromagnétiques de basses ou hautes fréquences.

Troubles visuels

Des personnes soumises à un champ magnétique variable (autour d’une fréquence de 20 Hz et au-dessus d’un seuil d’intensité de 2 à 3 mT) ressentent parfois des troubles visuels, caractérisés par la perception de taches lumineuses appelées magnétophosphènes. A la fréquence du réseau électrique 50 Hz, ces troubles peuvent apparaitre à partir d’une exposition de la tête à une induction magnétique externe de 4 à 6 mT (source Icnirp 2010).

Hyperthermie due aux champs haute fréquence

Lors de l’exposition à des champs hautes fréquences (supérieur à 100 kHz), l’énergie absorbée par les tissus biologiques peut entraîner une augmentation de la température du corps entier (hyperthermie) ou d’une région. Cependant, le corps humain est capable, jusqu’à un certain point, de lutter contre cet échauffement par la thermorégulation. Cet échauffement des tissus se caractérise par le débit d’absorption spécifique (DAS) exprimé en W/kg.

L’exposition accidentelle à de fortes puissances peut entraîner des brûlures superficielles ou profondes.

Effet auditif dû aux impulsions hautes fréquences

Certaines personnes peuvent percevoir un effet auditif, spécifiques aux ondes pulsées hautes fréquences (de 0,3 à 6,5 GHz). Cette sensation est souvent décrite comme un « clic ». Les radars sont les principales sources susceptibles de générer cet effet.

Hypersensibilité électromagnétique et symptômes non spécifiques

Quel que soit le type de champ électromagnétique, certaines personnes se plaignent de symptômes non spécifiques tels qu’asthénie physique ou musculaire voire douleurs musculaires, fatigue, pertes de mémoire ou apathie contrastant avec une irritabilité anormale, troubles du sommeil, maux de tête, vertiges, malaise… L’inquiétude vis-à-vis de ce risque peut elle-même induire des effets sans rapport avec le risque réel.

Pour ces symptômes, non spécifiques et réversibles, il est difficile de préciser le rôle de l’exposition aux champs électromagnétiques, qu’elle soit environnementale ou professionnelle.

« A l’heure actuelle, les études scientifiques ne permettent pas d’établir un lien entre les symptômes ressentis par les personnes hypersensibles et une exposition prolongée ou non à des intensités de champs électromagnétiques rencontrés dans notre environnement quotidien.

De la même façon, il n’a pas été prouvé que les personnes électro sensibles réagissent de manière plus précoce que les personnes non sensibles à la présence de champs électromagnétiques.

En revanche, il est admis que les personnes hypersensibles aux champs électromagnétiques sont en état de réelle souffrance et celle-ci doit être prise en compte lors de traitements principalement centrés sur la prise en charge sanitaire des symptômes dans un cadre pluridisciplinaire.

Dans tous les cas, il est admis que cette prise en charge soit effectuée le plus tôt possible après apparition des premiers symptômes. »

Effets indirects

Les champs électromagnétiques peuvent être à l’origine d’effets indirects susceptibles de provoquer des dommages sur l’homme, d’être à l’origine d’un incident ou d’un accident, ou d’aggraver une situation de travail dangereuse.

I peut s’agir :

  • du déclenchement d’une explosion ou d’un incendie du fait de l’apparition d’étincelles
  • d’un dysfonctionnement de systèmes comprenant des composants électroniques
  • de la projection d’objets ferromagnétiques en présence d’un champ statique puissant.
    Les effets indirects spécifiques aux basses fréquences sont dus aux courants de contact qui apparaissent lorsqu’une personne touche un objet métallique isolé de la terre et se trouvant dans le champ. Les effets apparaissent à partir de certains seuils dépendant de leur fréquence.

L’ensemble des effets indirects de l’exposition aux champs électromagnétiques est précisément décrit dans le « Guide non contraignant de bonnes pratiques pour la mise en œuvre de la directive 2103/35/UE » vol 1.

Effets sur les implants médicaux

Les implants passifs (broches, plaques, vis ou ‘stent’ par exemple), lorsqu’ils contiennent des matériaux conducteurs, peuvent être parcourus par des courants induits à l’origine d’échauffement des tissus en contact avec l’implant. Sous l’effet de champs magnétiques statiques intenses, le risque est alors le déplacement de l’implant par attraction lorsque l’implant est ferromagnétique.

Les implants actifs (stimulateur cardiaque, défibrillateur, stimulateurs neurologiques, valves neurologiques) peuvent subir des dysfonctionnements électriques et/ou électroniques (déprogrammation, reprogrammation, arrêt, stimulation ou inhibition inappropriés).

Les dispositifs médicaux actifs portés près du corps (pompe à insuline,…) peuvent aussi être le siège de dysfonctionnements lors de leur exposition à des champs électriques ou magnétiques dont l’intensité est parfois inférieure aux limites d’exposition fixées pour le public.

Effets sur la grossesse

Pour ce qui concerne les enfants à naître, il apparaît de façon générale que l’exposition aux champs électromagnétiques aux niveaux les plus fréquemment rencontrés ne semble pas accroître le risque de mauvais développement du système nerveux ou d’hyperthermie.

En tout état de cause, la réglementation prévoit que lorsque, dans son emploi, la femme enceinte est exposée à des champs électromagnétiques, son exposition doit être maintenue à un niveau aussi faible qu’il est raisonnablement possible d’atteindre en tenant compte des recommandations de bonnes pratiques existantes, et dans tous les cas, à un niveau inférieur aux valeurs limites d’exposition du public aux champs électromagnétiques.

Pour en savoir plus : brochures INRS

Source : http://www.inrs.fr/risques/champs-electromagnetiques/effets-sante.html

Retour au début du sommaire

29 bis.
Selon une étude, les écrans modifieraient la structure du cerveau des enfants Par Mathilde Rochefort - Publié le 6 novembre 2019 à 16h34 – Document ‘siecledigital.fr’

Les chercheurs ont notamment remarqué une différence dans la matière blanche des enfants qui passaient beaucoup de temps sur les écrans. Photo - Crédit : Pixabay / Andi_Graf

Une nouvelle étude parue dans la revue médicale JAMA Pediatrics indique que les écrans ont un impact néfaste sur la structure du cerveau des enfants. Des résultats particulièrement inquiétants, surtout lorsque l’on voit la place de plus en plus importante que les smartphones, tablettes, et autres gadgets prennent dans nos vies.

Certains enfants passent un temps considérable sur les écrans, et cela peut avoir des effets alarmants. L’année dernière déjà, une étude canadienne démontrait que limiter le temps d’écran des enfants permettait d’améliorer leurs capacités cognitives. Cette nouvelle étude est encore plus inquiétante. Selon ses résultats, les écrans modifient la structure physique du cerveau des plus jeunes.

Dans la même catégorie -Cette étude ternit les espoirs d’une découverte de forme de vie extraterrestre

La matière blanche touchée

Afin de parvenir à cette conclusion, les chercheurs ont travaillé avec 47 enfants de 3 à 5 ans. Ces derniers ont effectué un test afin d’analyser leurs capacités cognitives, tandis que leurs parents ont dû répondre à plusieurs questions. Ils ont notamment été interrogés sur le temps passé par leurs enfants devant un écran et sur le type de contenus qu’ils regardaient. En plus de cela, les scientifiques ont réalisé des IRM du cerveau de chacun des petits.

Le résultat de ces examens sont sans équivoque. Les chercheurs ont ainsi remarqué que les enfants qui passaient plus de temps derrière un écran avaient une “intégrité de la matière blanche” inférieure à celle des autres. La matière blanche permet de connecter les différentes régions de la matière grise, et joue un rôle primordial dans la transmission des communications entre les cellules nerveuses. Normalement, elle se développe lorsque les enfants font l’apprentissage du langage. D’ailleurs, les enfants qui passait un temps conséquent derrière un écran ont obtenu de moins bons résultats aux tests, leurs compétences en langage étant moins développées que celles des autres.

Un sujet très important pour l’avenir

Il faut toutefois prendre les résultats de cette étude avec des pincettes, l’échantillon de participants étant relativement faible. Néanmoins, ce sujet extrêmement important pour l’avenir doit absolument être étudié beaucoup plus profondément. C’est pourquoi une vaste étude s’étendant sur une décennie a été lancée en 2018 aux États-Unis. Son but : comprendre l’impact réel des écrans sur le cerveau des plus jeunes. 11 000 enfants participent à cette investigation qui consiste à les questionner et effectuer des scanners de leur cerveau.

Les premiers résultats de cette enquête, parus fin 2018, étaient peu encourageants puisque les chercheurs ont décelé un amincissement du cortex des enfants passant beaucoup de temps sur les écrans. Il s’agit d’une partie du cerveau qui permet les fonctions telles que le langage, la mémoire ou encore la commande de mouvements.

Il faudra toutefois attendre afin de comprendre les conséquences des écrans sur les plus petits. Surtout, n’hésitez pas à consulter les recommandations de l’Organisation Mondiale de la Santé (OMS) qui dresse une liste de conseils pour les enfants selon leur âge.

Plus d’informations sur : Santé

https://lh3.googleusercontent.com/2UPh1mJQJinBJLcBYSDDPxT10-ACagT4m6QQCx6v0I2W8CoA1mi835HMgzyi3VskmdHiefM=s170

Source : https://siecledigital.fr/2019/11/06/selon-cette-etude-les-ecrans-modifieraient-la-structure-du-cerveau-des-enfants/

Retour au sommaire

30.
Champs électromagnétiques extrêmement basses fréquences - Effets sanitaires et travaux de l’ANSES - Mis à jour le 03/05/2017

Mots-clés : Champs électromagnétiques, Radiofréquences, Ondes électromagnétiques

Photo - Les champs électromagnétiques extrêmement basses fréquences (EBF) sont notamment émis par les installations électriques et les dispositifs de transport de l’électricité. La question de l’impact sanitaire de ces champs électromagnétiques a été étudiée depuis plusieurs décennies. En dépit d’associations statistiques identifiées par plusieurs études entre l’exposition aux champs électromagnétiques EBF et les leucémies infantiles, aucun lien de cause à effet n’a pu être clairement identifié. Le questionnement sur les effets sanitaires potentiels de ces agents, en particulier à long terme, alimente les préoccupations du public, focalisées notamment autour des ouvrages de transport d’électricité. Au-delà, la question de l’effet de ces champs sur les animaux est régulièrement posée, s’agissant en particulier de l’impact spécifique sur les animaux d’élevage. L’Agence a conduit différentes expertises relatives à ces questions.

La question de l’impact sanitaire des champs électromagnétiques extrêmement basses fréquences est étudiée depuis plusieurs décennies, notamment depuis la publication en 1979 d’une étude épidémiologique (Wertheimer et Leeper, 1979), associant des cancers développés par des enfants dans certaines habitations du Colorado (États-Unis) à la présence de réseaux électriques dans leur environnement. 

Par la suite, de nombreux travaux ont été publiés dans le monde, aussi bien dans les domaines de l’épidémiologie que des effets des champs in vitro et in vivo. En dépit d’associations statistiques identifiées par plusieurs études entre l’exposition aux champs électromagnétiques extrêmement basses fréquences et la survenue de certaines leucémies infantiles, aucun lien de cause à effet n’a pu être clairement identifié. La part d’incertitude qui entoure encore la question des effets sanitaires des champs extrêmement basses fréquences, en particulier à long terme, alimente les préoccupations et les interrogations du public, focalisées notamment autour des ouvrages de transport d’électricité. L’impossibilité pour la science à démontrer l’absence d’effet sanitaire et la publication régulière d’études dont les résultats sont parfois difficilement interprétables nourrissent les interrogations.

En 2002, le Centre international de recherche sur le cancer (CIRC) a classé les champs magnétiques EBF dans la catégorie 2B -cancérogènes possibles pour l’homme-, sur la base des études épidémiologiques ayant associé l’exposition à ces champs avec un excès de risque de leucémies infantiles. Ce classement a marqué un tournant dans l’expertise des risques sur ce sujet.

Depuis la publication en 2004 d’un rapport remis à la Direction générale de la santé (DGS), d’autres données d’expertise sont parues dans le monde. L’Organisation mondiale de la santé (OMS) et le Comité scientifique des risques émergents et nouveaux (Scenihr) de la Commission européenne ont, en particulier, communiqué des positions scientifiques sur cette question des effets sanitaires des champs électromagnétiques extrêmement basses fréquences. En France, les travaux récents ou en cours sur le sujet ont été principalement tournés vers l’amélioration de la mesure de l’exposition et sa prise en compte dans les études épidémiologiques.

Les travaux de l’Agence

L’Agence a été saisie en 2008 par les ministères en charge de la santé, de l’environnement et du travail afin de conduire une expertise relative aux champs électromagnétiques d’extrêmement basses fréquences. Il était notamment demandé à l’Agence de réaliser une synthèse des travaux de l’expertise internationale et de proposer des recommandations afin de mieux quantifier l’exposition de la population à ces champs. 

L’analyse bibliographique effectuée par l’Agence montre que la connaissance de l’exposition des personnes aux champs électromagnétiques basses fréquences a progressé ces dernières années. Néanmoins, bien que la nature des sources responsables des émissions soit connue, et même si les moyens disponibles permettent aujourd’hui de simuler l’exposition au champ créé par exemple par les lignes de transport d’électricité, l’exposition résultant de ces sources est encore insuffisamment documentée

Le travail de l’Agence montre également que les effets à court terme des champs électromagnétiques extrêmement basses fréquences sont connus et bien documentés ; les valeurs limites d’exposition (100 µT pour le champ magnétique à 50 Hz, pour le public) permettent de s’en protéger. 

En ce qui concerne de possibles effets à long terme, il existe une forte convergence entre les différentes évaluations des expertises internationales (organisations, groupes d’experts ou groupes de recherche) . Une association statistique entre exposition aux champs magnétiques extrêmement basses fréquences et leucémie infantile a été observée par différentes études épidémiologiques. Ces études montrent même une bonne cohérence entre elles. Cette association est statistiquement significative pour une exposition résidentielle, moyennée sur 24 h, à des champs magnétiques dont les niveaux sont supérieurs à 0,2 ou à 0,4 µT, selon les études. Toutefois, à ce jour, les études qui ont été conduites pour déterminer un mécanisme biologique de cet effet n’ont pas été concluantes. Elles ont porté notamment sur des animaux et sur des systèmes cellulaires humains in vitro.

Dans ce contexte, le CIRC a classé en 2002 le champ magnétique de fréquences 50/60 Hz comme cancérogène possible pour l’homme (catégorie 2B). 

Cette incapacité durable à identifier un mécanisme d’action biologique représente un défi pour la compréhension des questions soulevées par les résultats des études épidémiologiques. Cette situation complexe est une motivation pour favoriser la mise en place d’analyses épidémiologiques plus fines avec une meilleure caractérisation de l’exposition.

Par ailleurs, l’Agence a également été saisie en février 2013 pour approfondir l’expertise scientifique relative aux conséquences des champs électromagnétiques extrêmement basses fréquences sur la santé animale et les performances zootechniques. Le manque de données bibliographiques sur l’évaluation de l’exposition des animaux d’élevage aux champs électromagnétiques a amené l’Anses à initier une campagne de mesures des champs électriques et magnétiques dans l’environnement d’un échantillon d’une trentaine de fermes d’élevage, à proximité ou non de lignes à haute tension. Cette étude, même si elle n’est pas représentative de toutes les situations des fermes en France, a permis de tirer des premières conclusions sur le niveau moyen des champs rencontrés dans l’environnement typique des fermes en identifiant surtout les sources de ces champs. Les champs magnétiques mesurés sous les lignes de transport d’électricité à haute tension restent de faible intensité (entre 0,01 et 7,59 µT) et les champs électriques sont de l’ordre de 46 à 5 060 V/m. Ces champs sont de plus faible intensité dans les bâtiments d’élevage (< 3 µT et 43 V/m). Les sources internes aux élevages peuvent générer des champs qui atteignent 25 µT à proximité de certains équipements (notamment les armoires électriques), mais les animaux n’y sont pas directement exposés. L’analyse de la bibliographie a montré que bien que de rares effets aient été observés chez les animaux (dégradation des fonctions cognitives chez l’animal de laboratoire (pour une exposition > 100 µT), baisse possible de la production laitière, du taux butyreux et augmentation de l’ingestion chez la vache laitière (champs magnétiques de 30 µT, 30 jours), etc. il restait difficile de se prononcer quant aux effets sanitaires directs des champs électromagnétiques extrêmement basses fréquences sur les animaux d’élevage.

Recommandations

Dans ce contexte, l’Agence recommande en particulier la poursuite des études épidémiologiques en s’appuyant sur une description robuste de l’exposition aux champs électromagnétiques d’extrêmement basses fréquences, notamment par le recours aux nouvelles techniques de mesure des expositions individuelles.

L’Agence recommande aussi de renforcer la recherche sur les causes possibles des leucémies infantiles

Au-delà, la recherche d’autres effets potentiels de ces champs doit également être renforcée. 

Enfin, des études devront cibler les travailleurs exposés à de plus forts niveaux. L’Agence conseille également d’associer les populations locales aux études de caractérisation de l’exposition, en les impliquant dans la définition des objectifs et en les informant des résultats. 

Dans l’attente, l’Agence recommande de ne pas installer ou aménager de nouveaux établissements accueillant des enfants (écoles, crèches…) à proximité immédiate des lignes à très haute tension, et de ne pas implanter de nouvelles lignes au-dessus de tels établissements.

En savoir plus :

Consulter la rubrique ’Champs électromagnétiques’ sur le portail de la santé publique de la l’Union européenne

Consulter la rubrique ’Champs électromagnétiques’ sur le site de l’organisation mondiale de la santé (OMS)

Autres articles sur le sujet

En application de la loi n° 2010-788 du 12 juillet 2010 portant engagement national pour l’environnement, dite « Grenelle 2 », le décret n° 2011-1697 du 1er décembre 2011 relatif aux ouvrages des réseaux publics d’électricité et des autres réseaux d’électricité et au dispositif de surveillance et de contrôle des ondes électromagnétiques impose au gestionnaire du réseau public de transport d’électricité la réalisation d’un contrôle des champs électromagnétiques induits par les lignes de transport d’électricité. Les résultats de ces mesures sont transmis annuellement à l’Anses et sont rendus publics : 

Dans le cadre d’un partenariat avec l’Association des Maires de France (AMF), RTE gestionnaire du Réseau de Transport d’Electricité met à disposition des maires un service d’information et de mesure sur les champs électromagnétiques. Les maires des 18000 communes de France se situant à proximité de lignes électriques à haute et très haute tension peuvent ainsi demander l’intervention de RTE pour relever les valeurs de champs magnétiques et répondre aux demandes d’information. Ils peuvent également solliciter l’intervention d’un laboratoire indépendant certifié pour effectuer des mesures, qui transmettra un rapport directement à la mairie. Ce service, si la commune le souhaite, peut financièrement être entièrement pris en charge par RTE.

La demande doit être formulée par le maire de la commune et par courrier électronique à l’adresse suivante : mesures-CEM@rte-france.com

Etude ’Transexpo’

L’Anses cherche à améliorer la caractérisation des expositions aux champs électromagnétiques basses fréquences en milieu urbain, jusqu’à présent très peu explorée. Dans cet objectif, l’Agence contribue à la mise en place de l’étude épidémiologique multicentrique internationale « Transexpo », visant à caractériser l’exposition des personnes aux champs magnétiques émis par les transformateurs installés dans des immeubles collectifs en France.

En savoir plus sur l’étude Transexpo

Avis et rapports en lien avec l’article

jui 2019 // Rapport AVIS et RAPPORT de l’Anses relatif aux effets sanitaires éventuels liés aux valeurs élevées de débit d’absorption spécifique de téléphones mobiles portés près du corps

avr 2019 // Rapport AVIS et RAPPORT de l’Anses relatif aux effets sanitaires liés à l’exposition aux champs électromagnétiques basses fréquences

sep 2018 // Avis AVIS de l’Anses relatif à une demande de note d’analyse des résultats préliminaires de l’étude américaine ’National Toxicology Program’ (exposition animale à des radiofréquences)

mar 2018 // Rapport AVIS et RAPPORT de l’Anses relatif à l’expertise sur l’hypersensibilité électromagnétique (EHS) ou intolérance environnementale idiopathique attribuée aux champs électromagnétiques (IEI-CEM)

juin 2017 // Rapport AVIS révisé et RAPPORT de l’Anses relatif à l’évaluation de l’exposition de la population aux champs électromagnétiques émis par les ’compteurs communicants’

juin 2016 // Avis AVIS et RAPPORT de l’Anses relatif à l’expertise ’Exposition aux radiofréquences et santé des enfants’

avr 2016 // Rapport Rapport de l’Anses relatif relatif à la compatibilité électromagnétique des dispositifs médicaux exposés à des sources radiofréquences

aoû 2015 // Avis AVIS de l’Anses relatif à une « demande d’approfondissement de l’expertise scientifique relative aux conséquences des champs électromagnétiques d’extrêmement basses fréquences sur la santé animale et les performances zootechniques »

oct 2013 // Avis AVIS et rapport de l’Anses relatifs à la mise à jour de l’expertise ’Radiofréquences et santé’

jui 2012 // Avis AVIS et RAPPORT de l’Anses relatif à l’évaluation des risques sanitaires liés à l’utilisation du scanner corporel à ondes « millimétriques » Eqo

Le 09/12/2019 // A venir Rencontres scientifiques internationales Anses - EFSA
Rencontres scientifiques internationales Anses - EFSA

Le comité de dialogue ’Radiofréquences et santé’

Expositions aux téléphones mobiles portés près du corps Publié le 21/10/2019

Effets sanitaires liés à l’exposition aux champs électromagnétiques basses fréquences

Source : https://www.anses.fr/fr/content/champs-%C3%A9lectromagn%C3%A9tiques-extr%C3%AAmement-basses-fr%C3%A9quences

Retour au début du sommaire

31.
Santé - faut-il avoir peur des ondes électromagnétiques ? - Par Cécile Thibert- Mis à jour le 19/11/2018 à 15:33 - Publié le 19/11/2018 à 15:06 – Document ‘sante.lefigaro.fr’

Téléphones portables, wifi, casques sans-fil... Nous utilisons au quotidien de plus en plus d’objets qui fonctionnent avec des ondes électromagnétiques. Que dit la science sur leurs impacts sanitaires ?

Téléphones portables, bornes wifi et objets connectés ont tous en commun d’envoyer et de recevoir des radiofréquences. Ces ondes électromagnétiques ne font pas de détour lorsqu’elles nous trouvent sur leur chemin. Nous sommes donc en permanence traversés par ces énergies invisibles. Un phénomène qui a suscité beaucoup d’inquiétude ces dernières décennies. En témoigne l’arrivée dans le commerce de dispositifs anti-ondes : bandeaux de grossesse, slips, bonnets pour bébé, patchs à coller sur les téléphones...

La crainte des ondes électromagnétiques est-elle fondée ? Faut-il chercher à s’en protéger ? Nous allons tenter d’y voir un peu plus clair.

Les ondes électromagnétiques peuvent-elles être dangereuses ?

Certaines ondes électromagnétiques sont loin d’être inoffensives. Mais leur dangerosité dépend de leur fréquence : plus elle est élevée, plus l’onde est riche en énergie et donc profondément absorbée par les tissus. Les ondes à haute fréquence, comme les rayons gamma (émis par des substances radioactives), ou les rayons X utilisés en radiologie sont donc très dangereuses pour les tissus biologiques. Les ultraviolets peuvent, eux, provoquer des cancers de la peau en altérant l’ADN des cellules. Mais la lumière visible, puis les infrarouges (les rayons que vous sentez en approchant vos mains d’un radiateur) sont déjà beaucoup plus inoffensives.

Et si l’on diminue la fréquence, on limite encore a priori les risques. C’est le domaine des radiofréquences, utilisées pour toutes les applications que l’on connaît : téléphones portables, boîtiers internet sans fil, etc. Cette fois, l’énergie associée à ces ondes n’est pas suffisante pour abîmer les tissus. En revanche, cette énergie est suffisante pour faire vibrer les molécules d’eau, ce qui provoque un échauffement des zones du corps exposées. C’est d’ailleurs le principe du four à micro-ondes.

Consulter l’illustration sur le spectre électromagnétique

Des normes drastiques

Les normes d’utilisation de nos objets du quotidien sont établies en fonction des effets thermiques des radiofréquences qu’ils émettent et reçoivent. Chaque objet se voit attribuer un seuil précis en dessous duquel la quantité d’énergie apportée par l’onde est négligeable et n’a pas d’effet thermique notable : c’est le DAS (débit d’absorption spécifique). Pour les travailleurs, les niveaux limites d’utilisation correspondent au DAS divisé par 10, alors que pour le grand public, on divise par 50. « En règle générale, on est à 1 à 5% du maximum autorisé, donc les normes nous protègent de façon très efficace », souligne Yves Le Dréan, biologiste à l’Institut de recherche en santé, environnement et travail (IRSET).

« En règle générale, on est à 1 à 5% du maximum autorisé, donc les normes nous protègent de façon très efficace » - Yves Le Dréan, biologiste.

« Si les ondes émises par les téléphones étaient très intenses, cela provoquerait des échauffements des tissus biologiques », abonde Sébastien Point, physicien et membre de la société française de radioprotection. « Mais comme elles sont très faibles, ce n’est pas le cas ». Si aucun accident n’a jamais été décrit pour des expositions inférieures aux normes, le risque existe au-delà et il concerne surtout des situations professionnelles. « Si un technicien intervient sur une antenne-relais, par exemple pour une tâche de maintenance, et que l’antenne est accidentellement remise en service pendant son intervention, il peut mourir brûlé », explique le physicien.

Se tenir très près d’une antenne-relais en fonctionnement peut donc être extrêmement dangereux. En revanche, les risques disparaissent dès que l’on s’éloigne de quelques mètres. Ce phénomène s’explique par une loi physique : « Pour tous les rayonnements, la puissance reçue diminue avec le carré de la distance, détaille Sébastien Point. Si vous vous tenez à 10 centimètres d’une antenne, vous allez être fortement exposé. Mais si vous vous éloignez de 10 mètres, l’exposition est divisée par un facteur 100 au carré, donc 10.000. Là, il n’y a aucun danger ».

Que sait-on de l’impact des ondes radios sur la santé ?

Ces vingt dernières années, plus de 3000 études ont évalué l’impact des radiofréquences sur la santé. « L’intérêt des scientifiques pour cette question a démarré au début des années 1990 aux États-Unis, avec le développement de la téléphonie mobile », rappelle Sébastien Point. « Il y a eu un procès très médiatisé contre un constructeur de téléphones, accusé par un homme d’être à l’origine du cancer de son épouse. Cela a soudainement éveillé les consciences, alors que les populations étaient déjà exposées depuis des décennies aux antennes-relais de radiodiffusion et de télévision. »

« Les résultats des études in vivo et in vitro sont très rassurants, on sait que ce n’est pas un poison violent à court terme. » - Yves Le Dréan, biologiste

Des études ont été menées en laboratoire - sur des cellules ou des animaux - mais aussi sur les populations. « Pratiquement toutes les études in vivo et in vitro avec de faibles niveaux d’exposition sont négatives », indique Yves Le Dréan. « Ces résultats sont très rassurants, on sait que ce n’est pas un poison violent à court terme. » Quelques études ont bien mis en évidence des effets biologiques, mais « ces résultats n’ont pas pu être reproduits », précise Sébastien Point.

En revanche, des doutes subsistent encore quant aux effets à long terme. « On manque de recul pour pouvoir affirmer avec certitude que cela ne peut pas induire de problèmes de santé au bout de plusieurs décennies d’exposition », note Yves Le Dréan. Plusieurs équipes se sont toutefois intéressées au lien entre les téléphones portables et les tumeurs cérébrales. La plus grande menée à ce jour (l’étude INTERPHONE, 2010) n’a pas montré d’augmentation du risque lié à une utilisation du téléphone portable excédant 10 ans. Par contre, un risque accru pour les utilisateurs intensifs a été mis en évidence. Mais selon les auteurs - une équipe du Centre international de recherche sur le cancer (CIRC) -, « les biais et les erreurs limitent la validité de ces conclusions et ne permettent pas une interprétation de causalité ».

En clair, les scientifiques ne savent pas à ce stade si le surrisque observé est dû au téléphone portable ou au hasard. Mais la balance penche plutôt en faveur de la seconde proposition : « Si tous les utilisateurs de téléphone portable avaient un risque supplémentaire d’avoir un cancer, cela se verrait sur les registres de cancer », souligne Yves Le Dréan. « Pour l’instant, ce n’est pas ce que l’on observe. »

 » LIRE AUSSI - Pas de danger sanitaire avec les compteurs intelligents, selon l’Anses

Cornichons et radiofréquences classés « cancérogènes possibles »

D’autres études robustes ont également conclu à l’absence de risque (une étude danoise menée auprès de 3,2 millions de personnes et une étude britannique qui a suivi près de 800.000 femmes). Mais il n’y a, pour l’heure, pas de consensus au sein de la communauté scientifique, même si les études de bonne qualité sont très rassurantes. Mais la science n’est pas figée. Récemment, deux méta-analyses (étude d’études) ont conclu que l’utilisation du téléphone portable peut augmenter le risque de tumeur cérébrale sur le long terme. Le problème, c’est que ces études sont entachées par un grand nombre de biais. « Les seuls éléments de preuves viennent d’études de faible puissance statistique avec des échantillons pas forcément représentatifs de la population », ajoute Sébastien Point.

« Nous n’avons pas la preuve que c’est cancérogène, mais nous ne pouvons pas affirmer pour autant que ça ne l’est pas. » - Sébastien Point, physicien

Face à autant d’incertitudes, l’Organisation mondiale de la santé (OMS) a décidé de classer les ondes radios comme « possiblement cancérogènes pour l’Homme » en 2011. « Cela signifie que nous n’avons pas la preuve que c’est cancérogène, mais nous ne pouvons pas affirmer pour autant que ça ne l’est pas », explique Sébastien Point. « Les agences sanitaires préfèrent dire qu’elles ne savent pas plutôt que de prendre des risques ». Pour rappel, les cornichons - et de manière générale tout légume conservé dans du vinaigre - et le métier de pompier sont, eux aussi, classés comme possiblement cancérogènes par l’OMS.

Outre le risque de cancer, un autre aspect a aussi été abondamment étudié ces dernières années : l’impact des radiofréquences sur la fertilité. Un sujet de préoccupation légitime puisque la plupart des gens rangent leur téléphone portable dans la poche de leur pantalon, tout près de leurs parties génitales. En 2013, l’Agence nationale de sécurité sanitaire (Anses) a passé en revue les études. Sa conclusion ? « Au vu de l’ensemble des données disponibles à ce jour, le niveau de preuve est insuffisant pour conclure à un éventuel effet des radiofréquences sur la fertilité masculine et féminine ».

Pas de catastrophe sanitaire en vue

« Ni les études épidémiologiques, ni les études biologiques n’ont montré que les ondes de faible intensité avaient un effet délétère », souligne Sébastien Point qui, dans un article récemment publié dans la revue Science et pseudo-sciences , alertait sur l’inutilité des dispositifs anti-ondes. « La charge de la preuve appartient à ceux qui affirment le contraire. Cela fait plus de 20 ans que nous utilisons des téléphones portables, nous n’avons toujours pas vu de catastrophe sanitaire ».

Reste une inconnue : l’émergence, depuis plusieurs années, de cas de personnes souffrant de symptômes qu’elles attribuent à l’exposition aux ondes électromagnétiques. Ce phénomène appelé « hypersensibilité électromagnétique » a fait l’objet de nombreuses études, dont l’une publiée en mars 2018 par l’Anses. Tout en reconnaissant la réalité des douleurs et des souffrances vécues par les personnes dites électro hypersensibles, celle-ci concluait à l’absence de lien de cause à effet entre ces symptômes et l’exposition aux ondes électromagnétiques.

La rédaction vous conseille :

Le Figaro Santé : Actualité santé - Fiches et conseils médicaux -sante.lefigaro.fr -Bas du formulaire

Charte CGU CGV Infos Cookies FAQ Contact Abonnements Services Mentions légales Publicité

Logo Le Figaro Santé

Source : http://sante.lefigaro.fr/article/sante-faut-il-avoir-peur-des-ondes-electromagnetiques-/

Retour au début du sommaire

32.
Technologie 5G : des risques pour la santé ? Par Arthur Carpentier Publié le 08 août 2019 à 18h06 - Mis à jour le 11 août 2019 à 13h44 – Document « Les Décodeurs ‘Le Monnde’ » - Ecouter laVidéo 6:40

Le déploiement d’un réseau 5G national devrait débuter dès 2020. Mais militants et scientifiques s’y opposent pour des raisons sanitaires.

« Une catastrophe sanitaire en devenir. » C’est ainsi qu’on peut trouver la 5G présentée par certains opposants. En cours d’expérimentation dans différentes villes françaises, la technologie 5G – pour « cinquième génération » – devrait supplanter la 4G dans les années à venir. Avec un débit des dizaines de fois plus élevé, une stabilité accrue et une latence réduite, elle doit ouvrir un large champ d’applications. De l’« Internet des objets » connectés (IoT) à la chirurgie à distance, ce nouveau réseau se veut révolutionnaire.

Mais à mesure que l’on s’approche de son déploiement, des voix de plus en plus nombreuses de scientifiques et de militants se font entendre. Comme la 4G avant elle et les ondes téléphoniques en général, la 5G comporterait des risques pour la santé. Sauf que ces accusations reposent sur des argumentaires bien fragiles, voire fallacieux, et illustrent le phénomène du cherry picking.

Cette vidéo est un nouvel épisode de notre rubrique vidéo avec Les Décodeurs, à retrouver sur notre site et notre chaîne YouTube, un jeudi sur deux à 18 heures. « Fake news », canulars… démêlons ensemble les informations qui circulent sur Internet.

Sources et liens utiles :

Source : https://www.lemonde.fr/les-decodeurs/video/2019/08/08/technologie-5g-des-risques-pour-la-sante_5497772_4355770.html

Retour au début du sommaire

33.
Technologie 5G : quels sont les risques pour la santé ? AFP, publié le lundi 21 octobre 2019 à 16h35 – Document ‘© AFP, FABRICE COFFRINI’

La 5G est-elle dangereuse pour la santé ? La question monte, et les inquiétudes aussi, au fur et à mesure du déploiement de cette nouvelle technologie de téléphonie mobile dans le monde. Le point sur ce qu’en dit la science.

La 5G, c’est quoi ?

Bouleversement majeur dans l’industrie des télécoms, cette technologie offrira un débit beaucoup plus élevé que la 4G actuelle, avec un accès plus rapide aux contenus et la possibilité de faire circuler des milliards de données sans engorgement.

La 5G permettra à toutes sortes d’équipements électroniques d’être connectés entre eux, ce qui permettra de généraliser des applications futuristes : voitures autonomes, usines automatisées, chirurgie à distance, robots ’intelligents’...

Pour augmenter le volume de données, la 5G utilisera une bande de fréquences plus haute que la téléphonie mobile actuelle : à partir de 3,4 gigahertz (GHz) d’abord puis, à terme, au-dessus de 26 GHz.

Mais plus la fréquence est haute, plus la portée des ondes est courte. C’est pourquoi le déploiement de la 5G nécessitera d’augmenter le nombre d’antennes, une perspective qui inquiète certaines ONG.

Le déploiement a commencé aux Etats-Unis, et la Corée du Sud a annoncé en avril la couverture de tout son territoire.

En Europe, la Suisse, la Finlande, l’Estonie et Monaco font partie des premiers pays à avoir commencé à déployer la 5G. L’Allemagne a attribué aux opérateurs les fréquences nécessaires et la France fera bientôt de même.

Radiofréquences et santé : que dit la science ?

Téléphones portables mais aussi télévision, radio ou wi-fi : les sources d’exposition aux radiofréquences sont nombreuses, ce qui provoque ’des craintes’, comme le reconnaît l’Organisation mondiale de la santé (OMS).

’Malgré de nombreuses recherches, rien n’indique pour l’instant que l’exposition à des champs électromagnétiques de faible intensité soit dangereuse pour la santé humaine’, souligne l’OMS.

Cette absence d’effet avéré à court terme vaut ’pour les différentes sources d’expositions, les téléphones mobiles étant parmi les plus présentes en nombre et en intensité’, explique à l’AFP Olivier Merckel, expert de l’agence de sécurité sanitaire française Anses. Elle a publié en 2013 une évaluation des risques liés aux radiofréquences.

Néanmoins, certaines études évoquent ’une possible augmentation du risque de tumeur cérébrale, sur le long terme, pour les utilisateurs intensifs de téléphones portables’, rappelle l’Anses.

C’est pourquoi le Circ, l’agence de l’OMS spécialisée dans le cancer, a classé en 2011 les radiofréquences comme ’peut-être cancérogènes pour l’homme’, en recommandant les kits mains libres pour les portables.

Par ailleurs, dans un rapport de 2016, l’Anses a estimé que les ondes des portables, tablettes ou jouets connectés pouvaient avoir des effets sur les fonctions cognitives - mémoire, attention, coordination - des enfants. Elle a recommandé de limiter leur exposition.

Effets biologiques ou sanitaires ?

’Le principal effet biologique des champs électromagnétiques de radiofréquence est de nature thermique’, c’est-à-dire l’augmentation de la température des zones exposées, selon l’OMS.

C’est le principe des fours micro-ondes, et c’est pourquoi des seuils de puissance sont imposés aux portables.

Par ailleurs, ’des études ont montré l’existence d’effets biologiques sur certains paramètres très spécifiques, comme le sommeil ou la tension’, dit M. Merckel.

Mais, et ce point est important, effet biologique ne veut pas forcément dire effet sanitaire, c’est-à-dire danger pour la santé. Une distinction difficile à saisir pour le grand public.

Des effets biologiques sont le signe que le corps s’adapte aux variations de son environnement.

’Par exemple, le stress fait monter le taux d’adrénaline et l’effort physique la température du corps, c’est une réaction physiologique normale et réversible’, dit à l’AFP Brahim Selmaoui, chercheur à l’Ineris (Institut français de l’environnement industriel et des risques).

Toute la question est de savoir si l’accumulation d’effets biologiques dépasse la capacité d’adaptation de notre corps, ce qui peut alors avoir des conséquences sur la santé. 

Des questions spécifiques à la 5G ?

Les bandes de fréquence grâce auxquelles on commence à déployer la 5G, environ 3,5 GHz, ’sont proches de celles utilisées actuellement pour la 4G ou le wi-fi’, note M. Merckel. Cela ne change donc pas radicalement les questions que se pose la science.

En revanche, c’est différent pour les bandes qui seront utilisées ensuite, à partir de 26 GHz (c’est ce qu’on appelle la ’5G millimétrique’).

’A partir de 10 GHz, l’énergie électromagnétique ne pénètre pratiquement plus dans le corps mais est concentrée au niveau de la peau : ça pose des questions différentes en matière d’effets potentiels sur la santé’, explique M. Merckel.

’A 70 GHz, le cerveau n’est pas exposé du tout, la concentration est superficielle, sur la peau ou les oreilles’, renchérit M. Selmaoui.

A l’heure actuelle, les données manquent sur ces questions.

En 2012, l’Anses a évalué les risques de scanners corporels utilisés dans les aéroports, qui fonctionnent également avec des ondes millimétriques. Conclusion : ’ce type de scanner ne présenterait pas de risque pour la santé’.

Mais si les ondes sont de même type, l’usage est différent : avec la 5G, l’exposition du public sera beaucoup plus large.

L’Anses s’apprête à lancer une expertise sur les effets potentiels spécifiques des signaux 5G sur l’homme, et espère la conclure pour ’fin 2020’, selon M. Merckel.

Une société qui va trop vite ?

Au-delà de la question des ondes, les ONG opposées à la 5G craignent qu’elle nous fasse basculer dans un monde ’hors de contrôle’ : une société où tout ira trop vite et où les gens seront toujours plus connectés, les yeux encore plus rivés sur les écrans.

L’Anses va lancer une étude spécifique sur la question de l’impact sociétal de ces technologies.

’C’est très vaste : il s’agit d’examiner les effets de nos expositions aux outils numériques sur la santé au sens large, c’est-à-dire un état de bien-être physique, social et mental, en mettant de côté la question du rayonnement’, indique M. Merckel.

Cette expertise-là sera longue à mener : ’au moins deux ou trois ans’, pronostique l’expert.

A lire aussi :

France Des ONG appellent à un moratoire sur le déploiement de la 5G

France Portés près du corps, certains téléphones portables émettent trop d’ondes, selon l’Anses

© Orange 2019 - Source : https://actu.orange.fr/societe/high-tech/5g-quels-risques-pour-la-sante-CNT000001knhp9/photos/manifestation-contre-la-5g-le-21-septembre-2019-devant-le-parlement-suisse-a-berne-d612cb9f2e6da233101bb955f4c185bd.html

Retour au début du sommaire

34.
Portés près du corps, certains smartphones seraient nocifs Par Le Figaro avec AFP – Mis à jour le 22 octobre 2019 - Photo - Le problème concerne certains téléphones portables commercialisés avant 2016, selon l’Anses. En cause, le débit d’absorption spécifique, ou DAS. stock.adobe.com

Certains téléphones portables mis en vente avant 2016 doivent être retirés de la circulation, ou au moins mis à jour, car ils émettent trop d’ondes et dépassent les normes les plus récentes quand ils sont portés dans la poche d’une veste, juge lundi l’agence sanitaire Anses.

À lire aussi : Ces parents en guerre contre les smartphones, pour protéger leurs enfants

« La durée moyenne d’usage d’un téléphone étant de quelques années (3-5 ans), un certain nombre de ces téléphones sont vraisemblablement toujours utilisés aujourd’hui », souligne le directeur général de l’Anses, Roger Genet, dans un rapport publié lundi. Interrogée par l’AFP, l’Anses n’a précisé ni le nombre ni le nom des modèles visés.

Le DAS mis en cause

En cause, le DAS (débit d’absorption spécifique) de ces modèles, indicateur qui évalue la quantité d’énergie absorbée par le corps exposé à des ondes. La réglementation stipule que ce DAS ne doit pas dépasser la valeur de 2 watts par kilo (W/kg). Ce DAS est mesuré en laboratoire avant la mise sur le marché des portables.

À lire aussi : Santé : faut-il avoir peur des ondes électromagnétiques ?

Avant 2016, la distance d’éloignement utilisée pour le mesurer pouvait aller jusqu’à 2,5 cm entre le téléphone et le corps. Mais en avril 2016, les normes ont été durcies pour évaluer les téléphones dans des conditions plus réalistes, très près du corps. Pour les rayonnements sur le tronc, c’est-à-dire lorsque le smartphone est dans une poche ou un sac, les émissions d’ondes sont désormais mesurées à 5 mm au maximum. Conséquences : certains téléphones qui étaient conformes à la précédente réglementation ne le sont plus à la nouvelle, et leur DAS dépasse 2 W/kg si on le mesure à moins de 5 mm du corps.

Ne pas transporter ces appareils trop près du corps

Dans son rapport, « l’Anses recommande que des mesures soient prises afin que les utilisateurs ne soient plus exposés à des DAS supérieurs à 2 W/kg, par exemple par le biais de mises à jour des logiciels des téléphones (ou) le rappel de téléphones ». En attendant, l’Anses préconise de ne pas transporter ces appareils trop près du corps.

À lire aussi : Notre test de l’iPhone 11 et de l’iPhone 11 Pro : le verdict du Figaro

Pour parvenir à ces recommandations, l’Anses a tenu compte « des expositions potentiellement élevées lorsque les téléphones sont placés très près du corps » et « des incertitudes qui subsistent sur les éventuels effets sanitaires à long terme » des ondes émises par les téléphones. Outre les modèles d’avant 2016, il arrive que des téléphones « présentant des valeurs de DAS élevées lorsqu’ils sont placés près du corps (soient) encore mis sur le marché », rappelle l’Anses.

« 16 téléphones non conformes » entre 2016 et 2019

C’est pourquoi un autre organisme, l’Agence nationale des fréquences (ANFR), procède régulièrement à des contrôles. Entre 2017 et 2019, l’ANFR « a détecté 16 téléphones non conformes à la nouvelle réglementation », avec un DAS supérieur à 2W/kg à 5 mm de distance. Cela a abouti l’an dernier au rappel de certains d’entre eux, comme le Neffos X1 du fabricant chinois TP-Link ou le Hapi 30 d’Orange, et à des mises à jour logicielles pour d’autres.

Avant même le changement de réglementation en 2016, des tests avaient été menés au plus près du corps par l’ANFR, pour coller à des conditions d’utilisation plus réalistes que la distance d’éloignement alors en vigueur. « Des tests sur près de 300 téléphones positionnés à proximité du tronc, au contact et à 5 mm de distance ont ainsi été réalisés entre 2012 et 2016 », selon l’Anses.

« Les résultats avaient révélé qu’une grande proportion des téléphones testés présentait des valeurs de DAS supérieures à la valeur de 2 W/kg, certaines dépassant 7 W/kg au contact », rappelle l’Agence. L’Anses préconise de durcir encore la réglementation, « afin que les mesures (...) du ’’DAS tronc’’ des téléphones mobiles soient effectuées au contact du corps ».

 » À voir aussi - Enfants et écrans : quels risques ?

Enregistrement 33:40 à consulter à la source Enfants et écrans : quels risques ? - Agnès Leclair (Le Figaro), Elisa Braün (Le Figaro), Olivier Houdé (professeur de psychologie à l’Université Paris Descartes) et Philippe Bihouix (ingénieur) décryptent les dangers de l’addiction aux écrans chez les enfants.

À lire aussi : « Je ne suis accro à rien » : ces collégiens qui vivent sans téléphone portable

Le Figaro - Actualité en direct et informations en continuhttps://www.lefigaro.fr

Fichier:LeFigaro.fr Logo.svg

Source : https://www.lefigaro.fr/flash-actu/portes-pres-du-corps-certains-telephones-portables-emettent-trop-d-ondes-selon-l-anses-20191021

Retour au début du sommaire

Santé : l’ANSES alerte sur la dangerosité relative de certains téléphones portables Par Pierre Benhamou | Mercredi 23 Octobre 2019 - Suivre @pierrebnhu – Document ‘zdnet.fr’ - Photo - Technologie : L’ANSES appelle les utilisateurs de smartphones à se prémunir contre l’exposition aux ondes émises par leurs appareils. Tout en rappelant que, si le principe de précaution joue, les effets de ces ondes sur la santé ne sont toujours pas connus.

Les autorités sanitaires se veulent vigilantes. Dans un rapport rendu en début de semaine, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) a en effet alerté : certains téléphones portables commercialisés avant 2016 doivent être retirés de la circulation ou mis à jour en raison de leurs trop fortes émissions d’ondes. Si les fabricants de téléphones portables sont tenus depuis 2016 d’évaluer l’exposition de leurs appareils ’dans des conditions réalistes d’utilisation’, comprendre lorsque le téléphone est placé très près du corps (au maximum à 5 mm de distance), les autorités ont relevé, sans citer de noms, que certains téléphones commercialisés auparavant et testés dans des conditions moins drastiques ’présentent des niveaux d’exposition élevés lorsqu’ils sont placés près du corps’.

En cause : la valeur élevée de leur DAS, le débit d’absorption spécifique qui évalue la quantité d’énergie absorbée par le corps exposé à des ondes, des appareils épinglés par l’ANSES. L’Autorité, qui a modifié la réglementation de mesure de ce DAS en 2016 pour imposer des mesures ’dans des conditions d’utilisation plus réalistes’ - c’est-à-dire à proximité du tronc, au contact et à 5 mm de distance - a fait savoir que, sur 300 téléphones testés entre 2012 et 2016, un grand nombre d’appareils présentaient des valeurs de DAS supérieures à la valeur limite réglementaire de 2 W/kg, ’certaines dépassant 7 W/kg au contact’.

’Depuis 2016, une nouvelle directive européenne, dite ’RED’, impose de mesurer le DAS en positionnant le téléphone mobile à 5 mm du tronc au maximum, correspondant à des conditions d’utilisation ’prévisibles’. Or, des téléphones conformes à la précédente réglementation, mais présentant des valeurs de DAS élevées lorsqu’ils sont placés près du corps, sont encore mis sur le marché’, a ainsi alerté l’Agence. Avant de se montrer plus rassurante en rappelant que, compris dans ces valeurs limites, le DAS, qui ’représente la quantité d’énergie électromagnétique absorbée par unité de masse de tissu entrainant une augmentation de température’, ne comporte aujourd’hui qu’un seul effet scientifiquement prouvé, à savoir un réchauffement corporel relatif.

Des ondes dont les effets sur la santé restent à découvrir

Reste que des études sont encore en cours pour déterminer les possibles conséquences d’une exposition prolongée aux appareils émettant des ondes électromagnétiques. ’Bien que la génération des effets thermiques dans les tissus biologiques par l’exposition aux radiofréquences soit aujourd’hui bien comprise, les questionnements actuels sont principalement axés sur la possibilité que les radiofréquences puissent être à l’origine d’effets ’non thermiques’ qui pourraient survenir à de plus faibles niveaux d’exposition’, a ainsi fait savoir l’ANSES dans son rapport, qui préconise toutefois le recours au principe de précaution et déconseille vivement de porter des téléphones portables près du corps, par exemple dans une veste.

Et de lister parmi les ’effets non thermiques’ potentiels des conséquences sur le développement cognitif, sur le sommeil ou encore des effets cancérogènes, tout en rappelant que ces derniers n’ont toujours pas été prouvés dans les faits et que les études effectuées jusqu’à maintenant sur le sujet ne s’accordent toujours pas sur leur existence réelle. En s’appuyant sur des expériences réalisées sur des rats ou des souris adultes, l’ANSES révèle en effet que ’les données actuellement disponibles ne permettent pas de conclure à l’existence ou non d’un effet génotoxique des radiofréquences de DAS supérieurs à 2 W/kg’ et va même plus loin en faisant observer que ’les données expérimentales analysées fournissent des éléments de preuve en faveur d’une absence d’effet des radiofréquences de DAS supérieurs à 2 W/kg sur le développement de tumeurs in vivo’.

L’ANSES relève également que les expériences menées jusqu’à maintenant sur des animaux exposés à vie aux ondes électromagnétiques ’ne permettent pas de conclure à l’existence ou non d’un effet des radiofréquences de DAS supérieurs à 2 W/kg sur le développement de tumeurs in vivo’, tout en regrettant la rareté des études sur le sujet, qui ne permettent finalement pas de conclure à la toxicité d’une exposition prolongée à ces niveaux d’émission.

L’exposition aux émissions d’ondes électromagnétiques dans ces valeurs limites légales serait donc sans danger ? Interrogé sur Franceinfo, l’auteur du rapport, Olivier Merckel confirme. ’On n’a pas identifié de risques pour la santé, mais c’est un principe de précaution. On a encore quelques incertitudes sur les effets à long terme. Il y a encore des études en cours chez les adolescents et les enfants. Il y a aussi des études qui vont étudier l’impact sur 15 ans de l’utilisation de ces téléphones’, a-t-il fait savoir, laissant ainsi tous les champs du possible ouverts dans cette affaire qui devrait encore continuer à interroger au regard de la place de plus en plus centrale prise par les appareils mobiles dans notre quotidien.

ZDNet - Actualité, business et technologies pour les ...https://www.zdnet.fr

Pierre BenhamouCopyright © 2019 CBS Interactive Inc, CUP Interactive SAS (France). Tous droits réservés. Mentions légales | Confidentialité | Cookies | Paramètres de Gestion de la Confidentialité - Source : https://www.zdnet.fr/actualites/sante-l-anses-alerte-sur-la-dangerosite-relative-de-certains-telephones-portables-39892651.htm

Retour au début du sommaire


35.
Actualités - Troubles de l’attention, du sommeil, du langage… « La multiplication des écrans engendre une décérébration à grande échelle » Propos recueillis par Pascale Santi et Stéphane Foucart Publié le 21 octobre 2019 à 17h18 - Mis à jour le 23 octobre 2019 à 08h00 – Document ‘Le Monde Science & Médecine Rendez-vous page 8’.

Entretien avec Michel Desmurget - Pour le neuroscientifique Michel Desmurget, laisser les enfants et les adolescents face à des écrans relève de la maltraitance. Il alerte sur ce qu’il considère comme un problème majeur de santé publique. En se fondant sur la littérature scientifique disponible, le neuroscientifique y détaille les effets de l’omniprésence des outils numériques sur la cognition, le comportement et le bien-être des enfants.

Vous abordez dans votre livre les différents types d’écrans classiques, les jeux vidéo, etc. Qu’est-ce qui est le plus délétère pour l’enfant ?

C’est la convergence de tout cela. De nombreuses études mettent en évidence l’impact des écrans, quels qu’ils soient, sur des retards dans le développement du langage, sur le sommeil et l’attention. Le cerveau – surtout lorsqu’il est en construction – n’est pas fait pour subir ce bombardement sensoriel.

Quelles sont les données disponibles sur le temps d’écran ?

Le temps d’écran n’est pas seulement excessif, il est extravagant. Aux Etats-Unis, on est à près de trois heures par jour à 3 ans, quatre heures quarante entre 8 et 12 ans et six heures quarante entre 13 et 18 ans. En France, les enfants de 6 à 17 ans passaient en moyenne, en 2015, quatre heures et onze minutes par jour devant un écran, selon l’étude Esteban menée par Santé publique France. D’autres données diffèrent un peu, mais elles sont toutes dans des fourchettes équivalentes, et, dans tous les cas, dans des proportions très élevées. Seulement 6 % à 10 % des enfants ne sont pas touchés.

Est-ce si grave ?

Avant 6 ans, il est montré que les écrans ont un effet dès quinze minutes par jour. Dans les cinq à six premières années de la vie, chaque minute compte : c’est une période de développement absolument unique, d’apprentissage, de plasticité cérébrale qui ne se reproduira plus !

Au-delà de 6 ans, jusqu’à une demi-heure, voire une heure de consommation par jour, il n’y a pas d’effets mesurables pour peu que les contenus consultés soient adaptés et que cette activité ne touche pas le sommeil. Mais on est très au-delà. Ce qui se produit en ce moment est une expérience inédite de décérébration à grande échelle.

Pour les adolescents, le niveau moyen de consommation est-il problématique ?

On peut vraiment parler d’épidémie chez les adolescents ; c’est un problème majeur de santé publique. La littérature dans son ensemble indique notamment des effets délétères des écrans sur la concentration. Quels que soient le contenu, le support, le cerveau n’est pas conçu pour de telles sollicitations exogènes. Un grand nombre de travaux montrent des risques accrus de dépression, d’anxiété, de suicide, liés au temps d’écran, etc…

La suite est réservée aux abonnés. Déjà abonné ? Se connecter - Abonnez-vous à partir de 1 €—[BLOC_RESTREINT_ABO]] - Source : https://www.lemonde.fr/sciences/article/2019/10/21/michel-desmurget-la-multiplication-des-ecrans-engendre-une-decerebration-a-grande-echelle_6016350_1650684.html

Retour au début du sommaire


Informations sur conférences et colloques

Conférence Internationale sur l’intelligence artificielle et l’éducation

ai-conference-2019-beijing-event-banner-fr.jpg

Quand, heure locale : Jeudi, 16 Mai 2019 - 9:00am - Samedi, 18 Mai 2019 - 6:00pm - Où : Chine, Beijing - Type d’événement : Catégorie 4-Congrès international - Contact : aied@unesco.org

Le Gouvernement de la République populaire de Chine et l’UNESCO organisent conjointement une Conférence internationale sur l’Intelligence artificielle (IA) et l’éducation afin d’étudier les technologies émergentes de l’IA et les pratiques innovantes dans l’utilisation de l’IA dans l’éducation. La Conférence devrait accueillir plus de 500 participants, avec des représentants de haut niveau de chaque État membre, des représentants des agences de l’ONU et d’organisations internationales, des industries de premier plan du secteur de l’IA, des experts académiques, des décideurs politiques et spécialistes.

Lors de cette conférence, une demi-journée sera consacrée le 18 mai à la visite d’institutions locales et d’organisations de premier plan du secteur l’IA. Pour profiter de tous les avantages de l’IA et atténuer ses risques potentiels, il convient de réaliser un travail de planification systémique et de prendre des mesures collectives dans le but de réinventer les principaux fondements de l’éducation et de l’apprentissage.

La conférence aura pour but de fournir une tribune aux États membres, aux organisations internationales, à la société civile et aux industries du secteur de l’IA afin de :
- débattre des questions fondamentales sur la manière dont l’intelligence collective homme-machine doit être développée pour permettre de vivre et travailler à l’ère de l’IA
- échanger autour des tendances les plus récentes en matière d’IA et comment ces tendances façonnent l’éducation et l’apprentissage
- évaluer les leçons tirées des politiques et stratégies nationales afin de tirer parti de l’IA en vue d’accélérer la réalisation de l’Objectif de développement durable 4
- renforcer la coopération internationale et les partenariats pour promouvoir un usage inclusif, équitable et transparent de l’IA dans l’éducation.

Liens : 

Conférence internationale sur l’intelligence artificielle et l’éducation

Les TIC dans l’éducation

Pages thématiques : 

L’éducation transforme la vie

L’éducation transforme la vie

Source : https://fr.unesco.org/events/conference-internationale-lintelligence-artificielle-leducation

Plate-Forme Intelligence Artificielle PFIA 2019, 1-5 juillet 2019, Toulouse

Présentation - L’objectif de la Plate-Forme Intelligence Artificielle (PFIA) est de réunir chercheurs, industriels et étudiants autour de conférences et d’ateliers consacrés à l’Intelligence Artificielle (IA). Cette manifestation est organisée tous les ans. Les éditions précédentes se sont tenues à Nancy (2018), Caen (2017), Rennes (2015), Lille (2013), Chambéry (2011), Hammamet (2009), Grenoble (2007), Nice (2005), Laval (2003), Grenoble (2001), et Palaiseau (1999).

La Plate-Forme IA constitue un point de rencontre unique et convivial pour la communauté IA permettant de rapprocher les différentes disciplines qui la composent et d’établir des passerelles entre elles. À cette intention, cette plate-forme s’adresse à l’ensemble de la communauté francophone d’Intelligence Artificielle afin qu’elle aborde des problématiques communes.

L’édition 2019 s’est tenue du 1er au 5 juillet 2019 à Toulouse, dans les locaux de l’Université Toulouse 1 Capitole. Elle a été organisée par l’IRIT (laboratoire fondateur de l’Institut 3IA toulousain ANITI) et l’AFIA, avec le concours de nombreux autres soutiens institutionnels et sponsors industriels.

Conférenciers invités

PFIA 2019 a accueilli plusieurs conférenciers invités, parmi lesquels :

Isabelle BLOCH (LTCI, Télécom ParisTech, FRANCE) : “Représentation des connaissances et interprétation d’images guidée par des modèles”

Julien BOURGEOIS (Université de Franche-Comté, FRANCE) : “La matière programmable : robots modulaires auto-assembleurs”

Walter DAELEMANS (University of Antwerp, BELGIQUE) : “Profiling authors from text. A critical look at the state of the art”

Takayuki ITO (Nagoya Institute of Technology, JAPON) : “Agent that facilitate crowd discussion”

Sylvie THIEBAUX (Australian National University, Canberra, AUSTRALIE) : “Network-Aware Coordination of Consumer-Owned Energy Systems”

Jochen TRIESCH (University of Frankfurt, ALLEMAGNE) : “What can AI (still) learn from Neuroscience ?”

Ruben VERBORGH (Gent University, BELGIQUE) : “How Solid aims to impact the Web (and AI with it)”

Anaëlle WILCZYNSKI (TU Munich, ALLEMAGNE) : “Interaction entre agents modélisée par un réseau social en choix social computationnel” (1er Prix de Thèse IA 2019, ex aequo)

Michael WOOLDRIDGE (University of Oxford, ROYAUME-UNI) : “Understanding Equilibrium Properties of Multi-Agent Systems”

Valentina ZANTEDESCHI (Université Jean Monnet, FRANCE) : “Une vue unifiée de l’apprentissage local : théorie et algorithmes pour l’amélioration de modèles linéaires” (1er Prix de Thèse IA 2019, ex aequo)

Conférences et compétition hébergées

APIA : 5ème Conférence sur les Applications Pratiques de l’Intelligence Artificielle (*)

CAp : 21ème Conférence sur l’Apprentissage Automatique (*)

CNIA : 22ème Conférence Nationale en Intelligence Artificielle (*)

DriveToGaether : Compétition hébergée

France@International

IC : 30èmes Journées Francophones Ingénierie des Connaissances (*)

JFPDA : 14èmes Journées Planification, Décision et Apprentissage

JFSMA : 27èmes Journées Francophones sur les Systèmes Multi-Agents

JIAF : 13èmes Journées d’Intelligence Artificielle Fondamentale

RJCIA : 17ème Rencontre des Jeunes Chercheurs en Intelligence Artificielle (*)

TALN – RECITAL : 26ème Conférence sur le Traitement Automatique des Langues Naturelles

(*) en coopération avec JSAI 2019

Des démonstrations, posters et tutoriels, ont également été proposés. Le programme des journées est en ligne. Le dossier du participant (infos pratiques, plan, codes wifi…) est ici. Le style LaTeX et Word pour les soumissions à PFIA (sauf si spécifié autrement dans les pages de soumission des conférences) est disponible ici. PFIA 2019 – Source : https://www.irit.fr/pfia2019/

Retour au début du sommaire

Conférence Publique sur l’Intelligence Artificielle à Strasbourg le 26 octobre 2019 - Les francs-maçons de la Fédération française du DROIT HUMAIN organisent une conférence publique sur le thème de l’Intelligence Artificielle. L’orateur sera Yannick Meneceur, Conseiller en politique de transformation numérique et en Intelligence Artificielle au Conseil de l’Europe. Lieu de la conférence : espace F , 12 rue Finkmatt, Strasbourg. Pour réserver votre place, vous pouvez écrire à l’adresse email suivante : cps.dh@netc.fr – Source : https://www.droithumain-france.org/conference-publique-sur-intelligence-artificielle-a-strasbourg-le-26-octobre-2019/

Retour au début du sommaire

Conférence - « L’Homme et le robot. Faut-il avoir peur de l’intelligence artificielle et du transhumanisme ? »

Quand, Où ? le 09/11/2019 à 20h30 - Salle des Ecraignes Rue Albert 1er Villers-lès-Nancy - Voir le plan d’accès - Organisateur : Ville de Villers-lès-Nancy 03.83.92.32.40

République en tête(s) Voir tous les événements

Le transhumanisme et l’intelligence artificielle sont chaque jour un peu plus sous le feu des projecteurs, avec leur lot de mise en garde et de prédictions alarmantes.
Pourquoi et comment le transhumanisme pénètre-t-il les consciences par la voix de ses détracteurs, au point de devenir une approche incontournable et inéluctable ? Les discours futuristes des transhumanistes d’il y a quelques années sont devenus aujourd’hui des sujets d’inquiétudes ou d’espoirs, débattus dans les médias, et de grands noms des entreprises technologiques. Ces prédictions ont pour point commun de faire toutes appel à des mythes anciens et fondateurs ou des croyances religieuses : apocalypse, immortalité, fin des temps, production de créatures intelligentes ex nihilo, intelligence supérieure créatrice d’un paradis sur terre, abolition des maladies...

Source : https://www.estrepublicain.fr/pour-sortir/loisirs/Rencontre-conference/Conferences/Lorraine/Meurthe-et-moselle/Villers-les-nancy/2019/11/09/L-homme-et-le-robot-faut-il-avoir-peur-de-l-intelligence-artificielle-et-du-transhumanisme

Retour au début du sommaire

SophI.A : le sommet sur l’Intelligence Artificielle prend de l’ampleur

Publié le 23 October, 2019 - 15:37 par Jean-Pierre Largillet

Temps fort d’une semaine de l’Intelligence Artificielle du 19 au 23 novembre 2019, le second SophI.A Summit s’installe au Beachcomber. Pendant trois jours plus de 50 chercheurs et entrepreneurs européens animeront les conférences internationales autour des thèmes du 3IA Côte d’Azur : IA et Fondamentaux, Santé, Smart Territoires/Nouvelles Mobilités.

Trois jours de conférences internationales animées par plus de 50 chercheurs et entrepreneurs européens : pour sa deuxième édition, le SophI.A Summit, du 20 au 23 novembre 2019, a pris de l’ampleur. Il a quelque peu aussi changé de format par rapport à la première édition. Rencontres des mondes académiques et industriels, le sommet a évolué et s’enrichit cette année en s’ouvrant sur une Semaine de l’Intelligence Artificielle, ’AI WEEK’. Ainsi, en amont et en aval sont venus s’ajouter d’autres événements comme les Master Classes IA de Telecom Valley qui viendront en ouverture et la conférence grand public au Palais des congrès de Juan-les-Pins qui fermera le bal.

Les trois thématiques du sommet

Le temps fort restera bien sûr le sommet en lui-même. Alors qu’il était éclaté en plusieurs lieux l’an dernier, il se tient cette fois sur un site unique : l’Hôtel Beachcomber à côté de la Mouratoglou Tennis Academy. Le sommet bénéficie aussi du courant des manifestations du cinquantenaire de Sophia Antipolis dans lequel il s’inscrit haut et fort, et il sera marqué par l’inauguration du 3IA Côte d’Azur. Pour rappel, c’est pendant le premier sommet que la technopole avait appris la bonne nouvelle : elle avait été labellisée pour accueillir un des quatre Instituts Interdisciplinaires d’Intelligence Artificielle français.

Organisé par la Communauté d’Agglomération Sophia Antipolis, l’Université Côte d’Azur et le Département des Alpes-Maritimes, le sommet est dense dans son contenu. Il explorera les grandes thématiques scientifiques portées par le 3IA Côte d’Azur. A savoir, IA & Fondamentaux ; IA & Santé ; IA & Smart Territoires Nouvelles Mobilités. Sur ces thèmes, les séances plénières, les keynotes donnés par des célébrités du domaine, les différentes sessions, les tables rondes s’adressent plus particulièrement à des spécialistes de haut niveau ou déjà bien avertis. Il sera question des méthodes d’apprentissage de machine, de l’IA pour les systèmes embarqués, de reconstruction d’images satellitaires, de prédiction en neurologie, des impacts sociétaux de l’IA et des technologies digitales et de bien d’autres sujets très pointus.

L’IA dans les RH en Master Classe avec Telecom Valley

Pour le grand public, cependant, une conférence de Luc Julia, auteur du bestseller ’L’intelligence artificielle n’existe pas’ et co-créateur de Siri viendra clôturer cette semaine IA le samedi 23 novembre à 16 heures, au Palais des Congrès de Juan-les-Pins. Une semaine qui sera ouverte par les quatre Masters Classes de Telecom Valley mardi 19 novembre 2019 au Campus SophiaTech. De 10 à 16h30, deux sessions de Master classes en parallèle (2h30 chacune), seront ainsi animées par des entreprises adhérentes sur des technologies d’Intelligence Artificielle. Des sessions qui permettront de comprendre l’intérêt des solutions IA dans le domaine des RH et le positionnement des outils existants du marché, à travers des cas d’usages de l’IA dans ce domaine ! IA toutes pour Sophia !

Retour au début du sommaire

Intelligence Artificielle et Santé -
Lundi 25 novembre 2019 -
Faculté de Médecine Paris-Sud - Amphi A - Le Kremlin Bicêtre

L’intelligence artificielle (IA) fait figure de révolution technologique impactant tous les secteurs de la Santé. Cette technologie d’avenir qui entend bouleverser tous nos modèles est l’affaire de tous. Qu’il s’agisse du métier des professionnels de santé, de leur manière d’interagir les uns avec les autres, avec les patients, ou même des soins donnés aux patients, tout le secteur de la santé s’accorde pour dire que l’IA a toutes les chances de bouleverser la médecine telle qu’on l’entend aujourd’hui. Si les promesses sont grandes, tout reste à faire. Parmi les promesses, une médecine plus prédictive et plus personnalisée. Cette journée a pour objectif de faire le point sur les multiples facettes de l’IA en santé, depuis ses applications jusqu’à la formation des étudiants et la réflexion éthique.

9h00 - 09:15

Introduction

Didier Samuel (Doyen de la Faculté de Médecine, Université Paris-Sud)

09:15 - 09:45  Introduction à l’IA

Céline Hudelot (CentraleSupélec)

09:45 - 10:15 L’IA en santé : une nouvelle lubie technophile de plus ?

Bruno Falissard (Université Paris-Sud)

10:15 - 10:45 IA et diagnostic radiologique

Gaspard d’Assignies (Incepto Medical)

10:45 - 11:15 Pause

Visite des posters

11:15 - 11:45 IA pour le diagnostic en neurologie et psychiatrie

Bertrand Thirion (INRIA)

11:45 - 12:15 IA et Santé : pourquoi et comment ? L’IA au service des soignants de l’AP-HP

Jean-Philippe Desbiolles (IBM Watson Group), Philippe Bourhis (AP-HP)

12:15 - 12:45 IA, les habits neufs de la statistique ? Modèles prédictifs cliniques en cancérologie

Stefan Michiels (Gustave Roussy)

12:45 - 13:00 Abstract sélectionné n°1

Sur appel à abstracts

13:00 - 14:00 Pause déjeuner

Visite des posters

14:00 - 14:30 La circulation numérique : modèles, données, réponses mathématiques à des questions cliniques

Irène Vignon-Clementel (INRIA)

14:30 - 15:00 IA et chirurgie

Eric Vibert (Université Paris-Sud)

15:00 - 15:15 Abstract sélectionné n°2

Sur appel à abstracts

15:15 - 15:30 Pause

Visite des posters

15:30 - 16:00 IA et médecine de précision : chances et écueils

Anne-Laure Boulesteix (Ludwig-Maximilians-Universität, Munich)

16:00 - 16:30 A radiomics approach to assess response to immunotherapy

Maria Vakalopoulou (CentraleSupélec)

16:30 - 17:00 IA, formation des étudiants en médecine et éthique

Axel Kahn (Université Paris Descartes)

17:00 - 17:15 Prix des posters et conclusion

Marc Humbert (Vice-Doyen Recherche de la Faculté de Médecine, Université Paris-Sud)


Appel à communications

Le Conseil Scientifique de la Faculté lance un appel à communications ouvert à tous les enseignants-chercheurs, chercheurs et praticiens hospitaliers ayant des projets de recherche en santé en lien avec l’intelligence artificielle au sens large.

Les résumés retenus pourront faire l’objet d’une présentation sous forme d’une communication orale (pour deux d’entre eux) ou d’un poster.

Les résumés sont à soumettre par mail à recherche-faculte.medecine @ u-psud.fr avant le 10 octobre 2019. N’oubliez pas de préciser si vous candidatez pour une communication orale, un poster ou les deux.

Les résumés peuvent être rédigés en français ou en anglais. Ils ne doivent pas dépasser 2 500 caractères (espaces compris). Merci de suivre la structure suivante :

Source : http://www.medecine.u-psud.fr/fr/recherche/colloque-intelligence-artificielle-et-sante.html

Retour au début du sommaire

Pour un suivi des manifestations sur l’IA > Voir Agenda de l’intelligence artificielle

Retour sur les informations sur conférences et colloques

Retour au début du sommaire

Retour au début de l’introduction

Retour au résumé

Retour au début du dossier


Publications antérieures postées sur le site ISIAS

A propos des MOOC, TICE…

’Faut-il se réjouir, s’inquiéter ou se moquer des MOOC qui se répandent dans l’enseignement et les formations ?’ par Jacques Hallard ; lundi 18 décembre 2017 par Hallard Jacques - français

’Les pratiques d’apprentissage à l’école … et ailleurs, à partir de l’observation du cerveau par les neurosciences, et à l’aide des technologies de l’information et de la communication pour l’enseignement (TICE), des formations en ligne ouvertes à tous ou MOOC (de l’anglais ‘massive open online course’) et des ‘classes inversées’’ par Jacques Hallard ; mardi 2 janvier 2018 par Hallard Jacques - français

’Les MOOC se mettent en place mais les risques qui les accompagnent doivent être pris en compte’ par Jacques Hallard ; samedi 17 octobre 2015 par Hallard Jacques - français

’La santé des jeunes est menacée par les ondes’ par Jacques Hallard ; samedi 9 juillet 2016 par Hallard Jacques - français

Conférence interactive de Jacques Hallard : La santé des jeunes est-elle menacée par les ondes, les MOOC et autres TIC (technologies de l’information et de la communication) ? ; mercredi 10 avril 2019 par Hallard Jacques - français

Conférence de Jacques Hallard à l’Association Franco-allemande dimanche 11 février 2018 à 16h30 à la ‘Salle Municipale Mérindol’ 84000 AVIGNONISIAS Histoire Pédagogie  ; mardi 9 janvier 2018 par Hallard Jacques - français

’Arrivée des ‘MOOC’ et des outils pédagogiques interactifs. Usages et risques sanitaires, sociaux, écologiques et psychologiques’, par Jacques Hallard ; dimanche 4 octobre 2015 par Hallard Jacques - français

A propos du transhumanisme

’A propos du transhumanisme L’Homme augmenté dans un monde recomposé’, dossier de Jacques Hallard ; vendredi 21 octobre 2016 par Hallard Jacques - français

« Humanisons le transhumanisme ! » par Edgar Morin ; mercredi 9 novembre 2016 par isias - français

A propos de l‘Intelligence Artificielle (IA)

’Faire connaissance avec l’Intelligence Artificielle (IA)’ par Jacques Hallard , vendredi 30 novembre 2018

’La nébuleuse des opérateurs économiques du numérique de l’électronique et des télécommunications’ par Jacques Hallard , dimanche 30 décembre 2018

’Offres et perspectives du numérique et de l’IA, usages et acceptabilité des utilisateurs, clients et consommateurs ; actions politiques et administratives en cours’ par Jacques Hallard , mardi 16 avril 2019 par Hallard

Conférence de Jacques Hallard, Ingénieur CNAM, sur l’Intelligence artificielle : miracle ou mirage, promesse ou périls ? Le vendredi 26 Avril 2019 à 18h30 à la Salle des Fêtes d’Eygalières 13 , lundi 22 avril 2019

’Etat de l’art et prospective concernant l’intelligence artificielle (IA) dans les domaines artistiques (arts numériques) en France, au Québec Canada et en Californie’ par Jacques Hallard avec Bastien Maleplate, mardi 03 septembre 2019

’L’incorporation des intelligences artificielles (IA), faible et forte, et donc des réseaux de neurones artificiels, dans les arts numériques, les médias et les réseaux sociaux ; la politique française pour implémenter l’IA dans des secteurs jugés prioritaires’ par Jacques Hallard & Bastien Maleplate ; dimanche 22 septembre 2019

Retour aux accès sur les publications antérieures postées sur le site ISIAS

Retour au début du sommaire

Retour au début de l’introduction

Retour au résumé

Retour au début du dossier



Auteurs : Jacques HALLARD, Ingénieur CNAM, consultant indépendant et Bastien (conseils scientifiques et techniques) – 18/11/2019

Site ISIAS = Introduire les Sciences et les Intégrer dans des Alternatives Sociétales

http://www.isias.lautre.net/

Adresse : 585 Chemin du Malpas 13940 Mollégès France

Courriel : jacques.hallard921@orange.fr

Fichier : ISIAS IA Quelques méthodes et techniques aboutissant à l’Intelligence Artificielle (IA) et impacts sanitaires.6

Mis en ligne par Pascal Paquin de Yonne Lautre, un site d’information, associatif et solidaire(Vie du site & Liens), un site inter-associatif, coopératif, gratuit, sans publicité, indépendant de tout parti.

http://yonnelautre.fr/local/cache-vignettes/L160xH109/arton1769-a3646.jpg?1510324931

— -

Portfolio