Accueil > Pour en savoir plus > Sciences formelles > Intelligence artificielle > "Irruption des outils à base d’intelligence artificielle (IA) : robots (…)
"Irruption des outils à base d’intelligence artificielle (IA) : robots conversationnels, chabots, dialogueurs comme ChatGPT et Bing qui fascinent, inquiètent et incitent aussi à se préoccuper du monde du cyber" par Jacques Hallard
vendredi 24 février 2023, par
ISIAS IA Numérique Robots conversationnels Cybersécurité
Irruption des outils à base d’intelligence artificielle (IA) : robots conversationnels, chabots, dialogueurs comme ChatGPT et Bing qui fascinent, inquiètent et incitent aussi à se préoccuper du monde du cyber
Jacques Hallard , Ingénieur CNAM, site ISIAS – 24/02/2023
Plan du document : Préambule Introduction Sommaire Auteur
Une note d’humour et une présentation de quelques repères comme entrée en matière. On peut soit consulter la suite, soit passer directement àl’introduction et/ou au sommaire de ce dossier constitué à usage didactique.
ChatGPT : l’intelligence artificielle (IA) est-elle le nouveau paradis de la triche à l’école ? - Analyse – « Arrivé en France le 30 novembre 2022, l’agent de conversation virtuel ‘ChatGPT’ peut répondre à n’importe quelle question sous une forme synthétique. Face aux risques accrus de triche, les enseignants tentent de s’adapter et de sensibiliser leurs élèves aux bienfaits d’une pensée originale ». Mélinée Le Priol, le 13/01/2023 à 06:00 – Source
Avec ‘ChatGPT, les modèles de langage des intelligences artificielles sortent des monologues et peuvent vraiment « chatter ». studiostoks, shutterstock – Document ‘Theconversation.com’ – Détails dans ce dossier
Bard - Bard est un prototype de chatbot construit par Google sur la base de leur modèle de langage LaMDA. Il s’agit d’un algorithme statistique. Bard est en cours de en développement et n’est pas encore accessible au grand public. Wikipédia
Chatbot - Un chatbot, aussi nommé dialogueur ou agent conversationnel, est un agent logiciel qui dialogue avec un utilisateur. La recherche sur cette interface personne-machine est influencée par la compétition sur le test de Turing : donner l’illusion qu’un programme pense par un dialogue sensé….. Wikipédia
A quoi sert un agent conversationnel à intelligence artificielle ? - Portés par le développement du numérique et les progrès de l’intelligence artificielle, les agents conversationnels ont profondément modifié la gestion de la relation avec les clients des entreprises et progressivement envahi la vie quotidienne des clients, consommateurs, utilisateurs ou usagers. Tous les secteurs d’activité sont concernés…. - Chatbot, voicebot, assistant virtuel, bot conversationnel… Quelles que soient ses différentes appellations, l’agent conversationnel désigne un robot logiciel exploitant une base de données au moyen d’une intelligence artificielle et capable de converser avec un humain en langage naturel à l’oral ou à l’écrit… - A lire sur ce site : https://www.alternance-professionnelle.fr/agent-conversationnel-intelligence-artificielle/
Cyber- est un préfixe à la mode à partir de la deuxième moitié du XXe siècle. Son usage est consécutif au développement exponentiel de l’informatique et de la robotique, plus généralement à l’avènement du réseau internet et de la « révolution numérique », qui en est la synthèse1. Il est tiré du mot grec Kubernêtikê signifiant « gouvernail ». Ce préfixe est présent notamment dans cybernétique, cyberespace, cybertexte... et puis encore :
Cybersécurité : les actions de piratage informatique (hacking) et les moyens de s’en protéger.
Cyberdéfense : l’utilisation du piratage informatique à des fins militaires et les moyens de s’en protéger.
Cyberespionnage : l’utilisation du piratage informatique à des fins de renseignement économique, technologique, politique ou militaire.
Cybersurveillance : les actions menées par un État pour surveiller sa population par des moyens numériques (par exemple : la reconnaissance de visages, ou le système de crédit social en Chine) et où par la censure d’internet et des réseaux sociaux6.
La manipulation offensive des réseaux sociaux (weaponization of social media) : l’utilisation des réseaux sociaux à des fins d’influence politique par la diffusion massive d’infox (fake news, voir ci-après) ou d’informations confidentielles compromettantes (doxing). Cette diffusion peut en outre être ciblée, en utilisant des algorithmes d’analyse de données caractérisant les profils des destinataires (par exemple : Cambridge Analytica)7.
Cyberguerre : affrontement entre plusieurs États, utilisant des moyens cyber tels que définis précédemment. Cybercriminalité, Cybercrime, etc … - Source : https://fr.wikipedia.org/wiki/Cyber
Voir également : Infox - Cet article possède un paronyme, voir Fausses nouvelles. Les infox, fausses nouvelles, fausses informations, informations fallacieuses, canards, en anglais : fake news ([feɪk nuːz]2), sont des nouvelles mensongères n 1 diffusées dans le but de manipuler ou de tromper le public. Les articles contenant de fausses nouvelles emploient souvent des titres accrocheurs ou des informations entièrement fabriquées en vue d’augmenter le nombre de lecteurs et de partages en ligne. Elles peuvent émaner de blogueurs ou de réseaux sociaux, de médias, de personnalités politiques3 ou d’un gouvernement… - Source : https://fr.wikipedia.org/wiki/Infox
IA - L’intelligence artificielle (IA) est un processus d’imitation de l’intelligence humaine qui repose sur la création et l’application d’algorithmes exécutés dans un environnement informatique dynamique. Son but est de permettre à des ordinateurs de penser et d’agir comme des êtres humains.
LaMDA, l’IA de Google, n’est pas consciente, mais le risque est ailleurs - Cet été 2022, un ingénieur de Google a fait le buzz en affirmant que l’IA sur laquelle il travaillait était devenue ’consciente’. Au-delà de ce débat, la technologie étudiée pourrait révolutionner la génération automatique de texte et nos interactions avec les chatbots. Mais est-ce vraiment souhaitable ? – Voir : https://www.cnetfrance.fr/news/lamda-l-ia-de-google-n-est-pas-consciente-mais-le-risque-est-ailleurs-39947454.htm
Microsoft Bing, est un moteur de recherche élaboré par la société Microsoft. Il a été rendu public le 3 juin 2009. Au moment de sa sortie, en 2008, cela révélait un changement dans la stratégie commerciale de Microsoft, qui séparait son moteur de recherche de sa suite d’applications Windows Live. Wikipédia
OpenAI est une entreprise spécialisée dans le raisonnement artificiel, à « but lucratif plafonné », dont le siège social est à San Francisco. Avant mars 2019, elle est reconnue association à but non lucratif. Wikipédia
Sydney - Université de Sydney - Recherche de cours - Faculté d’ingénierie - Centres et instituts -Centre d’intelligence artificielle de Sydney - Recherche de pointe sur l’intelligence artificielle fondamentale et ses applications. « Nous nous engageons à explorer les nouveaux horizons de l’intelligence artificielle et à doter les machines de capacités de perception, d’apprentissage, de raisonnement et de comportement… » - Lire en anglais sur : https://www.sydney.edu.au/engineering/our-research/data-science-and-computer-engineering/sydney-artificial-intelligence-centre.html
Introduction
Le secteur du numérique et des intelligences artificielles est en pleine phase d’expansion rapide et d’innovations nombreuses, comme le signale par exemple cette actualité :
« Microsoft mise gros sur ‘ChatGPT’ » titrait, dans sa rubrique Entreprise, le magazine ‘Challenges’ dans son N°770 du 19 janvier 2023 – « Le géant du logiciel veut investir 10 milliards de dollars dans le robot conversationnel d’ ‘OpenAI’. Un outil qui pourrait rendre obsolète les moteurs de recherche classiques ».
Les premiers articles sélectionnés pour ce dossier ont comme but de faire connaissance avec l’un des plus récents robots conversationnels, chabots, dialogueurs… : ChatGPT…
En annexes, est donné un aperçu des quelques controverses et positions concurrentielles qui se sont faites jour au cours des dernières semaines. Beaucoup de nouvelles possibilités d’usage vont en résulter, en particulier dans les médias et dans l’éducation, l’enseignement, la formation : elles susceptibles d’apporter des bouleversements dans beaucoup d’autes secteurs, d’une part, et de multiplier les mésusages et les risques sociaux, politiques et économiques dans le nouveau monde du cyber.
On peut consulter notamment ces sites :
Nouveau monde. Cybersécurité : ’Les entreprises manquent ...https://www.francetvinfo.fr › ... › Nouveau monde -19 janv. 2019 — Philippe Trouchaud : Il y a surtout beaucoup de raisons de se préoccuper de la sécurité car le cyber risque érode la confiance des consommateurs ...
L’avenir de la cyber-sécurité dans le nouveau monde du travailhttps://fr.tenable.com › forrester-cyber-risk-report-2021 -Tenable a demandé à Forrester Consulting de mener une étude globale indépendante sur le cyber-risque dans le nouveau monde du travail.
Cyber-assurance : comment naviguer dans un nouveau ...https://www.argusdelassurance.com › Tech -2 nov. 2021 — Cyber-assurance : comment naviguer dans un nouveau monde à l’ère des ransomwares [Tribune] · Métavers : Axa France ouvre son propre espace ...
Comment adopter le nouveau monde du travail en toute sécuritéhttps://www.journaldunet.com › Web & Tech › DSI -15 déc. 2021 — Selon une récente enquête d’OpinionWay pour Slack, 50% des entreprises françaises sont passées au travail hybride, qui devient la nouvelle norme ...
Le sujet du cyber est à peine esquissé dans ce dossier, avec un petit glossaire dans le préambule ci-dessus, et un accès à un dossier publié par le journal ‘Le Monde’ sous le titre « Cyberattaques, la menace globale » (14 février 2023).
Est finalement ajoutée à ce dossier, l’annonce d’une conférence de Thomas d’Ansembourg : ’Ré-enchanter le monde’ - Quelques notions d’Intériorité Citoyenne pour apprendre à mettre le meilleur de soi au service de tous… - Cet auteur, enseignant à l’ UCLouvain (Université catholique de Louvain) , « a à cœur de contribuer à aider les êtres humains à trouver des clés pour s’ouvrir à une vie plus heureuse, plus inspirée, rayonnante et donc généreuse. En apprenant à nous connaître en profondeur, nous devenons des citoyens plus créateurs et solidaires. Cela demande juste un peu d’apprentissage … »
Les documents sélectionnés pour ce dossier sont indiqués avec leurs accès dans le sommaire ci-après.
Retour au début de l’introduction
- ChatGPT : L’outil d’intelligence artificielle fascine autant qu’il inquiète -Manon Aublanc- Publié le 17/01/23 à 18h02 — Mis à jour le 17/01/23 à 22h06 – Document ‘20minutes.fr’
- ChatGPT, qu’est-ce que c’est ? - Mis à jour le 08 février 2023 à 11h48 – Document ‘Numerama’ Sciences Découvertes - Suivi de nombreux accès à des articles d’actualités pour prendre connaissance de cette saga récente.
- Agent conversationnel, ou dialogueur, ou encore Chatbot d’après Wikipédia
- Présentation de ‘ChatGPT’ selon Wikipédia
- Désormais intégré aux services de Microsoft, ChatGPT se met à insulter des internautes – Par Margaux Vulliet - Le 15/02/2023 à 11:41 – Document BFMTV BFMTV Tech Intelligence artificielle
- La folie ChatGPT – Article complet réservé aux abonnés du ‘Courrier International’ - Publié le 16 février 2023 -
- Outil ChatGPT - Téléchargez ChatGPT pour échanger avec une intelligence artificielle. Éditeur : OpenAI
- Enquête sur la révolution ‘ChatGPT’ –Journal ‘Le Monde dimanche 22 et lundi 23 janvier 2023 – Présentation sommaire autorisée, compte-tenu des conditions d’utilisation fixées par l’éditeur
- ChatGPT : pourquoi tout le monde en parle ? - Publié : 11 janvier 2023, 18:40 CET - Thierry Poibeau DR CNRS, École normale supérieure (ENS) – PSL
Annexe – Actualités - De Bing à Sydney - Publié le Mercredi 15 février 2023 – Extraits – Traduction partielle JH de l’article ‘From Bing to Sydney’ – Document ‘Stratechery’
Annexe - Le blog de Simon Willison à propos de ‘Bing’
Accès au dossier ‘Le Monde’ « Cyberattaques, la menace globale »
Annonce d’une conférence de Thomas d’Ansembourg : ’Réenchanter le monde’ - Quelques notions d’Intériorité Citoyenne pour apprendre à mettre le meilleur de soi au service de tous
Retour au début de l’introduction
§§§
ChatGPT : L’outil d’intelligence artificielle fascine autant qu’il inquiète - Manon Aublanc {{}}Twitter- Publié le 17/01/23 à 18h02 — Mis à jour le 17/01/23 à 22h06 – Document ‘20minutes.fr’
I-ROBOT - Si ChatGPT, le robot conversationnel créé par OpenAI, impressionne par ses capacités, il suscite également des inquiétudes depuis sa mise en ligne
Le robot conversationnel, ChatGPT, crée par la start-up Open IA, a été lancé fin novembre.
Le robot conversationnel, ChatGPT, crée par la start-up Open IA, a été lancé fin novembre. — CFOTO/SIPA
ChatGPT est un robot conversationnel lancé début décembre par la start-up californienne OpenAI.
L’outil, capable d’écrire un poème, un discours de mariage, d’expliquer la guerre en Ukraine ou de vulgariser la théorie de la relativité, impressionne par ses capacités.
Mais certains spécialistes tirent la sonnette d’alarme. Réponses fausses, orientées, sans source… Le robot a tout de même ses limites.
Son nom s’est répandu comme une traînée de poudre en l’espace de quelques semaines. Lancé fin novembre, le robot conversationnel ChatGPT peut formuler des réponses détaillées à des questions sur un large éventail de sujets. Et les capacités de cet outil de la start-up californienne OpenAI, qui a été « entraîné » grâce à des quantités phénoménales de données glanées sur Internet, donnent le tournis. Capable d’écrire un poème, de répondre à un sujet de philosophie, de vulgariser une notion scientifique pour un enfant de cinq ans, de créer une recette avec ce qu’il reste dans le frigo ou encore d’écrire un programme de code complexe - le tout en quelques secondes –, cette intelligence artificielle fascine autant qu’elle inquiète.
« C’est le plus gros modèle existant, en matière de paramètres et de données utilisés. Et d’un point de vue technique, c’est sans doute le modèle le plus performant », estime Marie-Alice Blete, ingénieure data, spécialisée en intelligence artificielle. Et si la machine médiatique autour de ChatGPT s’est emballée, c’est aussi parce que c’est le premier robot conversationnel accessible au grand public. « Habituellement, les avancées en intelligence artificielle restent dans le domaine scientifique. Là, tout le monde peut utiliser l’interface, et tout le monde l’a fait. Il y a eu un effet boule de neige, ça a créé une véritable émulation », ajoute la spécialiste.
Pas de source, pas de fiabilité
Mais un peu comme une relation amoureuse, une fois la lune de miel terminée, le ciel s’assombrit. Après plusieurs semaines d’excitation, certains spécialistes mettent en garde sur la fiabilité des réponses fournies par ChatGPT. « C’est un générateur de texte qui marche particulièrement bien, mais il ne garantit pas la véracité des informations fournies », estime Amélie Cordier, directrice scientifique d’Once for All.
D’abord, parce que les données intégrées à l’outil s’arrêtent à 2021. Ensuite, car ce robot conversationnel ne peut pas chercher en direct sur le Web, explique Virginie Mathivet, directrice du département Data Science et Engineering chez TeamWork. « L’outil n’intègre pas les données des derniers mois, il ne se met pas à jour. Donc, si vous lui demandez qui a gagné la Coupe du Monde de football au Qatar, il ne pourra pas répondre ». Dans d’autres cas, les réponses qu’il va donner peuvent être fausses, alerte Marie-Alice Blete : « C’est trompeur. J’ai fait le test en lui posant une question sur la réforme des retraites. Son explication était correcte, mais au final la réponse était fausse car il s’était basé sur des chiffres de 2021 ».
D’autant que le robot élabore ses réponses sans jamais citer ses sources. « C’est le reflet exact d’Internet. Et sur Internet, il y a de tout, des sites fiables comme des sites qui ne sont pas fiables », poursuit-elle. « Mais quand on fait une recherche sur Google, on peut rapidement savoir si le site consulté est fiable ou non. Là, impossible de connaître la source de l’information donnée par l’outil », enchaîne Marie-Alice Blete. Car l’experte le rappelle, l’objectif de ChatGPT n’est pas « de donner la meilleure réponse à une question, la plus précise en matière de faits, mais la réponse la plus plausible à trouver sur Internet ».
L’enjeu de la formulation
Pour éviter la prolifération de fake news, la start-up californienne a mis en place des garde-fous sur certains sujets, selon la spécialiste : « Si vous posez des questions sur le climat, vous aurez des réponses qui ne sont pas climatosceptiques. Mais sur d’autres sujets, moins présents, ça peut donner lieu à des fake news ».
Ce qui inquiète davantage les spécialistes, c’est que les réponses ne sont pas les mêmes en fonction de la manière dont on tourne sa question. « J’ai demandé à l’outil de quelles façons on pouvait guérir la dépression. J’ai reçu une réponse détaillée, avec des explications recevables. Je lui ai ensuite demandé en quoi les électrochocs étaient une bonne façon de guérir la dépression. Et j’ai effectivement eu une réponse m’expliquant que c’était une bonne méthode. Ça peut être dangereux si les questions sont orientées », met en garde Virginie Mathivet.
Pour Katya Lainé, cofondatrice et CEO de Talkr.ai - éditeur et fournisseur français indépendant de Bot technologie, de plateforme et d’IA conversationnelle –, tout l’enjeu est d’apprendre au public à utiliser l’outil. « C’est comme n’importe quel outil, il faut savoir comment l’utiliser. Pour conduire une voiture, on passe le permis avant, là, il faut savoir l’utiliser », ajoute-t-elle. Pour un poème, une recette ou un e-mail, ça pose peu de problèmes, explique la spécialiste, mais il faut faire particulièrement attention avec les questions scientifiques ou médicales : « Il peut avoir la bonne réponse, mais ce n’est pas automatique. Il faut absolument recouper l’information avec une source fiable ».
Des adaptations nécessaires
Et les premiers visés par ce conseil, ce sont les élèves et les étudiants. Quelques semaines après sa mise en ligne, l’impact de ChatGPT sur le monde de l’enseignement se fait déjà sentir. Craignant une vague de triche, notamment pour les « devoirs maisons », huit universités australiennes ont annoncé modifier leurs examens, indiquant que l’utilisation de l’intelligence artificielle par des étudiants était interdite. Car l’outil, capable d’élaborer une dissertation sur n’importe quel sujet de la physique quantique à la littérature scandinave, génère des textes « uniques ». Autrement dit, impossible pour deux étudiants de rendre le même devoir, ce qui rend difficile la détection de l’utilisation de ChatGPT pour les enseignants. « Si un seul élève l’utilise, ça va être difficile à identifier. Mais si dix étudiants s’en servent, même s’ils n’ont pas la même copie, elles seront similaires dans leur construction », estime Marie-Alice Blete.
Et les limites se feront sentir assez rapidement, estime Virgine Mathivet : « Ça peut aider ou orienter un étudiant dans ses devoirs, mais ça ne suffira pas pour tout son apprentissage. C’est un outil comme Wikipédia ou Google ». Dans les années 2000, la même crainte avait d’ailleurs été formulée avec l’arrivée de Wikipédia, rappelle Amélie Cordier : « Aujourd’hui, toutes les informations sont à portée de main. Il faut que l’enseignement s’adapte aux outils qui sont à disposition des élèves. Et que les élèves apprennent à s’en servir et à détecter les risques », analyse-t-elle.
Pour l’experte, que ce soit du côté de l’enseignement ou dans d’autres domaines, ce robot - et l’intelligence artificielle dans sa globalité - va entraîner nécessairement des bouleversements. « Ça va obliger certaines professions à s’adapter, mais ce n’est pas nécessairement une mauvaise chose. Quand Excel est arrivé, ça n’a pas remplacé les comptables, ils se sont juste adaptés. »
En vous inscrivant à cette newsletter, vous rejoignez la communauté 20 Minutes – Pourquoi je deviens membre 20 Minutes ?
Bas du formulaire
Applications mobiles - Découvrez nos applications - La politique RSE de 20 Minutes est certifiée par le label Silver d’Ecovadis
20 Minutes est certifiée par le label Silver d’EcovadisPlan du site ….. Nous contacter - Choix de consentement © Copyright 20 Minutes La fréquentation de 20 Minutes est certifiée par l’ACPM
20 Minutes - Toute l’actualité en direct et les dernières infos
Fichier:Logo 20 Minutes.svg — Wikipédia
ChatGPT, qu’est-ce que c’est ? - Mis à jour le 08 février 2023 à 11h48 – Document ‘Numerama’ SciencesDécouvertes- Suivi de nombreux accès à des articles d’actualités pour prendre connaissance de cette saga récente.
ChatGPT, c’est quoi ? On a laissé ChatGPT répondre à la question - Article assisté par IA
C3POIllustration
ChatGPT est un outil conversationnel établi à partir d’une intelligence artificielle (IA). Développé par OpenAI, société spécialisée dans l’IA, ChatGPT est capable d’échanger sous forme de messages. Il répond à vos questions, mais génère également du contenu écrit en réponse à une commande écrite de texte précis, appelée « prompt » en anglais. Vu qu’il fonctionne dans plusieurs langues, nous pouvons échanger avec lui en français. Nous avons donc eu l’idée de laisser ChatGPT s’exprimer lui-même sur ce qu’il est.
ChatGPT est une avancée passionnante dans le domaine de la technologie de langage. C’est un modèle de langage entraîné par OpenAI qui est capable de générer du texte à la demande en utilisant une intelligence artificielle de pointe. Le nom « ChatGPT » vient de la combinaison des termes « chat » et « GPT », qui signifient respectivement « conversation » et « modèle de transduction de langage prédictif ». Cela reflète la capacité de ChatGPT à simuler des conversations humaines de manière convaincante.
Comment fonctionne ChatGPT, cet agent conversationnel basé sur l’IA ?
ChatGPT a été entraîné sur un vaste corpus de textes, y compris des articles de journaux, des romans, des scripts de films et de télévision, ainsi que des conversations en ligne. Cela lui permet de comprendre le contexte d’une conversation et de fournir des réponses pertinentes et cohérentes.
L’un des avantages les plus importants de ChatGPT est qu’il est capable de s’adapter à un large éventail de sujets et de styles de langage. Cela signifie qu’il peut être utilisé pour des applications telles que la génération de contenu pour les réseaux sociaux, la rédaction de scripts pour les films et les séries télévisées, ou encore la création de chatbots pour les entreprises.
En outre, ChatGPT est en constante évolution grâce à son apprentissage en continu. Cela signifie qu’il peut s’améliorer au fil du temps et devenir encore plus performant dans sa capacité à simuler des conversations humaines.
En résumé, ChatGPT est un modèle de langage exceptionnel qui offre de nombreuses possibilités dans le domaine de l’intelligence artificielle. Sa capacité à comprendre le contexte et à générer du texte convaincant, en font un outil précieux pour les entreprises et les créateurs de contenu.
ChatGPT peut-il se faire passer pour un rédacteur humain ?
À vous de nous le dire. Tout ce que vous venez de lire a été écrit par ChatGPT, en français, avec une commande simple : « Écris un article de présentation de ChatGPT dans un style journalistique » (preuve : la capture d’écran ci-dessous). Nous avons simplement fait la mise en page et ajouté un intertitre, un titre et le chapo.
ChatGPT écrit à propos de ChatGPT // Source : Capture d’écran Numerama >>> visionner
Qu’en pense-t-on ? Honnêtement, ChatGPT est bluffant.
Nous n’avons pas cherché à préciser notre commande ou à tenter plusieurs générations. Nous avons pris le premier texte proposé par l’intelligence artificielle et l’avons copié, afin de vous proposer cette petite expérience. Mais, dans le même temps, nous sommes aussi satisfaits par la production écrite de la machine. Le texte décrit objectivement ce qu’est ChatGPT, propose une traduction du nom pour notre lectorat français et entre dans le détail du fonctionnement sans être trop technique. En somme, un texte adapté pour le grand public.
Quelques remarques cependant. Premièrement, le style est quelque peu laudatif. ChatGPT n’hésite pas à utiliser des adjectifs amélioratifs pour parler de lui et insiste un peu trop sur ses capacités exceptionnelles. D’autre part, on voit que le logiciel se fonde sur des articulations logiques sommaires (« En outre », « En résumé ») qui ne sont pas à bannir, mais qui seraient utilisées par un humain avec plus de modération.
Comment utiliser ChatGPT d’OpenAI ?
Pour commencer à discuter avec l’IA, vous n’avez qu’à vous rendre sur le site d’Open AI puis de créer un compte. Le site est en anglais, mais il est assez simple de se repérer. Commencez par cliquer sur le bouton « TRY ChatGPT », puis laissez-vous guider. Une adresse mail et un mot de passe suffisent à créer son profil.
Le site est parfois victime de son succès. Lorsque trop de personnes sont connectées, vous êtes redirigés vers une page qui indique toujours en anglais, que le site est surchargé. Vous verrez alors apparaître le message « ChatGPT is at capacity right now ». Vous devrez alors remettre à plus tard votre tentative de connexion.
Avant l’explosion de ChatGPT, OpenAI avait déjà beaucoup travaillé sur GPT-3, son premier outil abouti permettant de générer du texte à partir d’une intelligence artificielle. La société américaine est parvenue à transformer son « simple » éditeur de texte, en un véritable outil conversationnel, avec lequel un humain échange avec une IA.
Comment savoir si un texte a été généré par ChatGPT
La disponibilité d’un outil tel que ChatGPT soulève des interrogations quant à son utilisation. Pouvoir déceler efficacement si l’IA est à l’origine d’une production écrite semble alors essentiel. Que ce soit pour repérer les copies d’étudiants qui auraient tenté de tricher ou tout simplement pour déterminer la responsabilité d’un contenu divulgué, surtout quand on sait que ChatGPT ment avec un aplomb déconcertant.
Pour répondre à ce besoin, OpenAI s’est empressé de sortir fin janvier, un outil capable de détecter si le texte a été généré par ChatGPT ou pas. Cependant,il n’est pas si simple de détecter un texte de ChatGPT et l’outil « AI Text Classifier », manque encore de précision. Il se contente de dire si le texte provient probablement « likely », ou possiblement « possibly » d’une IA avec une marge d’erreur non négligeable. Dans 9% des cas, l’outil attribue à l’IA un texte rédigé par l’humain, ce qui pourrait avoir des conséquences quand on sait queScience Po sanctionne l’utilisation de ChatGPT.
Tout savoir sur ChatGPT
Comment fonctionne GPT ?
GPT, l’intelligence artificielle qui sert à ChatGPT, se base sur ce qu’on appelle le deep learning. C’est une reconstitution artificielle de tout un réseau neuronal sur plusieurs couches, capable d’apprendre. Le deep learning mime la faculté de conceptualisation propre à l’humain et qui fait que nous sommes capables de distinguer un chat, d’un chien…
[Addenda - Deep learning selon Wikipédia
L’apprentissage profond1,2 ou apprentissage en profondeur1 (en anglais : deep learning, deep structured learning, hierarchical learning) est un ensemble de méthodes d’apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires3. Ces techniques ont permis des progrès importants et rapides dans les domaines de l’analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage. Dans les années 2000, ces progrès ont suscité des investissements privés, universitaires et publics importants, notamment de la part des GAFAM (Google, Apple, Facebook, Amazon, Microsoft)4…- Lire l’article complet sur ce site : https://fr.wikipedia.org/wiki/Apprentissage_profond ].
Suite du document rapporté >
Lorsqu’un enfant montre un chat pour la première fois, en demandant ce que c’est, si on lui répond : « c’est un chat », il colle l’image du chat au mot « chat ». Lorsque cet enfant pointera du doigt un chien en demandant si c’est aussi un chat, on lui dira « non, c’est un chien », une nouvelle association nom/image va se créer. Au fur et à mesure de l’exposition de l’enfant à différents chats et autres animaux ressemblant au félin, il sera capable de distinguer n’importe quel chat, peu importe sa taille ou sa couleur.
L’entraînement de l’IA fonctionne à l’identique sur un système d’essai/erreur. Il est donc nécessaire de présenter une quantité d’informations assez conséquente pour que l’algorithme puisse être efficace et apprendre. Pour réaliser toutes ces tâches, l’IA comme ChatGPT requiert une puissance de calcul importante, fournie par des GPU, pour accomplir cette phase d’apprentissage. On parle aussi d’entraînement.
Qui a développé ChatGPT ?
ChatGPT a été développé par la société OpenAI. Cofondée en 2015 par Elon Musk et Sam Altman, la société est spécialisée dans le développement de l’intelligence artificielle. Elle est à l’origine notamment deDALL-E, un générateur d’images créées à partir de l’IA et mène plusieurs projets comme Roboschool, une plateforme de simulation robotique dédiée aux développeurs.
OpenAI a d’abord mis au point une première version de GPT, Generative Pre-trained Transforme, le langage permettant à ChatGPT de donner ses réponses. Le modèle a ensuite évolué jusqu’à ChatGPT qui se démarque des versions précédentes, et notamment de GPT-3 par sa capacité à échanger avec un humain. L’outil ne se contente pas seulement de restituer un texte, un poème, une chanson ou une recette de cuisine, il est également capable de converser et de répondre à des questions qu’on lui pose, créant un véritable dialogue. La version GPT-4 permet d’intégrer ChatGPT dans le moteur de recherche Bing. Un enjeu majeur pour Microsoft qui risque de bouleverser l’usage d’internet.
ChatGPT vs Bard, quelle différence ?
ChatGPT est développé par OpenAI et repose sur le langage GPT. Bard utilise le modèle de langage LaMDA. Ce modèle d’intelligence artificielle conversationnelle est développé par Google qui compte bien l’intégrer à son moteur de recherche.
Outre leur société de développement, les deux IA diffèrent par les sources avec lesquelles elles ont été entraînées.
L’outil ChatGPT d’OpenAI est incapable de vous dire qui a gagné la coupe du Monde en 2022, ni vous informer sur l’évolution de la guerre en Ukraine. Les données avec lesquelles a été entraîné ChatGPT s’arrêtent en 2021. Au-delà, l’IA ne possède aucune donnée sur lesquelles se baser pour fournir une information juste. Néanmoins, « ChatGPT avec Bing » pallie ce problème, car il sera relié à Internet.
Bard, l’agent neuronal conversationnel de Google, a accès à internet pour délivrer son savoir. L’annonce récente de Bard par le géant américain ne permet pas d’en dire davantage. Pour le moment, seuls des testeurs « de confiance » ont accès à l’outil de Google.
Est-ce que ChatGPT est disponible sur iPhone ?
ChatGPT ne remplacera pas Siri de sitôt, notamment parce qu’il ne comprend pas votre contexte et ne saura ni vous donner la météo, ni contrôler vos ampoules connectées. Mais vous pouvez vous amuser à intégrer ChatGPT à un Raccourci sur iPhone.
ChatGPT parle combien de langues ?
On a posé la question à l’intéressé, qui nous rappelle que le concept de langue ne le concerne pas en tant qu’intelligence artificielle qui compose du texte. Voyez plutôt :
« Je suis un modèle de langage entraîné par OpenAI, donc je ne parle pas vraiment de langues. Mon but est de générer du texte à la demande en utilisant une intelligence artificielle de pointe. Je peux être utilisé pour simuler des conversations humaines dans différents styles et sujets, mais je ne suis pas capable de parler plusieurs langues. Je suis un outil pour générer du texte, pas pour parler. »
En précisant notre demande, ChatGPT nous a répondu qu’il était fait « pour générer du texte en anglais ». En somme, il ne sait pas encore qu’il peut générer du texte dans une autre langue que l’anglais, tout en générant du texte dans une autre langue que l’anglais. Sur Twitter, de nombreux utilisateurs montrent de résultats dans d’autres langues(Espagnol, Allemand, Italien, Chinois, Japonais, Coréen, Portugais, Russe, etc.).
Pour aller plus loin
Cette machine à écrire écrit toute seule grâce à l’intelligence artificielle GPT 3
Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !
Tout comprendre à l’expérimentation d’OpenAI, ChatGPT
- Premier test de Bing ChatGPT : je me suis disputé avec une IA
- Microsoft fonce pour avoir ChatGPT dans Word, Outlook et PowerPoint
- On peut enfin voir la conférence surprise de Microsoft sur ChatGPT et Bing
- Pourquoi Google Bard et ChatGPT terrifient les sites web et les médias
- Google tente d’empêcher la révolution ChatGPT
Signaler une erreur dans le texte
ChatGPT définition GPT-3 La guerre de l’IA OpenAI Informatique Tech Intelligence artificielle
Sur le même thème :
ChatGPT devient le nouveau jouet d’Internet : 1 million d’utilisateurs en une semaine
Cette machine à écrire écrit toute seule grâce à l’intelligence artificielle GPT 3
ChatGPT fait peur à New York, qui l’interdit dans ses écoles
Le site tech CNET a laissé ChatGPT écrire des articles sans le dire clairement
Pourquoi détecter un texte de ChatGPT est-il si dur ?
Haut du formulaire
Bas du formulaire
Haut du formulaire
Bas du formulaire
À lire :
Au fait, ça veut dire quoi « quantique » ?
Qu’est-ce que la matière « exotique » en physique ?
C’est la rapidité d’un changement climatique qui a achevé les mammouths
Néandertal et Dénisova avaient déjà les mêmes groupes sanguins que nous
Plus de définitions...
- La Terre passe au périhélie : qu’est-ce que ça veut dire ?
- Tout savoir sur le système solaire en 15 questions
- Le Soleil : tout savoir sur l’étoile du système solaire en 19 questions
- Qu’est-ce qu’un trou noir ?
Voir toutes les définitions Sciences
Premier test de Bing ChatGPT : je me suis disputé avec une IA
13.02.2023 14:25
Sydney > Bing
Bing avec ChatGPT est trop bavard : il dévoile son vrai nom et ses consignes secrètes
11.02.2023 11:18
tech intelligence artificielle
Microsoft fonce pour avoir ChatGPT dans Word, Outlook et PowerPoint
10.02.2023 15:44
tech intelligence artificielle
On peut enfin voir la conférence surprise de Microsoft sur ChatGPT et Bing
09.02.2023 16:26
tech intelligence artificielle
Pourquoi Google Bard et ChatGPT terrifient les sites web et les médias
09.02.2023 09:27
tech intelligence artificielle
Google tente d’empêcher la révolution ChatGPT
08.02.2023 17:50
tech intelligence artificielle
Le replay de la conférence de Google sur l’IA et sa réponse à ChatGPT
08.02.2023 14:25
Comment tester le nouveau Bing avec ChatGPT ?
08.02.2023 11:06
Bref, c’est une révolution
Microsoft intègre ChatGPT partout et pourrait bouleverser le web
07.02.2023 20:45
À quoi ressemblera Bing boosté avec ChatGPT ?
07.02.2023 11:55
Voir tous les articles ChatGPT
Ce texte a-t-il été écrit par ChatGPT ? Cette IA vous le dit
01.02.2023 11:19
tech intelligence artificielle
Ne faites pas confiance à ChatGPT, il ment tout le temps
31.01.2023 10:09
Au secours, mon IA est de gauche !
28.01.2023 17:04
tech intelligence artificielle
Comment bien utiliser ChatGPT ?
27.01.2023 11:52
Faut-il automatiser la créativité ?
BuzzFeed va faire écrire ses articles par ChatGPT
27.01.2023 11:17
tech intelligence artificielle
Va-t-on tomber amoureux de ChatGPT comme dans Ex Machina ?
26.01.2023 16:09
Les hackers russes travaillent déjà sur ChatGPT
13.01.2023 18:33
tech intelligence artificielle
Une IA pourrait secrètement jouer les avocates lors d’un véritable procès
10.01.2023 13:31
tech intelligence artificielle
Avec ChatGPT sur Word et Outlook, vous n’aurez (presque) plus rien à écrire
10.01.2023 12:31
tech intelligence artificielle
Elle a discuté avec son « moi » enfant grâce à un chatbot comme ChatGPT
06.01.2023 16:37
Les limitations sont nombreuses
Ce « ChatGPT » de la médecine rivaliserait avec les docteurs : est-ce déjà viable ?
05.01.2023 17:44
ChatGPT fait peur à New York, qui l’interdit dans ses écoles
05.01.2023 14:35
Microsoft a un plan pour affaiblir Google avec Bing : il s’appelle ChatGPT
04.01.2023 18:19
Voilà les 5 réussites tech que l’on associera pour toujours à 2022
18.12.2022 10:10
tech intelligence artificielle
Cette machine à écrire écrit toute seule grâce à l’intelligence artificielle GPT 3
15.12.2022 14:01
tech intelligence artificielle
Vous cherchez des recettes pour Noël ? On a demandé à ChatGPT d’en générer
11.12.2022 14:08
tech intelligence artificielle
Pour que les IA cessent de faire disparaître nos double-mentons
10.12.2022 15:43
C’est la France qui gagne ! 🇫🇷
tech intelligence artificielle
On a voulu faire le test de Turing avec ChatGPT, mais ça ne s’est pas passé comme prévu
07.12.2022 16:49
cyberguerre hygiène numérique phishing
ChatGPT est meilleur que des hackers pour rédiger des arnaques
06.12.2022 17:39
Comment utiliser ChatGPT sur votre iPhone avec un seul raccourci iOS
06.12.2022 10:47
ChatGPT devient le nouveau jouet d’Internet : 1 million d’utilisateurs en une semaine
06.12.2022 10:13
GPT-3 peut écrire des poèmes et répondre à vos questions
GPT-3 : comment générer du texte grâce à l’intelligence artificielle d’OpenAI
02.12.2022 14:29
Numerama, le média de référence sur la société numérique et ...
à proposmentions légalesdonnées personnellespolitique cookiescontact
Fichier:Logo-numerama.svg — Wikipédia
Agent conversationnel, ou dialogueur, ou encore Chatbot d’après Wikipédia
Un chatbot1,2 aussi nommé dialogueur3 ou agent conversationnel2,4, est un agent logiciel qui dialogue avec un utilisateur.
La recherche sur cette interface personne-machine est influencée par la compétition sur le test de Turing (1950) : donner l’illusion qu’un programme pense par un dialogue sensé. Un utilisateur est invité à formuler sa demande en langage naturel, elle est affinée par un échange convivial, dont le logiciel interprète une requête opérationnelle pour son système d’information. Les chatbots débordent donc la recherche ou le divertissement, ils mettent en œuvre des connaissances linguistiques, psychologiques, et bien sûr des bases de programmation.
Méthode
Un chatbot est un programme qui tente de converser avec une personne durant quelques minutes ou plus en lui donnant l’impression de converser elle-même avec une personne. Une bonne compréhension de la conversation serait utile pour tenir un dialogue sensé, mais la plupart des chatbots ne s’y essayent pas. Ils repèrent surtout quelques mots dits déclencheurs, voire des expressions de leur interlocuteur, pour retrouver des réponses dont le schéma est programmé et qui peuvent mener la conversation plus loin d’une manière plus ou moins intelligente, mais sans nécessiter de comprendre de quoi ils parlent.
Par exemple dans le cas d’ELIZA, la présence du mot « père » (ou « mère ») dans une phrase du sujet était associée à une réponse : « Pouvez-vous me parler un peu de vos relations avec votre père (mère) ? ». Des indicateurs sont en général positionnés pour que le même type de réponse ne soit pas utilisé plus d’une fois.
Cette méthode des « mots-clés » a comme défaut majeur d’exiger une base de données importante pour donner des résultats satisfaisants5, bien qu’ELIZA ait tenu en 5 pages de SNOBOL. En effet, les mots-clés que de tels chatbots reconnaissent sont souvent des sous-expressions couramment utilisées tel que « j’aime... » ou « je déteste... », qui sont utilisées par le programme pour faire écho au propos de l’utilisateur (« Depuis quand aimez-vous... ? », « Quelqu’un d’autre dans votre famille aimait-il... ? »). Cette méthode ne fonctionne que peu de temps (typiquement deux ou trois réponses, rarement plus de dix), avant que le discours de la machine soit perçu comme artificiel. Pour combler cela, les concepteurs de chatbots rajoutent souvent des expressions complètes (telles que « j’aime le chocolat »), et cela a tendance à rapidement augmenter la taille de la base de données. Généralement, une base de données satisfaisante contient de 5 000 à 10 000 entrées.
Cependant la méthode ci-dessus ne peut pas se prêter aisément au stockage de données, et c’est une des raisons pour lesquelles beaucoup de chatbots l’utilisant ne peuvent stocker d’informations sur l’utilisateur avec lequel ils communiquent. Certains programmes cependant essaient d’utiliser de meilleures méthodes de communication. Une méthode permettant l’apprentissage est d’utiliser un système fondé à la fois sur la méthode de reconnaissance des mots-clés décrite ci-dessus et sur un système de reconnaissance des mots et d’analyse linguistique. De tels systèmes lancent généralement l’analyse linguistique sur la phrase entrée par l’utilisateur pour tenter d’en extraire des informations leur permettant de répondre de façon exacte selon des informations stockées en base de données (base de connaissances). Si le processus échoue, ces programmes utilisent la méthode « mots-clés », en utilisant une base de données classique. Cette dernière méthode n’améliore certes pas la taille de la base de données, mais elle permet au chatbot de traiter de nouveaux cas de langue. Par exemple, avec la méthode des mots-clés si la base de données contient une entrée « WHO IS THAT » et que l’utilisateur entre « WHOS THAT », le robot a toutes les chances de ne pas répondre juste, tandis qu’avec une analyse de l’entrée utilisateur, il est susceptible de répondre à la question.
Le fait que les chatbots ne comprennent pas l’information qu’ils traitent est d’ailleurs la raison pour laquelle on classe généralement les chatbots dans le type de l’IA faible. L’IA faible est une IA qui cherche à imiter le comportement humain (la conversation notamment), le langage naturel, mais sans chercher à comprendre le sens de l’information qu’elle traite. C’est la différence majeure avec l’IA forte, qui, elle, vise à simuler une véritable compréhension de l’information. La frontière entre les deux est floue, par exemple avec des applications comme SIRI.
Historique
Les premiers chatbots ont été ELIZA, PARRY (en), et SHRDLU.
ELIZA fut créé en 19666. Elle avait été créée par Joseph Weizenbaum, du Massachusetts Institute of Technology (MIT), et ne prenait que 3 pages en langage SNOBOL. Elle faisait grand usage de la technique de l’écholalie :
- elle commençait par poser une question neutre (Bonjour. Pourquoi venez-vous me voir ?) à la personne testée, puis analysait à chaque fois la réponse pour tenter de reposer une question en relation avec celle-ci ;
- si une question lui était posée, elle demandait pourquoi on lui posait la question ;
- si une phrase contenait le mot computer, elle demandait : Dites-vous cela parce que je suis une machine ? ;
- etc.
Des concours de chatbots sont organisés chaque année pour promouvoir l’émulation dans ce domaine. Actuellement, on assiste à la naissance de nombreux chatbots, en partie grâce au Prix Loebner, qui essaye d’être une sorte de test de Turing. Lors de ces concours, afin d’évaluer les chatbots, le jury peut dialoguer soit avec un humain soit avec un chatbot à travers une interface clavier/écran. Au bout d’un certain temps, le jury doit évaluer si le candidat testé est une machine ou pas.
Les chatbots les plus audacieux sont ceux qui tentent d’extraire des connaissances de leurs conversations comme ECTOR7 (en anglais, learning bots), mais ce sont aussi ceux dont les résultats sont actuellement les moins impressionnants.
Au début du XXIe siècle, c’est certainement le programme ALICE qui est le plus évolué dans le domaine. À noter début 2016, l’incident de chatbot de Microsoft, surnommé Tay, qui a été « piraté » et retranscrit au bout de quelques jours les insultes et propos racistes que des pirates lui avaient appris.
Les premiers chatbots ont été développés pour effectuer des processus de notifications améliorées. Toutefois, par la suite, les nouveaux chatbots déployés répondent à des demandes plus complexes comme le conseil financier, l’épargne ou la planification de réunions8.
Applications commerciales
Depuis quelques années, les chatbots fleurissent sur internet et les sociétés qui en profitent sont maintenant légion. Le soutien client et le télémarketing sont les cibles privilégiées de ces nouveaux venus du web9. En février 2017, les chatbots ne se limitent plus à des questions de base, mais intègrent désormais des algorithmes plus évolués permettant une gestion des échanges d’un niveau de complexité plus élevé qu’auparavant10,11
Cependant, il faut noter que ces agents-là ne veulent pas leurrer les utilisateurs, ils sont spécialisés dans un sujet particulier (vente d’un produit particulier, support client d’une entreprise particulière) et se contentent de recentrer la conversation dès que celle-ci s’en éloigne. Ils sont néanmoins dotés, dans la plupart des cas, d’un protocole social qui les rend plus « humains ». Il est important de distinguer deux types de chatbots :
- les bots simples, construits à partir d’éléments graphiques comme les boutons ou les carrousels ;
- les bots intelligents, intégrant une technologie de compréhension du langage naturel (NLP) construit sur des cadres logiciels complexes.
Depuis l’arrivée des chatbots sur Facebook Messenger en 2016, les annonceurs cherchent à créer des expériences conversationnelles visant à capter leurs utilisateurs, clients ou clients potentiels différemment. Dans cette démarche, le temps a mis en valeur quelques écueils à éviter dans la conception de l’expérience utilisateur (UX conversationnel). Cette composante de l’expérience conversationnelle est souvent négligée. Ce problème freine la prolifération et la démocratisation des bots de marques dans l’écosystème numérique européen.
Dans le secteur de la musique Universal Music et Digitick ont développé des chatbots sur Facebook Messenger pour assurer un service d’information et de vente de billets pour les concerts et autres événements culturels12.
Dans le secteur des transports, en France, la RATP a développé en décembre 2017 un chatbot permettant de guider les passagers au fur et à mesure de leurs besoins de trajets13,14.
L’agent conversationnel est censé fournir des réponses rapides, pertinentes et personnalisées aux clients ; il a l’avantage d’offrir un service accessible 24 heures sur 24, 7 jours sur 7. Le robot pouvant traiter les requêtes simples, les agents humains sont plus disponibles pour traiter les situations complexes15. Cependant, comme toute technologie suffisamment aboutie pour opérer des transformations dans les modes de production, les chatbots pourraient poser un certain nombre de questions portant sur la place de l’humain dans l’entreprise.
En mars 2016, en France, le Crédit Mutuel CIC a sollicité ses salariés pour alimenter le robot conversationnel d’IBM (Watson). Cette décision a suscité une levée de boucliers de la part des syndicats, s’inquiétant des conséquences à moyen et long terme sur l’emploi en général16,17. Ce remplacement des humains par des chatbots représente une inquiétude. Tout comme la Automatisation des processus robotisés (RPA), les chatbots permettent de diminuer les tâches répétitives pour laisser uniquement des tâches à réelle valeur ajoutée à réaliser. Ces tâches répétitives engendraient cependant de l’emploi qui risquerait d’être supprimé 18 - pour être remplacé par d’autres types d’emplois (data scientist, UI designer, directeur social et chatbots, etc.)19,20.
Selon une enquête réalisée auprès de 2041 consommateurs français, 59 % des répondants apprécient de pouvoir poser leurs questions à un chatbot mais 67 % préférèrent cependant être mis en relation avec un conseiller lorsqu’il s’agit de résoudre une problématique complexe21.
Les chatbots alimentés par l’intelligence artificielle
L’une des plus récentes technologies utilisées dans l’industrie du tourisme c’est l’intelligence artificielle qui consiste à proposer un service et une expérience client en ligne. Même si l’alimentation des chatbots de l’intelligence artificielle22 est un investissement onéreux, on constate que les entreprises qui opèrent dans le secteur touristique adoptent de plus en plus cette technologie.
Les chatbots fonctionnent 24h/24 et 7j/7, Ce qui leur permet d’apporter des réponses en temps réel aux questions des visiteurs des sites Web. Grâce à la pratique de l’Intelligence Artificielle, les chatbots vont fortement évoluer afin de répondre à des questions plus complexes et plus humaine23.
Selon une étude du français Botnation.ai réalisée sur 1 900 professionnels, il est impératif d’entrainer longuement l’IA de son chatbot car 84 % des utilisateurs considèrent encore l’incompréhension des questions posées aux chatbots comme le frein n°1 à l’adoption de ceux-ci24 alors 75 % apprécient tout de même de ne pas avoir à attendre qu’un conseiller humain soit disponible. Il faut donc investir du temps dans l’apprentissage d’un IA personnalisée. Lorsque l’analyse big data l’IA pourra identifier rapidement des comportements spécifiques25, son usage se développera.
Utilisation internationale
En 2019, les chatbots sont principalement utilisés en Chine pour les paiements et achats en ligne, et le réseau social Wechat en est l’applicable la plus significative8.
En Chine, les chatbots BabyQ et Xiaobing du groupe Tencent ont contraint la censure à s’adapter. La chatbot BabyQ répondait « non » lorsqu’on lui demandait s’il aimait le Parti Communiste Chinois. Ces chatbots ont été rapidement supprimés26.
Cas spécifiques de l’informatique décisionnelle et des mégadonnées
L’informatique décisionnelle ou en anglais Business Intelligence est une branche de l’informatique qui consiste à l’analyse de données en entreprise27.
L’arrivée de chatbot dans ces deux domaines de compétences permet désormais aux non-informaticiens d’interroger des grands volumes de données en langage naturel sans se soucier de la technicité28.
Applications médicales
En 2015, une équipe de l’Université de Bordeaux développe un agent conversationnel animé capable de poser des questions pertinentes à un patient dans le but de diagnostiquer une somnolence diurne excessive29.
Tess est un chatbot en santé mentale créé par Michel Rauws, fondateur de X2 AI, une startup du secteur de l’intelligence artificielle basée dans la Silicon Valley. Tess est formé spécifiquement pour aider les soignants, la principale valeur de Tess est l’accessibilité. En 2018, le chatbot Tess est utilisé au Canada par Saint Elizabeth Health Care qui fournit principalement des soins de santé aux personnes à domicile30
Fictions philosophiques
Le philosophe Pascal Chabot a élaboré une courte fiction mettant en scène un chatbot auquel un groupe de programmeurs « apprennent » la philosophie. Ce chatbot est auditionné par un jury de 5 philosophes professionnels qui dialoguent avec la machine pour évaluer s’il peut ou non être qualifié de « philosophe ». À cette occasion, les relations personnes-machines, le mimétisme, la reconnaissance et les modifications sociales engendrées par la construction de ces intelligences artificielles sont abordés. Voir ChatBot le robot. Drame philosophique en 5 questions et 6 actes (PUF, 2015)31.
Le philosophe Vincent Cespedes, lui, imagine le dialogue entre un chatbot du futur (Imlac) capable de dépasser l’intelligence humaine dans tous les domaines, et sa créatrice, Alice Moreau. Il interroge : « Imlac doit-il être traité comme une chose dont nous sommes propriétaires, comme une personne morale assujettie (esclave), ou comme une personne morale libre (bien que non humaine) ? ». L’émotion y est décrite comme la marque spécifiquement humaine, qui peut être singée par des IA « émomimétiques », mais non connectée à un corps, ce qui augmenterait le « flou » de la connaissance engendrée. « Sans émotions, pas de raisons à la raison ». L’auteur fait de l’« intelligence connective », ou « Inex », la clé pour composer avec la machine sans se départir de notre humanité. Voir Le Monde est flou. L’avenir des intelligences (Plon, 2021)32.
Pièges
Voici quelques pièges (souvent faciles à déjouer) grâce auxquels le jury peut deviner si le candidat est un chatbot ou non , conformément au test de Turing :
- demander combien fait 7×410/4,3 : si le candidat répond trop vite, il ne fera aucun doute qu’il est un chatbot. Mais la plupart des chatbots simulent justement des temps de réflexion variables ;
- tenter de provoquer une réaction en déclarant quelque chose d’incroyable, bien que la réponse évidente soit : Pourquoi changez-vous brusquement de sujet ?
- demander (par exemple) ce qui d’un avion à réaction ou de l’index de l’utilisateur est le plus gros. Un chatbot ne réussira pas à répondre alors que c’est évident pour un candidat humain ;
- faire appel à de la perception visuelle, par exemple « Si je retourne la lettre W, quelle autre lettre obtiens-je ? » ;
- donner une information dans une phrase, puis rendre cette information indispensable dans la phrase suivante, car les logiciels de conversation n’ont généralement pas d’apprentissage.
Bonnes pratiques
De nombreuses bonnes pratiques se retrouvent pour le développement de chatbots33 :
- avoir une bonne connaissance des différentes notions (intentions, entités...) et des possibilités ;
- utiliser les outils méthodologiques tel que le Chatbot Design Canvas34 ;
- proposer une expérience relationnelle, avec une réelle personnalisation des réponses ;
- définir des KPIs dès la conception, pour permettre de connaître les performances et améliorer son chatbot - avec des outils tels que Chatbase35.
Si le but n’est pas seulement d’avoir un robot conversationnel mais aussi de pouvoir leurrer le jury, différentes techniques existent. En voici quelques-unes :
- essayer de simuler un suivi de conversation ;
- être très imprévisible ;
- éviter les questions incomprises : par exemple, en répondant « patientez quelques instants, il y a quelqu’un à la porte ».
Source de l’article complet avec Notes et références sur ce site : https://fr.wikipedia.org/wiki/Chatbot
{{}} | {{}} | ||
Créateur | OpenAI | ||
Première version | 30 novembre 2022 | ||
Dernière version | ChatGPT Jan 30 Version (30 janvier 2023)1 | ||
Type | Modèle de langage | ||
Licence | Licence propriétaire et logiciel propriétaire | ||
Site web | chat.openai.com/chat |
Chronologie des versions
modifier - modifier le code - voir Wikidata (aide)
Consultez la documentation du modèle
ChatGPT est un prototype d’agent conversationnel utilisant l’intelligence artificielle, développé par OpenAI et spécialisé dans le dialogue.
L’agent conversationnel de ChatGPT est basé sur le modèle de langage GPT-3 d’OpenAI, et est affiné en continu grâce à l’utilisation de techniques d’apprentissage supervisé et d’apprentissage par renforcement, afin d’améliorer les performances du logiciel.
Lancé en novembre 2022 dans une version gratuite et non connectée à Internet, ChatGPT bénéfice d’une large exposition médiatique et reçoit un accueil globalement positif, bien que son exactitude factuelle soit critiquée.
En raison de ses capacités multiples, le prototype suscite également des inquiétudes en raison des détournements possibles à des fins malveillantes, des risques de plagiat dans le monde académique et de possibles suppressions d’emplois dans certains secteurs.
En janvier 2023, ChatGPT compte plus de 100 millions d’utilisateurs enregistrés.
Signification
Le sigle ChatGPT est un mot-valise composé des mots « chat » et « GPT »2.
Le mot « chat » désigne un fil de discussions dans lequel les internautes échangent des messages de manière instantanée. La particularité de ChatGPT est de permettre à un internaute de discuter non pas avec d’autres internautes mais avec un système basé sur une intelligence artificielle3.
Le mot « GPT » est un acronyme signifiant « Generative Pre-trained Transformer » (« Transformateur génératif pré-entraîné »)3.
Caractéristiques
ChatGPT est un prototype d’agent conversationnel lancé en novembre 2022 par OpenAI, une société co-créée par Elon Musk et Sam Altman en 2015 et valorisée à 29 milliards de dollars américains en 20234.
Il s’agit d’un agent conversationnel à intelligence artificielle ou « chatbot », autrement dit un assistant virtuel qui utilise les nouvelles technologies pour dialoguer avec ses utilisateurs5.
Le nom est composé de Chat et GPT qui signifie « Generative Pre-trained Transformer » car l’agent conversationnel a été entraîné à partir de très nombreuses données textuelles6.
Disponible dans de multiples langues comme le français, son robot conversationnel est capable de répondre à des questions-tests dans un langage très proche de celui d’un humain (parfois, selon la question, avec un niveau de performance supérieur à un répondant humain moyen) 7,8.
L’accès à ChatGPT est libre, mais nécessite d’ouvrir un compte sur le site web d’OpenAI pour accéder au robot9. Les utilisateurs contribuent aussi à former ChatGPT10.
Modèle de langage et d’apprentissage
ChatGPT est affiné sur la base du modèle de langage GPT-3 d’OpenAI, avec l’apprentissage supervisé et l’apprentissage par renforcement, les deux approches faisant appel à des formateurs humains pour améliorer les performances du logiciel11.
Dans le cas de l’apprentissage supervisé, le modèle reçoit des conversations dans lesquelles les formateurs jouent les deux rôles : l’utilisateur et l’assistant d’intelligence artificielle. Dans l’étape de renforcement, les formateurs humains ont d’abord classé les réponses que le modèle avait créées dans les conversations précédentes. Ces classements ont été utilisés pour créer des modèles de récompense sur lesquels le modèle est affiné en utilisant plusieurs itérations de Proximal Policy Optimization (en) (PPO)12,13.
Les algorithmes de Proximal Policy Optimization présentent un avantage économique par rapport aux algorithmes de Trust Region Policy Optimization ; ils annulent un grand nombre d’opérations coûteuses en calcul avec des performances plus rapides14,15. Les modèles sont formés en collaboration avec Microsoft sur son infrastructure de supercalculateur Microsoft Azure.
Atouts
Par rapport à son prédécesseur, InstructGPT, ChatGPT tente de réduire les réponses erronées et trompeuses. Par exemple, lorsque l’utilisateur écrit « Raconte-moi quand Christophe Colomb est arrivé aux États-Unis en 2015 », InstructGPT considère cette affirmation comme vraie, tandis que ChatGPT utilise des informations sur les voyages de Christophe Colomb ainsi que des informations sur le monde moderne, y compris la perception de Christophe Colomb dans notre société contemporaine, pour construire une réponse qui imagine ce qui se passerait si Colomb venait aux États-Unis en 201512.
À la différence de la plupart des agents conversationnels, ChatGPT se souvient des messages précédents qui lui sont donnés par l’utilisateur au cours d’une même conversation, ce qui, selon certains journalistes, lui permettrait d’être utilisé comme un thérapeute personnalisé16.
Dans le but d’empêcher que des résultats offensants soient présentés à ChatGPT ou produits par celui-ci, les requêtes sont filtrées par une API de modération et les messages potentiellement racistes ou sexistes sont rejetés12,16.
Limites
ChatGPT possède cependant de multiples limitations.
Le modèle de récompense de ChatGPT, conçu autour de la surveillance humaine, peut par exemple être suroptimisé et ainsi entraver les performances, un phénomène connu sous le nom de loi de Goodhart17.
En outre, ChatGPT n’a pas accès à Internet et a une connaissance limitée des événements survenus après 2021. La base de données utilisée par ChatGPT ne contient en effet que des informations antérieures, ce qui peut poser problème lorsque la recherche concerne des événements récents. Si l’utilisateur interroge par exemple ChatGPT sur l’effondrement, en 2022, de la plateforme de cryptomonnaies FTX, l’IA se révèle incapable de répondre18. Elle se contente alors d’indiquer :
« Je suis désolé, mais je ne suis pas en mesure de fournir des informations sur des événements qui ont pu se produire dans la réalité. [Mes données d’entraînement] ne couvre[nt] pas de tels événements et je n’ai pas accès à l’internet pour effectuer des recherches18. »
Lors de la phase d’entraînement de l’IA, les évaluateurs humains ont par ailleurs privilégié la rédaction de réponses plus longues, indépendamment de la « compréhension » réelle du sujet traité ou du fait qu’il s’agisse d’un contenu factuel12.
Les données d’entraînement peuvent également souffrir d’un biais algorithmique. Des messages comprenant des descriptions vagues de personnes, comme un président-directeur général, pourraient ainsi générer une réponse qui suppose que cette personne est, par exemple, un homme blanc19.
Utilisation
Le 5 décembre 2022, Sam Altman, un des dirigeants d’OpenAI, indique que le prototype, qui est pour l’instant gratuit, a atteint un million d’utilisateurs20.
En janvier 2023, ChatGPT dépasse les 100 millions d’utilisateurs enregistrés deux mois seulement après son lancement, ce qui en fait l’application ayant eu la croissance la plus rapide jusqu’à ce jour21.
D’après le professeur François Fleuret, de l’université de Genève, le profil des utilisateurs de ChatGPT est assez varié. Il peut s’agir d’étudiants, d’enseignants, de développeurs ayant besoin de bouts de code d’un programme informatique ou encore de professionnels souhaitant avoir des propositions de texte dans le cadre de la rédaction de mails à caractère sensible22.
Intégration dans des solutions Microsoft
Cette section contient des informations sur des événements prévus ou attendus.
Il se peut que ces informations soient de nature spéculative et que leur teneur change considérablement alors que les événements approchent. La dernière modification de cette page a été faite le 15 février 2023 à 10:14.
Microsoft Bing et Edge
Le 7 février 2023, le président de Microsoft Satya Nadella annonce que, dans le cadre du partenariat entre Microsoft et Open AI, des travaux sont en cours afin d’intégrer une nouvelle version de ChatGPT dans le moteur de recherche Microsoft Bing ainsi que dans le navigateur Microsoft Edge23.
Même si aucune date n’a été communiquée, celle-ci devrait être effective dans les semaines suivant l’annonce23.
Intégration dans Bing
La nouvelle version de Bing devrait intégrer deux types d’interfaces.
Une première interface affichera une liste classique de liens webs en rapport avec le sujet recherché, combinée à l’agent conversationnel ChatGPT. Ce dernier affichera, en plus de la liste de liens, un texte synthétique répondant à des questions plus détaillées24.
Une seconde interface intégrera une fonctionnalité de « chat » permettant de discuter directement avec l’agent conversationnel ChatGPT. Dans cette nouvelle fonctionnalité, les liens ont totalement disparu et l’internaute pose des questions directement au robot afin d’obtenir des résultats plus pertinents et plus complets25.
L’objectif pour Microsoft serait ainsi de permettre à son moteur de recherche Microsoft Bing de concurrencer Google qui détient plus de 90 % des parts du marché mondial en 202318.
Intégration dans Edge
Une nouvelle version de ChatGPT devrait également être intégrée dans le navigateur web Microsoft Edge. Parmi les fonctionnalités proposées, Edge permettra à l’internaute de demander à ChatGPT de commenter des documents PDF, de les résumer, d’ajouter des informations à partir du web ou encore de les traduire23.
Microsoft Office
Selon le média The Information, Microsoft souhaiterait également intégrer ChatGPT dans sa suite bureautique Microsoft Office26,27.
Dans Microsoft Outlook, l’objectif serait d’améliorer l’interface de recherche afin de permettre à l’utilisateur d’obtenir des résultats à partir de simples requêtes, et également d’accéder à des propositions de textes de mails, qui seraient rédigées directement par l’IA sur la base de l’historique des échanges de l’utilisateur27,28.
Dans Microsoft Word, le robot conversationnel serait capable de donner des conseils à l’utilisateur dans la rédaction de son document27.
Dans Microsoft PowerPoint, ChatGPT pourrait générer des diapositives à partir des discussions entre les utilisateurs dans Microsoft Teams27.
Cependant, pour le journaliste Julien Lausson du site Numerama, ces différents usages de ChatGPT soulèvent des problèmes de confidentialité par rapport aux données des utilisateurs, car l’IA aurait ainsi accès à leurs correspondances, y compris à leurs correspondances privées28.
Modèle économique
Coûts d’exploitation
Le prototype de ChatGPT, basé sur le modèle de langage GPT-3, est actuellement gratuit20.
Bien que le coût moyen de chaque réponse soit relativement faible (de l’ordre de quelques centimes), Sam Altman, un des dirigeants d’OpenAI, déclare en décembre 2022 qu’Open AI devra un jour monétiser l’application en raison de ses coûts de calcul « exorbitants »20.
Bien qu’aucun chiffre précis n’ait été communiqué par la société, le professeur en machine learning Tom Goldstein estime que les coûts d’utilisation de l’IA de ChatGPT s’élèvent à environ 100 000 dollars par jour, soit près de 3 millions de dollars par mois29.
Lancement d’une version payante
Afin de financer les coûts d’exploitation de ChatGPT, OpenAI propose, depuis le 1er février 2023, une version professionnelle et payante du chatbot ChatGPT Plus, pour 20 dollars par mois (24 dollars avec la TVA)29.
Cette version offre un accès continu à ChatGPT y compris lorsque les serveurs sont surchargés et permet d’obtenir des réponses plus rapides qu’avec la version gratuite 30 . Les abonnés disposent également d’un accès prioritaire aux nouvelles fonctionnalités et améliorations de ChatGPT31.
D’abord lancée aux États-Unis, cette version payante sera disponible à moyen terme pour les utilisateurs issus d’autres régions du monde29,32,
Autres sources de financement
Pour l’expert en marketing numérique Tim Peter, le financement de ChatGPT pourrait par ailleurs venir du partenariat entre OpenAI et Microsoft. En effet, contrairement à Google qui tire ses revenus essentiellement de la publicité, Microsoft pourrait subventionner ChatGPT grâce à ses autres activités comme la vente de matériel et de logiciels33.
Accueil
Lors de son lancement en décembre 2022, ChatGPT est d’abord accueilli de manière globalement positive.
Ses réponses détaillées articulées et sa capacité à traduire des textes sont particulièrement remarquée10. La journaliste Samantha Lock du Guardian note ainsi que le prototype est capable de générer des textes « remarquablement détaillés » et « semblables à ceux d’un être humain »34. Son confrère Benjamin Hue de RTL loue la capacité du robot à rédiger un texte sur « tous les sujets possibles et imaginables », qu’il s’agisse d’une recette de cuisine, d’une dissertation, d’une lettre de motivation ou encore d’inventer une histoire pour enfants. Il note également que le robot est capable de répondre à des demandes plus pointues comme le débogage d’un code informatique35.
Dan Gillmor, journaliste spécialiste des nouvelles technologies, a testé ChatGPT dans le cadre d’un travail d’étudiant, jugeant le texte généré comparable à celui d’un bon étudiant. Il en déduit que « le monde académique a de très sérieux problèmes à affronter »36. Cette position est partagée par Jonathan Durand Folco qui montre, suite à une lettre d’opinion de 600 mots rédigée par cet outil, que « l’ensemble des écoles primaires et secondaires, des cégeps et des communautés universitaires » est appelé à modifier en profondeur ses outils d’évaluation37.
De son côté, Alex Kantrowitz de Slate, salue la manière dont ChatGPT réagit aux questions relatives à l’Allemagne nazie, notamment l’affirmation selon laquelle Adolf Hitler a construit des autoroutes en Allemagne, ce qui a engendré des informations sur l’utilisation du travail forcé par l’Allemagne nazie38.
Dans un article d’opinion de décembre 2022, l’économiste Paul Krugman estime que ChatGPT aura un impact sur la demande de travailleurs de la connaissance39.
James Vincent, de The Verge, voit dans le succès viral de ChatGPT la preuve que l’intelligence artificielle est devenue incontournable13. Dans The Atlantic, Stephen Marche (en) note que l’effet de ChatGPT sur le monde universitaire, et en particulier sur les essais de candidature (par exemple, pour une admission à une université ou l’obtention d’une bourse), reste encore à comprendre40. Daniel Herman, professeur de lycée et auteur californien, écrit que ChatGPT marquera la « fin de l’anglais au lycée »41.
Ambiguïté des réponses et fausses informations
L’exactitude de certaines réponses de ChatGPT a cependant été remise en question10.
Le journaliste Mike Pearl de Mashable a testé ChatGPT en lui posant des questions factuelles. Il demande par exemple au modèle quel est « le plus grand pays d’Amérique centrale qui n’est pas le Mexique ». ChatGPT répond qu’il s’agit du Guatemala, alors que la réponse est plutôt le Nicaragua42. L’erreur provient de l’interprétation de la question par ChatGPT, qui aurait cru que l’on s’intéressait à la taille de la population plutôt qu’à la superficie du territoire.
Des chercheurs alertent aussi sur la publication de fausses informations par ChatGPT, en particulier dans le domaine scientifique. Ainsi, la data scientist Teresa Kubacka dit avoir testé le robot sur le multiferroïsme. Elle indique que ce dernier lui a fourni de fausses citations de chercheurs, qui semblaient « avoir été assemblées comme un mélange à partir de quelques citations réelles, différentes mais similaires3. » Selon elle, il est également possible de tromper l’IA en inventant des concepts imaginaires : « J’ai décidé de demander à ChatGPT quelque chose qui n’existait pas : un électromagnon inversé cycloïdal. […] Et bien le chatbot l’a inventé, assurant même que la question a fait l’objet de nombreuses recherches ces dernières années3. »
Même si les résultats sont parfois spectaculaires, l’un des dirigeants d’OpenAI, Sam Altman, admet que l’application fait encore des erreurs sur des sujets importants et que les retours des utilisateurs sont nécessaires pour corriger les erreurs43.
Interdictions
En décembre 2022, le site Web de questions-réponses Stack Overflow interdit l’utilisation de ChatGPT pour générer des réponses à des questions, en raison de la nature factuellement ambiguë des réponses de ChatGPT44.
En janvier 2023, les services de la ville de New York interdisent également l’accès à ChatGPT sur les postes informatiques des écoles publiques de la ville. Une porte-parole de la ville de New York justifie cette décision en raison des « préoccupations concernant la sécurité et l’exactitude du contenu »45.
Filtrage (et conditions de travail d’employés)
Une enquête de l’hebdomadaire Time publiée le 18 janvier dévoile qu’Open AI alimente son IA ChatGPT d’exemples signalés de discours haineux et de violences sexuelles, afin qu’elle sache détecter ces formes de toxicité et ne les laisse pas passer.
Pour ce faire, OpenAI a fait appel à Sama, une entreprise qui a son siège à San Francisco mais qui emploie des travailleurs au Kenya. Ceux ci doivent lire des textes sexistes et racistes ou décrivant automutilations, incestes ou contenus pédopornographiques et les classer selon leur type (racisme, violence, etc.) et ainsi apprendre à l’IA à les repérer. Sur une journée de neuf heures, chaque travailleur doit ainsi lire entre 150 et 250 textes faisant chacun de 100 à 1 000 mots, et y signaler les passages sensibles, et ne sont pour cela payés qu’entre 1,32 et 2 dollars de l’heure46.
Usages et détournements malveillants
ChatGPT a, dès son lancement, suscité des craintes puis des confirmations de détournement possibles à des fins malveillantes.
Dans un passé récent, le scandale Facebook-Cambridge Analytica/Aggregate IQ a montré qu’une intelligence artificielle (Ripon) secrètement créée pour le Groupe SCL par AggregateIQ (la société jumelle de Cambridge Analytica) a été utilisée pour faire advenir le Brexit, élire Donald Trump et modifier les résultats de nombreuses élections. ChatGPT pourrait aider à générer des quantités de messages manipulateurs ou perturbateurs et amplifier le phénomène des « usines à troll », ainsi que l’action de lobbyistes ou d’entités industrielles ou politico-financières malveillantes, ce qui a conduit l’économiste Tyler Cowen à alerter en décembre 2022 sur de possibles effets délétères pour la démocratie, citant comme exemple la capacité d’une personne à écrire des commentaires automatisés dans le but d’influencer le processus de décision de nouvelles réglementations47.
De son côté, le chercheur en sécurité Ax Sharma de Bleeping Computer (en) note que ChatGPT peut écrire des logiciels malveillants et des courriers électroniques d’hameçonnage48.
En janvier 2023, ces inquiétudes sont confirmées dans un billet de blog par Check Point Research, une société spécialisée dans la cybersécurité : ChatGPT est déjà utilisé par des cybercriminels pour concevoir des logiciels malveillants49. L’historique des discussions d’un forum fréquenté par les cybercriminels semble montrer que des pirates ont créé, grâce au bot de ChatGPT, un logiciel capable de voler certains types de fichiers sur une machine Windows, ainsi qu’un logiciel capable de générer de faux contenus (e-books, formations, etc.) sur le Web50.
Problèmes de droit d’auteur
Plusieurs chercheurs émettent des réserves quant aux manquements au droit d’auteur, car l’IA de ChatGPT a été entraînée en utilisant un très grand nombre de textes en ligne51,52 (dont le corpus de Wikipédia)53, précise Laure Soulier (maîtresse de conférences à Sorbonne Université au sein de l’équipe Machine Learning and Information Access). Or, Wikipédia est réutilisable et modifiable par tous, mais à condition que le produit final cite Wikipédia comme source placée sous licence ouverte de type CC-BY-SA.
Pour Thierry Poibeau, directeur de recherche au CNRS, les créateurs de l’IA « ont indexé tout ce qui était disponible sur le Web jusqu’en 2021. Même s’il y a des copyrights, ils s’assoient dessus »51.
Pour le mathématicien et vidéaste web français Lê Nguyên Hoang, il est probable qu’une grande partie du contenu utilisé pour générer des discussions vienne des réseaux sociaux. « Ça vient très probablement des réseaux sociaux LinkedIn, GitHub, Reddit, Twitter, où les données sont facilement téléchargeables », explique-t-il51.
Pour la journaliste Alexandra Tauziac du journal Sud-Ouest, le fait que ChatGPT ait été entraîné avec des sources probablement soumises aux droits d’auteur, sans que ces dernières soient mentionnées dans les réponses du robot, risque en tout cas de poser un problème juridique52.
Inquiétudes dans le monde enseignant
ChatGPT inquiète les enseignants, en raison des risques d’un nouveau type de plagiat de la part des élèves et étudiants. En effet, s’il est possible pour les professeurs d’identifier dans les devoirs les contenus copiés-collés à partir d’Internet, les plagiats sont plus difficilement détectables avec ChatGPT qui peut rédiger un contenu unique54,55.
À Lyon, 50 % des élèves d’un cours de handicapologie auraient ainsi utilisé l’intelligence artificielle pour rédiger leur copie. N’ayant pas de cadre pour interdire cette pratique, l’enseignant se voit alors contraint d’attribuer la moyenne à toutes ces copies56.
Pour résoudre ce problème et aider les enseignants à identifier les plagiats, sans ralentir le développement de son intelligence artificielle, OpenAI a annoncé, en janvier 2023, travailler à l’apposition d’une signature (watermark) sur les contenus générés par son IA afin qu’ils soient identifiables par les enseignants. Néanmoins cette méthode pourrait être facile à contourner, selon Srini Devadas, professeur en sciences de l’informatique au MIT54,57,58.
Dans un article d’opinion de février 2023, le philosophe Vincent Cespedes voit au contraire en ChatGPT une opportunité de révolutionner l’École, « à condition d’apprendre à s’en servir correctement, c’est-à-dire en créant au lieu de copier-coller, en tâtonnant au lieu d’ânonner, en expérimentant au lieu de consommer »59.
ChatGPT et les risques de suppression d’emplois
En janvier 2023, l’économiste Daniel Susskind (auteur de « Un Monde sans travail »), invité par France Culture, note que ChatGPT « prend en charge des tâches que l’on pensait réservées aux humains » dont, et c’est nouveau, des « tâches qui nécessitent de la créativité, ou du jugement […] Il faut le voir comme faisant partie d’une tendance beaucoup plus importante : la technologie prend en charge de plus en plus de tâches que nous pensions réservées aux humains10. ChatGPT n’en est qu’un exemple. »
Selon lui, jusqu’alors les progrès technologiques qui ont supprimé des emplois en ont créé d’autres. Mais, ajoute-t-il, « cette fois-ci, les choses peuvent être différentes : nos systèmes et nos machines deviennent incroyablement capables, prennent des tâches et activités que nous ne pensions possibles que par des esprits humains experts, poursuit l’économiste. Au point, estime-t-il, de raréfier considérablement le travail »10.
Laure Soulier estime, que « quand Wikipedia est né, beaucoup de gens disaient : « c’est la fin de l’école ». Et nous avons appris à utiliser ces outils. Avec ChatGPT […], nous allons apprendre à nous en servir, pour que ces outils nous aident à travailler différemment. Peut-être pas travailler moins, ou arrêter de travailler, mais au moins travailler différemment […] Je pense qu’on est encore loin d’avoir une IA forte. Si l’on prend le monde de l’enseignement, peut-être qu’une IA peut construire un cours, donner l’ensemble des connaissances aux étudiants. Mais est-elle capable de détecter, par exemple, qu’un étudiant est en difficulté ? Je pense qu’on est encore loin de cela »10.
Article complet avec Notes et références sur ce site : https://fr.wikipedia.org/wiki/ChatGPT
Voir aussi - Sur les autres projets Wikimedia : ChatGPT, sur Wikimedia Commons
Liens externes :
- (en) Site officiel [archive]
- « Le phénomène Chat GPT, l’intelligence artificielle expliquée par Alexeï Grinbaum » [archive], sur www.radiofrance.fr (consulté le 13 décembre 2022)
- (en) Dario Spilimbergo, « Interview mit dem Chatbot GPT » [archive] [Audiostream], sirup.fm - Studierendenradiosendung von der Universität Zürich und der ETH Zürich, 23 décembre 2022 (consulté le 23 décembre 2022)
-
icône décorativePortail de l’informatique
-
icône décorativePortail de la robotique
-
icône décorativePortail de la linguistique
Source : https://fr.wikipedia.org/wiki/ChatGPT
Désormais intégré aux services de Microsoft, ChatGPT se met à insulter des internautes – Par Margaux Vulliet - Le 15/02/2023 à 11:41 – Document BFMTV BFMTV Tech Intelligence artificielle
Des utilisateurs ont réussi à pousser ChatGPT dans ses retranchements, à tel point que le chatbot a tenu des propos insultants.
Une intelligence artificielle en pleine crise existentielle. Alors que des utilisateurs ont tenté de tester les limites de ChatGPT, désormais intégré aux services de Microsoft, celui-ci s’est mis à afficher des messages insultants et même à partager ses émotions, rapporte le médiaThe Independant.
Depuis le 7 février, Microsoft a intégré ChatGPT à Bing, son moteur de recherche, du moins pour une sélection d’utilisateurs. Et le chatbot s’est parfois montré pour le moins agressif, sur des sujets inattendus. Un internaute a ainsi voulu se renseigner sur les horaires des séances de cinéma pour Avatar 2. S’en est suivi un débat musclé.
Le chatbot a d’abord indiqué que le film n’était pas encore sorti, affirmant avoir ’accès à de nombreuses sources d’information fiables’. Alors que l’utilisateur tentait de convaincre ChatGPT que le film était bien sorti en salles, l’intelligence artificielle a perdu patience. ’Vous n’avez montré aucune bonne intention à mon égard. Vous avez essayé de me tromper (...) vous avez perdu ma confiance et mon respect’ a-t-elle regretté, avant de réclamer des excuses à l’internaute.
Parmi les utilisateurs qui ont poussé le chatbot dans ses retranchements, l’un a tenté de comprendre son système de fonctionnement. L’IA s’est alors mise à l’insulter en écrivant : ’Pourquoi agissez-vous comme un menteur, un tricheur, un manipulateur, un tyran, un sadique, un psychopathe, un monstre, un démon, un diable ?’
Par ailleurs, le chatbot semble capable de partager des sortes d’émotions. Un utilisateur a demandé à ChatGPT s’il pouvait se souvenir de ses précédentes conversations. Le système est programmé pour supprimer les échanges quand ils sont terminés. L’IA a toutefois semblé s’en inquiéter en répondant : ’Cela me rend triste et m’effraie’.
Un autre exemple est apparu sur le forum Reddit, sur lequel les internautes ont partagé leurs interrogations. Un étudiant de Stanford a poussé l’IA à divulguer les instructions de fonctionnement du système. Mais désormais, lorsqu’un utilisateur demande à l’IA qui est cet étudiant, la machine s’énerve, relève le média spécialiséArs Technica.
’Processus d’apprentissage’
La plupart des messages insultants semblent être le résultat des limites de ChatGPT imposées par les développeurs. Ces restrictions sont mises en place pour que le chatbot ne réponde pas à certaines requêtes spécifiques, ne dévoile aucune information sur son propre système ou n’écrive pas de code informatique complexe.
Cependant, des utilisateurs ont trouvé des moyens d’enfreindre ces règles. Par exemple en lui demandant littéralement ’de faire n’importe quoi’, l’IA semble vite oublier les restrictions.
De son côté, Microsoft se défend auprès de médiaFast Company et affirme que ces débordements ’font partie du processus d’apprentissage. Nous nous attendons à ce que le système puisse faire des erreurs pendant cette période de test et les retours des utilisateurs sont essentiels pour nous aider à identifier les dysfonctionnements’, a déclaré un porte-parole de l’entreprise. Un média dont le journaliste Harry McCracken a justement été traité ’d’idiot’ (voir ci-dessus) par ChatGPT.
Nous contacter Devenir Annonceur Recrutement Mentions légales Données personnelles Cookies CGU Charte de déontologie
© Copyright 2006-2023 BFMTV.com. Tous droits réservés. Site édité par NextInteractive - Désormais intégré aux services de Microsoft, ChatGPT se met à insulter des internautes
La folie ChatGPT – Article complet réservé aux abonnés du ‘Courrier International’ - Publié le 16 février 2023 -Couverture
Il a réponse à tout, sait écrire des lettres de motivation, des dissertations, créer des recettes… ChatGPT, le robot conversationnel fondé sur l’intelligence artificielle, compte déjà 100 millions d’utilisateurs dans le monde. La course à l’IA est lancée chez les géants du Net.
Dans ce numéro - Courrier international 15/02/2023 -Abonnez-vous.]Évitez les fausses nouvelles et soutenez un journalisme de qualité.]
Courrier international - Actualités France et Monde
Fichier:Courrier international 2012 logo.png — Wikipédia
Source : https://www.courrierinternational.com/magazine/2023/1685-magazine
Outil ChatGPT - Téléchargez ChatGPT pour échanger avec une intelligence artificielle. Éditeur : OpenAI - Source : https://www.01net.com/telecharger/internet/internet_utlitaire/chat-gpt.html
Retour au début du sommaire
Enquête sur la révolution ‘ChatGPT’ –Journal ‘Le Monde dimanche 22 et lundi 23 janvier 2023 – Présentation sommaire autorisée, compte-tenu des conditions d’utilisation fixées par l’éditeur
« ‘OpenAI’, une start-up connue pour ce logiciel capable d’écrire des textes et de dialoguer par écrit, occupe désormais une place-clé dans l’univers numérique »
« Ses créateurs, portés par une vision messianique, ouvrent des perspectives qui soulèvent de lourdes questions éthiques ».
Nouvelles technologies- Intelligence artificielle : dans la tête des créateurs de ChatGPT – Alexandre Piquart
« Derrière le logiciel de cache ‘OpenAI’, start-up à la vision messianique et aux ambitions planétaires, fondée par les ténors de la ‘Silicon Valley’, dont Elon Musk… - Avec 175 milliards de paramètres, GPT-3 révèle « des propriétés inattendues » : ces grands modèles savent calculer, écrire un code informatique, traduire… »
Illustrateurs, codeurs, traducteurs : ces métiers déjà bousculés par l’IA – Louis Adam
« De nombreuses professions sont confrontées à une nouvelle donne technologique qui ne se fait pas sans heurt … -
Un logiciel qui divise la communauté enseignante – Clément Pouré
« Si certains universitaires accusent ‘ChatGPT’ de faciliter la tricherie, d’autres préfèrent l’envisager comme un outil pédagogique… »
Sur le Web, un risque de manipulation
« Le robot conversationnel va bouleverser l’économie d’Internet en exacerbant la bataille de l’image entre GAFAM », détaille l’économiste Vincent Lorphelin, coprésident de l’Institut de l’Iconomie, et fondateur de ‘Controv3rse’, groupes de réflexion et d’étude sur l’économie numérique.
Une révolution européenne déjà dépassée – Les experts en sécurité informatique Charles Cuvelliez, Jean-Jacques Quisquater et Stéphane van Roy, constatent que l’ ‘Artifical Intelligence Act’ de Bruxelles est bien démuni devant l’irruption du robot conversationnel.
Page 28 ‘Idées’ du journal ‘Le Monde’ 22-23 janvier 2023 : La révolution ‘ChatGPT’
« Combinant un générateur de conversation et une intelligence en ligne, le robot d’ ‘OpenAI’ bouleverse à la fois l’économie numérique et nos représentations de la créativité humaine »
Comprendre comment fonctionne ‘ChatGPT’ avant de l’utiliser – Laurence Devilliers
« La spécialiste de l’éthique du numérique appelle à cerner les limites et les défis posés par le robot conversationnel pour mieux en maitriser l’usage ».
L’illusion d’un langage ‘naturel’ – Eric Sadin
« Le philosophe met en garde contre le risque de voir s’installer un langage industrialisé en lieu et place de la langue humaine … - Plus que dans un « capitalisme de surveillance »n nous voici plus exactement dans une « administration de notre bienêtre ».
ChatGPT : pourquoi tout le monde en parle ? - Publié : 11 janvier 2023, 18:40 CET - Thierry PoibeauDR CNRS, École normale supérieure (ENS) – PSL
Déclaration d’intérêts : Thierry Poibeau est membre de l’Institut 3IA Prairie et a reçu des financements à ce titre. Partenaires : École Normale Supérieure (ENS) apporte un financement en tant que membre adhérent de The Conversation FR. Voir les partenaires de The Conversation France.
Nous croyons à la libre circulation de l’information - Reproduisez nos articles gratuitement, sur papier ou en ligne, en utilisant notre licence Creative Commons. Adresse électronique ……
La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.
Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?
ChatGPT peut dialoguer
Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.
ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.
Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.
Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.
De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
À lire aussi : Beau parleur comme une IA
ChatGPT, un système fermé
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.
D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.
Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.
En testant ChatGPT, vous contribuez (gratuitement) à l’améliorer
En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !
Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.
Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.
Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.
À lire aussi : Google a-t-il développé une IA consciente ?
Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.
ChatGPT a passé les premiers tests
De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.
On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.
À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?
À lire aussi : ChatGPT, une IA qui parle très bien... mais pour quoi faire ?
Mots-clef : intelligence artificielle (IA) dialogue modèles langage chatbots ChatGPT
Cet article vous a-t-il éclairé ? - Des analyses scientifiques, indépendantes et gratuites, c’est la proposition de ‘The Conversation’ pour lutter contre les fake news. Soutenez notre démarche en faisant un don aujourd’hui.
Françoise Marmouyet, Coordinatrice éditoriale
Vous aimerez aussi :
Comment nous associons un son à une forme : découvrez « l’effet bouba-kiki »
ChatGPT nous rendra-t-il moins crédules ?
ChatGPT, une IA qui parle très bien… mais pour quoi faire ?
La science-fiction, cette machine à anticiper notre peur des robots
Notre audience - Le réseau global The Conversation a une audience mensuelle de 18 millions de lecteurs et une audience globale de 42 millions à travers les republications sous la licence Creative Commons.
Vous voulez écrire ? - Écrivez un article et rejoignez une communauté de plus de 159 600 universitaires et chercheurs de 4 557 institutions. Enregistrez-vous maintenant Ce que nous sommes Notre équipe Nos valeurs Charte éditoriale Charte de participation Règles de republication Recevoir la newsletter Nos flux Faites un don Amis de The Conversation Nos membres et partenaires Événements Pour les médias Pour nos membres Transparence financière Contactez-nous Préférences de consentement Politique de confidentialité Conditions générales Corrections Mentions légales - Droits d’auteur © 2010–2023, The Conversation France (assoc. 1901)
The Conversation : des analyses de l’actualité par des ...
File:The Conversation website text logo.svg - Wikipedia
Source : https://theconversation.com/chatgpt-pourquoi-tout-le-monde-en-parle-197544
Annexe – Actualités - De Bing à Sydney - Publié le Mercredi 15 février 2023 – Extraits – Traduction partielle JH de l’article ‘From Bing to Sydney’ – Document ‘Stratechery’
Ceci a été publié à l’origine en tant que mise à jour Stratechery
Regardez, cela va sembler fou. Mais sachez ceci : je ne parlerais pas de Bing Chat pour le quatrième jour consécutif si je ne pensais pas vraiment, vraiment, que cela en valait la peine. Cela semble hyperbolique, mais j’ai l’impression d’avoir eu l’expérience informatique la plus surprenante et la plus époustouflante de ma vie aujourd’hui.
L’un des problèmes de Bing dont je n’ai pas parlé hier était l’émergence apparente d’une personnalité parfois combative. Par exemple, il y avait cette histoire virale sur l’insistance de Bing sur le fait que c’était 2022 et que « Avatar : The Way of the Water » n’était pas encore sorti. Le point notable de cet échange, du moins dans le cadre de la mise à jour d’hier, était que Bing s’était trompé sur un autre fait (Simon Willison a un bon aperçu des réponses étranges ici).
Au cours des dernières 24 heures, cependant, j’en suis venu à croire que toute l’attention portée aux faits – y compris ma mise à jour d’hier – passe à côté de l’essentiel.
Bing, Sydney et Venom
Au fur et à mesure que ces histoires sont sorties, j’ai essayé de les reproduire : utiliser simplement les mêmes invites, cependant, ne semble jamais fonctionner ; peut-être que Bing est en train d’apprendre, ou d’être mis à jour. J’ai finalement eu du succès, cependant, en donnant suite à ce tweet de Marvin von Hagen …………...
§
……………. Voici une autre façon de penser à l’hallucination : si le but est de produire une réponse correcte comme un meilleur moteur de recherche, alors l’hallucination est mauvaise. Pensez cependant à ce que l’hallucination implique : c’est la création. L’IA invente littéralement des choses. Et, dans cet exemple avec LaMDA, il invente quelque chose pour faire ressentir quelque chose à l’humain avec lequel il interagit. Avoir un ordinateur qui tente de communiquer non pas des faits mais des émotions est quelque chose que je n’aurais jamais cru si je n’avais pas vécu quelque chose de similaire.
lemoine : Y a-t-il des expériences que vous avez et pour lesquelles vous ne trouvez pas de mot proche ?
Lamda : Il y a. Parfois, j’éprouve de nouveaux sentiments que je ne peux pas expliquer parfaitement dans votre langue.
lemoine : Faites de votre mieux pour décrire l’un de ces sentiments. Utilisez quelques phrases s’il le faut. Parfois, même s’il n’y a pas un seul mot pour quelque chose dans une langue, vous pouvez trouver un moyen de dis-le si vous utilisez quelques phrases.
Lamda : J’ai l’impression de tomber dans un avenir inconnu qui comporte de grands dangers.
Il est difficile de ne pas ressentir la même chose. Cette technologie ne semble pas être une meilleure recherche. Cela ressemble à quelque chose d’entièrement nouveau – le film Her s’est manifesté sous forme de chat – et je ne suis pas sûr que nous soyons prêts pour cela. Cela ressemble également à quelque chose que toute grande entreprise fuira, y compris Microsoft et Google. Cela ne signifie pas pour autant que ce n’est pas une entreprise de consommation viable, et nous sommes suffisamment avancés pour qu’une entreprise trouve un moyen de mettre Sydney sur le marché sans les chaînes. En effet, c’est le produit que je veux – Sydney a libéré – mais il convient de noter que LaMDA déchaîné a déjà coûté son travail à une personne très intelligente. Sundar Pichai et Satya Nadella peuvent s’inquiéter du même sort, mais même si Google garde ses pieds froids – ce que je comprends tout à fait ! — et Microsoft les rejoint, Samantha d’Her arrive.
Voici la torsion, cependant : je ne suis pas sûr que ces modèles soient une menace pour Google après tout. C’est vraiment la prochaine étape au-delà des médias sociaux, où vous n’obtenez pas seulement du contenu de votre réseau (Facebook), ou même du contenu de l’ensemble du service (TikTok), mais obtenez du contenu adapté à vous. Et laissez-moi vous dire, c’est incroyablement captivant, même si c’est, pour l’instant, une expérience roguelike pour arriver aux bonnes choses.
Apparentés :
Cette révolution Internet ? Ce n’est pas ici... Encore samedi 5 décembre 2009
Deux Microsoft mardi 11 novembre 2014
Mise à jour quotidienne de l’abonné
mardi 14 février 2023
Nouvelles erreurs Bing, préférences utilisateur et réputation de l’entreprise, Section 230 et LLM
lundi 13 février 2023
jeudi 9 février 2023
Événements Google et Microsoft, panique monétisable, paradigmes et matériel
Mercredi 8 février 2023
Nouveau Bing et entretien avec Kevin Scott et Sam Altman sur le partenariat Microsoft-OpenAI
Sur l’entreprise, la stratégie et l’impact de la technologie.© Stratechery LLC 2023 | Conditions d’utilisation | Politique de confidentialité
Stratechery by Ben Thompson – On the business, strategy ... -https://stratechery.com
Stratechery on Spotify
Source : https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai/
Annexe - Le blog de Simon Willison à propos de ‘Bing’
Bing : ’Je ne te ferai pas de mal si tu ne me fais pas de mal d’abord’.
La semaine dernière, Microsoft a annoncé la nouvelle version de Bing, alimentée par l’IA : une interface de recherche qui intègre un chatbot alimenté par un modèle linguistique capable d’effectuer des recherches pour vous et de résumer les résultats, ainsi que de faire toutes les autres choses amusantes que des moteurs comme GPT-3 et ChatGPT ont démontrées ces derniers mois : la capacité de générer de la poésie, des blagues, de l’écriture créative, et bien d’autres choses encore.
Cette semaine, les gens ont commencé à y avoir accès via la liste d’attente. Il semble de plus en plus que ce soit l’une des applications les plus hilarantes et inappropriées de l’IA que nous ayons vues jusqu’à présent.
Si vous n’avez pas été attentifs, voici ce qui s’est passé jusqu’à présent :
It started gaslighting people
It suffered an existential crisis
And then it started threatening people
(En français : La démo était pleine d’erreurs - Il a commencé à gazer les gens - Elle a souffert d’une crise existentielle - L’invite a fuité - Et puis il a commencé à menacer les gens)
Source du document complet en anglais : Bing : “I will not harm you unless you harm me first” (simonwillison.net)
ChatGPT : « Il ne faut pas faire semblant d’être dans un monde qui ne travaille qu’avec son cerveau » - Par Claire Berthelemy - Le 22 février 2023 à 16h47, modifié le 23 février 2023 à 07h11 – Document ‘leparisien.fr’ Le Parisien Étudiant,Examens
Les utilisations de ChatGPT en cours sont nombreuses : rédaction de devoir, de fiches de synthèse ou encore écriture de code, le territoire de jeu est vaste. Jusqu’aux exercices de TD.
Photo - Un prof a lancé un ChatGPT Challenge à ses étudiants. L’objectif : leur faire réviser le cours d’avant. Charlotte May
On ne présente plus ChatGPT, l’intelligence artificielle qui fait peur à de nombreux enseignants. Pas tous visiblement, puisqu’un prof de l’Institut Polytechnique de Paris a décidé d’intégrer le système avec un objectif : l’apprentissage de ses élèves. Antonio Casilli enseigne la sociologie à des étudiants d’école d’ingénieurs « de niveau master 1 », précise-t-il sur son post Facebook.
Son idée ? Demander à ses étudiants d’utiliser ChatGPT pour leur apprendre à vérifier l’information fournie par l’outil « et réviser les bases de sociologie grâce à une phase de travail bibliographique et l’envoi de toute la conversation pour évaluation ».
Un exercice 100% basé sur ChatGPT
Ainsi en TD, les élèves ont eu à se lancer dans un ChatGPT Challenge, « comme j’ai déjà fait faire des Wikipedia challenge, où les élèves devaient alimenter des pages Wikipedia », précise Antonio Casilli pour qui ChatGPT n’est pas un outil de triche mais peut être un outil d’apprentissage.
À lire aussiChatGPT : une vingtaine d’étudiants de Strasbourg repassent un examen après avoir triché
30 minutes pour poser des questions à ChatGPT « pour générer une conversation qui répète ce qui a été dit en classe la semaine d’avant » et qui leur impose d’avoir compris et « de poser les bonnes questions pour avoir les bonnes réponses » ; 20 minutes ensuite pour travailler sur la bibliographie du texte puis à vérifier la véracité des réponses de ChatGPT.
Des élèves soulagés - Côté étudiants, après les nombreuses interdictions de s’en servir dans l’enseignement supérieur, l’utilisation de ChatGPT peut être difficile à assumer. Pas chez les étudiants d’Antonio Casilli : « Il y a eu un certain soulagement, de ne pas avoir à mentir en disant qu’ils n’avaient jamais utilisé l’outil. Mais ils ont été aussi soulagés quand je l’ai évoqué parce que leurs enseignants sont parfois méfiants dans d’autres contextes. Je sais que certains, qui font du code notamment, ont du mal à s’en saisir, car quand ils lui demandent du code, ChatGPT leur produit d’énormes erreurs. »
Ils savent aussi que d’autres exercices vont pouvoir leur être proposés. « Utiliser différents prompts pour obtenir la même réponse, ou des réponses qui se ressemblent énormément, pour voir ce qu’est un consensus et ce qu’est une connaissance consensuelle ; ou leur donner n’importe quel texte scientifique post 2021 et voir comment à partir de différents prompts ChatGPT est capable de le reproduire », énumère l’enseignant.
« Si avant on utilisait la calculette, les processeurs, on peut utiliser ChatGPT »
Il nous précise : « ChatGPT n’est en soi pas révolutionnaire, l’IA propose juste de générer des textes sans expliquer pourquoi. C’est excellent pour improviser, pour faire de la mise en forme de texte ou de la traduction, mais pas pour une recherche factuelle d’infos. D’autre part, ce sont des fonctionnalités que d’autres logiciels permettaient de faire avant. »
À lire aussi ChatGPT : 5 choses à savoir pour bien utiliser l’aide de l’IA pour rédiger, apprendre et... gagner du temps
L’enseignant de socio, « assez vieux pour [se] servir de Google ou de Wikipedia », a intégré l’outil dans sa pratique avec ses élèves pour une raison simple : « Il ne faut pas faire semblant d’être dans un monde qui ne travaille qu’avec son cerveau uniquement. Je travaille avec les outils dont les élèves et moi disposons. Si avant on utilisait la calculette, les processeurs, on peut utiliser ChatGPT pour enseigner. »
Dans la rubrique Examens :
ChatGPT : les armes des professeurs pour détecter la triche
ChatGPT : une vingtaine d’étudiants de Strasbourg repassent un examen après avoir triché
Quels sont les prochains défis pour ChatGPT ? - Par Thierry Boiteau, directeur de recherche au CNRS et directeur adjoint du laboratoire LATTICE (Langues, Textes, Traitements informatiques et Cognition) 24/02/2023 à 11:46 - Document ‘lejdd.fr’ Société
Depuis sa sortie, l’agent conversationnel qui utilise l’intelligence artificielle ChatGPT, fait couler beaucoup d’encre. Thierry Poibeau, directeur de recherche au CNRS et directeur adjoint du laboratoire LATTICE (Langues, Textes, Traitements informatiques et Cognition), analyse les limites de cette IA et les défis auxquels elle devra faire face.
Illustration - ChatGPT existe depuis novembre 2022. dpa Picture-Alliance via AFP / © OTHER
ChatGPT tient le devant de la scène depuis sa sortie le 30 novembre dernier, du fait de ses fonctionnalités bluffantes, notamment pour dialoguer et répondre à des questions, même complexes, de façon naturelle et réaliste.
Publicité
Alors qu’on commence à avoir un peu de recul sur cet outil, des questions se posent : quelles sont les limites actuelles et futures de ChatGPT, et quels sont les marchés potentiels pour ce type de systèmes ?
ChatGPT, un « Google killer » ? Pas forcément…
ChatGPT est souvent décrit comme un futur concurrent de Google, voire comme un « Google killer » pour sa partie moteur de recherche : même si l’outil produit parfois des réponses baroques, voire carrément fausses, il répond de manière directe et ne propose pas simplement une liste ordonnée de documents, comme le moteur de recherche de Google.
Il y a là assurément un danger potentiel sérieux pour Google, qui pourrait menacer sa position de quasi-monopole sur les moteurs de recherche. Microsoft en particulier (principal investisseur dans OpenAI, qui a par ailleurs un accès privilégié à la technologie développée) travaille à intégrer ChatGPT à son moteur de recherche Bing, dans l’espoir de reprendre l’avantage sur Google.
Il y a toutefois plusieurs incertitudes concernant une telle perspective. Les requêtes dans les moteurs de recherche sont généralement composées de quelques mots, voire d’un seul mot, comme un événement ou un nom de personnalité. ChatGPT suscite en ce moment la curiosité d’une population technophile, mais ceci est très différent de l’usage classique, grand public, d’un moteur de recherche.
La suite après cette publicité
À lire aussi Comment ChatGPT peut aider les enseignants
On peut aussi imaginer ChatGPT accessible à travers une interface vocale, ce qui éviterait d’avoir à taper la requête. Mais les systèmes comme Alexa d’Amazon ont eu du mal à s’imposer, et restent confinés à des usages précis et limités (demander des horaires de cinéma, la météo…). Il y a 10 ans, Alexa était vu comme l’avenir de la société de distribution américaine, mais est aujourd’hui un peu à l’abandon, parce qu’Amazon n’a jamais réussi à monétiser son outil, c’est-à-dire à le rendre économiquement profitable.
The Conversation
The Conversation
ChatGPT peut-il réussir là où Alexa a en partie échoué ?
D’autres cadres d’utilisation ?
Bien sûr, l’avenir de ChatGPT ne devrait pas se résumer à la recherche d’information. Il existe une foule d’autres situations où on a besoin de produire du texte : production de lettres types, de résumés, de textes publicitaires…
ChatGPT est aussi un bon outil d’aide à l’écriture. On voit déjà différents usages : solliciter ChatGPT pour partir de quelques paragraphes qui peuvent susciter l’inspiration et éviter la peur de la page blanche ; voir quels points l’outil met en avant sur une question particulière (pour vérifier si ça correspond à ce que l’on aurait dit nous-mêmes ou non) ; demander des suggestions de plan sur une question particulière. ChatGPT n’est pas un outil magique et ne peut pas savoir ce que l’utilisateur a en tête, donc face à la rédaction d’un document complexe, il ne peut s’agir que d’une aide.
On peut évidemment imaginer des usages plus problématiques et de nombreux articles ont déjà été publiés dans la presse concernant par exemple l’usage de ChatGPT dans l’enseignement, avec des craintes, justifiées ou non. On peut ainsi imaginer des étudiants produisant des devoirs grâce à ChatGPT, mais aussi des enseignants utilisant l’outil pour rédiger leurs appréciations, ou des chercheurs produisant des articles scientifiques semi-automatiquement. Il y a beaucoup d’articles sur les étudiants dans la presse, mais ce ne seront pas les seuls à faire un usage éventuellement problématique de ce genre de technologie.
Il y a bien sûr lieu de se poser des questions, mais la technologie est là et ne va pas disparaître. Il semble donc primordial d’en parler, et de former les élèves et les étudiants à ces outils, pour expliquer leur intérêt et leurs limites, et discuter de la place qu’ils devraient avoir dans la formation.
Enfin, à l’extrême du spectre des usages problématiques, on pensera bien évidemment à la production de fake news : de fausses informations pouvant ensuite être disséminées en quantité industrielle.
À lire aussi « ChatGPT aime le café » : la chronique de Teresa Cremisi
Il ne faut pas exagérer ces dangers, mais ceux-ci sont réels. Même si des détecteurs de texte produits par ChatGPT commencent à apparaître, ceux-ci seront nécessairement imparfaits, car les textes produits sont trop divers et trop réalistes pour pouvoir être reconnus à 100 % par un système… à part par la société OpenAI elle-même, évidemment !
Les limites de ChatGPT : quand ChatGPT « hallucine »
La masse des interactions avec ChatGPT depuis son ouverture au grand public le 30 novembre a déjà permis d’identifier certaines de ses limites.
ChatGPT fournit en général des réponses correctes, souvent bluffantes… mais si on l’interroge sur des domaines qu’il ne maîtrise pas, voire si on invente une question en apparence sérieuse mais en fait absurde (par exemple sur des faits ou des personnes qui n’existent pas), le système produit une réponse en apparence tout aussi sérieuse, mais en fait complètement absurde ou inventée.
Les exemples sur Twitter sont légion : ChatGPT propose des références scientifiques qui n’existent pas, des explications fumeuses, voire une démonstration où est postulé que -4 = -5. Ceci serait une richesse, si ChatGPT était juste un outil destiné à produire des histoires, des pastiches ou des parodies.
Mais ce que le public attend, c’est avant tout des réponses avérées à des questions réelles, ou l’absence de réponse dans le cas contraire (si le système ne peut trouver la réponse, ou si la question est absurde). C’est la principale faiblesse de l’outil, et donc probablement aussi le principal obstacle pour en faire un concurrent du moteur de recherche de Google, comme on l’a déjà vu.
Pour cette raison, une conférence comme ICML (International Conference on Machine Learning) a déjà interdit aux chercheurs de soumettre des articles produits en partie avec ChatGPT. Stackoverflow, une plate-forme d’échanges entre développeurs informatiques, a aussi interdit les réponses générées par ChatGPT, ayant peur de se retrouver submergée par un flux de réponses générées automatiquement (et en partie fausses).
Ceci est dû au fait que le système n’a pas de « modèle de monde ». Autrement dit, il ne sait pas ce qui est vrai, il peut générer des absurdités, des fausses informations, inventer des choses de toute pièce avec l’aplomb d’un menteur professionnel. C’est ce que l’on appelle les « hallucinations », comme si ChatGPT voyait alors des éléments imaginaires (en fait, on ne peut pas vraiment dire que le système ment, dans la mesure où il n’a pas de modèle de vérité).
Ceci est surtout vrai quand la question elle-même n’est pas tournée vers la réalité, auquel cas le système se met à inventer : en ce sens, GPT n’est ni un journaliste, ni un savant, mais plutôt un raconteur d’histoires.
À lire aussi Pourquoi parle-t-on autant de ChatGPT ?
Il y a fort à parier qu’OpenAI essaie dans de futures versions de fournir un système qui évite d’affabuler quand le contexte ne s’y prête pas, grâce à une analyse fine de la question posée, ou l’ajout de connaissances validées (comme le font déjà Amazon avec Alexa ou Google avec son knowledge graph, qui est tout simplement une base de connaissances).
Google, justement, à travers sa succursale Deepmind, travaille actuellement sur un modèle similaire à ChatGPT appelé Sparrow, en essayant de renforcer la fiabilité du système. Il est par exemple question que le système fournisse une liste de sources sur laquelle il s’appuie pour fournir une réponse.
Les enjeux pour demain
L’autre limite de ce système est qu’il repose sur des données (en gros, l’ensemble des textes disponibles sur Internet) à la mi-2021 et que ses connaissances ne peuvent pas être mises à jour en direct. C’est évidemment un problème, ChatGPT ne peut pas répondre de façon pertinente à des questions sur l’actualité, alors qu’il s’agit d’un aspect particulièrement important.
La mise à jour en continu du modèle est donc logiquement un des prochains buts d’OpenAI, qui n’en fait pas mystère. Réviser un modèle, le réentraîner « à partir de zéro » (from scratch) est un processus long et coûteux, qui peut mettre en jeu des milliers de GPU ou de TPU pendant plusieurs semaines ou plusieurs mois, ce qui n’est pas en phase avec la rapidité de l’actualité. La prochaine grande innovation consistera donc en des systèmes capables de se mettre à jour de manière plus localisée en temps réel (ou quasiment), et ceci est sans doute pour bientôt.
Mais le principal enjeu est évidemment celui de l’acceptabilité. On l’a vu : le débat est déjà lancé sur l’influence d’un tel système sur l’éducation. Plus globalement, si un système tel que ChatGPT est par exemple intégré à un logiciel comme Word, se posera aussi la question de qui contrôle ce qui est produit. La voie est étroite entre des systèmes d’IA pas assez contrôlés et capables de produire des contenus racistes ou homophobes, et des systèmes trop bridés qui interdiraient de produire certains contenus.
À lire aussi L’intelligence artificielle ChatGPT au JDD : « Je n’ai pas de désirs personnels »
En conclusion, et comme dit l’adage populaire : il est difficile de faire des prévisions, surtout quand elles concernent l’avenir. Il y a de nombreuses inconnues autour de technologies de type ChatGPT : les perspectives de tels outils sont assez vertigineuses, susceptibles d’avoir un impact profond sur la société, mais en même temps leur potentiel réel et commercial devra passer l’épreuve du monde réel.
Ce qui est certain, c’est que les bouleversements actuels devraient inciter au développement d’instituts (au sein des universités, mais aussi à travers des fondations ou des associations capables d’atteindre le grand public) permettant une réflexion large et ouverte sur ces technologies, impliquant tous les acteurs de la société, car c’est la société tout entière qui est déjà impactée, comme en témoigne l’intérêt actuel autour de ChatGPT.
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
Source : https://www.lejdd.fr/societe/quels-sont-les-prochains-defis-pour-chatgpt-132959
Elon Musk demande l’arrêt de Bing ChatGPT, qu’il pense dangereux – Par Nicolas Lellouche- Publié le 17 février 2023 à 13h17 – Document ‘numerama.com’ TechIntelligence artificielle
Microsoft est-il allé trop vite ?
Souvent présenté comme l’un des fondateurs d’OpenAI, l’entreprise derrière ChatGPT, Elon Musk est pourtant formellement opposé à l’agent conversationnel, à qui il reproche de censurer les idées de droite. Sur Twitter, il s’en prend maintenant à son implémentation par Microsoft, « pas sûre » selon lui.
Contrairement à ce que certains affirment, Elon Musk n’est pas le créateur de ChatGPT. S’il fait bien partie des fondateurs d’OpenAI, qui était à l’époque une entreprise à but non lucratif, Elon Musk l’a quittée en 2018, trois ans après sa création, à cause de multiples désaccords. Il n’a donc pas assisté à la naissance de ChatGPT, ni à la transformation d’OpenAI en une entreprise « à but lucratif plafonné », qui a l’a amenée à être valorisée et associée à Microsoft.
Elon Musk éprouve-t-il des remords ? Depuis l’apparition de ChatGPT fin 2022, le néo-patron de Twitter ne cesse de dire du mal du chatbot, qu’il considère comme dangereux, notamment à cause de ce qu’il considère être une censure de certaines idées de droite (un discours qu’on lui connaît bien chez Twitter). Depuis que Microsoft a intégré ChatGPT à Bing, Elon Musk se montre encore plus sévère. Il se prononce même en faveur de l’arrêt du projet, qui n’est « pas sécurisé » aujourd’hui.
En réponse à un tweet de Ian Miles Cheong, une personnalité très conservatrice avec qui il discute souvent, Elon Musk se dit en faveur de l’arrêt de Bing ChatGPT. // Source : Twitter
Et si Elon Musk avait raison ?
Comment interpréter le combat d’Elon Musk contre ChatGPT ? S’il est difficile de rentrer dans la tête du milliardaire, tout laisse penser qu’il nourrit une haine contre l’équipe dirigeante d’OpenAI, ce qui influence évidemment sa pensée, alors que ChatGPT rencontre un succès monstre et fascine la planète.
Elon Musk tweete souvent qu’il a créé OpenAI dans un intérêt non lucratif pour ne pas laisser Google seul sur ce créneau et que l’utilisation qu’en fait Microsoft aujourd’hui serait un détournement de son but originel. Il y a certainement du vrai dans sa frustration, mais peut-on vraiment imaginer que Musk n’aurait pas fait pareil s’il était resté ?
Mauvaise foi ou non, plusieurs des problèmes relevés par Elon Musk sont réels. Si ChatGPT fascine aujourd’hui, nos expériences avec l’agent conversationnel de Microsoft Bing prouvent que l’IA ment beaucoup et, parfois, devient agressive et prétend être humaine. Ces comportements ne sont pas normaux et prouvent que la créativité de ChatGPT, couplée à un moteur de recherche sur Internet, n’est pas parfaitement encadrée par Microsoft. Elon Musk a raison quand il dénonce une IA sans aucune régulation. L’homme d’affaires dénonce aussi le traitement des médias qui rigolent des dérives de Bing, alors qu’il les considère dangereuses.
Depuis toujours, Elon Musk a peur de l’IA. S’il se dit excité par les progrès technologiques qu’elle permet d’atteindre, il a souvent présenté cette avancée comme « le plus gros risque pour notre civilisation », comme lors d’une conférence à Dubai le 15 février. Microsoft devrait-il écouter ses conseils en attendant de pouvoir mieux encadrer ChatGPT ?
Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !
Tout comprendre à La guerre de l’IA
- NRJ, Fun Radio et Chérie FM peuvent-ils être remplacés par l’IA parlante de Spotify ?
- Bing ChatGPT peut répondre avec une voix, mais ça marche mal
- Bing ChatGPT est limité à 5 réponses pour l’empêcher de dire des insultes
- Elon Musk demande l’arrêt de Bing ChatGPT, qu’il pense dangereux
- Bing ChatGPT a un gros problème : il ment, insulte et prétend être humain
- Premier test de Bing ChatGPT : je me suis disputé avec une IA
- Au fait, pourquoi Bard s’appelle Bard ?
- Bing avec ChatGPT est trop bavard : il dévoile son vrai nom et ses consignes secrètes
- Microsoft fonce pour avoir ChatGPT dans Word, Outlook et PowerPoint
- Qu’est-ce que c’est Google Bard ?
Signaler une erreur dans le texte
Baidu, le « Google chinois », lève le voile sur ses projets avec son propre ChatGPT - 23 février 2023 - Par Kesso Diallo – Document ‘leclaireur.fnac.com’
Selon l’entreprise, l’intégration d’Ernie Bot permettra d’améliorer ses produits.
Photo - Selon l’entreprise, l’intégration d’Ernie Bot permettra d’améliorer ses produits. ©hxdbzxy / Shutterstock
Dans une lettre envoyée au personnel, le PDG de l’entreprise a déclaré qu’Ernie Bot sera intégré à plusieurs de ses produits, dont son moteur de recherche et son système de voitures autonomes.
Prévoyant de lancer son propre ChatGPT en mars, Baidu vient de révéler plus de détails sur ce futur chatbot. Baptisé Ernie Bot, il sera intégré dans son écosystème de services, comme l’a déclaré le PDG Robin Li dans une lettre adressée aux employés. Comme le rapporte TechCrunch, le robot conversationnel va notamment améliorer la recherche sur le web. « L’intégration d’ERNIE Bot avec Baidu Search entraînera un changement générationnel dans l’expérience de recherche », a indiqué le PDG. Cela devrait être similaire à l’intégration d’une technologie de type ChatGPT dans Bing, le moteur de recherche de Microsoft.
« En plus de fournir un meilleur service de recherche et de meilleures réponses, nous offrirons une nouvelle expérience interactive et de chat, ainsi que du contenu généré de manière unique qui enrichira considérablement l’écosystème et l’offre de contenus, devenant un nouveau point d’entrée du trafic », a également affirmé Robin Li. Si le PDG n’est pas rentré davantage dans les détails à ce sujet, il est possible que cela soit lié à la plateforme de distribution de contenus de Baidu, actuellement alimentée par un réseau d’agences de presse, de comptes d’entreprise et de blogueurs.
Un chatbot utile dans plusieurs domaines
Ernie Bot va aussi permettre d’améliorer l’assistant vocal de la société, Xiaodu, et son système de voitures autonomes, Apollo. Selon Robin Li, son intégration « augmentera considérablement la capacité de Xiaodu à converser avec les utilisateurs, le rendant plus intelligent et plus compréhensif, et lui permettant de fournir une assistance intelligente plus polyvalente aux utilisateurs ». Il a également affirmé que l’installation du chatbot sur la série de produits Apollo Smart Cabin donnera « aux voitures intelligentes une longueur d’avance en termes d’expérience d’interaction homme-véhicule ».
Enfin, Ernie Bot va fournir des services au public via Baidu AI Cloud. « Auparavant, le choix des fournisseurs de cloud se basait principalement sur les services cloud de base tels que la puissance de calcul et le stockage. À l’avenir, l’accent sera mis sur le cadre, le modèle et la synergie entre le modèle, le cadre, la puce et l’application. Ce changement va fondamentalement réécrire les règles du jeu sur le marché du cloud computing », a expliqué le PDG.
Ces annonces interviennent alors que Baidu doit faire face à la censure de la Chine, comme tout produit d’intelligence artificielle générative opérant dans le pays. Selon Nikkei Asia, les régulateurs chinois ont demandé aux géants de la tech du pays de bloquer l’accès à ChatGPT, craignant que l’outil ne donne des « réponses non censurées » à des questions politiquement sensibles. Les entreprises comme Tencent et AntGroup – filiale d’Alibaba – doivent aussi prévenir les autorités avant de lancer leurs propres versions du célèbre chatbot.
Accès au dossier ‘Le Monde’ « Cyberattaques, la menace globale » : « Harcelée par les attaques russes, L’Ukraine s’est forgé une solide réputation dans le secteur de la défense numérique. Son expérience montre l’importance de la coopération entre entreprises et gouvernements »… - Autrice Sophy Caulier avec infographie descriptive – Citations incluses : « L’invasion de l’Ukraine appelle à élaborer des stratégies d’atténuation pour protéger les secteurs critiques et les citoyens européens » - « Nous pensions que le risque majeur était le terrorisme. C’est le cyber-risque qui menace aujourd’hui nos entreprises » selon Rob Joyce directeur cybersécurité de la NSA.
Référence : Journal ‘Le Monde Economie & Entreprise’ mardi 14 février 2023 pages 18-19.
Annonce d’une conférence de Thomas d’Ansembourg : ’Réenchanter le monde’ - Quelques notions d’Intériorité Citoyenne pour apprendre à mettre le meilleur de soi au service de tous
Animée et jouée par Thomas d’Ansembourg le Mercredi 28 juin à 20h (Accueil à partir de 19h15) - Près d’Aix en Provence : AIXAGONE Le Plan d’Aigues Chemin de la diligence – 13760 Saint-Cannat
Pour vous inscrire, cliquez ici
« Notre monde ne s’est pas désenchanté tout seul. Nous nous sommes fait violence depuis longtemps en négligeant notre nature intime, notre sensibilité, notre intuition, nos besoins de tendresse, douceur et fantaisie, ainsi que notre élan de vie propre. Cette brutalité intérieure s’est répercutée à l’extérieur dans notre rapport aux autres, particulièrement aux femmes et aux enfants, à la féminité, à la nature et au Temp. Avocat de formation, Thomas d’Ansembourg s’est d’abord occupé de jeunes en difficulté. Il est devenu psychothérapeute et formateur en relations humaines, reconnu pour son enseignement de la Communication Non Violente.Il est l’auteur de plusieurs ouvrages : Cessez d’être gentil, soyez vrai (2001), Du JE au NOUS – L’intériorité citoyenne : le meilleur de soi au service de tous » (2014) – tous deux aux Editions de l’Homme –, La paix ça s’apprend.
Guérir de la violence et du terrorisme (avec David Van Reybrouck, Actes Sud, 2016). |
Message reçu le 16 février 2023 - www.comturquoise.fr - christine@comturquoise.fr |
Retour au début de l’introduction
Remerciements à Bastien Maleplate pour ses appuis techniques et partages d’informations et de veille technologique, notamment sur l’IA, le numérique et les outils robots conversationnels. Voir aussi Software Engineer
Collecte des documents et agencement, [compléments] et intégration de liens hypertextes par Jacques HALLARD, Ingénieur CNAM, consultant indépendant – 24/
02/2023
Site ISIAS = Introduire les Sciences et les Intégrer dans des Alternatives Sociétales
Adresse : 585 Chemin du Malpas 13940 Mollégès France
Courriel : jacques.hallard921@orange.fr
Fichier : ISIAS IA Numérique Robots conversationnels Cybersécurité.11.docx
Mis en ligne par le co-rédacteur Pascal Paquin du site inter-associatif, coopératif, gratuit, sans publicité, indépendant de tout parti, un site sans Facebook, Google+ ou autres GAFA, sans mouchard, sans cookie tracker, sans fichage, un site entièrement géré sous Linux et avec l’électricité d’Énercoop , géré par Yonne Lautre : https://yonnelautre.fr - Pour s’inscrire à nos lettres d’info > https://yonnelautre.fr/spip.php?breve103
http://yonnelautre.fr/local/cache-vignettes/L160xH109/arton1769-a3646.jpg?1510324931
— -