Qu’est-ce que ChatGPT et comment pouvez-vous l’utiliser ? Et pourquoi ChatGPT peut être l’outil le plus important depuis les moteurs de recherche modernes ?

Sommaire
OpenAI a introduit une IA (intelligence artificielle) de réponse aux questions longues appelée ChatGPT qui répond à des questions complexes de manière conversationnelle.
C’est une technologie révolutionnaire car elle est formée pour apprendre ce que les humains veulent dire lorsqu’ils posent une question.
De nombreux utilisateurs sont impressionnés par sa capacité à fournir des réponses de qualité humaine, inspirant le sentiment qu’il pourrait éventuellement avoir le pouvoir de perturber la façon dont les humains interagissent avec les ordinateurs et de changer la façon dont les informations sont récupérées.
Qu’est-ce que ChatGPT ?
ChatGPT est un chatbot de modèle de langage développé par OpenAI basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines. Les grands modèles de langage effectuent la tâche de prédire le mot suivant dans une série de mots.
Reinforcement Learning with Human Feedback (RLHF) pour Apprentissage par renforcement avec rétroaction humaine est une couche supplémentaire de formation qui utilise la rétroaction humaine pour aider ChatGPT à apprendre la capacité de suivre des instructions et de générer des réponses satisfaisantes pour les humains.
Qui a construit ChatGPT ?
ChatGPT a été créé par la société d’intelligence artificielle OpenAI basée à San Francisco. OpenAI Inc. est la société mère à but non lucratif d’OpenAI LP à but lucratif.
OpenAI est célèbre pour son fameux DALL· E, un modèle d’apprentissage profond qui génère des images à partir d’instructions textuelles appelées prompts (invites).
Le PDG est Sam Altman, qui était auparavant président de Y Combinator. Microsoft est un partenaire et un investisseur d’un montant de 1 milliard de dollars. Ils ont développé conjointement la plateforme Azure AI.
Sam Altman vient d’annoncer le lancement officiel de ChatGPT :
language interfaces are going to be a big deal, i think. talk to the computer (voice or text) and get what you want, for increasingly complex definitions of "want"!
— Sam Altman (@sama) November 30, 2022
this is an early demo of what's possible (still a lot of limitations–it's very much a research release).
Aujourd’hui, nous avons lancé ChatGPT. Nous essayons d’en parler ici:
Les interfaces linguistiques vont être un gros problème, je pense. Parlez à l’ordinateur (voix ou texte) et obtenez ce que vous voulez, pour des définitions de plus en plus complexes de « vouloir » !
Ceci est une première démonstration de ce qui est possible (encore beaucoup de limitations – c’est vraiment une version de recherche).
but this same interface works for all of that. this is something that scifi really god right; until we get neural interfaces, language interfaces are probably the next best thing.
— Sam Altman (@sama) November 30, 2022
Bientôt, vous pourrez avoir des assistants utiles qui vous parlent, répondent aux questions et vous donnent des conseils.
Plus tard, vous pouvez avoir quelque chose qui se déclenche et fait des tâches pour vous. Finalement, vous pouvez avoir quelque chose qui se déclenche et découvre de nouvelles connaissances pour vous.
Mais cette même interface fonctionne pour tout cela. C’est quelque chose pour laquelle la science-fiction a vraiment raison.
Jusqu’à ce que nous obtenions des interfaces neuronales, les interfaces de langage sont probablement la meilleure chose à faire.
Large Language Models ou Grands modèles de langage
ChatGPT est un grand modèle de langage. Les Large Language Models (LLM) sont formés avec des quantités massives de données pour prédire avec précision quel mot vient ensuite dans une phrase.
Il a été découvert que l’augmentation de la quantité de données augmentait la capacité des modèles linguistiques à en faire plus.
Selon l’Université de Stanford :
GPT-3 a 175 milliards de paramètres et a été formé sur 570 gigaoctets de texte. À titre de comparaison, son prédécesseur, GPT-2, était plus de 100 fois plus petit avec 1,5 milliard de paramètres.
Cette augmentation d’échelle change radicalement le comportement du modèle – GPT-3 est capable d’effectuer des tâches pour lesquelles il n’a pas été explicitement formé, comme traduire des phrases de l’anglais vers le français, avec peu ou pas d’exemples de formation.
Ce comportement était la plupart du temps absent dans GPT-2. De plus, pour certaines tâches, GPT-3 surpasse les modèles qui ont été explicitement formés pour résoudre ces tâches, bien que dans d’autres tâches, il ne soit pas à la hauteur.
Les LLM prédisent le mot suivant dans une série de mots dans une phrase et les phrases suivantes – un peu comme la saisie semi-automatique, mais à une échelle hallucinante.
Cette capacité leur permet d’écrire des paragraphes et des pages entières de contenu.
Mais les LLM sont limités en ce sens qu’ils ne comprennent pas toujours exactement ce qu’un humain veut. Et c’est là que ChatGPT améliore l’état de l’art, avec la formation Reinforcement Learning with Human Feedback (RLHF) susmentionnée.
Comment ChatGPT a-t-il été formé ?
GPT-3.5 a été formé sur des quantités massives de données sur le code et les informations provenant d’Internet, y compris des sources telles que les discussions Reddit, pour aider ChatGPT à apprendre le dialogue et à atteindre un style humain de réponse.
ChatGPT a également été formé en utilisant la rétroaction humaine (une technique appelée Reinforcement Learning with Human Feedback ou apprentissage par renforcement avec rétroaction humaine) afin que l’IA apprenne ce que les humains attendaient lorsqu’ils posaient une question. La formation du LLM de cette façon est révolutionnaire car elle va au-delà de la simple formation du LLM pour prédire le mot suivant.
Un document de recherche de mars 2022 intitulé Training Language Models to Follow Instructions with Human Feedback explique pourquoi il s’agit d’une approche révolutionnaire :
Ce travail est motivé par notre objectif d’accroître l’impact positif des grands modèles linguistiques (LLM) en les formant à faire ce qu’un ensemble donné d’humains veut qu’ils fassent.
Par défaut, les modèles de langage optimisent l’objectif de prédiction du mot suivant, qui n’est qu’un proxy de ce que nous voulons que ces modèles fassent.
Nos résultats indiquent que nos techniques sont prometteuses pour rendre les modèles de langage plus utiles, véridiques et inoffensifs. Rendre les modèles de langage plus grands ne les rend pas intrinsèquement meilleurs pour suivre l’intention d’un utilisateur.
Par exemple, les grands modèles de langage peuvent générer des résultats mensongers, toxiques ou tout simplement inutiles pour l’utilisateur.
En d’autres termes, ces modèles ne sont pas alignés avec leurs utilisateurs.
Les ingénieurs qui ont construit ChatGPT ont embauché des contractuels (appelés labelers) pour évaluer les sorties des deux systèmes, GPT-3 et le nouvel InstructGPT (un « modèle frère » de ChatGPT).
Sur la base des évaluations, les chercheurs sont arrivés aux conclusions suivantes :
Les labelers ou étiqueteurs préfèrent de loin les sorties InstructGPT aux sorties GPT-3.
Les modèles InstructGPT montrent des améliorations de la véracité par rapport à GPT-3.
InstructGPT montre de petites améliorations de la toxicité par rapport au GPT-3, mais pas de biais.
Le document de recherche conclut que les résultats d’InstructGPT ont été positifs. Néanmoins, il a également noté qu’il y avait place à l’amélioration.
Dans l’ensemble, nos résultats indiquent que le réglage fin de grands modèles de langage utilisant les préférences humaines améliore considérablement leur comportement sur un large éventail de tâches, bien qu’il reste beaucoup de travail à faire pour améliorer leur sécurité et leur fiabilité.
Ce qui distingue ChatGPT d’un simple chatbot, c’est qu’il a été spécifiquement formé pour comprendre l’intention humaine dans une question et fournir des réponses utiles, véridiques et inoffensives.
En raison de cette formation, ChatGPT peut contester certaines questions et rejeter les parties de la question qui n’ont pas de sens.
Un autre document de recherche lié à ChatGPT montre comment ils ont formé l’IA pour prédire ce que les humains préféraient.
Les chercheurs ont remarqué que les mesures utilisées pour évaluer les résultats de l’IA de traitement du langage naturel ont abouti à des machines qui ont obtenu de bons résultats sur les métriques, mais ne correspondaient pas à ce que les humains attendaient.
Voici comment les chercheurs ont expliqué le problème :
De nombreuses applications d’apprentissage automatique optimisent des métriques simples qui ne sont que des proxies approximatives de l’intention que le concepteur a.
Cela peut entraîner des problèmes, tels que les recommandations YouTube promouvant les click-baits (appâts à clics).
La solution qu’ils ont conçue consistait donc à créer une IA capable de produire des réponses optimisées en fonction de ce que les humains préféraient.
Pour ce faire, ils ont formé l’IA en utilisant des ensembles de données de comparaisons humaines entre différentes réponses afin que la machine devienne meilleure pour prédire ce que les humains jugeaient être des réponses satisfaisantes.
Le journal partage que la formation a été faite en résumant les messages Reddit et a également été testée sur le résumé des news.
Le document de recherche de février 2022 s’intitule Learning to Summarize from Human Feedback (Apprendre à résumer à partir de la rétroaction humaine).
Les chercheurs écrivent :
Dans ce travail, nous montrons qu’il est possible d’améliorer considérablement la qualité du résumé en entraînant un modèle à optimiser pour les préférences humaines.
Nous recueillons un vaste ensemble de données de haute qualité de comparaisons humaines entre les résumés, entraînons un modèle pour prédire le résumé préféré par l’homme et utilisons ce modèle comme fonction de récompense pour affiner une politique de synthèse à l’aide de l’apprentissage par renforcement.
Quelles sont les limites de ChatGTP ?
Limites de la réponse toxique
ChatGPT est spécifiquement programmé pour ne pas fournir de réponses toxiques ou nocives. Il évitera donc de répondre à ce genre de questions.
La qualité des réponses dépend de la qualité des directions
Une limitation importante de ChatGPT est que la qualité de la sortie dépend de la qualité de l’entrée.
En d’autres termes, les directives d’experts (invites) génèrent de meilleures réponses.
Les réponses ne sont pas toujours correctes
Une autre limitation est que, parce qu’il est formé pour fournir des réponses qui semblent justes pour les humains, les réponses peuvent tromper les humains que la sortie est correcte.
De nombreux utilisateurs ont découvert que ChatGPT peut fournir des réponses incorrectes, y compris certaines qui sont extrêmement incorrectes.
Les modérateurs du site Web de questions-réponses sur le codage Stack Overflow ont peut-être découvert une conséquence involontaire des réponses qui semblent justes pour les humains.
Stack Overflow a été inondé de réponses d’utilisateurs générées par ChatGPT qui semblaient correctes, mais un grand nombre étaient de mauvaises réponses.
Les milliers de réponses ont submergé l’équipe de modérateurs bénévoles, incitant les administrateurs à interdire tout utilisateur qui publie des réponses générées à partir de ChatGPT.
Le flot de réponses ChatGPT a donné lieu à un post intitulé: Politique temporaire: ChatGPT est interdit :
Il s’agit d’une politique temporaire destinée à ralentir l’afflux de réponses et d’autres contenus créés avec ChatGPT.
… Le principal problème est que, bien que les réponses produites par ChatGPT aient un taux élevé d’inexactitude, elles « ressemblent » généralement à « pourraient » être bonnes…
L’expérience des modérateurs de Stack Overflow avec de mauvaises réponses ChatGPT qui semblent correctes est quelque chose dont OpenAI, les créateurs de ChatGPT, sont conscients et mis en garde dans leur annonce de la nouvelle technologie.
OpenAI explique les limites de ChatGPT
Le communiqué offrait cette mise en garde :
ChatGPT écrit parfois des réponses plausibles mais incorrectes ou absurdes. La résolution de ce problème est difficile, car :
- Pendant la formation RL, il n’y a actuellement aucune source de vérité;
- L’entraînement du modèle à être plus prudent l’amène à refuser les questions auxquelles il peut répondre correctement; et
- La formation supervisée induit le modèle en erreur parce que la réponse idéale dépend de ce que le modèle sait, plutôt que de ce que le démonstrateur humain sait.
ChatGPT est-il gratuit ?
L’utilisation de ChatGPT est actuellement gratuite pendant la période de « prévisualisation de la recherche ».
Le chatbot est actuellement ouvert aux utilisateurs pour essayer et fournir des commentaires sur les réponses afin que l’IA puisse mieux répondre aux questions et apprendre de ses erreurs.
L’annonce officielle indique qu’OpenAI est impatient de recevoir des commentaires sur les erreurs :
Nous avons formé un modèle appelé ChatGPT qui interagit de manière conversationnelle. Le format de dialogue permet à ChatGPT de répondre aux questions de suivi, d’admettre ses erreurs, de contester les prémisses incorrectes et de rejeter les demandes inappropriées.
ChatGPT est un modèle frère d’InstructGPT, qui est formé pour suivre une instruction dans une invite et fournir une réponse détaillée.
Bien que nous ayons fait des efforts pour que le modèle refuse les demandes inappropriées, il répondra parfois à des instructions nuisibles ou présentera un comportement biaisé.
Nous utilisons l’API de modération pour avertir ou bloquer certains types de contenu dangereux, mais nous nous attendons à ce qu’elle présente des faux négatifs et positifs pour le moment.
Nous sommes impatients de recueillir les retours des utilisateurs pour nous aider à poursuivre notre travail visant à améliorer ce système.
Il existe actuellement un concours avec un prix de 500 $ en crédits ChatGPT pour encourager le public à évaluer les réponses.
Les modèles de langage remplaceront-ils la recherche Google ?
Google lui-même a déjà créé un chatbot AI appelé LaMDA.
La performance du chatbot de Google était si proche d’une conversation humaine qu’un ingénieur de Google avait affirmé que LaMDA était sensible.
Compte tenu de la façon dont ces grands modèles de langage (LLM pour Large Language Models) peuvent répondre à tant de questions, est-il exagéré qu’une entreprise comme OpenAI, Google ou Microsoft remplace un jour la recherche traditionnelle par un chatbot IA?
Certains sur Twitter n’hésitent pas déjà à déclarer que ChatGPT sera le prochain Google.
ChatGPT is the new Google.
— Angela Yu (@yu_angela) December 5, 2022
ChatGPT est le nouveau Google.
Le scénario selon lequel un chatbot de questions-réponses pourrait un jour remplacer un moteur de recherche aussi célèbre et populaire que Google est effrayant pour ceux qui gagnent leur vie en tant que professionnels du marketing de recherche.
Cela a suscité des discussions dans les communautés de marketing de recherche en ligne, comme le populaire Facebook SEO Signals Lab où quelqu’un a demandé si les recherches pourraient s’éloigner des moteurs de recherche et se tourner vers les chatbots.
Après avoir testé ChatGPT, on peut convenir que la crainte que la recherche soit remplacée par un chatbot n’est pas infondée. La technologie a encore un long chemin à parcourir, mais il est possible d’envisager un avenir de recherche hybride et de chatbot pour la recherche.
Mais l’implémentation actuelle de ChatGPT semble être un outil qui, à un moment donné, nécessitera l’achat de crédits pour l’utiliser.
Mais pourquoi cela pourrait-il signifier la fin de Google ou Stackoverflow ?
Selon un post de Luca Petriconi sur Medium, nous vivons dans ce qui semble être une époque en évolution rapide. Il y a de nouveaux outils d’IA qui sortent assez régulièrement maintenant.
Avec la montée en puissance des réseaux adverses généraux (General Adversarial Networks ou GAN), et des outils d’IA génératifs comme Dall-E ou Stablediffusion, nous avons vu des choses époustouflantes.
Être capable de créer une image à partir d’une simple entrée de texte semble presque normal maintenant parce que nous nous habituons de plus en plus à ce genre de choses.
La façon dont vous interagissez avec le ChatGPT est différente parce que vous lui parlez directement comme s’il s’agissait d’une autre personne. Il y a un échange en cours. Un va-et-vient. Presque comme si vous parliez à une personne. En fait, cela vous fait deviner si vous parlez à une personne ou à une IA.
Il y a un autre aspect qui le rend différent: il se souvient de ce que vous avez dit précédemment. Cela signifie que vous pouvez travailler de manière itérative vers le résultat souhaité. En d’autres termes, vous avez une conversation.
Oui, ChatGPT écrit aussi du code
Il y a eu récemment un battage médiatique (ou une inquiétude ?) autour des outils de codage assistés par l’IA comme GitHubCopilot.
Mais avec la quantité de détails dans la sortie de ChatGPT, le fait qu’il écrive également du code semble presque être un effet secondaire.
C’est impressionnant de voir qu’il combine du texte et du code – avec la mise en forme et les commentaires et tout – dans sa sortie.
Ce qui m’étonne le plus, c’est un fait : il ne produit pas seulement le code, mais il l’explique également.
Par exemple, imaginez que vous déboguez et que vous lui donnez du code en entrée tout en lui demandant de trouver le bogue. La sortie pourrait ressembler à ceci :
ChatGPT could be a good debugging companion; it not only explains the bug but fixes it and explain the fix 🤯 pic.twitter.com/5x9n66pVqj
— Amjad Masad ⠕ (@amasad) November 30, 2022
ChatGPT pourrait être un bon compagnon de débogage; Il explique non seulement le bug, mais le corrige et explique le correctif.
En voyant cela, vous pouvez facilement penser: « Pourquoi encore chercher sur StackOverflow ? ». Et vous avez raison.
Combien de fois avez-vous cherché une question très spécifique sur StackOverflow et vous n’avez pas trouvé de réponse ? Et surtout, combien de temps avez-vous passé à la trouver (si vous l’avez fait) ? Il y a cependant quelques points à garder à l’esprit – pour l’instant.
Bien que je ne doute pas que ce soit l’une des choses les plus impressionnantes que j’ai vues récemment, cela ne signifiera pas la fin de Google. En tout cas, pas pour l’instant.
Bien sûr, il y a quelques limitations à ChatGPT.
- Par exemple, il ne vous dira rien dans un passé récent (en 2022), car il a été formé sur des données remontant jusqu’au 4e trimestre de 2021.
- Il produit parfois des réponses plausibles mais incorrectes, ce qui est un problème difficile à résoudre selon OpenAI.
- Il peut être excessivement verbeux et abuser de certaines phrases.
- En ce qui concerne la modération de contenu, le modèle a été formé pour refuser de produire du contenu inapproprié. Cependant, il peut y avoir des faux positifs et négatifs.
Bien que le modèle soit amélioré de manière itérative, c’est déjà assez impressionnant. Ce que je trouve le plus impressionnant, c’est la facilité d’interaction avec elle et la précision apparente des sorties.
Le modèle est ouvert pour jouer avec, ici.
Comment ChatGPT peut-il être utilisé ?
ChatGPT peut écrire du code, des poèmes, des chansons et même des histoires courtes dans le style d’un auteur spécifique.
L’expertise dans le suivi des instructions élève ChatGPT d’une source d’information à un outil qui peut être demandé pour accomplir une tâche.
Cela le rend utile pour écrire un essai sur pratiquement n’importe quel sujet. ChatGPT peut fonctionner comme un outil pour générer des plans pour des articles ou même des romans entiers.
Il fournira une réponse pour pratiquement toutes les tâches qui peuvent être répondues avec un texte écrit.
En conclusion, comme mentionné précédemment, ChatGPT est envisagé comme un outil que le public devra éventuellement payer pour l’utiliser. Or, Google Search restera toujours gratuit…
Plus d’un million d’utilisateurs se sont inscrits pour utiliser ChatGPT au cours des cinq premiers jours depuis son ouverture au public.
Source : Searchenginejournal
Vous devez être connecté pour poster un commentaire.