Comment former votre chatbot grâce à une ingénierie rapide
MaisonMaison > Blog > Comment former votre chatbot grâce à une ingénierie rapide

Comment former votre chatbot grâce à une ingénierie rapide

Sep 06, 2023

Par Lucas Mearian

Journaliste principal, Computerworld |

L'une des raisons pour lesquelles les chatbots basés sur l'intelligence artificielle ont pris d'assaut le monde ces derniers mois est qu'ils peuvent générer ou affiner du texte à diverses fins, qu'il s'agisse de créer une campagne publicitaire ou de rédiger un CV.

Ces chatbots sont alimentés par des algorithmes de grands modèles de langage (LLM), qui peuvent imiter l'intelligence humaine et créer du contenu textuel ainsi que de l'audio, de la vidéo, des images et du code informatique. Les LLM sont un type d'intelligence artificielle entraînée à partir d'une multitude d'articles, de livres ou de ressources basées sur Internet et d'autres informations pour produire des réponses de type humain aux entrées en langage naturel.

Un nombre croissant d’entreprises technologiques ont dévoilé des outils d’IA générative basés sur les LLM à usage professionnel pour automatiser les tâches applicatives. Par exemple, Microsoft a déployé la semaine dernière auprès d'un nombre limité d'utilisateurs un chatbot basé sur ChatGPT d'OpenAI ; il est intégré à Microsoft 365 et peut automatiser les fonctions des applications CRM et ERP.

Un exemple d'IA générative créant du code logiciel via une invite utilisateur. Dans ce cas, le chatbot Einstein de Salesforce est activé grâce à l'utilisation du grand modèle de langage GPT-3.5 d'OpenAI.

Par exemple, le nouveau Microsoft 365 Copilot peut être utilisé dans Word pour créer une première ébauche d'un document, ce qui permet d'économiser potentiellement des heures de rédaction, de recherche et d'édition. Salesforce a également annoncé son intention de lancer un chatbot basé sur GPT à utiliser avec sa plateforme CRM.

La plupart des LLM, tels que GPT-4 d'OpenAI, sont pré-entraînés comme moteurs de prédiction de mots ou de contenu – c'est ainsi que la plupart des entreprises les utilisent, « prêts à l'emploi », pour ainsi dire. Et bien que les chatbots basés sur LLM aient produit leur part d'erreurs, les LLM pré-entraînés fonctionnent relativement bien pour fournir un contenu principalement précis et convaincant qui, à tout le moins, peut être utilisé comme point de départ.

De nombreuses industries nécessitent cependant des algorithmes LLM plus personnalisés, ceux qui comprennent leur jargon et produisent du contenu spécifique à leurs utilisateurs. Les LLM pour le secteur de la santé, par exemple, peuvent avoir besoin de traiter et d'interpréter des dossiers de santé électroniques (DSE), de suggérer des traitements ou de créer un résumé des soins de santé d'un patient basé sur des notes du médecin ou des enregistrements vocaux. Un LLM adapté au secteur des services financiers peut résumer les appels de résultats, créer des transcriptions de réunions et effectuer des analyses de fraude pour protéger les consommateurs.

Dans divers secteurs, garantir un haut degré de précision des réponses peut être primordial.

La plupart des LLM sont accessibles via une interface de programmation d'application (API) qui permet à l'utilisateur de créer des paramètres ou des ajustements sur la façon dont le LLM répond. Une question ou une demande envoyée à un chatbot est appelée une invite, dans le sens où l'utilisateur demande une réponse. Les invites peuvent être des questions en langage naturel, des extraits de code ou des commandes, mais pour que le LMM fasse son travail avec précision, les invites doivent être pertinentes.

Et cette nécessité a donné naissance à une nouvelle compétence : l’ingénierie rapide.

L'ingénierie des invites est le processus de création et d'optimisation des invites textuelles pour de grands modèles de langage afin d'obtenir les résultats souhaités. "[It] aide les LLM à effectuer des itérations rapides dans le prototypage et l'exploration de produits, car il adapte le LLM pour mieux s'aligner rapidement et facilement sur la définition de la tâche", a déclaré Marshall Choy, vice-président senior des produits chez SambaNova Systems, une startup de la Silicon Valley qui fabrique des semi-conducteurs pour l’intelligence artificielle (IA).

Peut-être aussi importante pour les utilisateurs, l'ingénierie rapide est sur le point de devenir une compétence vitale pour les professionnels de l'informatique et des affaires, selon Eno Reyes, ingénieur en apprentissage automatique chez Hugging Face, une plateforme communautaire qui crée et héberge des LLM.

" Beaucoup de personnes que je connais dans les domaines des logiciels, de l'informatique et du conseil utilisent constamment l'ingénierie rapide pour leur travail personnel », a déclaré Reyes dans une réponse par courrier électronique à Computerworld. "À mesure que les LLM sont de plus en plus intégrés dans diverses industries, leur potentiel d'amélioration de la productivité est immense."