5 façons dont les dirigeants d'entreprise peuvent utiliser de grands modèles linguistiques pour ouvrir de nouvelles possibilités
MaisonMaison > Blog > 5 façons dont les dirigeants d'entreprise peuvent utiliser de grands modèles linguistiques pour ouvrir de nouvelles possibilités

5 façons dont les dirigeants d'entreprise peuvent utiliser de grands modèles linguistiques pour ouvrir de nouvelles possibilités

Jul 10, 2023

Rendez-vous sur notre bibliothèque à la demande pour visualiser les sessions de VB Transform 2023. Inscrivez-vous ici

Il est très peu probable que vous ayez manqué le buzz autour de l'IA générative, et en particulier des grands modèles de langage (LLM) comme ChatGPT. Ces derniers mois, ces sujets ont été d'actualité partout, des médias sociaux aux informations en passant par les conversations quotidiennes, et nous commençons tout juste à comprendre de quoi l'IA générative pourrait être capable.

De manière générale, la génération IA fait référence à une catégorie de techniques d'apprentissage automatique (ML) capables de créer du contenu tel que des images, de la musique et du texte qui ressemble étroitement au contenu créé par l'homme. Les LLM, quant à eux, sont des réseaux de neurones dotés de milliards de paramètres qui ont été entraînés sur de grandes quantités de données textuelles, ce qui leur permet de comprendre, de traiter et de générer un langage de type humain.

Ensemble, ces technologies offrent une gamme diversifiée d’applications susceptibles de remodeler diverses industries et d’amplifier la qualité des interactions entre les humains et les machines. En explorant ces applications, les propriétaires d'entreprise et les décideurs d'entreprise peuvent trouver une inspiration précieuse, accélérer leur croissance et obtenir des résultats sensiblement améliorés grâce à un prototypage rapide. L’avantage supplémentaire de la génération AI est que la plupart de ces applications nécessitent une expertise minimale et ne nécessitent pas de formation supplémentaire sur le modèle.

Avertissement rapide : les gens ont souvent tendance à associer la génération AI exclusivement à ChatGPT, mais il existe de nombreux modèles d'autres fournisseurs disponibles, comme le T5 de Google, le Llama de Meta, le Falcon de TII et Claude d'Anthropic. Bien que la plupart des applications discutées dans cet article utilisent ChatGPT d'OpenAI, vous pouvez facilement adapter et changer le LLM sous-jacent pour l'aligner sur votre budget de calcul spécifique, la latence (à quelle vitesse vous avez besoin de votre modèle pour générer des complétions - des modèles plus petits permettent un chargement plus rapide). et réduire la latence d'inférence) et la tâche en aval.

VB Transform 2023 à la demande

Avez-vous manqué une session de VB Transform 2023 ? Inscrivez-vous pour accéder à la bibliothèque à la demande pour toutes nos sessions en vedette.

Les LLM démontrent des capacités impressionnantes dans de nombreuses tâches prêtes à l'emploi, telles que la traduction et le résumé, sans nécessiter de personnalisation initiale. La raison pour laquelle ils sont si bons dans ces tâches génériques est que le modèle de base sous-jacent a été formé sur des ensembles de données volumineux mais génériques. Cependant, cette compétence peut ne pas s'étendre de manière transparente à des tâches spécifiques à un domaine, notamment, par exemple, fournir des réponses sur le rapport annuel de votre entreprise. C’est là qu’intervient la génération augmentée de récupération (RAG).

RAG est un cadre permettant de créer des systèmes basés sur LLM qui utilisent des sources de données externes. RAG donne à un LLM accès à des données qu'il n'aurait pas vues lors de la pré-formation, mais qui sont nécessaires pour fournir correctement des réponses pertinentes et précises. RAG permet aux modèles linguistiques tels que ChatGPT de fournir de meilleures réponses aux questions spécifiques à un domaine en combinant leurs capacités de traitement du langage naturel (NLP) avec des connaissances externes, atténuant ainsi les cas de génération d'informations inexactes ou d'« hallucinations ». Il le fait par :

Cette approche rend les LLM plus polyvalents et utiles dans divers domaines et applications, notamment la réponse aux questions, la création de contenu et les conversations interactives avec accès aux données en temps réel. Podurama, une application de podcast, a exploité des techniques similaires pour créer ses chatbots de recommandation basés sur l'IA. Ces robots suggèrent habilement des émissions pertinentes en fonction des requêtes des utilisateurs, en tirant des informations des transcriptions des podcasts pour affiner leurs recommandations.

Cette approche est également précieuse dans la gestion de crise. PagerDuty, une plateforme SaaS de réponse aux incidents, utilise des LLM pour générer des résumés des incidents en utilisant des données de base telles que le titre, la gravité ou d'autres facteurs, et en les complétant avec des données Slack internes, où les intervenants discutent des détails et partagent des mises à jour de dépannage pour affiner la qualité des résumés. .

Bien que RAG puisse paraître complexe, la bibliothèque LangChain offre aux développeurs les outils nécessaires pour implémenter RAG et créer des systèmes de questions-réponses sophistiqués. (Dans de nombreux cas, vous n’avez besoin que d’une seule ligne de code pour commencer). LangChain est une bibliothèque puissante qui peut augmenter et améliorer les performances du LLM au moment de l'exécution en fournissant un accès à des sources de données externes ou en se connectant aux API existantes d'autres applications.