Le DevDay d’OpenAI à San Francisco a débuté par une célébration des jalons atteints et une mise à jour sur la croissance rapide de l’entreprise. Sam Altman, PDG d’OpenAI, s’est adressé à un public de développeurs, d’experts de l’IA et de journalistes, retracant le parcours qui a conduit les produits d’OpenAI à être intégrés dans les flux de travail de plus de 92 % des entreprises du Fortune 500.
Dans son discours d’ouverture, Altman a souligné le fait que ChatGPT et ses modèles ultérieurs ont attiré pas moins de 2 millions de développeurs, démontrant ainsi l’adoption à grande échelle et la polyvalence de leur IA.
Présentation de GPT-4 Turbo
L’annonce de GPT-4 Turbo a été accueilli sous les applaudissements. Altman a dévoilé le nouveau modèle comme une itération avancée de son prédécesseur, vantant une impressionnante longueur de contexte de 128 000 token, une fonctionnalité très attendue par la communauté des développeurs. Cette augmentation par rapport aux précédents 8 000 token n’est pas simplement un saut quantitatif, mais ouvre de nouvelles perspectives pour les applications nécessitant une gestion étendue du contexte, telles que la génération de documentation détaillée et les chatbots de service client complets.
Altman a fourni une comparaison concrète pour les participants, illustrant que l’expansion des jetons pourrait permettre à un développeur de traiter le contenu équivalent à un livre entier en une seule demande. Cette avancée souligne l’ambition d’OpenAI de repousser les limites de l’écriture assistée par IA, de la programmation et de l’analyse des données, offrant aux développeurs et aux entreprises des outils pour exploiter l’apprentissage profond pour des tâches plus complexes et nuancées que jamais auparavant.
Avantages de GPT-4 Turbo et nouvelles fonctionnalités
Pour approfondir davantage GPT-4 Turbo, Altman a présenté le mode JSON et les sorties reproductibles, offrant aux développeurs un meilleur contrôle sur le comportement de l’IA et la cohérence des résultats. Le mode JSON permet de comprendre et de générer des données structurées par le modèle, ce qui permet une intégration transparente dans les systèmes existants utilisant JSON pour l’échange de données. Les sorties reproductibles signifient que les développeurs peuvent s’attendre à la même réponse lorsqu’une même demande est émise, une fonctionnalité essentielle pour les applications exigeant une fiabilité.
Ces nouvelles fonctionnalités ont été démontrées à travers des sessions de codage en direct où les développeurs ont pu observer la mise en œuvre et les avantages réels. Par exemple, Altman a montré comment le mode JSON pourrait rationaliser le développement de chatbots en analysant les données des clients en temps réel pour fournir des réponses personnalisées, tandis que les sorties reproductibles garantissaient une expérience utilisateur cohérente lors de multiples interactions.
Base de connaissances plus récente
Si nous étions habitués à un chatGPT avec une base de connaissance n’allant pas au delà de 2021 voir Janvier 2022 pour certains modèles, les connaissance de GPT-4 Turbo vont jusqu’à Avril 2023 ce qui est une amélioration considérable. On n’y est pas encore mais on approche de l’IA Up-to-date.
Whisper V3 et Programme de Modèles Personnalisés
La sortie de Whisper V3 a introduit un système amélioré de reconnaissance vocale capable de comprendre et de transcrire la langue parlée avec une plus grande précision. Au cours de la présentation principale, une démonstration mettant en avant divers accents internationaux a souligné la robustesse accrue de Whisper V3 et l’importance de l’inclusivité dans la technologie de reconnaissance vocale. Le programme de modèles personnalisés a également été mis en avant comme un moyen pour les entreprises de créer des modèles sur mesure adaptés à leurs besoins spécifiques.
L’impact de Whisper V3 a été illustré par une démonstration en direct, montrant son application dans des scénarios réels tels que la transcription de réunions multilingues et la conversion de discours provenant de vidéos éducatives en texte accessible. Le programme de modèles personnalisés, quant à lui, promettait aux organisations l’opportunité de former des modèles sur leurs données propriétaires, garantissant que l’IA corresponde étroitement à leurs contextes opérationnels spécifiques et à leur jargon industriel.
Tarification et Accessibilité de GPT-4 Turbo
Abordant l’aspect critique de la tarification, Altman a annoncé un modèle de tarification stratégique pour GPT-4 Turbo visant à démocratiser l’accès. Il a déclaré une réduction significative des jetons de demande, réduisant les jetons de demande par trois et les jetons de complétion par deux. L’audience a appris que les jetons de demande coûteraient désormais 1 cent par 1 000 jetons et les jetons de complétion 3 cents par 1 000 jetons, ce qui rend GPT-4 Turbo non seulement plus puissant, mais aussi plus accessible.
Cette modification de tarification a été contextualisée avec un exemple concret, montrant qu’une entreprise de taille moyenne pourrait potentiellement économiser des milliers de dollars par mois tout en développant ses opérations IA. La réduction des coûts est un changement majeur pour les startups et les PME, en particulier dans les secteurs fortement axés sur l’IA, abaissant efficacement les barrières à l’entrée et favorisant l’innovation dans toutes les industries.
Partenariat avec Microsoft et Infrastructure
Le partenariat de longue date entre OpenAI et Microsoft a atteint de nouveaux sommets avec l’intégration de l’IA dans la gamme de produits de Microsoft. Le PDG de Microsoft, Satya Nadella, a souligné l’engagement mutuel à construire une infrastructure robuste capable de soutenir les exigences des applications IA sophistiquées. Il a parlé de la synergie entre les services cloud de Microsoft et les modèles avancés d’OpenAI, visant à fournir aux utilisateurs des outils de pointe.
Nadella a illustré cette collaboration en présentant comment Microsoft Teams tire parti de GPT-4 pour la traduction et la synthèse
de langage en temps réel, améliorant la communication dans l’environnement de travail hybride. Il a assuré au public l’engagement de Microsoft envers un avenir de l’IA inclusif, où la technologie amplifie les capacités humaines et est accessible à tous, en alignement avec la mission d’OpenAI.
Mises à Jour et Capacités de ChatGPT
Altman est revenu sur scène pour partager des mises à jour sur ChatGPT, qui fonctionne désormais sur le turbochargé GPT-4. La nouvelle fonction de navigation a été au centre de l’attention, conçue pour permettre aux utilisateurs de récupérer et d’incorporer des informations en temps réel depuis le web directement au sein des conversations ChatGPT. Cette fonction a été développée en réponse aux commentaires de la communauté demandant un contenu plus dynamique et à jour dans les interactions ChatGPT.
Pour démontrer cette fonctionnalité, une interaction en direct avec ChatGPT a montré sa capacité à extraire les dernières données du marché boursier, à les incorporer dans un rapport cohérent et même à fournir des informations, le tout en quelques secondes. Cette fonction de navigation n’était pas seulement une amélioration technique, mais un pas vers une IA plus informée et consciente du contexte, capable d’aider les utilisateurs à prendre des décisions éclairées en se basant sur les dernières informations.
Tout le monde peut désormais créer des agents IA Hyper personnalisés
La présentation de versions personnalisables de ChatGPT, appelées GPTs, marque un tournant vers des expériences d’IA personnalisées. Ces modèles personnalisables permettent à tout un chacun de programmer des connaissances spécifiques, des instructions et des actions adaptées à des tâches distinctes. Altman a présenté comment Code.org a déployé un GPT Planner pour les leçons, tandis que Canva utilise un GPT conçu pour les tâches de conception créative, illustrant la polyvalence et l’adaptabilité de la technologie.
La capacité de personnalisation a été davantage mise en évidence avec une démonstration en direct de Zapier, où un GPT interagissait de manière transparente avec plus de 6 000 applications, rationalisant les flux de travail complexes. L’audience a pu constater comment un seul GPT pouvait coordonner des tâches dans divers écosystèmes logiciels, de l’automatisation de la saisie de données à la gestion de la logistique d’événements, soulignant le potentiel de l’IA pour simplifier les processus numériques complexes.
Démos des Applications GPT
Des applications du monde réel de GPT ont été mises en avant avec des démonstrations vivantes. Sam Altman a engagé l’audience avec des présentations interactives mettant en scène des GPT configurés pour des rôles divers, d’un assistant capable d’orchestrer des plans de voyage à un autre capable de gérer des requêtes de base de données complexes. Les démos ont fourni des exemples concrets de la manière dont les GPT peuvent être déployés dans divers secteurs, transformant des tâches de routinières en stratégiques.
Une démonstration particulièrement captivante impliquait un GPT intégré à Zapier, automatisant une séquence de tâches sur plusieurs plates-formes. Le GPT envoyait des e-mails, planifiait des rendez-vous et mettait à jour les entrées CRM, le tout en réponse à une simple commande vocale. Cette démonstration concrète d’interopérabilité et d’automatisation dressait le portrait d’un avenir où l’IA agit comme un hub central pour les tâches numériques.
Création de GPTs via une interface no-code
En regardant vers l’avenir, Altman a parlé de la vision d’OpenAI pour un avenir où la création et le déploiement d’IA ne nécessitent pas de compétences en codage approfondies. L’objectif est de permettre aux personnes non techniques de créer des GPT en utilisant des instructions en langage naturel, réduisant ainsi le seuil d’engagement avec la technologie IA. Cela correspondait au thème récurrent de la conférence : l’accessibilité et l’autonomisation des utilisateurs.
Pour illustrer cela, une démonstration a montré la création d’un GPT grâce à des invitations à la conversation, exécutant des tâches telles que la planification et l’analyse des données sans qu’une seule ligne de code ne soit écrite. Cette vision d’avenir a non seulement stimulé l’imagination de l’audience, mais a également promis une nouvelle ère de l’interaction homme-machine, plus intuitive, accessible et intégrée dans la vie quotidienne.
Monétisation des GPTs custom via le GPT Store
La présentation du GPT STore a été accueillie par des applaudissements, promettant aux utilisateurs et développeurs une plateforme pour partager, découvrir et monétiser leurs GPTs. Altman a déclaré que des GPT privés pourraient être créés pour un usage individuel ou partagés publiquement.
Le lancement imminent du GPT Store sera fait avec l’assurance que toutes les applications respectent les politiques strictes d’OpenAI. Un modèle de partage des revenus sera présenté, conçu pour “récompenser” les créateurs des GPTs les plus innovants et populaires, Openai reconnaissant ainsi leur contribution à l’écosystème et encourageant la qualité et la créativité. Le GPT Store sera accessible courant du mois de Novembre.
Agents IA personnalisés disponibles via l’API : API des assistants
Cette fonctionnalité, est conçue pour simplifier la création d’expériences uniques. Altman a détaillé des fonctionnalités telles que les fils persistants, la récupération d’information intégrée, l’interpréteur de code et l’appel de fonction amélioré. Ces outils sont conçus pour réduire la complexité dans le développement d’assistant personnalisées, offrant aux développeurs l’infrastructure pour construire des agents IA plus réactifs et plus qualitatifs.
Démonstrations
Les capacités de l’API des Assistants ont été pleinement mises en avant alors que Romain à peine monté sur scène procédait à une démonstration en direct. Le function calling (l’appel de fonction) a brillé, montrant la capacité de l’API à effectuer des tâches simultanées, telles que la planification d’un rendez-vous tout en envoyant un e-mail de confirmation. Cette fonction, expliquait Romain, ne se limite pas à la multitâche, mais concerne la capacité de l’IA à comprendre l’interconnexion des tâches et à les gérer dans une séquence qui imite les assistants administratifs humains.
La démonstration de Romain a montré à l’assistance la capacité remarquable de l’assistant à effectuer plusieurs tâches de manière transparente et à comprendre l’interconnexion de ces tâches.
Romain qui a au préalable indiqué à l’assistant vouloir se rendre à Paris lui a demandé de suggérer des attractions touristiques, pendant que l’assistant répondait par écrit, le function calling faisait son travail en affichant sur l’écran une carte interactive de Paris dans un premier temps puis l’enrichissant avec les “pins” de localisation des attractions à peine suggérées par l’assistant.
Cette fonctionnalité immite les capacités des assistants administratifs humains, faisant de l’IA un outil puissant pour gérer des tâches complexes et multifacettes en temps réel. L’API des assistants promet de révolutionner la manière dont les entreprises exploitent l’IA pour améliorer leur efficacité et leur innovation.
Il ne s’agit pas d’une simple fonctionnalité c’est une démonstration de force qui a illustré le potentiel de l’API des Assistants à s’intégrer à des systèmes logiciels existants, permettant aux commandes vocales d’interagir avec la base de données interne d’une entreprise, de générer des rapports et de lancer l’impression, mettant en évidence son potentiel en tant qu’outil transformateur pour les entreprises cherchant à automatiser et à améliorer leur efficacité.
En effet suite à la présetation de Romain, Altman a évoqué le cas d’utilistion où l’API s’intégrait de manière transparente au logiciel interne d’une entreprise, utilisant des commandes vocales pour extraire des chiffres de vente d’une base de données, pour générer un rapport et lancer une impression. Ce niveau d’intégration illustre la puissance de l’API des Assistants pour devenir un composant central des opérations commerciales, rationalisant les processus qui nécessitaient traditionnellement plusieurs logiciels et interventions humaines.
Post-Scriptum
Le DevDay d’OpenAI à San Francisco a été un événement véritablement révolutionnaire, marquant une étape majeure dans l’évolution de l’intelligence artificielle et de ses applications. L’annonce de GPT-4 Turbo, avec sa capacité impressionnante à gérer un contexte étendu, ouvre de nouvelles perspectives passionnantes pour les développeurs et les entreprises. Les fonctionnalités telles que le mode JSON, les sorties reproductibles et la capacité de navigation de ChatGPT témoignent de l’engagement d’OpenAI à offrir des outils plus puissants et plus flexibles que jamais.
Le partenariat avec Microsoft et l’intégration de l’IA dans des produits tels que Microsoft Teams démontrent la manière dont la collaboration entre les leaders de l’industrie peut créer des solutions puissantes pour les utilisateurs du monde entier. La monétisation des GPTs personnalisés via le GPT Store ouvre la voie à une nouvelle ère de créativité et d’innovation, récompensant les esprits créatifs qui contribuent à enrichir l’écosystème IA.
Enfin, l’API des Assistants représente une avancée majeure dans la capacité de l’IA à comprendre et à gérer des tâches complexes de manière fluide, offrant un potentiel considérable pour transformer les opérations commerciales et simplifier les processus numériques. Dans l’ensemble, cet événement annonce un avenir passionnant où l’intelligence artificielle devient de plus en plus accessible, personnalisable et intégrée dans notre vie quotidienne, ouvrant ainsi de nouvelles opportunités pour l’innovation et la productivité à l’échelle mondiale.