D’après Reuters et selon des sources internes, juste avant le renvoi de Sam Altman, PDG d’OpenAI, une lettre rédigée par des chercheurs aurait été envoyée au conseil d’administration.
Cette lettre, que Reuters n’a pas pu lire, aurait mis en garde le conseil d’OpenAI contre une avancée significative en intelligence artificielle, jugée potentiellement dangereuse pour l’humanité. Ces informations, bien que rapportées, n’ont pas été confirmées de manière indépendante.
Le nouveau modèle d’intelligence artificielle Q* appelé aussi Q-Star
Au cœur des discussions, le projet Q*, prononcé Q-Star, serait au centre des préoccupations. Des personnes au sein d’OpenAI estiment que Q* pourrait représenter une avancée majeure dans la recherche de l’entreprise pour l’intelligence artificielle générale (IAG). Selon ces mêmes sources, Q* aurait démontré des capacités impressionnantes en résolvant des problèmes mathématiques.
Cette nouvelle frontière franchie vers l’IAG survient alors qu’OpenAI, dirigé par Altman, a réalisé des progrès considérables, notamment avec ChatGPT, devenant l’une des applications logicielles à la croissance la plus rapide. L’implication de Microsoft dans le développement et le soutien de ces technologies est aussi au moment du licenciement de Altman une préoccupation majeure du board d’OpenAI qui se posent des sérieuses sur les directions futures de l’IA et perçoit parfaitement le dilemme entre la commercialisation et la question des implications éthiques et sécuritaires.
Post-Scriptum
La capacité de Q* à effectuer des opérations mathématiques, où il n’existe qu’une seule réponse correcte, suggère des avancées considérables dans le domaine du raisonnement IA, potentiellement applicable à la recherche scientifique novatrice. Cette évolution pose des questions sur la manière dont l’IA générative, qui jusqu’à présent se concentrait sur des tâches telles que l’écriture et la traduction, pourrait évoluer vers des capacités de raisonnement plus complexes.
Alors que les détails précis autour de Q*, de la lettre secrète et du licenciement d’Altman restent flous, l’histoire souligne un moment crucial pour l’avenir de l’intelligence artificielle. Tandis que le monde attend de voir quand sont les prochaines évolutions, l’équilibre entre innovation technologique et responsabilité éthique doit plus que jamais dominer le débat de la régulation de l’intelligence artificielle.