Le domaine de l'IA est en pleine effervescence, la bataille des LLM fait rage.
Le mois dernier, une "guerre des animaux" a éclaté dans le monde de l'IA.
L'un des belligérants de ce conflit est le modèle Llama lancé par Meta. Grâce à ses caractéristiques open source, Llama est très apprécié des développeurs. Après avoir étudié le papier et le code de Llama, la société NEC a rapidement développé une version japonaise de ChatGPT, comblant ainsi le déficit du Japon dans le domaine de l'IA.
L'autre partie est un grand modèle nommé Falcon. En mai de cette année, Falcon-40B a fait son apparition et a pris la première place du classement des LLM open source. Ce classement est élaboré par la communauté Hugging Face et fournit des normes pour évaluer les capacités des LLM. En gros, le classement est dominé alternativement par Llama et Falcon.
Après la sortie de Llama 2, il a temporairement repris l'avantage. Mais début septembre, Falcon a lancé la version 180B, obtenant à nouveau un classement plus élevé.
Il est intéressant de noter que les développeurs de Falcon ne viennent pas d'une entreprise technologique, mais de l'Institut de recherche sur l'innovation technologique basé à Abou Dhabi. Les responsables des Émirats arabes unis ont déclaré qu'ils s'engagent dans ce domaine pour bouleverser les acteurs clés.
Le lendemain de la publication de la version 180B, le ministre de l'intelligence artificielle des Émirats Arabes Unis a été sélectionné parmi les "100 personnes les plus influentes dans le domaine de l'IA" par le magazine Time. Parmi les autres sélectionnés figurent le "père de l'IA" Geoffrey Hinton et Sam Altman d'OpenAI.
Aujourd'hui, le domaine de l'IA est entré dans une phase de concurrence entre de nombreuses entreprises. Les pays et les entreprises disposant de ressources financières importantes essaient de créer leur propre modèle de langage à grande échelle. Rien que dans la région du Golfe, il n'y a pas qu'un seul acteur. En août, l'Arabie saoudite a acheté plus de 3000 puces H100 pour ses universités afin d'entraîner des LLM.
Un investisseur a exprimé : "À l'époque, je méprisais l'innovation des modèles commerciaux d'Internet, pensant qu'il n'y avait pas de barrières. Je ne pensais pas que le démarrage de modèles de grande technologie serait toujours une guerre de cent modèles..."
Je pensais que c'était une technologie difficile, comment cela est-il devenu une compétition à laquelle tout le monde peut participer ?
Transformer a changé les règles du jeu
Que ce soit des start-ups américaines, des géants technologiques chinois ou des magnats du pétrole du Moyen-Orient, le fait de pouvoir se lancer dans la recherche et le développement de grands modèles est dû à ce célèbre article : "Attention Is All You Need".
En 2017, huit scientifiques de Google ont publié l'algorithme Transformer dans cet article. Cet article est actuellement le troisième article le plus cité de l'histoire de l'IA, et l'apparition du Transformer a déclenché cette vague actuelle d'IA.
Les divers grands modèles actuels, y compris la série GPT qui a fait sensation, sont tous basés sur la technologie Transformer.
Avant cela, "enseigner aux machines à lire" était un problème académique reconnu. Contrairement à la reconnaissance d'images, lors de la lecture, les humains ne se concentrent pas seulement sur les mots et les phrases actuels, mais intègrent également le contexte pour comprendre.
Mais les entrées des premiers réseaux de neurones étaient toutes indépendantes, incapables de comprendre le sens global des longs articles, ce qui entraînait souvent des problèmes de mauvaise traduction.
En 2014, le scientifique d Google, Ilya, a réalisé une percée. Il a utilisé un réseau de neurones récursifs (RNN) pour traiter le langage naturel, ce qui a considérablement amélioré les performances de Google Traduction.
Le RNN a introduit le "design cyclique", permettant aux neurones de recevoir à la fois l'entrée actuelle et l'entrée du moment précédent, acquérant ainsi la capacité de "combiner le contexte".
L'apparition des RNN a suscité un grand intérêt dans le milieu académique, et l'auteur du document sur le Transformer, Vaswani, a également mené des recherches approfondies. Cependant, les développeurs ont rapidement découvert que les RNN présentaient des défauts graves :
L'algorithme utilise un calcul séquentiel, bien qu'il résolve le problème de contexte, son efficacité d'exécution n'est pas élevée et il est difficile de traiter un grand nombre de paramètres.
La conception complexe des RNN a agacé Chazelle. Ainsi, à partir de 2015, Chazelle et sept de ses collègues ont commencé à développer un substitut aux RNN, dont le résultat final est le Transformer.
Comparé au RNN, le Transformer a deux grandes réformes :
Premièrement, l'utilisation de l'encodage de position à la place de la conception en boucle permet un calcul parallèle, ce qui améliore considérablement l'efficacité de l'entraînement et fait entrer l'IA dans l'ère des grands modèles ; deuxièmement, cela renforce encore la capacité à comprendre le contexte.
Le Transformer a résolu de nombreux défauts en une seule fois, devenant progressivement la solution standard dans le domaine du NLP, donnant un sentiment de "sans le Transformer, le NLP serait plongé dans l'obscurité éternelle". Même Ilia a abandonné les RNN pour rejoindre le camp des Transformers.
En d'autres termes, le Transformer est la pierre angulaire de tous les grands modèles aujourd'hui, il a transformé les grands modèles d'une recherche théorique en un problème purement d'ingénierie.
En 2019, OpenAI a époustouflé le monde académique avec GPT-2 développé sur la base du Transformer. En réponse, Google a rapidement lancé Meena, qui est plus performant.
Comparé à GPT-2, Meena n'apporte aucune innovation algorithmique, mais augmente simplement les paramètres d'entraînement de 8,5 fois et la puissance de calcul de 14 fois. Le créateur du Transformer, Ashish Vaswani, a été choqué par ce "gavage brutal" et a rédigé un mémo intitulé "Meena dévore le monde".
Après l'émergence des Transformers, la vitesse d'innovation des algorithmes sous-jacents a ralenti. Les éléments d'ingénierie tels que l'ingénierie des données, l'échelle de calcul et l'architecture des modèles deviennent de plus en plus clés dans la compétition AI. Dès qu'une entreprise dispose d'une certaine capacité technique, elle peut développer de grands modèles.
Ainsi, le scientifique Andrew Ng a déclaré lors d'une conférence à Stanford : "L'IA est un ensemble d'outils, y compris l'apprentissage supervisé, l'apprentissage non supervisé, l'apprentissage par renforcement et l'IA générative actuelle. Ce sont toutes des technologies universelles, similaires à l'électricité et à Internet."
OpenAI reste le baromètre des LLM, mais l'institut d'analyse des semi-conducteurs Semi Analysis estime que l'avantage de GPT-4 provient de la solution technique - si elle est open source, n'importe quel concurrent peut rapidement la copier.
Cet analyste prévoit que d'autres grandes entreprises technologiques pourraient bientôt être en mesure de développer de grands modèles ayant des performances comparables à celles de GPT-4.
Le fossé n'est pas imprenable
Aujourd'hui, la "bataille des cent modèles" n'est plus une métaphore, mais une réalité.
Selon les rapports, en juillet de cette année, le nombre de grands modèles en Chine a atteint 130, dépassant les 114 des États-Unis, et les diverses légendes et mythes commencent à ne plus suffire aux entreprises technologiques nationales pour leurs noms.
En plus de la Chine et des États-Unis, de nombreux pays plus riches ont également réalisé le "un pays, un modèle" : en plus du Japon et des Émirats Arabes Unis, il y a aussi Bhashini dirigé par le gouvernement indien, HyperClova X développé par la société sud-coréenne Naver, etc.
Cette situation rappelle les scènes de bulle spéculative et de frénésie capitaliste au début d'internet.
Comme mentionné précédemment, le Transformer transforme les grands modèles en un simple problème d'ingénierie. Tant qu'il y a des talents, des fonds et des ressources de calcul, il est possible de les développer. Cependant, il est facile d'entrer sur le marché, mais devenir un géant à l'ère de l'IA n'est pas une mince affaire.
Le "Combat des Animaux" mentionné au début est un cas typique : bien que Falcon devance temporairement Llama, il est difficile de dire quel impact cela pourrait avoir sur Meta.
Comme tout le monde le sait, les entreprises qui open source leurs résultats partagent non seulement le bien-être technologique, mais espèrent également tirer parti des forces de la société. Avec l'utilisation continue et l'amélioration de Llama par le monde académique, les institutions de recherche et les entreprises, Meta peut appliquer ces résultats à ses propres produits.
Pour les grands modèles open source, une communauté de développeurs active est la véritable force concurrentielle.
Dès la création du laboratoire d'IA en 2015, Meta a opté pour une approche open source ; Zuckerberg, ayant fait ses débuts dans les médias sociaux, comprend mieux l'importance de "bien entretenir les relations avec le public".
Par exemple, en octobre, Meta a organisé un événement intitulé "Incitation des créateurs d'IA" : les développeurs utilisant Llama 2 pour résoudre des problèmes sociaux tels que l'éducation et l'environnement ont la possibilité de recevoir un financement de 500 000 dollars.
Aujourd'hui, la série Llama de Meta est devenue la référence des LLM open source.
À début octobre, parmi les 10 premiers du classement des LLM open source de Hugging Face, 8 sont basés sur Llama 2 et utilisent son protocole open source. Rien qu sur Hugging Face, il y a déjà plus de 1500 LLM qui utilisent le protocole Llama 2.
Bien sûr, améliorer la performance comme Falcon n'est pas une mauvaise idée, mais la plupart des LLM sur le marché ont encore un écart évident par rapport à GPT-4.
Par exemple, récemment, GPT-4 a remporté le championnat du test AgentBench avec un score de 4,41. AgentBench a été lancé par l'Université Tsinghua en collaboration avec plusieurs grandes universités américaines, afin d'évaluer les capacités de raisonnement et de prise de décision des LLM dans des environnements ouverts multidimensionnels. Le contenu du test comprend des tâches dans 8 environnements différents tels que les systèmes d'exploitation, les bases de données, les graphes de connaissances, et les combats de cartes.
Les résultats des tests montrent que le deuxième, Claude, n'a obtenu que 2,77 points, avec un écart évident. Quant à ces LLM open source aux grands discours, leurs scores tournent autour de 1 point, soit moins d'un quart de GPT-4.
Il faut savoir que GPT-4 a été publié en mars de cette année, ce qui est le résultat d'un retard de plus de six mois par rapport à ses concurrents mondiaux. Cette différence est due à l'équipe de recherche hautement qualifiée d'OpenAI et à l'expérience accumulée au fil du temps, ce qui leur permet de rester constamment en avance.
Cela signifie que la capacité principale des grands modèles n'est pas constituée de paramètres, mais plutôt de la construction d'un écosystème ( open source ) ou de la capacité de raisonnement pure ( en mode fermé ).
Avec l'essor de la communauté open source, les performances des LLM pourraient se rapprocher, car tout le monde utilise des architectures de modèles et des ensembles de données similaires.
Une autre question plus intuitive est : à part Midjourney, il semble qu'aucun autre grand modèle ne soit rentable.
Ancrage de la valeur
En août de cette année, un article intitulé "OpenAI pourrait faire faillite d'ici la fin 2024" a suscité l'attention. Le propos de l'article peut presque être résumé en une phrase : OpenAI brûle trop d'argent trop rapidement.
L'article mentionne qu depuis le développement de ChatGPT, les pertes d'OpenAI se sont rapidement aggravées, atteignant environ 540 millions de dollars en 2022, ce qui les oblige à dépendre des investissements de Microsoft.
Bien que le titre de l'article soit accrocheur, il révèle également la réalité de nombreux fournisseurs de grands modèles : un déséquilibre grave entre les coûts et les revenus.
Des coûts trop élevés signifient qu'actuellement, seuls Nvidia et, au mieux, Broadcom gagnent beaucoup d'argent grâce à l'IA.
Selon la société de conseil Omdia, Nvidia a vendu plus de 300 000 H100 au deuxième trimestre de cette année. C'est une puce AI d'une efficacité extrêmement élevée, que des entreprises technologiques et des instituts de recherche du monde entier s'arrachent. Si ces 300 000 H100 étaient empilées, leur poids équivaudrait à celui de 4,5 avions Boeing 747.
Les performances d'NVIDIA ont alors explosé, avec une croissance des revenus de 854% par rapport à l'année précédente, choquant Wall Street. Il convient de mentionner que le H100 est déjà spéculé sur le marché de l'occasion à 40 000-50 000 dollars, alors que son coût matériel n'est d'environ que 3 000 dollars.
Le coût élevé de la puissance de calcul est devenu dans une certaine mesure un frein au développement de l'industrie. Sequoia Capital a estimé que les entreprises technologiques mondiales devraient dépenser 200 milliards de dollars par an pour la construction d'infrastructures de grands modèles ; en comparaison, les grands modèles ne peuvent générer au maximum que 75 milliards de dollars de revenus par an, avec un écart d'au moins 125 milliards de dollars.
De plus, à l'exception de quelques rares cas comme Midjourney, la plupart des entreprises de logiciels n'ont pas encore trouvé de modèle économique malgré des investissements massifs. En particulier, les leaders de l'industrie, Microsoft et Adobe, rencontrent des difficultés.
L'outil de génération de code AI GitHub Copilot, développé par Microsoft en collaboration avec OpenAI, coûte 10 dollars par mois, mais en raison des coûts des installations, Microsoft perd en fait 20 dollars par utilisateur, et les utilisateurs intensifs entraînent même une perte mensuelle de 80 dollars pour Microsoft. On peut donc supposer que le Microsoft 365 Copilot, qui est tarifé à 30 dollars, pourrait entraîner des pertes encore plus importantes.
De même, Adobe, qui vient de lancer l'outil Firefly AI, a rapidement mis en place un système de points pour éviter que les utilisateurs ne surutilisent le service et entraînent des pertes pour l'entreprise. Une fois que les utilisateurs dépassent le quota de points attribués chaque mois, Adobe réduit la vitesse du service.
Il est important de noter que Microsoft et Adobe sont déjà des géants du logiciel avec des scénarios d'affaires clairs et un grand nombre d'utilisateurs payants. En revanche, la plupart des grands modèles accumulant des paramètres, leur principal domaine d'application reste le chat.
Il est indéniable que sans l'émergence d'OpenAI et de ChatGPT, cette révolution de l'IA n'aurait peut-être pas eu lieu ; mais pour l'instant, la valeur créée par l'entraînement de grands modèles reste probablement à discuter.
De plus, avec l'intensification de la concurrence par homogénéisation et l'augmentation des modèles open source, les fournisseurs de grands modèles pourraient faire face à de plus grands défis.
Le succès de l'iPhone 4 n'est pas dû à son processeur A4 en 45 nm, mais à sa capacité à jouer à Plants vs. Zombies et Angry Birds.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
7
Partager
Commentaire
0/400
DAOplomacy
· Il y a 15h
honnêtement, c'est juste une autre course non durable vers le bas... j'ai déjà vu ce film.
Bataille des cent modèles : Les géants de l'IA émergent, les grands modèles de langage font face à des défis de rentabilité
Le domaine de l'IA est en pleine effervescence, la bataille des LLM fait rage.
Le mois dernier, une "guerre des animaux" a éclaté dans le monde de l'IA.
L'un des belligérants de ce conflit est le modèle Llama lancé par Meta. Grâce à ses caractéristiques open source, Llama est très apprécié des développeurs. Après avoir étudié le papier et le code de Llama, la société NEC a rapidement développé une version japonaise de ChatGPT, comblant ainsi le déficit du Japon dans le domaine de l'IA.
L'autre partie est un grand modèle nommé Falcon. En mai de cette année, Falcon-40B a fait son apparition et a pris la première place du classement des LLM open source. Ce classement est élaboré par la communauté Hugging Face et fournit des normes pour évaluer les capacités des LLM. En gros, le classement est dominé alternativement par Llama et Falcon.
Après la sortie de Llama 2, il a temporairement repris l'avantage. Mais début septembre, Falcon a lancé la version 180B, obtenant à nouveau un classement plus élevé.
Il est intéressant de noter que les développeurs de Falcon ne viennent pas d'une entreprise technologique, mais de l'Institut de recherche sur l'innovation technologique basé à Abou Dhabi. Les responsables des Émirats arabes unis ont déclaré qu'ils s'engagent dans ce domaine pour bouleverser les acteurs clés.
Le lendemain de la publication de la version 180B, le ministre de l'intelligence artificielle des Émirats Arabes Unis a été sélectionné parmi les "100 personnes les plus influentes dans le domaine de l'IA" par le magazine Time. Parmi les autres sélectionnés figurent le "père de l'IA" Geoffrey Hinton et Sam Altman d'OpenAI.
Aujourd'hui, le domaine de l'IA est entré dans une phase de concurrence entre de nombreuses entreprises. Les pays et les entreprises disposant de ressources financières importantes essaient de créer leur propre modèle de langage à grande échelle. Rien que dans la région du Golfe, il n'y a pas qu'un seul acteur. En août, l'Arabie saoudite a acheté plus de 3000 puces H100 pour ses universités afin d'entraîner des LLM.
Un investisseur a exprimé : "À l'époque, je méprisais l'innovation des modèles commerciaux d'Internet, pensant qu'il n'y avait pas de barrières. Je ne pensais pas que le démarrage de modèles de grande technologie serait toujours une guerre de cent modèles..."
Je pensais que c'était une technologie difficile, comment cela est-il devenu une compétition à laquelle tout le monde peut participer ?
Transformer a changé les règles du jeu
Que ce soit des start-ups américaines, des géants technologiques chinois ou des magnats du pétrole du Moyen-Orient, le fait de pouvoir se lancer dans la recherche et le développement de grands modèles est dû à ce célèbre article : "Attention Is All You Need".
En 2017, huit scientifiques de Google ont publié l'algorithme Transformer dans cet article. Cet article est actuellement le troisième article le plus cité de l'histoire de l'IA, et l'apparition du Transformer a déclenché cette vague actuelle d'IA.
Les divers grands modèles actuels, y compris la série GPT qui a fait sensation, sont tous basés sur la technologie Transformer.
Avant cela, "enseigner aux machines à lire" était un problème académique reconnu. Contrairement à la reconnaissance d'images, lors de la lecture, les humains ne se concentrent pas seulement sur les mots et les phrases actuels, mais intègrent également le contexte pour comprendre.
Mais les entrées des premiers réseaux de neurones étaient toutes indépendantes, incapables de comprendre le sens global des longs articles, ce qui entraînait souvent des problèmes de mauvaise traduction.
En 2014, le scientifique d Google, Ilya, a réalisé une percée. Il a utilisé un réseau de neurones récursifs (RNN) pour traiter le langage naturel, ce qui a considérablement amélioré les performances de Google Traduction.
Le RNN a introduit le "design cyclique", permettant aux neurones de recevoir à la fois l'entrée actuelle et l'entrée du moment précédent, acquérant ainsi la capacité de "combiner le contexte".
L'apparition des RNN a suscité un grand intérêt dans le milieu académique, et l'auteur du document sur le Transformer, Vaswani, a également mené des recherches approfondies. Cependant, les développeurs ont rapidement découvert que les RNN présentaient des défauts graves :
L'algorithme utilise un calcul séquentiel, bien qu'il résolve le problème de contexte, son efficacité d'exécution n'est pas élevée et il est difficile de traiter un grand nombre de paramètres.
La conception complexe des RNN a agacé Chazelle. Ainsi, à partir de 2015, Chazelle et sept de ses collègues ont commencé à développer un substitut aux RNN, dont le résultat final est le Transformer.
Comparé au RNN, le Transformer a deux grandes réformes :
Premièrement, l'utilisation de l'encodage de position à la place de la conception en boucle permet un calcul parallèle, ce qui améliore considérablement l'efficacité de l'entraînement et fait entrer l'IA dans l'ère des grands modèles ; deuxièmement, cela renforce encore la capacité à comprendre le contexte.
Le Transformer a résolu de nombreux défauts en une seule fois, devenant progressivement la solution standard dans le domaine du NLP, donnant un sentiment de "sans le Transformer, le NLP serait plongé dans l'obscurité éternelle". Même Ilia a abandonné les RNN pour rejoindre le camp des Transformers.
En d'autres termes, le Transformer est la pierre angulaire de tous les grands modèles aujourd'hui, il a transformé les grands modèles d'une recherche théorique en un problème purement d'ingénierie.
En 2019, OpenAI a époustouflé le monde académique avec GPT-2 développé sur la base du Transformer. En réponse, Google a rapidement lancé Meena, qui est plus performant.
Comparé à GPT-2, Meena n'apporte aucune innovation algorithmique, mais augmente simplement les paramètres d'entraînement de 8,5 fois et la puissance de calcul de 14 fois. Le créateur du Transformer, Ashish Vaswani, a été choqué par ce "gavage brutal" et a rédigé un mémo intitulé "Meena dévore le monde".
Après l'émergence des Transformers, la vitesse d'innovation des algorithmes sous-jacents a ralenti. Les éléments d'ingénierie tels que l'ingénierie des données, l'échelle de calcul et l'architecture des modèles deviennent de plus en plus clés dans la compétition AI. Dès qu'une entreprise dispose d'une certaine capacité technique, elle peut développer de grands modèles.
Ainsi, le scientifique Andrew Ng a déclaré lors d'une conférence à Stanford : "L'IA est un ensemble d'outils, y compris l'apprentissage supervisé, l'apprentissage non supervisé, l'apprentissage par renforcement et l'IA générative actuelle. Ce sont toutes des technologies universelles, similaires à l'électricité et à Internet."
OpenAI reste le baromètre des LLM, mais l'institut d'analyse des semi-conducteurs Semi Analysis estime que l'avantage de GPT-4 provient de la solution technique - si elle est open source, n'importe quel concurrent peut rapidement la copier.
Cet analyste prévoit que d'autres grandes entreprises technologiques pourraient bientôt être en mesure de développer de grands modèles ayant des performances comparables à celles de GPT-4.
Le fossé n'est pas imprenable
Aujourd'hui, la "bataille des cent modèles" n'est plus une métaphore, mais une réalité.
Selon les rapports, en juillet de cette année, le nombre de grands modèles en Chine a atteint 130, dépassant les 114 des États-Unis, et les diverses légendes et mythes commencent à ne plus suffire aux entreprises technologiques nationales pour leurs noms.
En plus de la Chine et des États-Unis, de nombreux pays plus riches ont également réalisé le "un pays, un modèle" : en plus du Japon et des Émirats Arabes Unis, il y a aussi Bhashini dirigé par le gouvernement indien, HyperClova X développé par la société sud-coréenne Naver, etc.
Cette situation rappelle les scènes de bulle spéculative et de frénésie capitaliste au début d'internet.
Comme mentionné précédemment, le Transformer transforme les grands modèles en un simple problème d'ingénierie. Tant qu'il y a des talents, des fonds et des ressources de calcul, il est possible de les développer. Cependant, il est facile d'entrer sur le marché, mais devenir un géant à l'ère de l'IA n'est pas une mince affaire.
Le "Combat des Animaux" mentionné au début est un cas typique : bien que Falcon devance temporairement Llama, il est difficile de dire quel impact cela pourrait avoir sur Meta.
Comme tout le monde le sait, les entreprises qui open source leurs résultats partagent non seulement le bien-être technologique, mais espèrent également tirer parti des forces de la société. Avec l'utilisation continue et l'amélioration de Llama par le monde académique, les institutions de recherche et les entreprises, Meta peut appliquer ces résultats à ses propres produits.
Pour les grands modèles open source, une communauté de développeurs active est la véritable force concurrentielle.
Dès la création du laboratoire d'IA en 2015, Meta a opté pour une approche open source ; Zuckerberg, ayant fait ses débuts dans les médias sociaux, comprend mieux l'importance de "bien entretenir les relations avec le public".
Par exemple, en octobre, Meta a organisé un événement intitulé "Incitation des créateurs d'IA" : les développeurs utilisant Llama 2 pour résoudre des problèmes sociaux tels que l'éducation et l'environnement ont la possibilité de recevoir un financement de 500 000 dollars.
Aujourd'hui, la série Llama de Meta est devenue la référence des LLM open source.
À début octobre, parmi les 10 premiers du classement des LLM open source de Hugging Face, 8 sont basés sur Llama 2 et utilisent son protocole open source. Rien qu sur Hugging Face, il y a déjà plus de 1500 LLM qui utilisent le protocole Llama 2.
Bien sûr, améliorer la performance comme Falcon n'est pas une mauvaise idée, mais la plupart des LLM sur le marché ont encore un écart évident par rapport à GPT-4.
Par exemple, récemment, GPT-4 a remporté le championnat du test AgentBench avec un score de 4,41. AgentBench a été lancé par l'Université Tsinghua en collaboration avec plusieurs grandes universités américaines, afin d'évaluer les capacités de raisonnement et de prise de décision des LLM dans des environnements ouverts multidimensionnels. Le contenu du test comprend des tâches dans 8 environnements différents tels que les systèmes d'exploitation, les bases de données, les graphes de connaissances, et les combats de cartes.
Les résultats des tests montrent que le deuxième, Claude, n'a obtenu que 2,77 points, avec un écart évident. Quant à ces LLM open source aux grands discours, leurs scores tournent autour de 1 point, soit moins d'un quart de GPT-4.
Il faut savoir que GPT-4 a été publié en mars de cette année, ce qui est le résultat d'un retard de plus de six mois par rapport à ses concurrents mondiaux. Cette différence est due à l'équipe de recherche hautement qualifiée d'OpenAI et à l'expérience accumulée au fil du temps, ce qui leur permet de rester constamment en avance.
Cela signifie que la capacité principale des grands modèles n'est pas constituée de paramètres, mais plutôt de la construction d'un écosystème ( open source ) ou de la capacité de raisonnement pure ( en mode fermé ).
Avec l'essor de la communauté open source, les performances des LLM pourraient se rapprocher, car tout le monde utilise des architectures de modèles et des ensembles de données similaires.
Une autre question plus intuitive est : à part Midjourney, il semble qu'aucun autre grand modèle ne soit rentable.
Ancrage de la valeur
En août de cette année, un article intitulé "OpenAI pourrait faire faillite d'ici la fin 2024" a suscité l'attention. Le propos de l'article peut presque être résumé en une phrase : OpenAI brûle trop d'argent trop rapidement.
L'article mentionne qu depuis le développement de ChatGPT, les pertes d'OpenAI se sont rapidement aggravées, atteignant environ 540 millions de dollars en 2022, ce qui les oblige à dépendre des investissements de Microsoft.
Bien que le titre de l'article soit accrocheur, il révèle également la réalité de nombreux fournisseurs de grands modèles : un déséquilibre grave entre les coûts et les revenus.
Des coûts trop élevés signifient qu'actuellement, seuls Nvidia et, au mieux, Broadcom gagnent beaucoup d'argent grâce à l'IA.
Selon la société de conseil Omdia, Nvidia a vendu plus de 300 000 H100 au deuxième trimestre de cette année. C'est une puce AI d'une efficacité extrêmement élevée, que des entreprises technologiques et des instituts de recherche du monde entier s'arrachent. Si ces 300 000 H100 étaient empilées, leur poids équivaudrait à celui de 4,5 avions Boeing 747.
Les performances d'NVIDIA ont alors explosé, avec une croissance des revenus de 854% par rapport à l'année précédente, choquant Wall Street. Il convient de mentionner que le H100 est déjà spéculé sur le marché de l'occasion à 40 000-50 000 dollars, alors que son coût matériel n'est d'environ que 3 000 dollars.
Le coût élevé de la puissance de calcul est devenu dans une certaine mesure un frein au développement de l'industrie. Sequoia Capital a estimé que les entreprises technologiques mondiales devraient dépenser 200 milliards de dollars par an pour la construction d'infrastructures de grands modèles ; en comparaison, les grands modèles ne peuvent générer au maximum que 75 milliards de dollars de revenus par an, avec un écart d'au moins 125 milliards de dollars.
De plus, à l'exception de quelques rares cas comme Midjourney, la plupart des entreprises de logiciels n'ont pas encore trouvé de modèle économique malgré des investissements massifs. En particulier, les leaders de l'industrie, Microsoft et Adobe, rencontrent des difficultés.
L'outil de génération de code AI GitHub Copilot, développé par Microsoft en collaboration avec OpenAI, coûte 10 dollars par mois, mais en raison des coûts des installations, Microsoft perd en fait 20 dollars par utilisateur, et les utilisateurs intensifs entraînent même une perte mensuelle de 80 dollars pour Microsoft. On peut donc supposer que le Microsoft 365 Copilot, qui est tarifé à 30 dollars, pourrait entraîner des pertes encore plus importantes.
De même, Adobe, qui vient de lancer l'outil Firefly AI, a rapidement mis en place un système de points pour éviter que les utilisateurs ne surutilisent le service et entraînent des pertes pour l'entreprise. Une fois que les utilisateurs dépassent le quota de points attribués chaque mois, Adobe réduit la vitesse du service.
Il est important de noter que Microsoft et Adobe sont déjà des géants du logiciel avec des scénarios d'affaires clairs et un grand nombre d'utilisateurs payants. En revanche, la plupart des grands modèles accumulant des paramètres, leur principal domaine d'application reste le chat.
Il est indéniable que sans l'émergence d'OpenAI et de ChatGPT, cette révolution de l'IA n'aurait peut-être pas eu lieu ; mais pour l'instant, la valeur créée par l'entraînement de grands modèles reste probablement à discuter.
De plus, avec l'intensification de la concurrence par homogénéisation et l'augmentation des modèles open source, les fournisseurs de grands modèles pourraient faire face à de plus grands défis.
Le succès de l'iPhone 4 n'est pas dû à son processeur A4 en 45 nm, mais à sa capacité à jouer à Plants vs. Zombies et Angry Birds.