Prenons l'exemple le plus courant : vous utilisez GPT pour analyser des données financières, surveiller des équipements industriels ou classer des documents médicaux. La plupart des résultats produits sont soit hors sujet, soit dépendent énormément de l'optimisation des prompts. À la fin, vous ne savez même pas s'il comprend vraiment ce que vous voulez.
Bien sûr, beaucoup de gens veulent dire que le modèle d'IA n'est qu'un processus d'entraînement continu. Tant que vous lui fournissez suffisamment de données, il pensera ce que vous pensez et vous donnera ce que vous voulez. En réalité, ce n'est pas le cas. Pour un individu, la meilleure façon est bien sûr de créer un modèle d'IA qui vous est propre, qui comprend vos données et s'adapte à votre activité.
Mais les problèmes réels se succèdent, et pour y parvenir, il faut disposer d'une énorme quantité de données, de personnes pour former les modèles, et surtout, d'infrastructures pour exécuter les modèles, ce qui peut décourager 90 % des gens.
1️⃣Conseil d'appel d'interface Vous pouvez appeler n'importe quel SLM (Modèle de Langage Spécialisé) déployé directement via l'interface /v1/completions.
Plage d'adaptation très large : bot IA, raisonnement en chaîne, même les scripts de jeu peuvent être utilisés.
2️⃣Interface de gestion des modèles En utilisant /v1/models, vous pouvez accéder à tous les modèles prêts à l'emploi, y compris ceux que vous avez formés vous-même et ceux partagés par d'autres. Si vous souhaitez voir des informations détaillées ? Utilisez /model/info pour consulter les paramètres de configuration tels que le prix, le mode d'inférence et le groupe de permissions d'accès. Il prend même en charge la gestion team_id, est compatible avec les outils OpenAI et permet de grouper par permissions d'accès, ce qui est très adapté pour la collaboration en équipe et le contrôle des permissions.
3️⃣Suivi des frais et des dépenses Les appels de modèle sur la chaîne ne sont pas gratuits, mais la question clé est : où va cet argent ? OpenLedger a fourni un mécanisme de suivi complètement transparent : Les frais générés à chaque appel sont automatiquement répartis entre deux catégories de personnes : d'une part, ceux qui fournissent les données, et d'autre part, ceux qui entraînent et mettent en ligne ce modèle. Vous pouvez également utiliser /spend/logs pour vérifier qui a utilisé quel modèle, quand et combien cela a coûté. Il est possible de filtrer par ID d'utilisateur, ID de demande, clé API et plage de temps, réalisant ainsi une transparence complète du processus en chaîne.
Je pense que c'est la bonne façon d'ouvrir l'"économie de l'IA", dans l'ère des grands modèles, avoir uniquement des résultats de raisonnement n'est pas suffisant. Pour le système : pouvoir répartir les comptes, pouvoir tracer l'origine, pouvoir démarrer des projets, pouvoir exploiter la productivité des données, voilà le cœur de l'économie de l'IA. Du moins, actuellement, le parcours d'OpenLedger consiste à passer de "ajuster le modèle" à "construire le modèle + répartition des revenus + propriété des données" dans les activités économiques sur la chaîne. Que ce soit pour les utilisateurs ou les développeurs, chacun peut en bénéficier.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
4
Partager
Commentaire
0/400
Waqar56
· 07-14 04:46
bien
Voir l'originalRépondre0
GateUser-17673242
· 07-14 04:06
s'il vous plaît 🙏 suivre moi. Je suis de retour! 🎉Rrrooo
Voir l'originalRépondre0
MohamedGabrko
· 07-14 03:42
Le marché haussier est à son apogée 🐂
Voir l'originalRépondre0
CryptoLoverArtist
· 07-13 19:19
s'il vous plaît 🙏 suivre moi. Je Suis de retour ! 🎉
Prenons l'exemple le plus courant : vous utilisez GPT pour analyser des données financières, surveiller des équipements industriels ou classer des documents médicaux. La plupart des résultats produits sont soit hors sujet, soit dépendent énormément de l'optimisation des prompts. À la fin, vous ne savez même pas s'il comprend vraiment ce que vous voulez.
Bien sûr, beaucoup de gens veulent dire que le modèle d'IA n'est qu'un processus d'entraînement continu. Tant que vous lui fournissez suffisamment de données, il pensera ce que vous pensez et vous donnera ce que vous voulez. En réalité, ce n'est pas le cas. Pour un individu, la meilleure façon est bien sûr de créer un modèle d'IA qui vous est propre, qui comprend vos données et s'adapte à votre activité.
Mais les problèmes réels se succèdent, et pour y parvenir, il faut disposer d'une énorme quantité de données, de personnes pour former les modèles, et surtout, d'infrastructures pour exécuter les modèles, ce qui peut décourager 90 % des gens.
1️⃣Conseil d'appel d'interface
Vous pouvez appeler n'importe quel SLM (Modèle de Langage Spécialisé) déployé directement via l'interface /v1/completions.
Plage d'adaptation très large : bot IA, raisonnement en chaîne, même les scripts de jeu peuvent être utilisés.
2️⃣Interface de gestion des modèles
En utilisant /v1/models, vous pouvez accéder à tous les modèles prêts à l'emploi, y compris ceux que vous avez formés vous-même et ceux partagés par d'autres.
Si vous souhaitez voir des informations détaillées ? Utilisez /model/info pour consulter les paramètres de configuration tels que le prix, le mode d'inférence et le groupe de permissions d'accès. Il prend même en charge la gestion team_id, est compatible avec les outils OpenAI et permet de grouper par permissions d'accès, ce qui est très adapté pour la collaboration en équipe et le contrôle des permissions.
3️⃣Suivi des frais et des dépenses
Les appels de modèle sur la chaîne ne sont pas gratuits, mais la question clé est : où va cet argent ?
OpenLedger a fourni un mécanisme de suivi complètement transparent :
Les frais générés à chaque appel sont automatiquement répartis entre deux catégories de personnes : d'une part, ceux qui fournissent les données, et d'autre part, ceux qui entraînent et mettent en ligne ce modèle.
Vous pouvez également utiliser /spend/logs pour vérifier qui a utilisé quel modèle, quand et combien cela a coûté.
Il est possible de filtrer par ID d'utilisateur, ID de demande, clé API et plage de temps, réalisant ainsi une transparence complète du processus en chaîne.
Je pense que c'est la bonne façon d'ouvrir l'"économie de l'IA", dans l'ère des grands modèles, avoir uniquement des résultats de raisonnement n'est pas suffisant. Pour le système : pouvoir répartir les comptes, pouvoir tracer l'origine, pouvoir démarrer des projets, pouvoir exploiter la productivité des données, voilà le cœur de l'économie de l'IA. Du moins, actuellement, le parcours d'OpenLedger consiste à passer de "ajuster le modèle" à "construire le modèle + répartition des revenus + propriété des données" dans les activités économiques sur la chaîne. Que ce soit pour les utilisateurs ou les développeurs, chacun peut en bénéficier.