Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
< Les données, c’est de la compétitivité, pas des modèles>
Le cœur de l’industrie de l’IA n’est plus l’informatique ou les modèles, mais les « données de haute qualité ». Tout comme la civilisation humaine a été avancée au niveau supérieur grâce au pétrole dans le passé, l’IA a également besoin d’un nouveau « carburant » pour aller plus loin. Tout comme avant et après la Seconde Guerre mondiale, lorsque le pétrole était utilisé comme source d’énergie et matériau, l’industrialisation a progressé rapidement. Désormais, qui et comment ils obtiennent et traitent les données détermineront l’initiative à l’ère de l’IA.
Elon Musk l’a également dit cette année. « Nous avons épuisé toute la somme cumulative des connaissances humaines dans l’apprentissage de l’intelligence artificielle. » Il est vrai que des modèles comme GPT se sont développés rapidement, récupérant des données publiques telles que des sites Web, des livres, du code et des images. Mais maintenant, nous avons besoin d’une nouvelle forme de données qui est protégée par le droit d’auteur ou qui n’existe pas du tout.
Par exemple, dans des domaines tels que les véhicules autonomes et la robotique, il est nécessaire d’aller au-delà du simple texte et d’avoir besoin de données complexes basées sur plusieurs capteurs qui combinent caméras, radar, lidar, etc., ainsi que des données de cas collectées dans l’environnement réel, qui n’existent pas sur le web.
Le plus gros problème n’est pas tant la technologie que « comment bien la combiner ». Des milliers de personnes ont besoin de collecter, d’étiqueter et de mettre à jour des données dans le monde entier, et il est difficile de gérer cette diversité et d’évoluer avec une approche centralisée du passé. Par conséquent, l’industrie de l’IA s’accorde de plus en plus à dire que la méthode décentralisée est la solution.
C’est là qu’apparaît « Poséidon (@psdnai) ». Poseidon n’est pas seulement un entrepôt de données, mais une infrastructure qui alimente des données réelles, les vérifie et les affine en un ensemble de données d’entraînement qui peut être utilisé sans se soucier des droits d’auteur.
Pour utiliser une analogie, Poséidon est une « raffinerie de pétrole ». Il prend des données brutes et les affine pour en faire un carburant que l’IA peut utiliser pour l’apprentissage. L’ensemble du processus se déroule dans les deux sens sur le @StoryProtocol. Il enregistre de manière transparente qui a fourni les données et qui les a écrites dans quelles conditions sur la chaîne. Ceux qui fournissent des données sont équitablement récompensés, et les développeurs d’IA peuvent les utiliser en toute confiance.
Je pense que Poseidon, qui innovera au niveau de la couche de données, et non des GPU ou des modèles, est peut-être le meilleur exemple d’application de la technologie Web3 à l’industrie du Web2.


23 juil. 2025
Nous sommes ravis d'annoncer que nous menons un tour de financement de 15 millions de dollars dans Poseidon, qui a été incubé par @StoryProtocol et qui construit une couche de données décentralisée pour coordonner l'offre et la demande de données d'entraînement pour l'IA.
La première génération de modèles fondamentaux d'IA a été formée sur des données qui semblaient être une ressource pratiquement illimitée. Aujourd'hui, les ressources les plus accessibles, telles que les livres et les sites web, ont principalement été épuisées, et les données sont devenues un facteur limitant dans les progrès de l'IA.
Une grande partie des données qui restent maintenant est soit de qualité inférieure, soit inaccessible en raison des protections de propriété intellectuelle. Pour certaines des applications d'IA les plus prometteuses — dans la robotique, les véhicules autonomes et l'intelligence spatiale — les données n'existent même pas encore. Maintenant, ces systèmes ont besoin de types d'informations entièrement nouveaux : multi-sensorielles, riches en cas limites, capturées dans la nature. D'où viendra toutes ces données du monde physique ?
Le défi n'est pas seulement technique — c'est un problème de coordination. Des milliers de contributeurs doivent travailler ensemble de manière distribuée pour sourcer, étiqueter et maintenir les données physiques dont l'IA de prochaine génération a besoin. Nous croyons qu'aucune approche centralisée ne peut orchestrer efficacement la création et la curation des données nécessaires au niveau d'échelle et de diversité requis. Une approche décentralisée peut résoudre cela.
@psdnai permet aux fournisseurs de collecter les données dont les entreprises d'IA ont besoin, tout en garantissant la sécurité de la propriété intellectuelle via la licence IP programmable de Story. Cela vise à établir une nouvelle fondation économique pour Internet, où les créateurs de données sont justement rémunérés pour aider les entreprises d'IA à alimenter la prochaine génération de systèmes intelligents.
L'équipe de Poseidon, dirigée par le scientifique en chef et cofondateur @SPChinchali, apporte une expertise approfondie en infrastructure d'IA. Sandeep est professeur à l'UT Austin spécialisé en IA, robotique et systèmes distribués, avec un doctorat de Stanford en IA et systèmes distribués. Le responsable produit et cofondateur @sarickshah a passé une décennie en tant qu'ingénieur en apprentissage automatique, développant des produits d'IA pour de grandes entreprises dans les services financiers, les télécommunications et la santé.
Nous sommes ravis de soutenir Poseidon dans son travail pour résoudre l'un des goulets d'étranglement les plus critiques dans le développement de l'IA.

2,48K
Meilleurs
Classement
Favoris