Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Professor Jo 🐙
Sur la base de sa carrière dans le financement d’acquisitions, il est un « agriculteur DeFi Chosunsaeng » qui court vers un rêve plus grand dans la DeFi. @0xundefined_
<Pudgy Penguins Interview>
Pudgy Penguins (@pudgypenguins) est devenu l'une des IP les plus appréciées du crypto—faisant le lien entre la culture crypto et le grand public à travers des jouets, des mèmes et des récits.
Dirigé par le PDG @LucaNetz, le projet s'étend désormais aux ETF, aux Layer 2 et à la licence mondiale.
Ce soir à 23h KST, nous sommes rejoints par Luca pour parler du prochain Pudgy ETF, de leur nouveau L2 "Abstract" et de la manière dont Pudgy transforme la mignonnerie en capital.
👉

22,82K
<Pourquoi ZK a-t-il échoué, et que cherche à changer Succinct?>
1. Prise de conscience du problème
Le créateur de Bitcoin, Satoshi Nakamoto, a exprimé des doutes sur les preuves à divulgation nulle de connaissance (ZKP).
Il a déclaré : "Pour prouver que quelque chose n'existe pas, vous devez connaître l'ensemble de la transaction," concluant que l'application des ZKP à la blockchain est structurellement difficile.
Cependant, il a également mentionné que "si une solution est trouvée, il serait beaucoup mieux, plus facile et plus pratique de mettre en œuvre Bitcoin." En d'autres termes, tout en reconnaissant les limitations techniques des ZK, il a reconnu que si elles étaient résolues, cela pourrait être un tournant significatif dans l'évolution de la blockchain.
Des années plus tard, la communauté cypherpunk et les chercheurs en ZK ont enfin trouvé cette solution. Zcash a été le premier cas à appliquer les ZKP à une véritable cryptomonnaie, et des projets ultérieurs comme StarkWare, zkSync et Scroll ont développé cette technologie comme un moyen clé d'améliorer la scalabilité et la vérifiabilité d'Ethereum.
Cependant, il existe encore un fossé dans la réalité. Créer un zkEVM nécessite une expertise approfondie, des années de temps de développement et du matériel haute performance, et la plupart des projets finissent par s'appuyer sur des fournisseurs de preuves spécifiques au lieu d'exploiter leur propre infrastructure ZKP. En conséquence, les ZKP restent un outil complexe que seuls quelques-uns peuvent manipuler plutôt qu'une technologie que tout le monde peut utiliser.
2. Qu'est-ce que Succinct ?
Succinct (@SuccinctLabs) est une tentative de s'attaquer directement à ce problème. Sa mission principale est de transformer les ZKP en une infrastructure que tous les développeurs peuvent facilement utiliser, permettant à quiconque de créer un "système sans confiance" sans circuits ou infrastructures complexes.
Succinct est une infrastructure qui transforme l'idéal d'un système "sans confiance", que la blockchain a poursuivi, en une réalité pratiquement réalisable. Sans confiance ne signifie pas "non fiable" ; cela fait plutôt référence à une structure qui fonctionne de manière indépendante sans dépendre de la confiance, c'est-à-dire un système mathématiquement vérifiable sans tiers ou autorités centrales.
Cependant, l'écosystème blockchain actuel repose encore fortement sur la confiance. Les hacks de ponts, les opérations multi-signatures et les délégations de validateurs centralisés servent tous de preuves que nous devons encore faire confiance à des personnes ou des organisations pour que le système fonctionne.
La tentative de briser ces limitations basées sur la confiance est précisément la technologie des preuves à divulgation nulle de connaissance (ZKP). Cette technologie permet de prouver mathématiquement que "ce calcul est correct" sans faire confiance à quiconque, en faisant une base fondamentale pour les systèmes décentralisés. Le problème a été que les ZKP sont trop complexes et lourds pour une utilisation pratique.
3. Pourquoi les ZKP semblent-ils difficiles ?
La technologie ZKP a des barrières élevées autant que son potentiel. En particulier, créer un zkEVM nécessite une équipe spécialisée, des années de temps de développement et une infrastructure coûteuse. La plupart des projets zk ont dû concevoir leurs propres circuits, construire des zkVM dédiés et exploiter directement le matériel. Ce n'est qu'après avoir traversé tous ces processus qu'ils pouvaient prétendre être des "ZK rollups."
De plus, les zkVM généralistes existants étaient très inefficaces pour générer des preuves. En général, prouver un seul bloc nécessitait un cluster de dizaines de machines haute performance, coûtant entre 10 et 20 dollars par bloc. En raison de ces charges techniques et des coûts opérationnels, de nombreux projets ont soit abandonné l'introduction des ZKP, soit choisi de s'appuyer sur certains fournisseurs de preuves centralisés.
4. La tentative de Succinct
@SuccinctLabs considère ces problèmes structurels comme des "problèmes d'infrastructure." Les ZKP sont techniquement puissants, mais la question est qui, comment et à quel coût ils sont mis en œuvre. Par conséquent, Succinct crée un réseau de preuves décentralisé auquel tout le monde peut facilement accéder sans que les projets individuels aient besoin d'exploiter directement l'infrastructure de preuves.
Les développeurs n'ont pas besoin de configurer des zkVM complexes ou d'acquérir du matériel. Lorsqu'ils envoient des demandes de preuves au réseau, divers fournisseurs avec différents matériels enchérissent pour les traiter de manière similaire à une enchère. Les coûts de preuve diminuent naturellement grâce à la concurrence, et les fournisseurs génèrent efficacement des preuves en utilisant du matériel haute performance. En conséquence, les développeurs reçoivent des preuves rapides et peu coûteuses, tandis que l'ensemble de l'écosystème bénéficie d'une infrastructure de preuves avec une haute disponibilité et une résistance à la censure.
Succinct ne démontre pas seulement des possibilités techniques ; il prouve son rôle dans des domaines où la demande réelle émerge. Un exemple représentatif est l'émergence de la tendance "CLOBs on Blobs" dans l'écosystème @celestia. Des échanges décentralisés utilisant des méthodes de livre de commandes à limite centrale (CLOB) haute performance apparaissent dans l'espace blob de Celestia, entraînant des demandes d'infrastructure pour le traitement de données à grande échelle et des preuves d'état rapides.
Des projets comme Hyperliquid et @hibachi_xyz mettent en œuvre des logiques de trading de livre de commandes complexes et de découverte de prix sur la chaîne, ce qui nécessite une scalabilité et des performances au-delà des simples rollups. Ce qui est nécessaire ici, c'est la couche de disponibilité des données haute performance de Celestia et l'infrastructure de preuve ZK décentralisée fournie par Succinct.
En fait, Celestia a connu une augmentation rapide de l'utilisation réelle de l'espace blob, et derrière cela, des infrastructures ZK comme Succinct contribuent discrètement. Si Celestia fournit un "stockage de données vérifiable," Succinct est responsable de la création de "transitions d'état vérifiables" sur ces données. Cette combinaison peut être considérée comme le point de départ pour que la technologie ZKP passe de la théorie abstraite à un système fonctionnel dans la réalité.
5. Un zkEVM que tout le monde peut manipuler, SP1 et SP1 Reth
En résolvant l'accessibilité de l'infrastructure, Succinct vise également à abaisser les barrières d'entrée du zkVM lui-même en développant un zkVM open-source appelé SP1 (Succinct Processor 1). SP1 est un zkVM généraliste implémenté en Rust, conçu pour que quiconque puisse l'utiliser directement sans le design de circuit complexe requis par les zkEVM existants.
Un exemple précoce démontrant le potentiel de SP1 est SP1 Reth. SP1 Reth est un zkEVM de type 1 implémenté avec environ 2 000 lignes de code Rust, facilement configuré en réutilisant des composants de l'écosystème client Ethereum existant (Reth, Revm, Alloy, etc.). Encore plus étonnant est sa performance. Le coût moyen de preuve par transaction Ethereum pour SP1 Reth est seulement d'environ 0,01 à 0,02 $, ce qui est inférieur aux coûts de disponibilité des données couramment encourus dans L2.
La raison pour laquelle cette performance est possible est due au système de "précompilation" que possède SP1. Il traite des opérations intensives en calcul comme les fonctions de hachage et les vérifications de signature dans une structure pré-optimisée, réduisant considérablement les ressources consommées par le zkVM. Jusqu'à présent, la mise en œuvre d'un zkEVM avec un zkVM coûtait entre 10 et 20 dollars par bloc, mais SP1 Reth a réussi à réduire cela à des chiffres à un chiffre.
SP1 et SP1 Reth sont entièrement open-source et disponibles pour que quiconque puisse les forker et créer son propre zkEVM ou ajouter des précompilations pour améliorer les performances. Cela représente un bouleversement complet de l'environnement de développement zk existant, coûteux et difficile, ouvrant une ère où tout développeur Rust peut participer aux systèmes zk.
6. En fin de compte, ZK est maintenant accessible à tous
Succinct comble les derniers morceaux du puzzle du potentiel, de l'accessibilité et de la praticité de la technologie ZKP. Sans circuits complexes ni matériel dédié, quiconque peut créer des applications utilisant les ZKP, et les preuves sont traitées par un réseau décentralisé.
Nous entrons dans une ère où tous les rollups peuvent devenir des ZK rollups, et l'internet fonctionne uniquement sur la vérité. Au point de départ de cela se trouvent Succinct et SP1. Maintenant, les ZKP sont une technologie pour tout le monde, pas seulement pour quelques privilégiés.




7,87K
< Les données, c’est de la compétitivité, pas des modèles>
Le cœur de l’industrie de l’IA n’est plus l’informatique ou les modèles, mais les « données de haute qualité ». Tout comme la civilisation humaine a été avancée au niveau supérieur grâce au pétrole dans le passé, l’IA a également besoin d’un nouveau « carburant » pour aller plus loin. Tout comme avant et après la Seconde Guerre mondiale, lorsque le pétrole était utilisé comme source d’énergie et matériau, l’industrialisation a progressé rapidement. Désormais, qui et comment ils obtiennent et traitent les données détermineront l’initiative à l’ère de l’IA.
Elon Musk l’a également dit cette année. « Nous avons épuisé toute la somme cumulative des connaissances humaines dans l’apprentissage de l’intelligence artificielle. » Il est vrai que des modèles comme GPT se sont développés rapidement, récupérant des données publiques telles que des sites Web, des livres, du code et des images. Mais maintenant, nous avons besoin d’une nouvelle forme de données qui est protégée par le droit d’auteur ou qui n’existe pas du tout.
Par exemple, dans des domaines tels que les véhicules autonomes et la robotique, il est nécessaire d’aller au-delà du simple texte et d’avoir besoin de données complexes basées sur plusieurs capteurs qui combinent caméras, radar, lidar, etc., ainsi que des données de cas collectées dans l’environnement réel, qui n’existent pas sur le web.
Le plus gros problème n’est pas tant la technologie que « comment bien la combiner ». Des milliers de personnes ont besoin de collecter, d’étiqueter et de mettre à jour des données dans le monde entier, et il est difficile de gérer cette diversité et d’évoluer avec une approche centralisée du passé. Par conséquent, l’industrie de l’IA s’accorde de plus en plus à dire que la méthode décentralisée est la solution.
C’est là qu’apparaît « Poséidon (@psdnai) ». Poseidon n’est pas seulement un entrepôt de données, mais une infrastructure qui alimente des données réelles, les vérifie et les affine en un ensemble de données d’entraînement qui peut être utilisé sans se soucier des droits d’auteur.
Pour utiliser une analogie, Poséidon est une « raffinerie de pétrole ». Il prend des données brutes et les affine pour en faire un carburant que l’IA peut utiliser pour l’apprentissage. L’ensemble du processus se déroule dans les deux sens sur le @StoryProtocol. Il enregistre de manière transparente qui a fourni les données et qui les a écrites dans quelles conditions sur la chaîne. Ceux qui fournissent des données sont équitablement récompensés, et les développeurs d’IA peuvent les utiliser en toute confiance.
Je pense que Poseidon, qui innovera au niveau de la couche de données, et non des GPU ou des modèles, est peut-être le meilleur exemple d’application de la technologie Web3 à l’industrie du Web2.


Chris Dixon23 juil. 2025
Nous sommes ravis d'annoncer que nous menons un tour de financement de 15 millions de dollars dans Poseidon, qui a été incubé par @StoryProtocol et qui construit une couche de données décentralisée pour coordonner l'offre et la demande de données d'entraînement pour l'IA.
La première génération de modèles fondamentaux d'IA a été formée sur des données qui semblaient être une ressource pratiquement illimitée. Aujourd'hui, les ressources les plus accessibles, telles que les livres et les sites web, ont principalement été épuisées, et les données sont devenues un facteur limitant dans les progrès de l'IA.
Une grande partie des données qui restent maintenant est soit de qualité inférieure, soit inaccessible en raison des protections de propriété intellectuelle. Pour certaines des applications d'IA les plus prometteuses — dans la robotique, les véhicules autonomes et l'intelligence spatiale — les données n'existent même pas encore. Maintenant, ces systèmes ont besoin de types d'informations entièrement nouveaux : multi-sensorielles, riches en cas limites, capturées dans la nature. D'où viendra toutes ces données du monde physique ?
Le défi n'est pas seulement technique — c'est un problème de coordination. Des milliers de contributeurs doivent travailler ensemble de manière distribuée pour sourcer, étiqueter et maintenir les données physiques dont l'IA de prochaine génération a besoin. Nous croyons qu'aucune approche centralisée ne peut orchestrer efficacement la création et la curation des données nécessaires au niveau d'échelle et de diversité requis. Une approche décentralisée peut résoudre cela.
@psdnai permet aux fournisseurs de collecter les données dont les entreprises d'IA ont besoin, tout en garantissant la sécurité de la propriété intellectuelle via la licence IP programmable de Story. Cela vise à établir une nouvelle fondation économique pour Internet, où les créateurs de données sont justement rémunérés pour aider les entreprises d'IA à alimenter la prochaine génération de systèmes intelligents.
L'équipe de Poseidon, dirigée par le scientifique en chef et cofondateur @SPChinchali, apporte une expertise approfondie en infrastructure d'IA. Sandeep est professeur à l'UT Austin spécialisé en IA, robotique et systèmes distribués, avec un doctorat de Stanford en IA et systèmes distribués. Le responsable produit et cofondateur @sarickshah a passé une décennie en tant qu'ingénieur en apprentissage automatique, développant des produits d'IA pour de grandes entreprises dans les services financiers, les télécommunications et la santé.
Nous sommes ravis de soutenir Poseidon dans son travail pour résoudre l'un des goulets d'étranglement les plus critiques dans le développement de l'IA.

2,46K
<Pourquoi Sonic est-il venu en Corée ?>
Plus tôt cette année, @SonicLabs a fait vibrer le cœur de DeFi Diegen. Au sommet de la chaîne rapidement réorganisée, des produits DeFi nostalgiques sont apparus pour la première fois depuis longtemps. À l’époque, il a été dit qu’environ 200 millions de jetons $S seraient distribués sur une base ponctuelle, ce qui représentait environ 6 % de l’offre totale en circulation, il y a donc eu un grand battage médiatique.
Cependant, alors que l’intérêt mondial pour les chaînes spécialisées dans la DeFi a diminué, Sonic doit savoir qu’il n’y a pas beaucoup d’utilisateurs à l’étranger qui accepteront ce volume.
En fin de compte, je pense que nous avons planifié cet événement en nous basant sur le jugement que le seul marché qui pouvait s’attendre à une réponse était la « Corée ». Cependant, maintenant que les investisseurs coréens sont également éduqués, ils se rendront vite compte que ce n’est pas aussi facile qu’avant. En effet, la plupart des personnes rassemblées lors de l’événement sont des agriculteurs largués, et les participants de Yaping sont des « dettes » du point de vue du projet.
Après tout, si vous ne misez pas sur de vrais produits avec un esprit DeFi comme avant, je pense qu’il est difficile d’attirer à nouveau l’attention. Personnellement, c’est triste de voir mon vieux Sonic préféré être écarté des projecteurs comme Vera.

seg.sonic17 juil. 2025
Airdrop IRL @SonicLabs Corée 🔥🔥
1,19K
< L’histoire prend un nouvel élan>
Une nouvelle figure a rejoint @StoryProtocol remodèle l’industrie du contenu grâce à la tokenisation de la propriété intellectuelle.
Il s’agit de Sandeep Chincharly, professeur à l’UT Austin et expert en IA, en robotique et en systèmes distribués.
Sandeep Chin Charlie est un ancien chercheur de la NASA qui a étudié l’IA générative et la robotique cloud à Stanford et est actuellement professeur à UT Austin, où il s’occupe de la conduite autonome et des modèles d’apprentissage automatique distribués.
Au cours de ses recherches, il a installé une caméra embarquée directement sur le véhicule pour collecter des données réelles, et a analysé des scènes rares appelées « longues traînes ». Nous avons étiqueté ces données, formé des modèles d’IA légers directement sur du matériel TPU pour l’apprentissage profond et apprécié l’importance de la qualité et de la rareté des données.
Puis il a dit qu’il s’était posé une question.
« Pour que l’IA fonctionne correctement dans la réalité, elle a besoin de données de haute qualité, et pas seulement de modèles. Et pour collecter volontairement ces données, une structure d’incitation efficace est nécessaire.
Et j’ai trouvé la réponse dans Story.
@StoryProtocol définit les données comme de la propriété intellectuelle, et pas seulement des ressources, et construit un système de récompense sur la chaîne.
Collecte de données rares→ étiquetage→ synthèse → enregistrement on-chain → distribution des redevances
Suivez de manière transparente tout ce qui se trouve sur la chaîne. Le professeur Sandeep l’explique comme suit :
« J’enregistre une rare scène de conduite que j’ai prise avec une dashcam sur Story, et mon ami l’étiquette. Lorsque l’IA crée des données synthétiques sur la base de celles-ci, une propriété intellectuelle liée est générée en cours de route et les redevances sont automatiquement distribuées à tous les contributeurs.
En tant que directeur de l’IA chez Story, le professeur Sandeep Chinchaly dirigera la stratégie globale d’IA, l’infrastructure de données d’apprentissage sur la chaîne et la conception d’un système de récompense des données décentralisé. Et il définit la valeur des données comme suit.
« Les données sont la nouvelle propriété intellectuelle. »

Story17 juil. 2025
Présentation du nouveau Chief AI Officer de Story, @SPChinchali.
Sandeep est professeur à l'UT Austin, se concentrant sur GenAI, la robotique et les systèmes distribués. Il est un ancien chercheur de la NASA, un ingénieur précoce d'une startup acquise par VMware, et détient un doctorat de Stanford en IA et systèmes distribués.
En tant que Chief AI Officer, Sandeep dirigera la stratégie IA de Story, en pilotant des incubations clés et en conseillant l'écosystème plus large sur la manière de saisir l'immense opportunité que représente l'IA à venir.
Le travail de Sandeep s'est longtemps concentré sur la manière dont les robots, les capteurs et les modèles de ML peuvent apprendre du monde physique désordonné. Maintenant, il apporte son expertise à web3 et à Story.
C'est parce que le prochain saut de l'IA ne concerne pas plus de GPU. Il s'agit de débloquer la catégorie de propriété intellectuelle la plus précieuse (et sous-exploitée) : les données du monde réel.
La nomination de Sandeep est une étape importante vers la réalisation de la vision du Chapitre 2 de Story. La semaine prochaine, cette vision prendra vie de manière significative.
Restez à l'écoute.

9,24K
<Entretien avec RedStone>
RedStone est un projet d'oracle blockchain modulaire qui fournit des flux de données sécurisés, rapides et rentables pour plus de 1 250 actifs sur plus de 70 chaînes.
Son architecture sépare la collecte de données hors chaîne de la livraison sur chaîne, prenant en charge à la fois les mécanismes de tirage et de poussée. Ce design offre aux développeurs la flexibilité d'optimiser entre les coûts de gaz et la performance en temps réel.
Ce soir à 22h KST, nous serons rejoints par le fondateur de RedStone pour entendre parler de leur vision et de leurs stratégies pour les marchés des stablecoins et des actifs réels (RWA) en pleine croissance.
👉

5,32K
< Le contenu créé par l’IA est-il réel ? >
@Mira_Network’s Verify est l’infrastructure qui répond à cette question. Au lieu d’un seul modèle, nous évaluons chaque affirmation à l’aide de trois modèles de vérification spécialisés et les classons comme « vraies », « fausses » ou « sans consensus » en fonction des résultats.
Si tous les modèles prennent la même décision, le résultat est considéré comme fiable, et s’ils portent des jugements différents, cela soulève des signaux suspects. Il ne s’agit pas seulement de trouver la bonne réponse, mais de fournir l’incertitude elle-même sous forme de données.
Verify n’est pas seulement une démonstration, c’est une « infrastructure de confiance ». Il s’agit d’un backend alimenté par des API qui permet aux entreprises de détecter l’authenticité du contenu de l’IA, de filtrer automatiquement la désinformation et de le connecter à une position examinable par l’homme si nécessaire.

Mira (3/3)16 juil. 2025
Internet a un problème de vérité.
Nous avons donc créé Mira Verify, qui utilise un consensus multi-modèle pour identifier les hallucinations et la désinformation.
Mira est le multi-sig de la vérité.
2,35K
<Qu’avez-vous ressenti en regardant Sharplink Gaming >
J’ai l’impression que Consensys a pris les devants et que la « stratégie financière Ethereum » est devenue une grande tendance. Sharplink Gaming augmente régulièrement Ethereum en levant environ 500 milliards de wons grâce à PIPE, et la différence avec la stratégie financière de Bitcoin est qu’Ethereum peut réaliser des bénéfices grâce à la gestion d’actifs au-delà de la simple détention.
Ce qui m’intéresse ici, c’est de savoir comment gérer l’Ethereum accumulé de cette manière. Si vous regardez @SharpLinkGaming exemple, vous pouvez voir que les actifs sont gérés sur la base du LST ou du LRT via Figment.
Figment est l’un des meilleurs validateurs d’Ethereum, et il exploite un coffre-fort dédié aux investisseurs institutionnels tout en offrant des rendements de jalonnement stables. Et des projets comme @Obol_Collective aident les grands opérateurs comme Figment à rendre la validation plus fiable et plus efficace.
Au fur et à mesure que de plus en plus d’institutions adoptent la stratégie Ethereum, je pense que l’offre et la demande d’Ethereum seront inévitablement dirigées vers ces validateurs réservés aux institutions. En particulier, la gestion des risques est la clé pour les institutions, elles exploitent donc les nœuds de manière très conservatrice pour minimiser les risques tels que les temps d’arrêt et le slashing.
Par exemple, si une catastrophe naturelle se produit lors de l’exécution d’un nœud avec une seule clé de validation, non seulement les récompenses que vous recevrez à l’avenir, mais aussi le principal de jalonnement peuvent être perdus. Afin de réduire ce risque, la demande de DVT (Distributed Validator Technology) (DVT), qui distribue les clés de validation sur plusieurs nœuds, continuera de croître.
La différence d’infrastructure décisive entre Ethereum et Solana est sa structure informatique décentralisée. Même si le monde est détruit, il est conçu pour éviter un seul point de défaillance à travers au moins 5 ~ 6 clients. Pour que les institutions adoptent correctement ce récit Ethereum, elles doivent élaborer des stratégies au niveau du validateur afin de réduire les points de défaillance uniques, et il y a des projets comme @Obol_Collective au centre de celui-ci.
Au final, je pense que plus il y aura d’entreprises qui choisiront la stratégie financière d’Ethereum, plus la demande pour des projets qui les aideront à mieux valider ou à faciliter la gestion d’actifs augmentera naturellement.


Lido6 juil. 2025
DVV All Time High + Augmentation de la Limite
Le Decentralised Validator Vault a atteint un niveau record de 14 344 wstETH (~44 millions de dollars).
De plus, la limite de dépôt a été augmentée à 20 000 wstETH, stimulant l'adoption de DVT via Lido, Obol et SSV.
Limites plus élevées. Plus de décentralisation.

7,48K
< La grammaire d’investissement des sociétés de capital-risque mondiales a changé>
De nos jours, les sociétés de capital-risque mondiales investissent dans des entreprises qui souhaitent intégrer les actifs numériques en tant qu’actifs stratégiques. Pantera a récemment créé un fonds DAT (Digital Asset Treasury) et investi dans des sociétés telles que Cantor Equity Partners (CEP), et on dit qu’il profite d’une prime de 1,5 à 10 fois sa valeur liquidative (VNI).
Au final, une nouvelle méta centrée sur les entreprises et les fonds de capital-investissement a été créée. Ce à quoi nous pouvons penser ici, c’est de savoir à l’avance quelles pièces ces entreprises incluront comme actifs stratégiques à l’avenir.
Par exemple, il semble que des projets comme @StoryProtocol puissent être inclus dans le fonds d’IA géré par Grayscale, et si les sociétés de capital-risque qui prennent l’IA au sérieux comme @DCGco créent un ETF AI distinct, il est possible que les pièces d’IA telles que $IP, $TAO et $Flock soient stratégiquement incluses.
Si vous regardez le cas actuel de Pantera, vous pouvez voir des pièces majeures telles que Bitcoin, Ethereum, Ripple, Avalanche, Hyperliquid et Sui.
Par conséquent, je pense qu’il serait plus réaliste de rechercher des candidats que les entreprises et les fonds peuvent inclure en tant qu’actifs stratégiques parmi les petites et moyennes capitalisations.

Grayscale27 juin 2025
We have updated the Grayscale Research Top 20. The Top 20 represents a diversified set of assets across Crypto Sectors that, in our view, have high potential over the coming quarter. This quarter's new assets are Avalanche $AVAX and Morpho $MORPHO. All the assets in our Top 20 list have high price volatility and should be considered high risk.
Read the full report:

9,48K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables