Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Professor Jo 🐙
인수 금융 커리어를 바탕으로 디파이에서 더 큰 꿈을 향해 달려가는 '디파이 농부 조선생' 입니다. @0xundefined_
<Intervista ai Pudgy Penguins>
I Pudgy Penguins (@pudgypenguins) sono emersi come uno degli IP più amati nel mondo delle criptovalute, unendo la cultura crypto con il mainstream attraverso giocattoli, meme e narrazione.
Guidato dal CEO @LucaNetz, il progetto si sta ora espandendo in ETF, Layer 2 e licenze globali.
Stasera alle 23:00 KST, saremo accompagnati da Luca per parlare del prossimo Pudgy ETF, del loro nuovo L2 "Abstract" e di come Pudgy stia trasformando la dolcezza in capitale.
👉

23,5K
<Perché ZK ha fallito e cosa sta cercando di cambiare Succinct?>
1. Consapevolezza del problema
Il creatore di Bitcoin, Satoshi Nakamoto, ha espresso scetticismo riguardo ai Zero-Knowledge Proofs (ZKP).
Ha dichiarato: "Per dimostrare che qualcosa non esiste, è necessario conoscere l'intera transazione," concludendo che applicare ZKP alla blockchain è strutturalmente difficile.
Tuttavia, ha anche menzionato che "se viene trovata una soluzione, sarebbe molto meglio, più facile e più conveniente implementare Bitcoin." In altre parole, pur riconoscendo i limiti tecnici di ZK, ha riconosciuto che se risolti, potrebbe essere un punto di svolta significativo nell'evoluzione della blockchain.
Anni dopo, la comunità cypherpunk e i ricercatori ZK hanno finalmente trovato quella soluzione. Zcash è stato il primo caso ad applicare ZKP a una vera criptovaluta, e progetti successivi come StarkWare, zkSync e Scroll hanno sviluppato questa tecnologia come un mezzo chiave per migliorare la scalabilità e la verificabilità di Ethereum.
Tuttavia, c'è ancora un divario nella realtà. Creare un zkEVM richiede una profonda esperienza, anni di tempo di sviluppo e hardware ad alte prestazioni, e la maggior parte dei progetti finisce per fare affidamento su fornitori di prove specifici invece di gestire la propria infrastruttura ZKP. Di conseguenza, ZKP rimane uno strumento complesso che solo pochi possono gestire piuttosto che una tecnologia che chiunque possa utilizzare.
2. Cos'è Succinct?
Succinct (@SuccinctLabs) è un tentativo di affrontare direttamente questo problema. La sua missione principale è trasformare ZKP in un'infrastruttura che tutti gli sviluppatori possano utilizzare facilmente, consentendo a chiunque di creare un 'sistema senza fiducia' senza circuiti o infrastrutture complesse.
Succinct è un'infrastruttura che trasforma l'ideale di un sistema 'senza fiducia', che la blockchain ha perseguito, in una realtà praticamente implementabile. Senza fiducia non significa 'inaffidabile'; piuttosto, si riferisce a una struttura che opera in modo indipendente senza fare affidamento sulla fiducia, cioè, un sistema matematicamente verificabile senza terze parti o autorità centrali.
Tuttavia, l'attuale ecosistema blockchain si basa ancora pesantemente sulla fiducia. Gli attacchi ai bridge, le operazioni multi-firma e le deleghe di validatori centralizzati servono tutte come prova che dobbiamo ancora fidarci di persone o organizzazioni affinché il sistema funzioni.
Il tentativo di superare queste limitazioni basate sulla fiducia è precisamente la tecnologia Zero-Knowledge Proof (ZKP). Questa tecnologia consente di dimostrare matematicamente che "questo calcolo è corretto" senza fidarsi di nessuno, rendendola una base fondamentale per i sistemi decentralizzati. Il problema è stato che ZKP è troppo complesso e pesante per un uso pratico.
3. Perché ZKP sembrava difficile?
La tecnologia ZKP ha alte barriere tanto quanto il suo potenziale. In particolare, creare un zkEVM richiede un team specializzato, anni di tempo di sviluppo e infrastrutture costose. La maggior parte dei progetti zk ha dovuto progettare i propri circuiti, costruire zkVM dedicati e gestire direttamente l'hardware. Solo dopo aver attraversato tutti questi processi potevano affermare di essere "ZK rollup."
Inoltre, gli zkVM esistenti di uso generale erano molto inefficienti nella generazione di prove. Tipicamente, dimostrare un singolo blocco richiedeva un cluster di decine di macchine ad alte prestazioni, con costi che variavano da $10 a $20 per blocco. A causa di questi oneri tecnici e costi operativi, molti progetti hanno abbandonato l'introduzione di ZKP del tutto o hanno scelto di fare affidamento su alcuni fornitori di prove centralizzati.
4. Il tentativo di Succinct
@SuccinctLabs considera questi problemi strutturali come 'problemi di infrastruttura.' ZKP è tecnicamente potente, ma la domanda è chi, come e a quale costo viene implementato. Pertanto, Succinct sta creando una rete di provatori decentralizzata a cui chiunque può accedere facilmente senza che i singoli progetti debbano gestire direttamente l'infrastruttura di prova.
Gli sviluppatori non devono configurare zkVM complessi o procurarsi hardware. Quando inviano richieste di prova alla rete, vari provatori con hardware diverso fanno offerte per elaborarle in modo simile a un'asta. I costi delle prove diminuiscono naturalmente attraverso la competizione, e i provatori generano prove in modo efficiente utilizzando attrezzature ad alte prestazioni. Di conseguenza, gli sviluppatori ricevono prove rapide e a basso costo, mentre l'intero ecosistema beneficia di un'infrastruttura di prova con alta disponibilità e resistenza alla censura.
Succinct non sta solo dimostrando possibilità tecniche; sta dimostrando il suo ruolo in aree in cui sorgono domande reali. Un esempio rappresentativo è l'emergere della tendenza 'CLOBs on Blobs' nell'ecosistema @celestia. Gli scambi decentralizzati che utilizzano metodi di central limit order book (CLOB) ad alte prestazioni stanno apparendo nello spazio blob di Celestia, portando a richieste di infrastruttura per l'elaborazione di dati su larga scala e prove di stato rapide.
Progetti come Hyperliquid e @hibachi_xyz stanno implementando logiche complesse di trading e scoperta dei prezzi on-chain, che richiedono scalabilità e prestazioni oltre i semplici rollup. Ciò di cui abbiamo bisogno qui è il layer di disponibilità dei dati ad alte prestazioni di Celestia e l'infrastruttura di prova ZK decentralizzata fornita da Succinct.
Infatti, Celestia ha visto un rapido aumento dell'uso effettivo dello spazio blob, e dietro questo, infrastrutture ZK come Succinct stanno contribuendo silenziosamente. Se Celestia fornisce un 'storage di dati verificabile', Succinct è responsabile della creazione di 'transizioni di stato verificabili' su quei dati. Questa combinazione può essere vista come il punto di partenza per la tecnologia ZKP per passare dalla teoria astratta a un sistema funzionante nella realtà.
5. Un zkEVM che chiunque può gestire, SP1 e SP1 Reth
Risolvendo l'accessibilità dell'infrastruttura, Succinct mira anche a ridurre le barriere all'ingresso dello zkVM stesso sviluppando uno zkVM open-source chiamato SP1 (Succinct Processor 1). SP1 è uno zkVM di uso generale implementato in Rust, progettato per essere utilizzato direttamente da chiunque senza la complessa progettazione di circuiti richiesta dagli zkEVM esistenti.
Un esempio precoce che dimostra il potenziale di SP1 è SP1 Reth. SP1 Reth è un tipo-1 zkEVM implementato con circa 2.000 righe di codice Rust, facilmente configurabile riutilizzando componenti dall'ecosistema client di Ethereum esistente (Reth, Revm, Alloy, ecc.). Ancora più sorprendente è la sua prestazione. Il costo medio della prova per transazione Ethereum per SP1 Reth è solo di circa $0,01 a $0,02, che è inferiore ai costi di disponibilità dei dati comunemente sostenuti in L2.
Il motivo per cui questa prestazione è possibile è dovuto al sistema 'precompile' che SP1 possiede. Elabora operazioni computazionalmente intensive come funzioni hash e verifiche di firme in una struttura pre-ottimizzata, riducendo significativamente le risorse consumate dallo zkVM. Fino ad ora, implementare zkEVM con uno zkVM costava $10 a $20 per blocco, ma SP1 Reth è riuscito a ridurre questo a cifre singole.
Sia SP1 che SP1 Reth sono completamente open-source e disponibili per chiunque forkare e creare il proprio zkEVM o aggiungere precompilazioni per migliorare le prestazioni. Questo rappresenta un completo sconvolgimento dell'attuale ambiente di sviluppo zk ad alto costo e alta difficoltà, aprendo un'era in cui qualsiasi sviluppatore Rust può partecipare ai sistemi zk.
6. In definitiva, ZK è ora accessibile a tutti
Succinct sta riempiendo gli ultimi pezzi del puzzle del potenziale, dell'accessibilità e della praticità della tecnologia ZKP. Senza circuiti complessi o hardware dedicato, chiunque può creare applicazioni che utilizzano ZKP, e le prove vengono elaborate da una rete decentralizzata.
Stiamo entrando in un'era in cui tutti i rollup possono diventare ZK rollup, e Internet opera esclusivamente sulla verità. Al punto di partenza di questo ci sono Succinct e SP1. Ora, ZKP è una tecnologia per tutti, non solo per pochi eletti.




8,02K
Il fulcro dell'industria dell'IA non è più l'informatica o i modelli, ma i "dati di alta qualità". Proprio come la civiltà umana è stata avanzata al livello successivo attraverso il petrolio in passato, anche l'IA ha bisogno di un nuovo "carburante" per andare oltre. Proprio come prima e dopo la seconda guerra mondiale, quando il petrolio veniva utilizzato come fonte di energia e materiale, l'industrializzazione progredì rapidamente. Ora, chi e come otterrà ed elaborerà i dati determinerà l'iniziativa nell'era dell'intelligenza artificiale.
Lo ha detto anche Elon Musk quest'anno. "Abbiamo esaurito tutta la somma cumulativa della conoscenza umana nell'apprendimento dell'intelligenza artificiale". È vero che modelli come GPT sono cresciuti rapidamente, raschiando dati pubblici come siti web, libri, codice e immagini. Ma ora abbiamo bisogno di una nuova forma di dati che sia protetta da copyright o che non esista affatto.
Ad esempio, in campi come i veicoli autonomi e la robotica, è necessario andare oltre il semplice testo e aver bisogno di dati complessi basati su più sensori che combinino telecamere, radar, lidar, ecc., nonché di dati di casi raccolti nell'ambiente reale, che non esistono sul web.
Il problema più grande non riguarda tanto la tecnologia, quanto "come combinarla bene". Migliaia di persone hanno bisogno di raccogliere, etichettare e aggiornare i dati in tutto il mondo ed è difficile gestire questa diversità e scalare con un approccio centralizzato al passato. Pertanto, l'industria dell'intelligenza artificiale è sempre più d'accordo sul fatto che il metodo decentralizzato sia la risposta.
È qui che appare "Poseidon (@psdnai)". Poseidon non è solo un data warehouse, ma un'infrastruttura che alimenta dati reali, li verifica e li perfeziona in un set di dati di addestramento che può essere utilizzato senza preoccuparsi del copyright.
Per usare un'analogia, Poseidon è una "raffineria di petrolio". Prende i dati grezzi e li raffina in carburante che l'intelligenza artificiale può utilizzare per l'apprendimento. L'intero processo va avanti e indietro sul @StoryProtocol. Registra in modo trasparente chi ha fornito i dati e chi li ha scritti in quali condizioni on-chain. Coloro che forniscono dati sono equamente ricompensati e gli sviluppatori di intelligenza artificiale possono utilizzarli con fiducia.
Penso che Poseidon, che innoverà a livello di dati, non di GPU o modelli, possa essere il miglior esempio di applicazione della tecnologia Web3 al settore Web2.


Chris Dixon23 lug 2025
Siamo entusiasti di annunciare che stiamo guidando un round di finanziamento seed da 15 milioni di dollari in Poseidon, che è stato incubato da @StoryProtocol e sta costruendo uno strato di dati decentralizzato per coordinare l'offerta e la domanda di dati per l'addestramento dell'IA.
La prima generazione di modelli fondativi di IA è stata addestrata su dati che sembravano essere una risorsa praticamente illimitata. Oggi, le risorse più accessibili come libri e siti web sono state per lo più esaurite, e i dati sono diventati un fattore limitante nel progresso dell'IA.
Gran parte dei dati che rimangono ora è di qualità inferiore o inaccessibile a causa delle protezioni della proprietà intellettuale. Per alcune delle applicazioni di IA più promettenti — nell'ambito della robotica, dei veicoli autonomi e dell'intelligenza spaziale — i dati non esistono nemmeno ancora. Ora questi sistemi hanno bisogno di tipi completamente nuovi di informazioni: multi-sensoriali, ricchi di casi limite, catturati nel mondo reale. Da dove verranno tutti questi dati del mondo fisico?
La sfida non è solo tecnica — è un problema di coordinamento. Migliaia di contributori devono lavorare insieme in modo distribuito per reperire, etichettare e mantenere i dati fisici di cui l'IA di nuova generazione ha bisogno. Crediamo che nessun approccio centralizzato possa orchestrare in modo efficiente la creazione e la cura dei dati necessarie al livello richiesto di scala e diversità. Un approccio decentralizzato può risolvere questo.
@psdnai consente ai fornitori di raccogliere i dati di cui le aziende di IA hanno bisogno, garantendo al contempo la sicurezza della proprietà intellettuale tramite la licenza IP programmabile di Story. Questo cerca di stabilire una nuova base economica per internet, dove i creatori di dati vengono giustamente compensati per aiutare le aziende di IA a potenziare la prossima generazione di sistemi intelligenti.
Il team di Poseidon, guidato dal Chief Scientist e Cofondatore @SPChinchali, porta una profonda esperienza nell'infrastruttura dell'IA. Sandeep è professore presso l'UT Austin specializzato in IA, robotica e sistemi distribuiti, con un dottorato di ricerca da Stanford in IA e sistemi distribuiti. Il Responsabile del Prodotto e Cofondatore @sarickshah ha trascorso un decennio come ingegnere di machine learning, scalando prodotti di IA per grandi imprese nei settori dei servizi finanziari, delle telecomunicazioni e della sanità.
Siamo entusiasti di supportare Poseidon nel suo lavoro per risolvere uno dei colli di bottiglia più critici nello sviluppo dell'IA.

2,47K
<Perché Sonic è venuto in Corea?>
All'inizio di quest'anno, @SonicLabs entusiasmato i cuori di DeFi Diegen. In cima alla catena rapidamente riorganizzata, i nostalgici prodotti DeFi sono apparsi per la prima volta dopo molto tempo. A quel tempo si diceva che sarebbero stati distribuiti circa 200 milioni di token $S su base puntiforme, ovvero circa il 6% dell'offerta totale in circolazione, quindi c'era un grande clamore.
Tuttavia, poiché l'interesse globale per le chain specializzate nella DeFi è diminuito, Sonic deve sapere che non ci sono molti utenti all'estero che accetteranno questo volume.
Alla fine, penso che abbiamo pianificato questo evento basandoci sul fatto che l'unico mercato che poteva aspettarsi una risposta era la Corea. Tuttavia, ora che anche gli investitori coreani sono istruiti, si renderanno presto conto che non è così facile come una volta. Questo perché la maggior parte delle persone riunite all'evento sono agricoltori di airdrop, e i partecipanti di Yaping sono "debiti" dal punto di vista del progetto.
Dopotutto, se non si scommette su prodotti reali con uno spirito DeFi come prima, penso che sia difficile attirare di nuovo l'attenzione. Personalmente, è triste vedere il mio vecchio Sonic preferito essere spinto fuori dai riflettori come Vera.

seg.sonic17 lug 2025
Airdrop IRL @SonicLabs Corea 🔥🔥
1,21K
<La storia sta guadagnando nuovo slancio>
Si è unita una nuova figura @StoryProtocol sta rimodellando l'industria dei contenuti attraverso la tokenizzazione dell'IP.
Si tratta di Sandeep Chincharly, professore all'UT Austin ed esperto di intelligenza artificiale, robotica e sistemi distribuiti.
Sandeep Chin Charlie è un ex ricercatore della NASA che ha studiato intelligenza artificiale generativa e robotica cloud a Stanford ed è attualmente professore all'UT Austin, dove si occupa di guida autonoma e modelli di apprendimento automatico distribuito.
Nel corso della sua ricerca, ha installato una dash cam direttamente sul veicolo per raccogliere dati reali e ha analizzato scene rare chiamate "long-tails". Abbiamo etichettato questi dati, addestrato modelli di intelligenza artificiale leggeri direttamente sull'hardware TPU per il deep learning e apprezzato profondamente l'importanza della qualità e della scarsità dei dati.
Poi ha detto di essersi fatto una domanda.
"Affinché l'intelligenza artificiale funzioni correttamente nella realtà, ha bisogno di dati di alta qualità, non solo di modelli. E per raccogliere volontariamente tali dati, è necessaria un'efficace struttura di incentivi".
E ho trovato la risposta in Story.
@StoryProtocol definisce i dati come IP, non solo come risorse, e sta costruendo un sistema di ricompensa on-chain.
Raccolta di dati rari→ etichettatura→ sintesi → registrazione on-chain → distribuzione di royalty
Traccia in modo trasparente tutto sulla catena. Il professor Sandeep lo spiega così:
"Registro una rara scena di guida che ho girato con una dashcam su Story e il mio amico la etichetta. Quando l'intelligenza artificiale crea dati sintetici basati su di essi, viene generato un IP collegato lungo il percorso e le royalties vengono distribuite automaticamente a tutti i contributori".
In qualità di Chief AI Officer di Story, il professor Sandeep Chinchaly guiderà la strategia generale di intelligenza artificiale, l'infrastruttura dei dati di apprendimento on-chain e la progettazione di un sistema di ricompensa dei dati decentralizzato. E definisce il valore dei dati in questo modo.
"I dati sono la nuova proprietà intellettuale".

Story17 lug 2025
Presentiamo il nuovo Chief AI Officer di Story, @SPChinchali.
Sandeep è un professore presso l'UT Austin che si concentra su GenAI, robotica e sistemi distribuiti. È un ex ricercatore della NASA, ingegnere di una startup acquisita da VMware e possiede un dottorato di ricerca in AI e sistemi distribuiti conseguito a Stanford.
In qualità di Chief AI Officer, Sandeep guiderà la strategia AI di Story, promuovendo incubazioni chiave e consigliando l'ecosistema più ampio su come catturare l'immensa opportunità AI che ci attende.
Il lavoro di Sandeep si è a lungo concentrato su come robot, sensori e modelli di ML possano apprendere dal disordinato mondo fisico. Ora porta la sua esperienza nel web3 e in Story.
Questo perché il prossimo salto dell'AI non riguarda più le GPU. Si tratta di sbloccare la categoria di IP più preziosa (e trascurata): i dati del mondo reale.
La nomina di Sandeep è un passo importante verso il raggiungimento della visione del Capitolo 2 di Story. La prossima settimana, questa visione prenderà vita in grande stile.
Rimanete sintonizzati.

9,26K
<Intervista a RedStone>
RedStone è un progetto di oracle blockchain modulare che fornisce feed di dati sicuri, veloci e convenienti per oltre 1.250 asset su più di 70 catene.
La sua architettura separa la raccolta di dati off-chain dalla consegna on-chain, supportando sia meccanismi di pull che di push. Questo design offre agli sviluppatori la flessibilità di ottimizzare tra costi del gas e prestazioni in tempo reale.
Stasera alle 22:00 KST, saremo accompagnati dal fondatore di RedStone per ascoltare la loro visione e strategie per i mercati in rapida crescita delle stablecoin e degli RWA.
👉

5,34K
@Mira_Network's Verify è l'infrastruttura che risponde a questa domanda. Invece di un unico modello, valutiamo ogni affermazione attraverso tre modelli di verifica specializzati e li classifichiamo come "vero", "falso" o "nessun consenso" in base ai risultati.
Se tutti i modelli prendono la stessa decisione, è considerato un risultato affidabile e se esprimono giudizi diversi, solleva segnali sospetti. Non si tratta solo di trovare la risposta giusta, ma di fornire l'"incertezza" stessa sotto forma di dati.
Verify non è solo una demo, è una "infrastruttura di fiducia". Si tratta di un backend basato su API che consente alle aziende di rilevare l'autenticità dei contenuti dell'intelligenza artificiale, filtrare automaticamente la disinformazione e collegarla a una posizione rivedibile dall'uomo quando necessario.

Mira (3/3)16 lug 2025
Internet ha un problema di verità.
Così abbiamo creato Mira Verify, che utilizza il consenso multi-modello per identificare allucinazioni e disinformazione.
Mira è il multi-sig della verità.
2,36K
<Cosa hai provato guardando Sharplink Gaming>
Sento che Consensys ha preso l'iniziativa e la "strategia finanziaria di Ethereum" è diventata una grande tendenza. Sharplink Gaming sta aumentando costantemente Ethereum raccogliendo circa 500 miliardi di won attraverso PIPE, e la differenza rispetto alla strategia finanziaria di Bitcoin è che Ethereum può realizzare profitti attraverso la gestione patrimoniale oltre la semplice detenzione.
Quello che mi incuriosisce qui è come gestire gli Ethereum accumulati in questo modo. Se si guarda @SharpLinkGaming esempio, si può vedere che gli asset sono gestiti in base a LST o LRT tramite Figment.
Figment è uno dei migliori validatori su Ethereum e gestisce un caveau dedicato per gli investitori istituzionali, fornendo al contempo rendimenti stabili in staking. E progetti come @Obol_Collective stanno aiutando grandi operatori come Figment a rendere la convalida più affidabile ed efficiente.
Man mano che sempre più istituzioni adottano la strategia Ethereum, credo che la domanda e l'offerta di Ethereum saranno inevitabilmente indirizzate verso questi validatori che si rivolgono esclusivamente alle istituzioni. In particolare, la gestione del rischio è la chiave per le istituzioni, quindi gestiscono i nodi in modo molto conservativo per ridurre al minimo i rischi come i tempi di inattività e i tagli.
Ad esempio, se si verifica un disastro naturale durante l'esecuzione di un nodo con una singola chiave validatore, non solo le ricompense che riceverai in futuro, ma anche il principale di staking possono andare persi. Al fine di ridurre questo rischio, la domanda di DVT (Distributed Validator Technology) (DVT), che distribuisce le chiavi di convalida su più nodi, continuerà a crescere.
La differenza decisiva nell'infrastruttura tra Ethereum e Solana è la sua struttura di calcolo decentralizzata. Anche se il mondo viene distrutto, è progettato per evitare un singolo punto di errore attraverso almeno 5~6 client. Affinché le istituzioni possano abbracciare correttamente questa narrativa di Ethereum, devono elaborare una strategia a livello di validatore per ridurre i singoli punti di errore, e ci sono progetti come @Obol_Collective al centro di esso.
Alla fine, penso che più aziende sceglieranno la strategia finanziaria di Ethereum, più aumenterà naturalmente la domanda di progetti che le aiutino a fare una migliore convalida o a semplificare la gestione degli asset.


Lido6 lug 2025
DVV Massimo Storico + Aumento del Limite
Il Vault dei Validatori Decentralizzati ha raggiunto un massimo storico di 14.344 wstETH (~44 milioni di dollari).
In aggiunta, il limite di deposito è stato aumentato a 20.000 wstETH, alimentando l'adozione del DVT attraverso Lido, Obol e SSV.
Limiti più alti. Maggiore decentralizzazione.

7,5K
<글로벌 VC의 투자 문법이 바뀌었다>
요즘 글로벌 VC들이 디지털 자산을 전략 자산으로 편입하려는 기업들에 먼저 투자하고 있어. 판테라는 최근 DAT (Digital Asset Treasury) 펀드를 만들어서 Cantor Equity Partners (CEP) 같은 기업에 투자했는데, 순자산가치(NAV) 대비 1.5배에서 많게는 10배 프리미엄으로 수익을 보고 있다고 하더라.
결국, 기업 중심·사모펀드 중심의 새로운 메타가 생긴 거지. 우리가 여기서 생각해볼 수 있는 건, 앞으로 어떤 코인을 이런 기업들이 전략 자산으로 담을지 미리 알아보는 거야.
예를 들어, 그레이스케일이 운용중인 AI 펀드에 @StoryProtocol 같은 프로젝트가 편입될 수도 있을 것 같고, @DCGco처럼 AI에 진심인 VC들이 AI ETF를 따로 만들면, $IP, $TAO, $Flock 같은 AI 코인들을 전략적으로 담을 가능성도 있다고 봐.
현재 판테라 사례를 보면 비트코인, 이더리움, 리플, 아발란체, 하이퍼리퀴드, 수이 같은 메이저 코인을 보긴 해. 근데 이 정도 사이즈 코인들은 이미 시총이 커서 프리미엄 먹기엔 한계가 있지 않을까?
그래서 오히려 미드/스몰캡 중에서, 기업이나 펀드가 전략 자산으로 담을 만한 후보를 찾아보는 게 더 현실적일 것 같아.

Grayscale27 giu 2025
Abbiamo aggiornato la Top 20 di Grayscale Research. La Top 20 rappresenta un insieme diversificato di asset in tutti i settori delle criptovalute che, a nostro avviso, hanno un alto potenziale nel prossimo trimestre. I nuovi asset di questo trimestre sono Avalanche $AVAX e Morpho $MORPHO. Tutti gli asset nella nostra lista Top 20 hanno un'elevata volatilità dei prezzi e dovrebbero essere considerati ad alto rischio.
Leggi il report completo:

9,5K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari