Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Professor Jo 🐙
Basado en su carrera en finanzas de adquisiciones, es un 'agricultor de DeFi Joseon' que corre hacia un sueño más grande en DeFi. @0xundefined_
<Entrevista a Pudgy Penguins>
Pudgy Penguins (@pudgypenguins) se ha convertido en una de las IPs más queridas del mundo cripto, uniendo la cultura cripto con el mainstream a través de juguetes, memes y narración de historias.
Dirigido por el CEO @LucaNetz, el proyecto ahora se está expandiendo hacia ETFs, Layer 2s y licencias globales.
Esta noche a las 11 PM KST, nos unimos a Luca para hablar sobre el próximo Pudgy ETF, su nuevo L2 "Abstract" y cómo Pudgy está convirtiendo la ternura en capital.
👉

22.83K
<¿Por qué fracasó ZK y qué está tratando de cambiar Succinct?>
1. Conciencia del Problema
El creador de Bitcoin, Satoshi Nakamoto, expresó escepticismo sobre las Pruebas de Conocimiento Cero (ZKP).
Él afirmó: "Para probar que algo no existe, necesitas conocer toda la transacción", concluyendo que aplicar ZKP a la blockchain es estructuralmente difícil.
Sin embargo, también mencionó que "si se encuentra una solución, sería mucho mejor, más fácil y más conveniente implementar Bitcoin". En otras palabras, aunque reconocía las limitaciones técnicas de ZK, admitió que si se resolviera, podría ser un punto de inflexión significativo en la evolución de la blockchain.
Años después, la comunidad cypherpunk y los investigadores de ZK finalmente encontraron esa solución. Zcash fue el primer caso en aplicar ZKP a una criptomoneda real, y proyectos posteriores como StarkWare, zkSync y Scroll han desarrollado esta tecnología como un medio clave para mejorar la escalabilidad y verificabilidad de Ethereum.
Sin embargo, todavía hay una brecha en la realidad. Crear un zkEVM requiere una profunda experiencia, años de tiempo de desarrollo y hardware de alto rendimiento, y la mayoría de los proyectos terminan dependiendo de proveedores de pruebas específicos en lugar de operar su propia infraestructura ZKP. Como resultado, ZKP sigue siendo una herramienta compleja que solo unos pocos pueden manejar en lugar de una tecnología que cualquiera pueda usar.
2. ¿Qué es Succinct?
Succinct (@SuccinctLabs) es un intento de abordar directamente este problema. Su misión principal es transformar ZKP en una infraestructura que todos los desarrolladores puedan usar fácilmente, permitiendo a cualquiera crear un 'sistema sin confianza' sin circuitos o infraestructura complejos.
Succinct es una infraestructura que convierte el ideal de un sistema 'sin confianza', que la blockchain ha perseguido, en una realidad prácticamente implementable. Sin confianza no significa 'no confiable'; más bien, se refiere a una estructura que opera de manera independiente sin depender de la confianza, es decir, un sistema matemáticamente verificable sin terceros o autoridades centrales.
Sin embargo, el ecosistema blockchain actual todavía depende en gran medida de la confianza. Los hacks de puentes, las operaciones de firma múltiple y las delegaciones de validadores centralizados sirven como evidencia de que todavía necesitamos confiar en personas u organizaciones para que el sistema funcione.
El intento de romper estas limitaciones basadas en la confianza es precisamente la tecnología de Prueba de Conocimiento Cero (ZKP). Esta tecnología permite demostrar matemáticamente que "este cálculo es correcto" sin confiar en nadie, convirtiéndose en una base fundamental para los sistemas descentralizados. El problema ha sido que ZKP es demasiado complejo y pesado para su uso práctico.
3. ¿Por qué se sentía difícil ZKP?
La tecnología ZKP tiene altas barreras tanto como su potencial. En particular, crear un zkEVM requiere un equipo especializado, años de tiempo de desarrollo y una infraestructura costosa. La mayoría de los proyectos zk tuvieron que diseñar sus propios circuitos, construir zkVMs dedicados y operar hardware directamente. Solo después de pasar por todos estos procesos podrían reclamar ser "ZK rollups."
Además, los zkVMs de propósito general existentes eran muy ineficientes en la generación de pruebas. Típicamente, probar un solo bloque requería un clúster de docenas de máquinas de alto rendimiento, costando entre $10 y $20 por bloque. Debido a estas cargas técnicas y costos operativos, muchos proyectos abandonaron la introducción de ZKP por completo o optaron por depender de algunos proveedores de pruebas centralizados.
4. El Intento de Succinct
@SuccinctLabs ve estos problemas estructurales como 'problemas de infraestructura'. ZKP es técnicamente lo suficientemente poderoso, pero la pregunta es quién, cómo y a qué costo se implementa. Por lo tanto, Succinct está creando una red de probadores descentralizada a la que cualquiera puede acceder fácilmente sin que los proyectos individuales necesiten operar directamente la infraestructura de pruebas.
Los desarrolladores no necesitan configurar zkVMs complejos ni adquirir hardware. Cuando envían solicitudes de prueba a la red, varios probadores con diferentes hardware pujan para procesarlas de manera similar a una subasta. Los costos de prueba disminuyen naturalmente a través de la competencia, y los probadores generan pruebas de manera eficiente utilizando equipos de alto rendimiento. Como resultado, los desarrolladores reciben pruebas rápidas y económicas, mientras que todo el ecosistema se beneficia de una infraestructura de pruebas con alta disponibilidad y resistencia a la censura.
Succinct no solo está demostrando posibilidades técnicas; está probando su papel en áreas donde surge la demanda real. Un ejemplo representativo es la aparición de la tendencia 'CLOBs en Blobs' en el ecosistema @celestia. Los intercambios descentralizados que utilizan métodos de libro de órdenes central limitados (CLOB) de alto rendimiento están apareciendo en el espacio de blobs de Celestia, lo que lleva a demandas de infraestructura para el procesamiento de datos a gran escala y pruebas de estado rápidas.
Proyectos como Hyperliquid y @hibachi_xyz están implementando lógica compleja de comercio de libros de órdenes y descubrimiento de precios en la cadena, lo que requiere escalabilidad y rendimiento más allá de simples rollups. Lo que se necesita aquí es la capa de disponibilidad de datos de alto rendimiento de Celestia y la infraestructura de prueba ZK descentralizada proporcionada por Succinct.
De hecho, Celestia ha visto un aumento rápido en el uso real del espacio de blobs, y detrás de esto, infraestructuras ZK como Succinct están contribuyendo silenciosamente. Si Celestia proporciona un 'almacenamiento de datos verificable', Succinct es responsable de crear 'transiciones de estado verificables' sobre esos datos. Esta combinación puede verse como el punto de partida para que la tecnología ZKP pase de la teoría abstracta a un sistema funcional en la realidad.
5. Un zkEVM que cualquiera puede manejar, SP1 y SP1 Reth
Al resolver la accesibilidad de la infraestructura, Succinct también busca reducir las barreras de entrada del zkVM mismo desarrollando un zkVM de código abierto llamado SP1 (Succinct Processor 1). SP1 es un zkVM de propósito general implementado en Rust, diseñado para que cualquiera lo use directamente sin el diseño de circuitos complejos requerido por los zkEVM existentes.
Un ejemplo temprano que demuestra el potencial de SP1 es SP1 Reth. SP1 Reth es un zkEVM de tipo 1 implementado con aproximadamente 2,000 líneas de código Rust, fácilmente configurado reutilizando componentes del ecosistema del cliente de Ethereum existente (Reth, Revm, Alloy, etc.). Aún más asombroso es su rendimiento. El costo promedio de prueba por transacción de Ethereum para SP1 Reth es solo de aproximadamente $0.01 a $0.02, que es más bajo que los costos de disponibilidad de datos comúnmente incurridos en L2.
La razón por la que este rendimiento es posible se debe al sistema de 'precompilación' que posee SP1. Procesa operaciones computacionales intensivas como funciones hash y verificaciones de firmas en una estructura preoptimizada, reduciendo significativamente los recursos consumidos por el zkVM. Hasta ahora, implementar zkEVM con un zkVM costaba entre $10 y $20 por bloque, pero SP1 Reth ha logrado reducir esto a cifras de un solo dígito.
Tanto SP1 como SP1 Reth son completamente de código abierto y están disponibles para que cualquiera los bifurque y cree su propio zkEVM o agregue precompilaciones para mejorar el rendimiento. Esto representa una completa revolución del entorno de desarrollo zk existente de alto costo y alta dificultad, abriendo una era en la que cualquier desarrollador de Rust puede participar en sistemas zk.
6. En última instancia, ZK ahora es accesible para todos
Succinct está llenando las últimas piezas del rompecabezas del potencial, accesibilidad y practicidad de la tecnología ZKP. Sin circuitos complejos o hardware dedicado, cualquiera puede crear aplicaciones que utilicen ZKP, y las pruebas son procesadas por una red descentralizada.
Estamos entrando en una era donde todos los rollups pueden convertirse en rollups ZK, y la internet opera únicamente sobre la verdad. En el punto de partida de esto están Succinct y SP1. Ahora, ZKP es una tecnología para todos, no solo para unos pocos seleccionados.




7.87K
<Los datos son competitividad, no modelos>
El núcleo de la industria de la IA ya no es la computación o los modelos, sino los "datos de alta calidad". Así como la civilización humana avanzó al siguiente nivel a través del petróleo en el pasado, la IA también necesita un nuevo "combustible" para ir más allá. Al igual que antes y después de la Segunda Guerra Mundial, cuando el petróleo se utilizó como fuente de energía y material, la industrialización avanzó rápidamente. Ahora, quién y cómo obtienen y procesan los datos determinará la iniciativa en la era de la IA.
Elon Musk también dijo esto este año. "Hemos agotado toda la suma acumulada de conocimiento humano en el aprendizaje de inteligencia artificial". Es cierto que modelos como GPT han crecido rápidamente, raspando datos públicos como sitios web, libros, código e imágenes. Pero ahora, necesitamos una nueva forma de datos que tenga derechos de autor o que no exista en absoluto.
Por ejemplo, en campos como los vehículos autónomos y la robótica, es necesario ir más allá del simple texto y necesitar datos complejos basados en múltiples sensores que combinen cámaras, radares, lidar, etc., así como datos de casos recopilados en el entorno real, que no existen en la web.
El mayor problema no es tanto la tecnología como "cómo combinarla bien". Miles de personas necesitan recopilar, etiquetar y actualizar datos en todo el mundo, y es difícil manejar esta diversidad y escala con un enfoque centralizado del pasado. Por lo tanto, la industria de la IA está cada vez más de acuerdo en que el método descentralizado es la respuesta.
Aquí es donde aparece 'Poseidón (@psdnai)'. Poseidon no es solo un almacén de datos, sino una infraestructura que alimenta datos reales, los verifica y los refina en un conjunto de datos de entrenamiento que se puede usar sin preocuparse por los derechos de autor.
Para usar una analogía, Poseidón es una "refinería de petróleo". Toma datos sin procesar y los refina en combustible que la IA puede usar para aprender. Todo el proceso va y viene en el @StoryProtocol. Registra de forma transparente quién proporcionó los datos y quién los escribió en qué condiciones en la cadena. Aquellos que proporcionan datos son recompensados de manera justa y los desarrolladores de IA pueden usarlos con confianza.
Creo que Poseidon, que innovará en la capa de datos, no en las GPU o los modelos, puede ser el mejor ejemplo de aplicación de la tecnología Web3 a la industria Web2.


Chris Dixon23 jul 2025
Nos complace anunciar que estamos liderando una ronda inicial de $ 15 millones en Poseidon, que fue incubada por @StoryProtocol y está construyendo una capa de datos descentralizada para coordinar la oferta y la demanda de datos de entrenamiento de IA.
La primera generación de modelos básicos de IA se entrenó con datos que parecían ser un recurso efectivamente ilimitado. Hoy en día, los recursos más accesibles, como libros y sitios web, se han agotado en su mayoría, y los datos se han convertido en un factor limitante en el progreso de la IA.
Gran parte de los datos que quedan ahora son de menor calidad o están fuera de los límites debido a las protecciones de propiedad intelectual. Para algunas de las aplicaciones de IA más prometedoras, en robótica, vehículos autónomos e inteligencia espacial, los datos aún no existen. Ahora estos sistemas necesitan tipos de información completamente nuevos: multisensorial, ricos en casos extremos, capturados en la naturaleza. ¿De dónde vendrán todos estos datos del mundo físico?
El desafío no es solo técnico, es un problema de coordinación. Miles de colaboradores deben trabajar juntos de forma distribuida para obtener, etiquetar y mantener los datos físicos que necesita la IA de próxima generación. Creemos que ningún enfoque centralizado puede orquestar de manera eficiente la creación y curación de datos que se necesitan con el nivel requerido de escala y diversidad. Un enfoque descentralizado puede resolver esto.
@psdnai permite a los proveedores recopilar los datos que necesitan las empresas de IA, al tiempo que garantiza la seguridad de la propiedad intelectual a través de la licencia de propiedad intelectual programable de Story. Esto busca establecer una nueva base económica para Internet, donde los creadores de datos reciban una compensación justa por ayudar a las empresas de IA a impulsar la próxima generación de sistemas inteligentes.
El equipo de Poseidon, dirigido por el científico jefe y cofundador @SPChinchali, aporta una profunda experiencia en infraestructura de IA. Sandeep es profesor en UT Austin especializado en IA, robótica y sistemas distribuidos, con un doctorado de Stanford en IA y sistemas distribuidos. Jefe de Producto y Cofundador @sarickshah pasó una década como ingeniero de aprendizaje automático, escalando productos de IA para grandes empresas en servicios financieros, telecomunicaciones y atención médica.
Estamos entusiasmados de apoyar a Poseidon en su trabajo para resolver uno de los cuellos de botella más críticos en el desarrollo de IA.

2.46K
<Historia, ganando un nuevo impulso>
Una nueva figura se ha unido @StoryProtocol está remodelando la industria del contenido a través de la tokenización de IP.
Se trata de Sandeep Chincharly, profesor de UT Austin y experto en inteligencia artificial, robótica y sistemas distribuidos.
Sandeep Chin Charlie es un ex investigador de la NASA que estudió IA generativa y robótica en la nube en Stanford y actualmente es profesor en UT Austin, donde se ocupa de la conducción autónoma y los modelos de aprendizaje automático distribuido.
En el curso de su investigación, instaló una cámara de tablero directamente en el vehículo para recopilar datos de la vida real y analizó escenas raras llamadas 'colas largas'. Etiquetamos estos datos, entrenamos modelos de IA livianos directamente en hardware de TPU para el aprendizaje profundo y apreciamos profundamente la importancia de la calidad y la escasez de datos.
Luego dijo que se hizo una pregunta.
"Para que la IA funcione correctamente en la realidad, necesita datos de alta calidad, no solo modelos. Y para recopilar voluntariamente esos datos, se necesita una estructura de incentivos efectiva".
Y encontré la respuesta en Story.
@StoryProtocol define los datos como propiedad intelectual, no solo como recursos, y está construyendo un sistema de recompensas en cadena.
Recopilación de datos raros→ etiquetado→ síntesis → registro en cadena → distribución de regalías
Realice un seguimiento transparente de todo en la cadena. El profesor Sandeep lo explica de la siguiente manera:
"Registro una rara escena de conducción que tomé con una dashcam en Story, y mi amigo la etiqueta. Cuando la IA crea datos sintéticos basados en ellos, se genera una IP vinculada en el camino y las regalías se distribuyen automáticamente a todos los contribuyentes".
Como director de IA en Story, el profesor Sandeep Chinchaly liderará la estrategia general de IA, la infraestructura de datos de aprendizaje en cadena y el diseño de un sistema de recompensa de datos descentralizado. Y define el valor de los datos de esta manera.
"Los datos son la nueva IP".

Story17 jul 2025
Presentamos al nuevo director de IA de Story, @SPChinchali.
Sandeep es profesor en UT Austin y se centra en GenAI, robótica y sistemas distribuidos. Es un ex investigador de la NASA, uno de los primeros ingenieros de una startup adquirida por VMware, y tiene un doctorado en Stanford en IA y sistemas distribuidos.
Como director de IA, Sandeep liderará la estrategia de IA de Story, impulsando incubaciones clave y asesorando al ecosistema en general sobre cómo aprovechar la inmensa oportunidad de IA que se avecina.
El trabajo de Sandeep se ha centrado durante mucho tiempo en cómo los robots, los sensores y los modelos de aprendizaje automático pueden aprender del desordenado mundo físico. Ahora aporta su experiencia a la web3 y a Story.
Esto se debe a que el próximo salto de la IA no se trata de más GPU. Se trata de desbloquear la categoría más valiosa (y desatendida) de propiedad intelectual: los datos del mundo real.
El nombramiento de Sandeep es un paso importante hacia el logro de la visión del Capítulo 2 de Story. La próxima semana, esta visión cobrará vida a lo grande.
Estén atentos.

9.24K
<Entrevista de RedStone>
RedStone es un proyecto de oráculo de blockchain modular que ofrece fuentes de datos seguras, rápidas y rentables para más de 1.250 activos en más de 70 cadenas.
Su arquitectura separa la recopilación de datos fuera de la cadena de la entrega en la cadena, admitiendo mecanismos de extracción y empuje. Este diseño brinda a los desarrolladores la flexibilidad para optimizar entre los costos de gas y el rendimiento en tiempo real.
Esta noche a las 10 p.m. KST, nos acompañará el fundador de RedStone para conocer su visión y estrategias para los mercados de stablecoins y RWA de rápido crecimiento.
👉

5.33K
<¿Es real el contenido creado por la IA?>
@Mira_Network Verify es la infraestructura que responde a esta pregunta. En lugar de un modelo, evaluamos cada afirmación a través de tres modelos de verificación especializados y los clasificamos como "verdaderos", "falsos" o "sin consenso" en función de los resultados.
Si todos los modelos toman la misma decisión, se considera un resultado confiable, y si hacen juicios diferentes, genera señales sospechosas. No se trata solo de encontrar la respuesta correcta, sino de proporcionar la "incertidumbre" en sí misma como datos.
Verify no es solo una demostración, es una "infraestructura de confianza". Es un backend impulsado por API que permite a las empresas detectar la autenticidad del contenido de IA, filtrar automáticamente la información errónea y conectarlo a una posición revisable por humanos cuando sea necesario.

Mira (3/3)16 jul 2025
Internet tiene un problema de verdad.
Así que creamos Mira Verify, que utiliza el consenso de varios modelos para identificar alucinaciones e información errónea.
Mira es la multi-firma de la verdad.
2.35K
<¿Qué sentiste mientras veías Sharplink Gaming>
Siento que Consensys ha tomado la delantera y la 'estrategia financiera de Ethereum' se ha convertido en una gran tendencia. Sharplink Gaming está aumentando constantemente Ethereum al recaudar alrededor de 500 mil millones de wones a través de PIPE, y la diferencia con la estrategia financiera de Bitcoin es que Ethereum puede obtener ganancias a través de la gestión de activos más allá de la simple tenencia.
Lo que me interesa aquí es cómo administrar el Ethereum acumulado de esta manera. Si observa @SharpLinkGaming ejemplo, puede ver que los activos se administran en función de LST o LRT a través de Figment.
Figment es uno de los principales validadores de Ethereum y opera una bóveda dedicada para inversores institucionales al tiempo que proporciona rendimientos de participación estables. Y proyectos como @Obol_Collective están ayudando a grandes operadores como Figment a hacer que la validación sea más confiable y eficiente.
A medida que más instituciones adopten la estrategia de Ethereum, creo que la oferta y la demanda de Ethereum inevitablemente se dirigirán a estos validadores exclusivos de la institución. En particular, la gestión de riesgos es la clave para las instituciones, por lo que operan los nodos de manera muy conservadora para minimizar riesgos como el tiempo de inactividad y el recorte.
Por ejemplo, si ocurre un desastre natural mientras ejecuta un nodo con una sola clave de validador, no solo se pueden perder las recompensas que recibirá en el futuro, sino también el capital de participación. Para reducir este riesgo, la demanda de DVT (Distributed Validator Technology) (DVT), que distribuye claves de validación en múltiples nodos, seguirá creciendo.
La diferencia de infraestructura decisiva entre Ethereum y Solana es su estructura informática descentralizada. Incluso si el mundo es destruido, está diseñado para evitar un único punto de falla a través de al menos 5 ~ 6 clientes. Para que las instituciones adopten adecuadamente esta narrativa de Ethereum, necesitan elaborar estrategias en la capa de validación para reducir los puntos únicos de falla, y hay proyectos como @Obol_Collective en el centro de la misma.
Al final, creo que cuantas más empresas elijan la estrategia financiera de Ethereum, más aumentará naturalmente la demanda de proyectos que les ayuden a realizar una mejor validación o facilitar la gestión de activos.


Lido6 jul 2025
DVV máximo de todos los tiempos + aumento del límite
La Bóveda del Validador Descentralizado ha alcanzado un máximo histórico de 14,344 wstETH (~44 millones de dólares).
Además de esto, el límite de depósito se ha incrementado a 20,000 wstETH, impulsando la adopción de DVT a través de Lido, Obol y SSV.
Límites más altos. Más descentralización.

7.49K
<La gramática de inversión de los VC globales ha cambiado>
Hoy en día, los VC globales están invirtiendo en empresas que quieren incorporar activos digitales como activos estratégicos. Pantera creó recientemente un fondo DAT (Digital Asset Treasury) e invirtió en empresas como Cantor Equity Partners (CEP), y se dice que se está beneficiando con una prima de 1,5 a 10 veces su valor liquidativo (NAV).
Al final, se creó un nuevo meta centrado en empresas y fondos de capital privado. Lo que sí podemos pensar aquí es averiguar de antemano qué monedas incluirán estas empresas como activos estratégicos en el futuro.
Por ejemplo, parece que proyectos como @StoryProtocol pueden incluirse en el fondo de IA administrado por Grayscale, y si los VC que se toman en serio la IA como @DCGco crean un ETF de IA separado, existe la posibilidad de que las monedas de IA como $IP, $TAO y $Flock puedan incluirse estratégicamente.
Si observa el caso actual de Pantera, puede ver monedas importantes como Bitcoin, Ethereum, Ripple, Avalanche, Hyperliquid y Sui.
Por lo tanto, creo que sería más realista buscar candidatos que las empresas y los fondos puedan incluir como activos estratégicos entre las empresas de mediana / pequeña capitalización.

Grayscale27 jun 2025
We have updated the Grayscale Research Top 20. The Top 20 represents a diversified set of assets across Crypto Sectors that, in our view, have high potential over the coming quarter. This quarter's new assets are Avalanche $AVAX and Morpho $MORPHO. All the assets in our Top 20 list have high price volatility and should be considered high risk.
Read the full report:

9.49K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas