Binance Square

zkml

40,595 ogledov
138 razprav
Bertosanti
--
TRANSCRIPCIÓN #CRYPTOEl nuevo episodio de esta semana aborda la convergencia de dos tendencias importantes y de gran actualidad: la IA (inteligencia artificial) y las cadenas de bloques/criptomonedas. Estos dominios, en conjunto, tienen importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es ideal para quienes tengan curiosidad o ya estén desarrollando este sector. La conversación abarca temas que van desde las deepfakes, los bots y la necesidad de una prueba de humanidad en un mundo de IA; hasta el big data, los grandes modelos de lenguaje como ChatGPT, el control de usuarios, la gobernanza, la privacidad y la seguridad, el conocimiento cero y zkML; hasta MEV, los medios de comunicación, el arte y mucho más. Nuestros invitados expertos, en conversación con la anfitriona Sonal Chokshi, incluyen: Dan Boneh , profesor de Stanford (y asesor principal de investigación en a16z crypto), un criptógrafo que ha estado trabajando en cadenas de bloques durante más de una década y que se especializa en criptografía, seguridad informática y aprendizaje automático, todos los cuales se cruzan en este episodio;Ali Yahya , socio general de a16z crypto, quien también trabajó anteriormente en Google, donde no solo trabajó en un sistema distribuido para una flota de robots (una especie de "aprendizaje de refuerzo colectivo") sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow construida en Google. La primera mitad de la conversación informal entre Ali y Dan (quienes se conocen como estudiantes y profesores en Stanford) gira en torno a cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad, a cómo las criptomonedas podrían beneficiarse de la IA... El hilo conductor es la tensión entre centralización y descentralización. Así, también analizamos cómo la intersección de las criptomonedas y la IA puede generar resultados que ninguna de las dos sería posible por sí sola... Piezas referenciadas en este episodio/lectura relacionada: El próximo sistema de razonamiento cibernético para la ciberseguridad  (2023) de Mohamed Ferrag, Ammar Battah, Norbert Tihanyi, Merouane Debbah, Thierry Lestable y Lucas CordeiroUna nueva era en seguridad de software: Hacia software autorreparador mediante modelos de lenguaje extensos y verificación formal  (2023) por Yiannis Charalambous, Norbert Tihanyi, Ridhi Jain, Youcheng Sun, Mohamed Ferrag, Lucas CordeiroCorrección de errores de seguridad de hardware con modelos de lenguaje extensos  (2023) por Baleegh Ahmad, Shailja Thakur, Benjamin Tan, Ramesh Karri y Hammond Pearce¿Los usuarios escriben código más inseguro con asistentes de IA?  (2022) por Neil Perry, Megha Srivastava, Deepak Kumar y Dan Boneh¿Dormido frente al teclado? Evaluación de la seguridad de las contribuciones de código de GitHub Copilot  (2021) por Hammond Pearce, Baleegh Ahmad, Benjamin Tan, Brendan Dolan-Gavitt, Ramesh KarriVotación, seguridad y gobernanza en blockchains  (2019) con Ali Yahya y Phil Daian TRANSCRIPCIÓN: Bienvenidos a "web3 con a16z", un programa sobre cómo construir la próxima generación de internet del equipo de a16z crypto; incluyéndome a mí, su presentadora, Sonal Chokshi. El nuevo episodio de hoy aborda la convergencia de dos importantes tendencias de vanguardia: la IA (inteligencia artificial) y las criptomonedas. Esto tiene importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es para cualquiera que tenga curiosidad o que ya esté desarrollando en este sector. Nuestros invitados especiales de hoy son: Dan Boneh, profesor de Stanford (y asesor sénior de investigación en a16z crypto). Es un criptógrafo que lleva más de una década trabajando en cadenas de bloques. Los temas de este episodio tienen una fuerte intersección entre la criptografía, la seguridad informática y el aprendizaje automático, todas sus áreas de especialización. También tenemos a Ali Yahya, socio general de a16z crypto, quien también trabajó en Google, donde no solo desarrolló un sistema distribuido para robótica (más concretamente, una especie de "aprendizaje de refuerzo colectivo" que implicaba entrenar una única red neuronal que contribuía a las acciones de toda una flota de robots), sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow. De hecho, Dan y Ali se conocen desde que Ali era estudiante de grado y maestría en Stanford, así que esta conversación es más bien una charla informal entre ellos a la que les pedí que me uniera. Abordamos todo, desde deepfakes y bots hasta la prueba de humanidad en un mundo de IA y mucho, mucho más. La primera mitad trata sobre cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad sobre cómo las criptomonedas podrían beneficiarse de la IA; y el hilo conductor es la tensión entre centralización y descentralización.  Como recordatorio: nada de lo siguiente debe interpretarse como asesoramiento de inversión, legal, comercial o fiscal; consulte a16z.com/disclosures para obtener más información importante, incluido un enlace a una lista de nuestras inversiones, especialmente porque somos inversores en las empresas mencionadas en este episodio.  Pero primero: comenzamos con la intersección de ambos mundos, compartiendo brevemente las áreas (¡o visiones!) que les entusiasman; la primera voz que escucharán será la de Ali. Ali: Hay una novela de ciencia ficción muy buena llamada “La era del diamante” de Neal Stephenson, en la que hay un dispositivo conocido como “manual ilustrado”, que es una especie de dispositivo de inteligencia artificial que actúa como tu mentor y tu maestro a lo largo de la vida. Y entonces, cuando naces, estás emparejado con una IA que, esencialmente, te conoce muy bien, aprende tus preferencias, te sigue durante toda la vida, te ayuda a tomar decisiones y te guía en la dirección correcta. Así que existe un futuro de ciencia ficción… en el que se podría construir una IA, pero no se querría que estuviera controlada por un gigante tecnológico monopolista. Porque esa posición le otorgaría a esa empresa un gran control, y existen todas estas cuestiones de privacidad y soberanía, y se querría tener cierto control sobre ella. ¿Y qué pasa si la empresa desaparece, cambia las reglas o los precios? Sería fantástico poder crear una IA que pudiera funcionar durante muchísimo tiempo y llegar a conocerte a lo largo de tu vida, pero que fuera realmente tuya. Y entonces existe esta visión en la que se podría hacer eso con una cadena de bloques: se podría integrar una IA dentro de un contrato inteligente. Y con el poder de las pruebas de conocimiento cero, también podrá mantener sus datos privados. Y luego, con el paso de las décadas, esta IA puede volverse más inteligente y ayudarte, y entonces tendrás la opción de hacer lo que quieras con ella. O modificarla como quieras; o desactivarla. Y esa es una visión interesante para las IA de largo plazo que están en continua evolución y cada vez son mejores: sería mejor si no estuvieran controladas por una única empresa centralizada. Claro: es una idea muy de ciencia ficción, porque conlleva muchos problemas, incluyendo los de verificación y los de mantener la privacidad de los datos mediante criptografía y, a la vez, poder realizar cálculos sobre ellos, quizás con cifrado totalmente homomórfico. <Sonal: mhm> Todos estos problemas siguen pendientes, pero no es algo inconcebible. Dan: ¡Guau! ¡Me encanta la visión de Ali! Sonal: A mí también me encanta, especialmente teniendo en cuenta esa cita (creo que era de Asimov) de que la ciencia ficción de hoy es la ciencia factual del mañana. Ali, sé que tienes un meta-marco para pensar acerca de todo esto que te he escuchado compartir antes, ¿puedes compartirlo ahora también? Ali: Sí, existe una narrativa más amplia que existe desde hace bastante tiempo y que ahora se está acentuando mucho más con el desarrollo de cosas como los LLM. Sonal: En realidad, define eso muy rápido, Ali, solo para los oyentes que aún no están familiarizados, solo como contexto. Ali: LLM significa "modelo de lenguaje grande" y utiliza parte de la tecnología que se desarrolló en Google en 2017. Existe este famoso artículo conocido como "La atención es todo lo que necesitas" (ese era el título del artículo) y describía lo que ahora se conoce como transformadores, y esa es la base, básicamente, de algunos de los nuevos modelos que la gente ha estado entrenando en estos días, incluido ChatGPT, etc. Todos estos son modelos de lenguaje grandes o LLM. <Sonal: ¡mmm!> #BTC Había una famosa frase, creo (2018), de Peter Thiel: «La IA es comunista y las criptomonedas son libertarias»… Es muy acertada, de hecho, porque la IA y las criptomonedas, en muchos sentidos, se contrapesan naturalmente. <Sonal: ¿Ajá?> Y quizá podamos profundizar en cada uno de estos ejemplos a lo largo del podcast, <Sonal: Sí>. Pero hay cuatro aspectos principales en los que esto es cierto: [1] La primera es que la IA es una tecnología que prospera y permite un control centralizado de arriba a abajo, mientras que la criptografía se basa en la cooperación descentralizada de abajo a arriba. De hecho, en muchos sentidos, se puede pensar en la criptografía como el estudio de la construcción de sistemas descentralizados que permiten la cooperación humana a gran escala, donde no existe un punto central de control. Y esa es una forma natural en la que estas dos tecnologías se contrapesan entre sí. [2] Otra es que la IA es una innovación sostenible, ya que refuerza los modelos de negocio de las empresas tecnológicas existentes <Sonal: mhm>, ya que les ayuda a tomar decisiones desde arriba. Y el mejor ejemplo de esto sería que Google pudiera decidir exactamente qué anuncio mostrar a cada uno de sus usuarios entre miles de millones de usuarios y miles de millones de páginas vistas. Mientras que las criptomonedas son, en realidad, una innovación fundamentalmente disruptiva, ya que su modelo de negocio es fundamentalmente contrario al de las grandes tecnológicas. Por lo tanto, es un movimiento liderado por rebeldes/por los sectores marginales, en lugar de estar liderado por las empresas establecidas. <Sonal: mhm> Así que esa es la segunda. [3] La tercera es que la IA probablemente se relacionará e interactuará mucho con todas las tendencias hacia la privacidad… Porque la IA, como tecnología, ha incorporado todo tipo de incentivos que nos llevan hacia una menor privacidad individual, ya que tendremos empresas que querrán acceder a todos nuestros datos; y los modelos de IA que se entrenan con cada vez más datos serán cada vez más eficaces. Por lo tanto, creo que esto nos lleva por el camino del panóptico de la IA, donde simplemente se agregan los datos de todos para entrenar estos enormes modelos y optimizarlos al máximo. Mientras que las criptomonedas nos llevan hacia la dirección opuesta, que es una dirección de mayor privacidad individual. Es una dirección de mayor soberanía, <Sonal: mhm> donde los usuarios tienen control sobre sus propios datos. Y creo que estas dos tendencias serán muy importantes. Y esta es otra forma importante en que las criptomonedas actúan como contrapeso para la IA. (4) Y tal vez la última tenga que ver con esta última tendencia en IA: el hecho de que la IA es ahora claramente una tecnología poderosa para generar nuevo arte; ahora es una herramienta creativa <Sonal: ¡mm! totalmente>, que nos llevará a una abundancia infinita de medios, a una creatividad infinita en muchos sentidos. Y la criptografía es un contrapeso a eso porque nos ayuda a analizar toda la abundancia, al ayudarnos a distinguir lo creado por humanos de lo creado por IA. Y la criptografía será esencial para mantener y preservar lo verdaderamente humano en un mundo donde mil veces más contenido <Sonal: correcto> se genera artificialmente. Así que todas estas son cosas de las que podemos hablar, pero creo que existe esta metanarrativa importante; y estas dos tecnologías son diametralmente opuestas, en muchos aspectos. Dan: Entonces, tal vez Ali, para agregar a eso, este es un resumen maravilloso, y también diría que hay muchas áreas en las que las técnicas de IA están teniendo un impacto en las cadenas de bloques; y viceversa, <mhm> donde las técnicas de cadenas de bloques están teniendo un impacto en la IA. Daré una respuesta breve aquí porque vamos a profundizar en los detalles en solo un minuto; pero hay muchos puntos de intersección: supongo que hablaremos sobre las aplicaciones del conocimiento cero para el aprendizaje automático en solo un minuto… Pero también quiero abordar todas estas aplicaciones donde el aprendizaje automático puede usarse para escribir código. Por ejemplo, el aprendizaje automático puede usarse para escribir código de Solidity que se contrae. Puede usarse para detectar posibles errores en el código, etc. Existen puntos de intersección donde el aprendizaje automático puede usarse para generar falsificaciones profundas y las cadenas de bloques pueden ayudar a proteger contra ellas. Por lo tanto, supongo que abordaremos todos estos puntos, pero lo interesante es que existe una gran intersección entre las cadenas de bloques y el aprendizaje automático. Sonal: Sí, antes de profundizar en eso, Dan, tengo una pregunta: ¿estás de acuerdo? Entiendo perfectamente el punto de vista de Ali: la IA y las criptomonedas son complementos naturales, o contrapesos, o pueden ser fuerzas diferentes que se controlan y equilibran mutuamente... Pero, ¿crees que esto es una cualidad inherente a la IA y las criptomonedas? ¿O es simplemente un artefacto de cómo se hacen las cosas actualmente? ¿Con qué aspectos estarías de acuerdo o en desacuerdo? Dan: Sí; así que diría que, si lo miras desde lejos… las técnicas que se usan en IA parecen muy diferentes a las que se usan en las cadenas de bloques, ¿verdad? Las cadenas de bloques se centran en la criptografía, la descentralización, las finanzas, la economía, etc. Mientras que la #IA se centra en la estadística, las matemáticas del aprendizaje automático, etc., se centra en el big data. Las técnicas, en realidad, parecen bastante diferentes. <Sonal: mhm>, pero en realidad hay muchos aspectos en los que una parte puede ayudar a la otra <mhm> y viceversa. Quizás el primero para empezar sea el más obvio y que ha estado en la mente de muchos: las aplicaciones del conocimiento cero para el aprendizaje automático . Se trata de un área emergente llamada zkML . Y su interés se debe a que las técnicas de conocimiento cero han mejorado drásticamente gracias a su aplicación en las cadenas de bloques. Lo que ha sucedido en los últimos 10 años es increíble; algo que no vemos muy a menudo: esta idea de las pruebas de conocimiento cero, y los sistemas de pruebas en general, se consideraban muy teóricos hace una década. Y debido a todas sus aplicaciones en las cadenas de bloques, de repente se despertó un gran esfuerzo para hacerlas más prácticas y realistas. Como resultado, se ha logrado un progreso tremendo (como saben nuestros oyentes), y ahora estas herramientas se implementan y se utilizan para proteger sistemas reales. Entonces, la pregunta es: ¿se pueden usar técnicas de conocimiento cero para impulsar el aprendizaje automático? Hay un par de ejemplos (honestamente, podríamos dedicar todo el podcast solo a zkML), pero quizás pueda dar una muestra, uno o dos ejemplos donde ZK es útil para el aprendizaje automático. Imaginemos que Alice tiene un modelo secreto al que dedicó mucho tiempo para entrenar, y que es muy importante para ella. Es fundamental que la gente no sepa cómo funciona. Pero aun así, quiere poder atender las solicitudes de Bob, ¿verdad? Bob quiere enviarle datos, ella aplicaría el modelo a los datos y le enviaría el resultado. Bob no tiene ni idea de si está obteniendo los resultados correctos con el modelo, ¿verdad? Quizás pagó por un modelo específico y quiere asegurarse de que Alice realmente lo esté usando, ¿verdad? Quizás pagó por GPT-4 y quiere asegurarse de que Alice realmente esté usando GPT-4, y no GPT-3. Resulta que las técnicas ZK pueden ser muy útiles en este caso. Alice se comprometería con su modelo y lo haría público. Y luego, cada vez que Bob enviara datos, Alice podría ejecutar el modelo con ellos y enviarle los resultados, junto con la prueba de que el modelo se evaluó correctamente. Así, Bob tendría la garantía de que el modelo comprometido es el mismo que se ejecutó con sus datos. ¿Sí? Este es un ejemplo de cómo las técnicas ZK pueden ser útiles en el aprendizaje automático. Y quiero enfatizar por qué esto es tan importante: <Sonal: ¡Sí!> Veamos un ejemplo: Supongamos que tenemos una función, un modelo que realmente se usa para afectar la vida de las personas. Imaginen, por ejemplo, que usamos un modelo para decidir si otorgamos un préstamo o una hipoteca; una institución financiera podría querer usar un modelo similar. Queremos asegurarnos de que el mismo modelo se aplique a todos, ¿no? No es que se me aplique un modelo a mí <Sonal: sí> y a ti otro <Sonal: cierto>. Básicamente, al hacer que el banco se comprometa con el modelo, ¿no?; y así todos pueden verificar que sus datos son evaluados por el mismo modelo comprometido <mmm>, podemos asegurarnos de que se aplique el mismo modelo a todos. Debo decir que aquí hay un problema abierto: aunque las técnicas de conocimiento cero pueden garantizar que se aplique el mismo modelo a todos, surge la pregunta: ¿es justo el modelo? Los modelos pueden tener sesgos y generar resultados injustos. Por lo tanto, existe toda una área de investigación llamada equidad algorítmica; existen muchísimos artículos sobre equidad algorítmica, y es realmente interesante preguntarse: ahora que tenemos un modelo establecido, ¿podemos demostrar, en conocimiento cero, que el modelo cumple con alguna definición de equidad del área de equidad algorítmica? ¿Y cómo nos aseguramos de que el proceso de capacitación se ejecute correctamente? Ali: Bueno, todo lo que dijiste sobre #zkml es sumamente emocionante. Y, como tecnología, creo que contribuirá a que el aprendizaje automático, y la IA en general, sean más transparentes y confiables, tanto dentro como fuera del contexto de las criptomonedas. Creo que una aplicación aún más ambiciosa, y quizás a largo plazo, de ZKML —y de algunas otras técnicas de verificación en las que la comunidad criptográfica ha estado trabajando<mhm>— es simplemente descentralizar la IA en general. Como ya comentamos, la IA es una tecnología casi intrínsecamente centralizadora, ya que se nutre de factores como los efectos de escala, ya que tener todo dentro de un centro de datos lo hace más eficiente. Por lo tanto, escalar todo de forma centralizada lo hace más potente y, como resultado, más centralizado. Además, los datos suelen estar controlados por un pequeño número de empresas tecnológicas intermedias. Esto también conlleva una mayor centralización. Y finalmente: los modelos de aprendizaje automático y el talento en aprendizaje automático, también controlados por un pequeño número de actores. Y las criptomonedas pueden volver a ayudar en este frente desarrollando tecnología que utilice cosas como ZKML que puedan ayudarnos a descentralizar la IA. Así que hay tres aspectos principales que intervienen en la IA: el aspecto computacional , que requiere un uso a gran escala de GPU (generalmente en centros de datos); el aspecto de los datos , que, repito, la mayoría de las empresas centralizadas controlan; y los propios modelos de aprendizaje automático . <Sonal: sí> Y la más sencilla podría ser la del cálculo. ¿Es posible descentralizar el cálculo para el entrenamiento y la inferencia de modelos de aprendizaje automático? Aquí es donde entran en juego algunas de las técnicas que Dan mencionaba, como las pruebas de conocimiento cero, que permiten demostrar que el proceso de inferencia o entrenamiento de un modelo se realizó correctamente, lo que permite externalizarlo a una gran comunidad. Se puede tener un proceso distribuido mediante el cual cualquiera con una GPU puede contribuir con el cálculo a la red y entrenar un modelo de esa manera, sin tener que depender necesariamente de un centro de datos masivo con todas las GPU centralizadas. Y aún queda la gran duda de si esto tendrá sentido económicamente... Pero al menos, con los incentivos adecuados, se puede aprovechar la larga cola: se puede aprovechar toda la capacidad de GPU inactiva que pueda existir; hacer que todas esas personas contribuyan con ese cálculo al entrenamiento de un modelo o a la ejecución de la inferencia; y ofrecer una alternativa a lo que, de otro modo, serían solo las grandes empresas tecnológicas intermedias las que actualmente lo controlan todo. <Sonal: ¡Mmm!> Hay todo tipo de problemas técnicos importantes que tendrían que resolverse para que eso fuera posible. De hecho, existe una empresa en este sector llamada Gensyn que está desarrollando precisamente esto. Están creando un mercado descentralizado para computación en GPU, principalmente con el propósito de entrenar modelos de aprendizaje automático. Es un mercado donde cualquiera puede contribuir con su computación en GPU, ya sea en su computadora personal debajo de su escritorio o inactiva en un centro de datos. Y, por otro lado, cualquiera puede aprovechar la computación disponible en la red para entrenar sus grandes modelos de aprendizaje automático. Esto sería una alternativa a la alternativa centralizada, tipo OpenAI/Google/Meta/todos —ya sabes, inserta tu gran empresa tecnológica favorita aquí <Sonal: ¡Sí! (risas)—, que actualmente tendrías que adoptar. Sonal: Bueno, antes de profundizar en este marco de descentralización, Ali, estabas desglosando la computación y creo que ibas a compartir los otros dos de esos tres pilares. Pero antes… ambos hablaron un poco sobre los desafíos técnicos. ¿Cuáles son algunos de los desafíos técnicos que deben superarse y que la gente podría estar resolviendo ya? (Quiero que los desarrolladores que escuchen este episodio también reflexionen sobre las oportunidades en este espacio y cómo pueden abordar los desafíos existentes; o cuáles son algunos de los desafíos que enfrentarán al desarrollar soluciones). Dan: Sí, entonces tal vez pueda mencionar dos que creo que serían interesantes para la gente. [1] Básicamente, imaginemos que Alice tiene un modelo que quiere proteger. Quiere enviarlo cifrado a otra persona, por ejemplo, a Bob. Bob recibe un modelo cifrado y necesita poder ejecutar sus datos en él. ¿Cómo se hace eso? Si se tienen datos que se quieren ejecutar en un modelo, pero solo se cuenta con el cifrado del modelo, ¿cómo se logra? Y eso es algo para lo que usaríamos lo que se llama cifrado totalmente homomórfico. <Sonal: Sí. (FHE).> Es un cifrado totalmente homomórfico, una herramienta notable que permite realizar cálculos con datos cifrados. Es un poco increíble que esto sea posible, pero se puede tener un modelo cifrado y datos de texto sin cifrar, y ejecutar el modelo cifrado sobre estos datos y obtener un resultado cifrado. Se le enviaría el resultado cifrado a Alice, quien podría descifrarlo y verlo en texto sin cifrar. Así que esto es algo que ya existe... de hecho, existe bastante demanda en la práctica; <Sonal: sí> no requiere mucho esfuerzo ver que el Departamento de Defensa está interesado en esto. Hay muchas otras aplicaciones donde se puede enviar un modelo cifrado a un tercero; este ejecutaría el modelo cifrado en sus datos; te enviaría los resultados; puedes descifrar y obtener información sobre los datos que se ingresaron como entrada del modelo cifrado. La pregunta, claro, es cómo lo escalamos. Ahora mismo funciona bien para modelos medianos… y la pregunta es, ¿podemos escalarlo a modelos mucho más grandes? Así que es todo un reto: un par de startups en el sector, y, repito, una tecnología muy, muy interesante; es increíble que esto sea posible. <Sonal: Sí… de verdad> Y probablemente veremos mucho más de esto en el futuro. [2] La otra área es en realidad la que mencionó Ali, otra área muy importante, que es: ¿cómo sabemos que el modelo fue entrenado correctamente? Entonces, si envío mis datos a alguien y le pido que entrene un modelo con ellos, o que lo ajuste, ¿cómo sé que lo hicieron correctamente? Es cierto, podrían devolverme un modelo, pero ¿cómo sé que no tiene puertas traseras? De hecho, se ha investigado bastante para demostrar que, si el entrenamiento se realiza incorrectamente, podría devolver un modelo que funcionaría correctamente con todos los datos de prueba, pero que tiene una puerta trasera, lo que significa que fallaría catastróficamente con una entrada específica. Esto es posible si el proceso de entrenamiento no está verificado. Y, de nuevo, este es un área donde ZKML entra en juego: Podemos demostrarles que el entrenamiento se ejecutó correctamente; o quizás existan otras técnicas para demostrarlo. Pero, de nuevo, esta es otra área —un área de investigación muy activa— y animaría a muchos de los oyentes a que se trate de un problema muy complejo: demostrar que el entrenamiento se realizó correctamente; demostrar que los datos de entrenamiento se recopilaron y filtraron correctamente, etc. De hecho, es un área maravillosa en la que ingresar si las personas buscan realizar más trabajos en ese espacio. Sonal: ¡Genial! Ali, ¿qué más añadirías? Ali: Sí, definitivamente. Bueno, supongo que si seguimos hablando de lo que se necesitaría para descentralizar la pila de IA, creo que para descentralizar el componente computacional —y estos son tres componentes importantes—, si quisiéramos descentralizar el componente computacional, hay dos desafíos técnicos muy importantes que aún no se han resuelto. El primero es el problema de la verificación (que Dan acaba de mencionar) <Sonal: mhm>, para el cual se podría usar ZKML. Idealmente, con el tiempo se podrían usar pruebas de conocimiento cero para demostrar que el trabajo real —que las personas que contribuyen a esta red— se realizó correctamente. El desafío radica en que el rendimiento de estas primitivas criptográficas está lejos de alcanzar el nivel necesario para entrenar o inferir modelos muy grandes. Por lo tanto, los modelos actuales, como los LLM que todos conocemos y apreciamos (como ChatGPT), no serían demostrables con el estado actual de ZKML. Por lo tanto, se está trabajando mucho para mejorar el rendimiento del proceso de demostración, de modo que se puedan demostrar cargas de trabajo cada vez mayores de forma eficiente. Pero ese es un problema abierto, y algo <Sonal: sí> en lo que mucha gente está trabajando. Mientras tanto, empresas como Gensyn utilizan otras técnicas que no son solo criptográficas, sino que se basan en la teoría de juegos. En ellas, se recluta a un mayor número de personas independientes para realizar el trabajo y se comparan sus resultados para garantizar que se realicen correctamente. <Sonal: ¡Qué interesante!> Se trata de un enfoque más optimista y basado en la teoría de juegos que no se basa en la criptografía, pero que se alinea con el objetivo principal de descentralizar la IA o ayudar a crear un ecosistema para la IA mucho más orgánico, comunitario y de abajo a arriba, a diferencia del enfoque de arriba a abajo que proponen empresas como OpenAI. Así que ese es el primer problema; el primer gran problema es el problema de la verificación. Y el segundo gran problema es el de los sistemas distribuidos: ¿cómo se coordina realmente una gran comunidad de personas que contribuyen con GPU a una red de tal manera que todo parezca un sustrato integrado y unificado para el cálculo? <Sonal: yup> Y habrá muchos desafíos interesantes, como: estamos fragmentando la carga de trabajo de aprendizaje automático de forma lógica; distribuyendo diferentes partes a distintos nodos de la red; descubriendo cómo hacerlo todo de forma eficiente; y, cuando los nodos fallan, descubriendo cómo recuperarse y asignando nuevos nodos para que se encarguen del trabajo realizado por el nodo que falló. Por lo tanto, existen muchos detalles complejos a nivel de sistemas distribuidos que las empresas deberán resolver para ofrecernos esta red descentralizada que pueda ejecutar cargas de trabajo de aprendizaje automático de una forma quizás incluso más económica que usar la nube. Sonal: Sí… Eso es genial. Dan: …Sí, y es totalmente cierto que las técnicas ZK actuales manejarán los modelos más pequeños que se utilizan, pero definitivamente los LLM son probablemente demasiado grandes para que estas técnicas los manejen hoy, las técnicas ZK; pero, sabes que están mejorando constantemente, el hardware está mejorando, así que con suerte se pondrán al día. Sonal: Sí; antes de continuar, ¿podemos hacer una comprobación de pulso realmente clara sobre dónde estamos exactamente en eso? Obviamente, lo que les escucho decir es que hay tremendas aplicaciones en la intersección de la computación general verificable, que las cadenas de bloques y las criptomonedas definitivamente han estado avanzando y acelerando significativamente toda esa área (hemos estado cubriendo mucho de eso nosotros mismos: si miran nuestro canon ZK y la categoría de conocimiento cero, verán mucho de esto cubierto allí). Pero, ¿dónde nos encontramos exactamente ahora en cuanto a lo que pueden hacer? Porque ustedes hablaron mucho sobre lo que aún no pueden hacer y la oportunidad que les brinda, lo cual es emocionante; pero ¿dónde nos encontramos ahora mismo? ¿Qué pueden hacer realmente? Dan: Sí. Ahora mismo, básicamente pueden clasificar modelos medianos. No algo tan grande como GPT-3 o 4, sino modelos medianos. <sí> Es posible demostrar que la clasificación se realizó correctamente. El entrenamiento probablemente esté más allá de lo que se puede hacer ahora mismo, simplemente porque requiere muchísimos recursos computacionales <Sonal: cierto> que para los sistemas de prueba aún no hemos llegado a ese punto. Pero como dijo Ali, tenemos otras maneras de hacerlo. Por ejemplo, podemos hacer que varias personas realicen el entrenamiento y luego comparar los resultados. ¿Sí? Así que ahora hay incentivos de teoría de juegos para que la gente no haga trampa. Si alguien hace trampa, alguien más podría quejarse de que calculó mal el entrenamiento, y entonces quien haya hecho trampa no recibirá compensación por su esfuerzo. <Sonal: Sí, sí, sí> Así que hay un incentivo para que la gente realmente realice el entrenamiento como se suponía que debía realizarse. Sonal: Correcto. Y básicamente, no es una fase híbrida, sino que se trata de enfoques alternativos hasta que se alcance una mayor escalabilidad y el rendimiento alcance el nivel necesario. Dan: Sí; diría que para algunos modelos, la clasificación se puede demostrar hoy en día con conocimiento cero. Para el entrenamiento actual, debemos confiar en técnicas optimistas. Sonal: Sí, genial. Entonces, Ali, mencionaste que la computación es una de las tres puntas, y también mencionaste que los datos y luego los modelos para el aprendizaje automático en sí mismos: ¿quieres abordar ahora los datos y las oportunidades y desafíos que hay allí (en lo que respecta a la intersección cripto/IA)? Ali: Sí, absolutamente. Por lo tanto, creo que existe la oportunidad, aunque los problemas involucrados son muy complejos, de descentralizar el proceso de obtención de datos para el entrenamiento de grandes modelos de aprendizaje automático <mhm> desde una comunidad más amplia. De nuevo, en lugar de tener un único actor centralizado, simplemente recopilar todos los datos <yah> y luego entrenar los modelos. Y esto podría funcionar creando un tipo de mercado similar al que acabamos de describir para la computación, pero incentivando a las personas a contribuir con nuevos datos a un gran conjunto de datos que luego se utiliza para entrenar un modelo. La dificultad con esto es similar, ya que existe un desafío de verificación: hay que verificar de alguna manera que los datos que aportan las personas sean realmente buenos <Sonal: ¡sí!> y que no sean datos duplicados ni basura generados aleatoriamente o que no sean reales. Y también hay que asegurarse de que los datos no alteren el modelo (algún tipo de ataque de envenenamiento) donde el modelo se vuelva vulnerable o simplemente menos bueno o tenga un rendimiento inferior al anterior. Entonces, ¿cómo se verifica que esto sea así? Y ese es quizás un problema complejo que la comunidad debe resolver. Podría ser imposible de resolver por completo, y podría ser necesario recurrir a una combinación de soluciones tecnológicas y sociales, donde también se cuenta con algún tipo de métrica de reputación. Los miembros de la comunidad pueden ganar credibilidad, de modo que cuando aportan datos, estos se vuelvan más confiables de lo que serían de otra manera. Pero lo que esto podría permitirle hacer es que ahora puede cubrir verdaderamente la cola muy larga de la distribución de datos. Y uno de los aspectos más desafiantes del aprendizaje automático es que la calidad de un modelo depende de la cobertura de la distribución que el conjunto de datos de entrenamiento pueda alcanzar. Si existen entradas que se alejan mucho de la distribución de los datos de entrenamiento, el modelo podría comportarse de forma completamente impredecible. Para que el modelo funcione correctamente en casos extremos (y en los casos de cisne negro o entradas de datos que se pueden encontrar en el mundo real), es fundamental que el conjunto de datos sea lo más completo posible. Así pues: si existiera este tipo de mercado abierto y descentralizado para la contribución de datos a un conjunto de datos, cualquiera con datos únicos en el mundo podría contribuir a la red… Lo cual es una mejor manera de hacerlo, ya que si se intenta hacerlo desde una empresa central, no hay forma de saber quién tiene esos datos. Por lo tanto, si se incentiva a esas personas a que se presenten y proporcionen esos datos por iniciativa propia, creo que se puede lograr una cobertura mucho mejor de la cola larga. Como hemos visto, el rendimiento de los modelos de aprendizaje automático continúa mejorando a medida que crece el conjunto de datos y la diversidad de sus puntos de datos. Esto puede potenciar aún más el rendimiento de nuestros modelos de aprendizaje automático; podemos obtener conjuntos de datos aún más completos que abarcan a toda la comunidad. Dan: Bueno, déjame darle la vuelta a esto en ese eh... Sonal: ¡Oooh, adelante, Dan! Dan: …Si vamos a incentivar a la gente a contribuir con datos, básicamente vamos a incentivarla a crear datos falsos <Sonal: ¡Sí!> para que les paguen. ¿Sí? Así que tenemos que tener algún tipo de mecanismo para asegurarnos de que los datos que aportas sean auténticos. <Ali: Exactamente> Y puedes imaginar un par de maneras de hacerlo, ¿verdad? Una forma es confiar en hardware confiable. <Sonal: mhm>: Quizás los sensores estén integrados en un hardware confiable, al que solo confiaríamos en datos debidamente firmados por él. Esa es una forma de hacerlo. De lo contrario, tendríamos que tener algún otro mecanismo mediante el cual podamos saber si los datos son auténticos o no. Ali: Estoy completamente de acuerdo. Ese sería el mayor problema abierto a resolver... Y creo que a medida que mejora la evaluación comparativa de los modelos de aprendizaje automático, creo que hay dos tendencias importantes en el aprendizaje automático en este momento <Sonal: yah> – [1] Se está mejorando la medición del rendimiento de un modelo de aprendizaje automático. En el caso de los LLM, esto aún está en sus primeras etapas y, de hecho, es bastante difícil determinar su calidad. Porque no se trata de un clasificador donde el rendimiento de un modelo esté claramente definido. Con un LLM, es casi como evaluar la inteligencia de un humano. ¿Verdad? <Sonal: ¡mhm!> Encontrar la forma correcta de evaluar la inteligencia de un LLM como #chatgpt es un área de investigación abierta. Pero con el tiempo, creo que mejorará cada vez más. [2] Y la otra tendencia es que cada vez somos más capaces de explicar cómo funciona un modelo. Y con ambas cosas, en algún momento, podría ser posible comprender el efecto que un conjunto de datos tiene en el rendimiento de un modelo de aprendizaje automático. <Sonal: sí> Y si podemos comprender bien si un conjunto de datos aportado por un tercero ayudó o no al rendimiento del modelo de aprendizaje automático, entonces podemos recompensar esa contribución y crear el incentivo para que exista ese mercado. Sonal: Entonces, para resumir hasta ahora, lo que les escuché decir es que… Existe hardware confiable que puede ayudar a verificar la precisión de los datos y los modelos que se aportan;Ali, mencionaste brevemente las métricas de reputación y ese tipo de cosas pueden ayudar;También mencionaste que podría haber una manera (no necesariamente ahora, pero en algún momento en el futuro cercano) de verificar cómo los datos influyen en los resultados de un modelo en particular para que realmente puedas... no es del todo explicable, pero la idea es que realmente puedas atribuir que este conjunto de datos causó este efecto particular. Así que hay una variedad de técnicas diferentes que habéis compartido hasta ahora. Ali: Bueno, lo último es que podrías hacer lo mismo para el tercer aspecto, que son los modelos. Imagina crear un mercado abierto para que las personas aporten un modelo entrenado capaz de resolver un problema específico. Imagina crear en Ethereum un contrato inteligente que integre algún tipo de prueba, ya sea una prueba cognitiva que un LLM pueda resolver o una prueba de clasificación que un clasificador de aprendizaje automático (AAP) pueda resolver. Y si se utiliza ZKML, alguien podría proporcionar un modelo junto con una prueba de que ese modelo puede resolver esa prueba; entonces, nuevamente, usted tiene las herramientas que necesita para crear un mercado que incentive a las personas a contribuir con modelos de aprendizaje automático que puedan resolver ciertos problemas. Muchos de los problemas que hemos discutido, los problemas pendientes que hemos discutido, sobre cómo lograrlo también están presentes aquí... En particular, hay una parte de ZKML donde se debe poder demostrar que el modelo realmente realiza el trabajo que afirma realizar. Además, necesitamos tener buenas pruebas para evaluar la calidad de un modelo. Así que poder integrar una prueba dentro de un contrato inteligente para luego someter un modelo de aprendizaje automático a una evaluación de su calidad. Esta es otra parte muy emergente de toda esta tendencia tecnológica. Pero en teoría, sería fantástico si finalmente llegáramos a un mundo donde tuviéramos estos mercados muy abiertos, de abajo hacia arriba y transparentes que permitan a las personas contribuir y obtener modelos de computación, datos y aprendizaje automático para el aprendizaje automático, que esencialmente actúen nuevamente como un contrapeso a las enormes y muy centralizadas empresas tecnológicas que impulsan todo el trabajo de IA en la actualidad. Sonal: Me encanta cómo lo mencionaste, Ali, porque ha sido un problema de larga data en la IA en la práctica: puede resolver muchos problemas, como la curva de campana, la parte media de la norma, pero no los extremos. Un ejemplo clásico de esto son los coches autónomos. Se puede hacer todo con ciertos comportamientos estándar, pero son los casos extremos donde pueden ocurrir los verdaderos accidentes y las catástrofes. <Ali: Cierto> Eso fue muy útil. Sé que hablaste sobre la alineación de incentivos y los incentivos para proporcionar datos precisos y de calidad, e incluso incentivos para contribuir con cualquier dato en general. Pero hablando de la cola larga, me surgió una pregunta rápida mientras hablabas. Esto me lleva a preguntarme quién gana dinero y dónde en este sistema. No pude evitar preguntarme, ¿cómo influye entonces el modelo de negocio en la rentabilidad de las empresas? Siempre he entendido que, en la cola larga de la IA (en un mundo con este tipo de conjuntos de datos disponibles), tus datos propietarios son, en realidad, tu conocimiento único del dominio, algo que solo tú conoces en esa cola larga. ¿Tienes alguna respuesta rápida? Ali: Creo que la visión tras la intersección de las criptomonedas con la IA es que se podría crear un conjunto de protocolos que distribuyan el valor que eventualmente capturará esta nueva tecnología, la IA, entre un grupo mucho más amplio de personas. Esencialmente, una comunidad de personas, todas las cuales pueden contribuir y participar de las ventajas de esta nueva tecnología. <Sonal: mhm> Entonces, las personas que ganarían dinero serían las que contribuyen con el procesamiento, o las que contribuyen con datos, o las que contribuyen con nuevos modelos de aprendizaje automático a la red, de modo que se puedan entrenar mejores modelos de aprendizaje automático y se puedan resolver problemas mejores, más grandes y más importantes. Las otras personas que generarían ingresos al mismo tiempo son quienes, por otro lado, están en el lado de la demanda de esta red: quienes la utilizan como infraestructura para entrenar sus propios modelos de aprendizaje automático. <Sonal: sí> Quizás su modelo genere algo interesante en el mundo, tal vez sea como la próxima generación de ChatGPT. Y luego eso se abra camino hacia diversas aplicaciones, como aplicaciones empresariales o cualquier otro uso que se les dé a esos modelos, y esos modelos impulsan la captura de valor por sí mismos, porque esas empresas tendrán su propio modelo de negocio. Finalmente, quienes también podrían generar ingresos son quienes construyen esta red. Por ejemplo: se crea un token para la red; este token se distribuirá a la comunidad; y todas esas personas tendrán propiedad colectiva sobre esta red descentralizada para datos y modelos computacionales que también podrían capturar parte del valor de toda la actividad económica que pasa por esta red. Así que, como pueden imaginar, cualquier pago por computación, datos o modelos <mhm> podría tener una comisión. Esta podría ir directamente a una tesorería controlada por esta red descentralizada, de la que todos los poseedores de tokens que forman parte tienen propiedad y acceso colectivos (como creadores y propietarios del mercado). Y esa tarifa podría ir directamente a la red. Así que, imagínense que cada transacción que pasa por esta red, cada forma de pago que paga por computación, datos o modelos, podría tener una tarifa que se le imponga y que vaya a una tesorería controlada por toda la red y por los poseedores de tokens que la poseen colectivamente. De modo que ese es esencialmente un modelo de negocio para la red en sí. Sonal: ¡Genial! Bien. Hasta ahora hemos hablado mucho sobre cómo las criptomonedas pueden ayudar a la IA. Para ser claros, no es unidireccional; estas cosas se refuerzan, son bidireccionales y más interactivas que unidireccionales. Pero, para el propósito de esta discusión, realmente estamos hablando de cómo las criptomonedas pueden ayudar a la IA; ahora vamos a darle la vuelta y hablar un poco más sobre las formas en que la IA puede ayudar a las criptomonedas. Dan: Sí, entonces hay un par de puntos de contacto interesantes allí. Un tema que realmente vale la pena mencionar es la idea de los modelos de aprendizaje automático que se utilizan para generar código. Muchos oyentes probablemente hayan oído hablar de Copilot, una herramienta que se utiliza para generar código. Y lo interesante es que se pueden intentar usar estas herramientas de generación de código para escribir contratos de Solidity o código criptográfico. Y quiero recalcar que esto es realmente algo muy peligroso de hacer. Sonal: ¡Ay! ¡No hagas esto en casa! ¡Vale! <risas> Dan: Sí. Sí. No intentes esto en casa. Porque lo que ocurre es que muy a menudo estos sistemas realmente generan código que funciona, ya sabe, cuando intenta ejecutarlo (y, como sabe, el cifrado es lo opuesto al descifrado, etc.), por lo que el código realmente funcionará, pero en realidad será inseguro. De hecho, hemos escrito un artículo sobre esto recientemente que muestra que si intentas que Copilot escriba algo tan simple como una función de cifrado, te dará algo que realiza el cifrado correctamente, pero utiliza un modo de operación incorrecto, por lo que terminarás con un modo de cifrado inseguro. De manera similar, si intentas generar código Solidity, podrías terminar con un código Solidity que funcione, pero tendrá vulnerabilidades. Quizás te preguntes, ¿por qué sucede esto? Una de las razones es que estos modelos se entrenan básicamente con código disponible, en repositorios de GitHub. Bueno, muchos de los repositorios de GitHub son vulnerables a todo tipo de ataques. Así que estos modelos aprenden sobre código que funciona, pero no sobre código seguro; es como si entrara basura, saliera basura, ¿no? <Sonal: ¡Mmm!> Así que quiero asegurarme de que las personas sean muy, muy cuidadosas, cuando usen estos modelos generativos para generar código, que verifiquen con mucho cuidado que el código realmente haga lo que se supone que debe hacer y que lo haga de manera segura. Ali: Una idea en ese frente (tengo curiosidad por saber lo que piensas al respecto) es que puedes usar modelos de IA como LLM (algo así como ChatGPT) para generar código, junto con otras herramientas para intentar hacer que el proceso sea menos propenso a errores. Y un ejemplo, una idea <oh> sería usar un LLM para generar una especificación para un sistema de verificación formal: Básicamente, describes tu programa en inglés; y le pides al LLM que genere una especificación para una herramienta de verificación formal; luego le pides a la misma instancia del LLM que genere el programa que cumple con esa especificación. <mm!> Y luego usas una herramienta de verificación formal para ver si el programa realmente cumple con la especificación. Si hay errores, la herramienta los detectará; estos errores pueden utilizarse como retroalimentación para el LLM. Idealmente, el LLM podrá revisar su trabajo y producir una nueva versión del código correcta. Y, finalmente, si se repite esto una y otra vez, se obtendrá un fragmento de código que, idealmente, cumple plenamente con la especificación y está formalmente verificado. Y como la especificación puede ser legible por un humano, puedes revisarla y ver que sí, este es el programa que quería escribir. Y esa puede ser una excelente manera de usar LLM para escribir código que, además, no sea tan propenso a errores como lo sería si simplemente le pidieras a ChatGPT que generara un contrato inteligente. Sonal: ¡Qué inteligente! Dan: Sí, esto es genial y, de hecho, nos lleva a otro tema que vale la pena discutir, que es básicamente el uso de LLM para encontrar errores. Supongamos que un programador escribe código en Solidity y ahora quiere comprobar si ese código es correcto y seguro. Como dijo Ali, puede usar el LLM para encontrar vulnerabilidades en ese código. Se ha trabajado mucho para evaluar la eficacia de los LLM para detectar errores en software, en los contratos inteligentes de Solidity y en C y C++. Hay un artículo que salió recientemente que es realmente muy relevante: es un artículo de la Universidad de Manchester <Sonal: mhm>, que dice que ejecutarías una herramienta de análisis estático estándar para encontrar errores en tu código; y encontraría todo tipo de errores de gestión de memoria o errores potenciales; solo una herramienta de análisis estático estándar; sin aprendizaje automático alguno. Pero entonces usarías un LLM para intentar corregir el código. ¿Sí? <Sonal: mm> <Ali: exactamente> Así que propone una solución al error automáticamente. Y luego volverías a ejecutar el analizador estático en el código corregido, <Ali: sí> y el analizador estático diría: «Oh, el error sigue ahí o no está ahí». Y seguirías iterando hasta que el analizador estático diga: «Sí, ahora el error se ha corregido y no hay más problemas». Así que fue un artículo bastante interesante; este artículo literalmente salió hace dos semanas. Sonal: Entonces, para ambos artículos que acabas de mencionar, Dan, el de la Universidad de Manchester y también el que escribieron recientemente sobre que no se confía en que los LLM escriban código correcto (podría ser código funcional, pero no necesariamente seguro), vincularé esos artículos en las notas del programa <Dan: genial> para que los oyentes puedan encontrarlos. Solo una pregunta rápida antes de continuar… En cuanto a la situación actual, ¿es una situación temporal o crees que llegará el momento en que se pueda confiar en que los LLM escriban código de contratos inteligentes correcto, no solo funcional, sino seguro ? ¿Es posible o está muy lejos? Dan: Esa es una pregunta difícil de responder. Sabes que estos modelos mejoran muchísimo cada semana, ¿verdad? <Sonal: Sí> Así que es posible que para el año que viene estos problemas ya estén solucionados y que se pueda confiar en ellos para escribir código más seguro. Supongo que lo que estamos diciendo ahora mismo es que, si se usan los modelos actuales (GPT-4, GPT-3, etc.) para generar código, hay que ser muy cuidadoso y verificar que el código que escribieron realmente cumpla su función y sea seguro. Sonal: Entendido. Ali: Y, por cierto, ¿llegaremos a un punto en el que el código generado por los LLM tenga menos probabilidades de contener errores que el generado por un humano? <Sonal: ¡Sí!> Y quizás esa sea una pregunta más importante, ¿no? Porque de la misma manera que nunca puedes decir que un coche autónomo nunca se estrellará, la verdadera pregunta que realmente importa es: ¿es menos probable que se estrelle que si fuera un conductor humano? <Sonal: Eso es exactamente correcto> Porque la verdad es que probablemente sea imposible garantizar que nunca habrá un accidente automovilístico causado por un coche autónomo, o que nunca habrá un error <Sonal: cierto> generado por un LLM al que le has pedido que escriba algún código. Y creo que, dicho sea de paso, esto se volverá cada vez más potente cuanto más se integre en las cadenas de herramientas existentes. Como ya comentamos, se puede integrar en cadenas de herramientas de verificación formal. Se puede integrar en otras herramientas, como la que describió Dan, que detecta problemas de gestión de memoria. También se puede integrar en cadenas de herramientas de pruebas unitarias y de integración. De esta manera, el LLM no actúa de forma aislada: recibe retroalimentación en tiempo real de otras herramientas que lo conectan con la realidad. Y creo que a través de la combinación de modelos de aprendizaje automático que son extremadamente grandes, entrenados con todos los datos del mundo, combinados con estas otras herramientas, en realidad podría crear programadores que sean bastante superiores a los programadores humanos. <mhm> E incluso si todavía pudieran cometer errores, podrían ser sobrehumanos. Y ese será un gran momento para el mundo de la ingeniería de software en general. Sonal: Sí. Qué buen encuadre, Ali… Entonces, ¿cuáles son algunas de las otras tendencias que se avecinan y en las que la IA puede ayudar a las criptomonedas, y viceversa? Ali: Sí… Una posibilidad emocionante en este espacio es que podamos construir redes sociales descentralizadas que en realidad se comporten de forma muy similar a Twitter, pero donde el gráfico social esté completamente en cadena y sea casi como un bien público sobre el cual cualquiera pueda construir. Como usuario, controlas tu propia identidad en el gráfico social. Controlas tus datos, a quién sigues y quién puede seguirte. Existe todo un ecosistema de empresas que crean portales en el gráfico social que ofrecen a los usuarios experiencias similares a las de Twitter, Instagram, TikTok o cualquier otra plataforma que deseen desarrollar. Pero todo esto está encima de este mismo gráfico social <Sonal: yah> que nadie posee y que no hay ninguna empresa tecnológica de mil millones de dólares en el medio que tenga control total sobre él y que pueda decidir lo que sucede en él. Y ese mundo es emocionante porque significa que puede ser mucho más dinámico; puede existir todo un ecosistema de personas creando cosas y cada usuario tiene mucho más control sobre lo que ve y lo que puede hacer en la plataforma. Pero también existe la necesidad de filtrar la señal del ruido. Y, por ejemplo, la necesidad de crear algoritmos de recomendación sensatos que filtren todo el contenido y te muestren el canal de noticias que realmente quieres ver. Esto abrirá la puerta a todo un mercado, un entorno competitivo, de participantes que te proporcionarán algoritmos basados ​​en IA que seleccionan contenido para ti. Como usuario, podrías tener una opción: puedes optar por un algoritmo en particular, tal vez el desarrollado por Twitter, o por uno desarrollado por alguien completamente diferente. Y ese tipo de autonomía será genial, pero, de nuevo, vas a necesitar herramientas como el aprendizaje automático y la IA para ayudarte a filtrar el ruido y analizar todo el spam que inevitablemente existirá en un mundo donde los modelos generativos pueden crear todo el spam del mundo. Sonal: Lo interesante de lo que dijiste también es que ni siquiera se trata de elegir entre... Se remonta a esta idea que mencionaste antes, y mencionaste esto brevemente sobre simplemente dar a los usuarios las opciones para elegir entre mercados de ideas y enfoques gratuitos que puedan decidir... Pero también es interesante porque no se trata solo de empresas, sino de qué enfoque te funciona. Quizás te interese más el algoritmo de filtrado colaborativo que existía en los sistemas de recomendación originales, que funciona como un filtrado colaborativo entre personas. <Ali: sí> Así que las recomendaciones de tus amigos son lo que sigues. De hecho, personalmente soy muy diferente y estoy mucho más interesado en un gráfico de intereses; y por lo tanto, podría estar mucho más interesado en personas que tienen intereses similares a los míos, y podría elegir ese enfoque en lugar de, digamos, algo más que sea algo así como, oye, este es un enfoque híbrido, lo único que va a hacer es XY y Z. El simple hecho de poder elegir ya es tremendamente empoderador. Eso simplemente no es posible ahora mismo. Y solo es posible con las criptomonedas y la IA. Así que ese es un gran ejemplo. <¡Ah, sí!> ¿Había algo más que decir sobre cómo la IA puede ayudar con la confianza y la seguridad? Ali: Creo que esa metaimagen es que las criptomonedas son el Salvaje Oeste. Como no requieren permisos, cualquiera puede participar; hay que asumir que quien participe podría ser un adversario <sí> y tal vez intentar manipular el sistema, hackearlo o hacer algo malicioso. Por eso, existe una necesidad mucho mayor de herramientas que ayuden a filtrar a los participantes honestos de los deshonestos, y el aprendizaje automático y la IA, como herramientas de inteligencia, pueden ser realmente muy útiles en ese frente. Por ejemplo, existe un proyecto llamado Stelo, que utiliza aprendizaje automático para identificar transacciones sospechosas enviadas a una billetera y las marca para el usuario antes de que se envíen a la cadena de bloques. Esto podría ser una buena manera de evitar que el usuario envíe accidentalmente todos sus fondos a un atacante o haga algo de lo que luego se arrepienta. <mhm> Y esa empresa básicamente vende a billeteras (a empresas como Metamask) para que Metamask pueda usar la información y hacer lo que quiera con ella: bloquear la transacción, advertir al usuario o, en cierto modo, replantear la transacción para que deje de ser peligrosa. Ese es un ejemplo. También hay otros ejemplos en el contexto de MEV (valor mínimo extraíble, <Sonal: sí>) o valor máximo extraíble, según a quién le preguntes, que es el valor que pueden extraer quienes controlan el orden de las transacciones en una cadena de bloques. Estos suelen ser los mineros o validadores de una cadena de bloques. Y la IA, en este caso, puede ser un arma de doble filo, ya que si eres un validador en una blockchain y controlas la ordenación de las transacciones, puedes implementar todo tipo de estrategias inteligentes para ordenarlas de forma que te beneficies. Por ejemplo, puedes adelantar transacciones, retrasar transacciones e intercalar órdenes en Uniswap. Hay muchísimas transacciones que puedes crear para aprovechar esta capacidad de ordenar transacciones. El aprendizaje automático y la IA podrían potenciar esa capacidad, ya que pueden buscar oportunidades para capturar cada vez más MEV. Por otro lado, el aprendizaje automático puede ser útil también como herramienta defensiva. Antes de enviar una transacción, es posible que sepas que existe un MEV que podría extraerse de ella. Por lo tanto, podrías dividirla en varias para que ningún validador pueda controlarla por completo, o tomar medidas para protegerte de un extractor de MEV en algún punto del proceso de la transacción. Así que este es un aspecto en el que las criptomonedas juegan un papel importante cuando se trata de seguridad, cuando se trata de confianza, cuando se trata de hacer que el espacio sea más confiable para el usuario final. Sonal: Ese es un ejemplo de cómo la IA dificulta las cosas en el ámbito de las criptomonedas, y luego las criptomonedas regresan y mejoran las cosas para... <se ríe>. Dan: De hecho, tengo otro ejemplo parecido. <Sonal: ¡Sí!> Así como los modelos de aprendizaje automático pueden usarse para detectar datos falsos o quizás actividad maliciosa, <mm>, existe la otra cara de la moneda: los modelos de aprendizaje automático pueden usarse para generar datos falsos. <Sonal: Sí> El ejemplo clásico son las falsificaciones profundas, ¿verdad? Se puede crear un video de alguien diciendo cosas que nunca dijo, y ese video parece bastante realista. Y lo interesante es que las cadenas de bloques pueden ayudar a solucionar el problema. Permítanme explicarles un posible enfoque en el que las cadenas de bloques podrían ser útiles: Imagina que es una solución que solo podría aplicarse a figuras conocidas como políticos o estrellas de cine, etc. <Sonal: mhm>. Pero imagina que un político llevara una cámara en el pecho y grabara lo que hace todo el día <Sonal: sí>, y luego creara un árbol de Merkle a partir de esa grabación y enviara los compromisos del árbol de Merkle a la cadena de bloques. <mhm> Ahora, en la cadena de bloques, hay una marca de tiempo que indica que, en esta y esta fecha, dijiste esto y aquello; en esta y aquella fecha, dijiste esto y aquello. Y si alguien crea un video ultrafalso de este político diciendo cosas que nunca dijo, el político puede decir: «Mira, en ese momento, cuando el video decía que dije esto y aquello, en realidad estaba en un lugar completamente diferente, haciendo algo sin relación». Y el hecho de que todos estos datos, los datos reales, los datos auténticos, se registren en una cadena de bloques puede usarse para demostrar que la falsificación profunda es realmente falsa y no datos reales. ¿Sí? Así que esto no es algo que exista todavía. <Sonal: sí> Sería divertido que alguien construyera algo así, pero pensé que es un ejemplo interesante de cómo las cadenas de bloques podrían ser realmente útiles <Sonal: sí> para combatir las falsificaciones profundas. Sonal: ¿Hay también una manera de resolver ese problema y mostrar otras marcas de tiempo o procedencia, donde se pueda hacer ese tipo de verificación de lo que es verdad/lo que no es verdad sin tener que hacer que un político ande por ahí con una cámara <Dan se ríe> en el pecho? Dan: Sí, por supuesto. También podemos confiar en hardware confiable para esto; <mhm> Así que imagina, ya sabes, nuestras cámaras, las cámaras de nuestros teléfonos y demás, que realmente firmarían las imágenes y los videos que toman. <Sonal: sí>. Hay un estándar, llamado C2PA, que especifica cómo las cámaras firmarán los datos; de hecho, hay una cámara de Sony que ahora toma fotografías y videos y luego produce firmas C2PA en esos videos... Así que ahora básicamente tienes datos auténticos; en realidad puedes probar que los datos realmente provienen de una cámara C2PA. Y ahora Sonal, si tal vez lees un artículo de periódico, y hay una imagen en el artículo, y dice ser de un lugar, pero de hecho está tomada de un lugar diferente; la firma en realidad podría verificarse con el hecho de que está firmada por C2PA. Hay muchos matices allí, C2PA es un tema bastante complicado, <mhm> hay muchos matices que discutir y tal vez no los tratemos aquí; Sonal: Dan, recuerdo que hablaste de este trabajo conmigo antes (creo que fue en nuestra oficina); pero también recuerdo que no resiste la edición. Y como sabes, los editores como yo y otros creadores de contenido, y sinceramente, casi cualquiera (que use Instagram o cualquier publicación en línea)… nadie sube nada exactamente igual a como fue creado originalmente… Dan: Sí , normalmente, cuando los periódicos publican fotos, no publican la imagen de la cámara tal cual, sino que la recortan. Hay un par de cosas autorizadas que pueden hacer con las fotos: quizás aplicarles escala de grises; definitivamente, reducir la resolución (para no consumir mucho ancho de banda). En el momento en que empiezas a editar la imagen, el destinatario (el lector final, el usuario del navegador que lee el artículo) ya no puede verificar la firma C2PA. Porque no tiene la imagen original. <Sonal: ¡Cierto!> Entonces, la pregunta es: ¿cómo permites que el usuario verifique que la imagen que está viendo realmente está firmada correctamente por una cámara C2PA? Bueno, como siempre, aquí es donde entran en juego las técnicas de conocimiento cero <Sonal: ¡mmm!>: donde se puede demostrar que la imagen editada es en realidad el resultado de aplicar solo reducción de resolución y escala de grises a una imagen más grande correctamente firmada. ¿Sí? Así que, en lugar de una firma C2PA, tendríamos una prueba ZK (una prueba ZK corta) asociada a cada una de estas imágenes. Y ahora los lectores pueden verificar <mhm> que están viendo imágenes auténticas. Así que es muy interesante que las técnicas ZK se puedan usar para combatir la desinformación. Es una aplicación un tanto inesperada. Sonal: Eso es fantástico. Ali: Por cierto, un problema muy relacionado es demostrar que eres humano <Sonal: mhm> en un mundo donde las falsificaciones profundas que crean la apariencia de humanidad generalmente superan en número a los humanos en una proporción de mil a uno o de un millón a uno. Y la mayoría de las cosas en internet podrían estar generadas por IA. Una posible solución, relacionada con lo que dices, es usar la biometría para determinar si alguien es humano. Pero luego usar pruebas de conocimiento cero para proteger la privacidad de quienes usan esa biometría para demostrar su humanidad. Un proyecto en esta categoría se llama WorldCoin <Sonal: sí>, también es un proyecto de nuestra cartera, y utiliza este orbe; la gente puede haberlo visto como un orbe plateado brillante, que utiliza escaneos de retina como información biométrica para verificar que eres un ser humano real; y también tiene todo tipo de sensores para garantizar que estás vivo y que no puede ser la imagen de un ojo. Este sistema tiene hardware seguro y es muy difícil de manipular. De tal manera que la prueba resultante, una prueba de conocimiento cero que oculta la información biométrica real, es extremadamente difícil de falsificar. De esta manera, los políticos podrían, por ejemplo, <Sonal: mhm> demostrar que su transmisión de video, su firma o su participación en un foro en línea son realmente suyas y que son humanos. Sonal: Lo que es realmente interesante sobre lo que dijiste, Ali, es que es una gran continuación de lo que Dan estaba diciendo sobre las formas de verificar los medios auténticos frente a los medios falsos o ultrafalsos, y este mundo de medios infinitos (como dirías) en el que vivimos... Pero ¿cuáles son las otras aplicaciones de tecnologías de prueba de personalidad como esta? Creo que es importante, porque este es otro ejemplo de cómo la criptografía también puede ayudar a la IA de forma más amplia. Volviendo atrás... estamos yendo y viniendo, <Ali: sí>, pero no importa porque solo estamos hablando de aplicaciones realmente interesantes, y punto. Ali: Bueno, esa es una muy buena pregunta… Una de las cosas que cobrará importancia en un mundo donde cualquiera pueda participar en línea es poder demostrar que eres humano, para diversos fines. Existe ese famoso dicho de los 90 que dice: «En internet, nadie sabe que eres un perro». <Sonal: ¡Ah, sí!> Y creo que una versión reinterpretada de ese dicho es que en internet, nadie sabe que eres un bot. <Sonal: ¿Ajá?> Y entonces supongo que aquí es precisamente donde los proyectos de prueba de humanidad cobran gran importancia <Sonal: ¡Sí!>, porque será importante saber si estás interactuando con un bot o con un humano… Por ejemplo, en el mundo de las criptomonedas, existe toda una cuestión de gobernanza: ¿Cómo se gobiernan sistemas descentralizados, sin un único punto de control, de abajo a arriba y de propiedad comunitaria? Se necesitaría algún tipo de sistema de gobernanza que permita controlar la evolución de esos sistemas. Y el problema hoy es que si no tienes pruebas de humanidad, entonces no puedes saber si una dirección pertenece a un solo humano; o si pertenece a un grupo de humanos; o si 10.000 direcciones en realidad pertenecen a un solo humano y están pretendiendo ser 10.000 personas diferentes. Así que hoy en día, en realidad, es necesario usar la cantidad de dinero como indicador del poder de voto, lo que conduce a una gobernanza plutocrática. <Sonal: Sí, exactamente> Pero si cada participante en un sistema de gobernanza pudiera demostrar que es humano, y pudiera hacerlo de forma única (de modo que no pudiera fingir ser más de un humano porque solo tiene un par de ojos), entonces el sistema de gobernanza sería mucho más justo y menos plutocrático, y podría basarse más en las preferencias de cada individuo, en lugar de en la preferencia de la mayor cantidad de dinero bloqueada en un contrato inteligente. Dan: En realidad, sólo para dar un ejemplo de eso… Hoy en día, nos vemos obligados a usar "una ficha, un voto" porque no tenemos pruebas de humanidad. Quizás nos gustaría usar un humano, un voto, pero si podemos fingir ser cinco humanos, claro que no funciona. Un ejemplo de esto es el llamado voto cuadrático. <Sonal: sí> En la votación cuadrática, si quieres votar cinco veces por algo, tienes que, por así decirlo, depositar 25 fichas. Pero, claro, puedes hacer lo mismo: fingir ser cinco personas diferentes votando una vez, lo que frustraría el mecanismo de la votación cuadrática. La única forma de evitarlo es esta prueba de humanidad: para votar, debes demostrar que eres una sola entidad y no una sibila de entidades. Y ahí es precisamente donde la prueba de humanidad desempeñaría un papel importante. En general, la identidad en cadena se está volviendo cada vez más importante para la gobernanza. Sonal: Totalmente... Por cierto, eso me recordó un episodio que hicimos hace años, Ali, con Phil Daian. <Ali: Ah, sí> ¿Te acuerdas, sobre "Dark DAOs"? <Ali: Sí... exactamente> Fue una conversación muy interesante. Totalmente relevante. Ali: Totalmente. Sonal: Por cierto, ¿la frase es «prueba de personalidad» o «prueba de humanidad»? ¿Cuál es la diferencia? ¿Es lo mismo? Ali: Ah, sí, la gente los usa indistintamente: prueba de ser humano, prueba de humanidad, prueba de personalidad. Sonal: Sí, sí. Bien, entonces sigamos con este tema de los medios, y este tipo de "abundancia infinita" de medios, como ¿cuáles son otros ejemplos? - y de nuevo, estamos hablando de las criptomonedas ayudando a la IA, la IA ayudando a las criptomonedas <Ali: yah> - ¿hay otros ejemplos que no hayamos cubierto aquí donde la intersección de las criptomonedas y la IA pueda generar cosas que no son posibles con ninguna de ellas sola? Ali: Totalmente. O sea, otra implicación de estos modelos generativos es que viviremos en un mundo de abundancia infinita de medios. Y en ese mundo, aspectos como la comunidad en torno a un medio en particular, o la narrativa en torno a un medio en particular, cobrarán cada vez mayor importancia. Para ser más concretos, aquí hay dos buenos ejemplos: Sound.xyz está desarrollando una plataforma de streaming de música descentralizada que permite a los artistas (músicos, en esencia) subir música y conectar directamente con sus comunidades mediante la venta de NFT que otorgan ciertos privilegios a sus miembros. Por ejemplo, la posibilidad de publicar un comentario en la canción en el sitio web de Sound.xyz, para que cualquier otra persona que la reproduzca también pueda verlo. (Esto es similar a la antigua función de SoundCloud que quizás recuerden, donde se podía tener una experiencia social completa en la música mientras se reproducía en el sitio web). Se trata de esta capacidad que permite a las personas interactuar con los medios y entre sí, a menudo de forma económica, ya que básicamente compran este NFT del artista para poder hacerlo. Y, como consecuencia, apoyan al artista y le ayudan a ser sostenible y a crear más música. Pero lo mejor de todo esto es que ofrece a los artistas un foro para interactuar con su comunidad. Y el artista es un artista humano. Y gracias a la participación de las criptomonedas, se puede crear una comunidad en torno a una pieza musical —que no existiría automáticamente en torno a una pieza musical— creada mediante un modelo de aprendizaje automático sin ningún elemento humano, sin una comunidad a su alrededor. Así que pienso de nuevo, en un mundo donde gran parte de la música a la que estaremos expuestos será generada íntegramente por IA, las herramientas para construir comunidad y contar una historia en torno al arte, la música y otros medios serán muy importantes para distinguir los medios que realmente nos importan y en los que queremos invertir y dedicar tiempo, de los medios que, aunque también sean muy buenos, son simplemente un tipo diferente. Son medios generados por IA con menos componente humano. <sí> Y, por cierto, puede que exista cierta sinergia entre ambos: Podría ser que gran parte de la música esté optimizada o generada por IA. Pero si además hay un componente humano —por ejemplo, si un creador utiliza herramientas de IA para crear una nueva pieza musical—, pero además tiene personalidad en Sound, una página de artista, ha creado una comunidad y tiene seguidores, entonces se crea una especie de sinergia entre ambos mundos. <sí> Donde ambos tienen la mejor música, potenciada por los superpoderes que les otorga la IA; pero también tienen un componente humano y una historia, coordinada y realizada por este aspecto criptográfico (que permite reunir a todas esas personas en una sola plataforma). Dan: Es realmente asombroso que incluso en el mundo de la música —tal como hablamos en el mundo de la programación, donde un programador humano se ve mejorado con herramientas como Copilot que generan código— estemos viendo cosas como esta: un artista se ve mejorado por sistemas de aprendizaje automático que ayudan a escribir (o al menos, parte de la música se escribe y genera mediante un sistema de aprendizaje automático). Así que, sin duda, nos estamos adentrando en un nuevo mundo en términos de generación de contenido. Básicamente, habrá mucho spam generado por arte generado por máquinas, que la gente podría no valorar tanto como el arte generado por un ser humano. Quizás otra forma de decirlo es que uno de los objetivos de los NFT era apoyar a los artistas. <Sonal: sí> Pero si los propios artistas ahora son modelos de aprendizaje automático, ¿a quién exactamente apoyamos? <risas> <Sonal: sí… sí> Entonces, la cuestión es cómo distinguimos, cómo diferenciamos el arte generado por humanos que necesita apoyo <Sonal: Sí> del arte generado por máquinas. Sonal: Bueno, esta es una discusión filosófica para tomar algo, pero me atrevería a decir que quien apunta también es un artista, en cierto modo. <Ali: sí> Y, de hecho, yo diría que esa persona es un artista. Y lo mismo ha ocurrido con… ya que esta es una discusión y un debate tan antiguo como el tiempo: simplemente se trata de nuevas tecnologías, viejos comportamientos. Es lo mismo que ha estado ocurriendo durante siglos. Y lo mismo ocurre con la escritura, etc., totalmente. Dan: Muy cierto. Ali: Bueno, eso en realidad abre la puerta al arte colectivo <Sonal: mhm>, al arte que se genera a través del proceso creativo de toda una comunidad, en lugar de un solo artista; De hecho, ya hay proyectos que hacen esto, donde: tienes un proceso mediante el cual una comunidad influye a través de algún proceso de votación en cadena sobre cuál será el mensaje para un modelo de aprendizaje automático como DALL-E. <mhm> Luego, DALL-E usa ese mensaje para generar una obra de arte (quizás generes no 1 obra de arte, sino 10 000) y luego usas otro modelo de aprendizaje automático, que también está entrenado a partir de los comentarios de la comunidad, para elegir entre esos 10 000 el mejor. Bien, ahora tienes una obra de arte generada a partir de las aportaciones de la comunidad; también se podó y se seleccionó de un conjunto de 10 000 variantes de esa obra de arte (sí, sí), también mediante un modelo de aprendizaje automático entrenado por la comunidad, para luego generar una obra de arte. Es, en cierto modo, el resultado de esta colaboración colectiva. Eso es increíble. Sonal: Me encanta. Bueno, chicos, es una gran nota para terminar; gracias a ambos por compartir todo eso con los oyentes de "web3 con a16z". Dan: Gracias Sonal. Ali: Muchas gracias. Las opiniones expresadas aquí son las del personal de AH Capital Management, LLC (“a16z”) citado y no las de a16z ni de sus filiales. Parte de la información aquí contenida se ha obtenido de fuentes externas, incluyendo empresas de cartera de fondos gestionados por a16z. Si bien proviene de fuentes consideradas fiables, a16z no ha verificado dicha información de forma independiente y no garantiza su exactitud permanente ni su idoneidad para una situación concreta. Además, este contenido puede incluir publicidad de terceros; a16z no ha revisado dicha publicidad y no la avala. Este contenido se proporciona únicamente con fines informativos y no debe considerarse asesoramiento legal, comercial, de inversión ni fiscal. Consulte con sus asesores sobre estos asuntos. Las referencias a valores o activos digitales son solo ilustrativas y no constituyen una recomendación de inversión ni una oferta de servicios de asesoramiento en materia de inversión. Asimismo, este contenido no está dirigido a inversores ni a posibles inversores, y en ningún caso debe utilizarse como base para tomar la decisión de invertir en un fondo gestionado por a16z. (Una oferta de inversión en un fondo de a16z se realizará únicamente mediante el memorando de colocación privada, el acuerdo de suscripción y demás documentación pertinente de dicho fondo, y debe leerse en su totalidad). Las inversiones o empresas de cartera mencionadas, referidas o descritas no representan todas las inversiones en vehículos gestionados por a16z, y no se puede garantizar que las inversiones sean rentables ni que otras inversiones futuras tengan características o resultados similares. Una lista de inversiones realizadas por fondos administrados por Andreessen Horowitz (excluidas las inversiones para las cuales el emisor no ha otorgado permiso a a16z para divulgarlas públicamente, así como las inversiones no anunciadas en activos digitales que cotizan en bolsa) #BİNANCESQUARE $BTC {spot}(BTCUSDT)

TRANSCRIPCIÓN #CRYPTO

El nuevo episodio de esta semana aborda la convergencia de dos tendencias importantes y de gran actualidad: la IA (inteligencia artificial) y las cadenas de bloques/criptomonedas. Estos dominios, en conjunto, tienen importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es ideal para quienes tengan curiosidad o ya estén desarrollando este sector. La conversación abarca temas que van desde las deepfakes, los bots y la necesidad de una prueba de humanidad en un mundo de IA; hasta el big data, los grandes modelos de lenguaje como ChatGPT, el control de usuarios, la gobernanza, la privacidad y la seguridad, el conocimiento cero y zkML; hasta MEV, los medios de comunicación, el arte y mucho más.
Nuestros invitados expertos, en conversación con la anfitriona Sonal Chokshi, incluyen:
Dan Boneh , profesor de Stanford (y asesor principal de investigación en a16z crypto), un criptógrafo que ha estado trabajando en cadenas de bloques durante más de una década y que se especializa en criptografía, seguridad informática y aprendizaje automático, todos los cuales se cruzan en este episodio;Ali Yahya , socio general de a16z crypto, quien también trabajó anteriormente en Google, donde no solo trabajó en un sistema distribuido para una flota de robots (una especie de "aprendizaje de refuerzo colectivo") sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow construida en Google.
La primera mitad de la conversación informal entre Ali y Dan (quienes se conocen como estudiantes y profesores en Stanford) gira en torno a cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad, a cómo las criptomonedas podrían beneficiarse de la IA... El hilo conductor es la tensión entre centralización y descentralización. Así, también analizamos cómo la intersección de las criptomonedas y la IA puede generar resultados que ninguna de las dos sería posible por sí sola...
Piezas referenciadas en este episodio/lectura relacionada:
El próximo sistema de razonamiento cibernético para la ciberseguridad  (2023) de Mohamed Ferrag, Ammar Battah, Norbert Tihanyi, Merouane Debbah, Thierry Lestable y Lucas CordeiroUna nueva era en seguridad de software: Hacia software autorreparador mediante modelos de lenguaje extensos y verificación formal  (2023) por Yiannis Charalambous, Norbert Tihanyi, Ridhi Jain, Youcheng Sun, Mohamed Ferrag, Lucas CordeiroCorrección de errores de seguridad de hardware con modelos de lenguaje extensos  (2023) por Baleegh Ahmad, Shailja Thakur, Benjamin Tan, Ramesh Karri y Hammond Pearce¿Los usuarios escriben código más inseguro con asistentes de IA?  (2022) por Neil Perry, Megha Srivastava, Deepak Kumar y Dan Boneh¿Dormido frente al teclado? Evaluación de la seguridad de las contribuciones de código de GitHub Copilot  (2021) por Hammond Pearce, Baleegh Ahmad, Benjamin Tan, Brendan Dolan-Gavitt, Ramesh KarriVotación, seguridad y gobernanza en blockchains  (2019) con Ali Yahya y Phil Daian
TRANSCRIPCIÓN:
Bienvenidos a "web3 con a16z", un programa sobre cómo construir la próxima generación de internet del equipo de a16z crypto; incluyéndome a mí, su presentadora, Sonal Chokshi. El nuevo episodio de hoy aborda la convergencia de dos importantes tendencias de vanguardia: la IA (inteligencia artificial) y las criptomonedas. Esto tiene importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es para cualquiera que tenga curiosidad o que ya esté desarrollando en este sector.
Nuestros invitados especiales de hoy son: Dan Boneh, profesor de Stanford (y asesor sénior de investigación en a16z crypto). Es un criptógrafo que lleva más de una década trabajando en cadenas de bloques. Los temas de este episodio tienen una fuerte intersección entre la criptografía, la seguridad informática y el aprendizaje automático, todas sus áreas de especialización. También tenemos a Ali Yahya, socio general de a16z crypto, quien también trabajó en Google, donde no solo desarrolló un sistema distribuido para robótica (más concretamente, una especie de "aprendizaje de refuerzo colectivo" que implicaba entrenar una única red neuronal que contribuía a las acciones de toda una flota de robots), sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow. De hecho, Dan y Ali se conocen desde que Ali era estudiante de grado y maestría en Stanford, así que esta conversación es más bien una charla informal entre ellos a la que les pedí que me uniera. Abordamos todo, desde deepfakes y bots hasta la prueba de humanidad en un mundo de IA y mucho, mucho más.
La primera mitad trata sobre cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad sobre cómo las criptomonedas podrían beneficiarse de la IA; y el hilo conductor es la tensión entre centralización y descentralización.  Como recordatorio: nada de lo siguiente debe interpretarse como asesoramiento de inversión, legal, comercial o fiscal; consulte a16z.com/disclosures para obtener más información importante, incluido un enlace a una lista de nuestras inversiones, especialmente porque somos inversores en las empresas mencionadas en este episodio.  Pero primero: comenzamos con la intersección de ambos mundos, compartiendo brevemente las áreas (¡o visiones!) que les entusiasman; la primera voz que escucharán será la de Ali.
Ali: Hay una novela de ciencia ficción muy buena llamada “La era del diamante” de Neal Stephenson, en la que hay un dispositivo conocido como “manual ilustrado”, que es una especie de dispositivo de inteligencia artificial que actúa como tu mentor y tu maestro a lo largo de la vida.
Y entonces, cuando naces, estás emparejado con una IA que, esencialmente, te conoce muy bien, aprende tus preferencias, te sigue durante toda la vida, te ayuda a tomar decisiones y te guía en la dirección correcta.
Así que existe un futuro de ciencia ficción… en el que se podría construir una IA, pero no se querría que estuviera controlada por un gigante tecnológico monopolista. Porque esa posición le otorgaría a esa empresa un gran control, y existen todas estas cuestiones de privacidad y soberanía, y se querría tener cierto control sobre ella.
¿Y qué pasa si la empresa desaparece, cambia las reglas o los precios? Sería fantástico poder crear una IA que pudiera funcionar durante muchísimo tiempo y llegar a conocerte a lo largo de tu vida, pero que fuera realmente tuya.
Y entonces existe esta visión en la que se podría hacer eso con una cadena de bloques: se podría integrar una IA dentro de un contrato inteligente.
Y con el poder de las pruebas de conocimiento cero, también podrá mantener sus datos privados.
Y luego, con el paso de las décadas, esta IA puede volverse más inteligente y ayudarte, y entonces tendrás la opción de hacer lo que quieras con ella. O modificarla como quieras; o desactivarla.
Y esa es una visión interesante para las IA de largo plazo que están en continua evolución y cada vez son mejores: sería mejor si no estuvieran controladas por una única empresa centralizada.
Claro: es una idea muy de ciencia ficción, porque conlleva muchos problemas, incluyendo los de verificación y los de mantener la privacidad de los datos mediante criptografía y, a la vez, poder realizar cálculos sobre ellos, quizás con cifrado totalmente homomórfico. <Sonal: mhm> Todos estos problemas siguen pendientes, pero no es algo inconcebible.
Dan: ¡Guau! ¡Me encanta la visión de Ali!
Sonal: A mí también me encanta, especialmente teniendo en cuenta esa cita (creo que era de Asimov) de que la ciencia ficción de hoy es la ciencia factual del mañana.
Ali, sé que tienes un meta-marco para pensar acerca de todo esto que te he escuchado compartir antes, ¿puedes compartirlo ahora también?
Ali: Sí, existe una narrativa más amplia que existe desde hace bastante tiempo y que ahora se está acentuando mucho más con el desarrollo de cosas como los LLM.
Sonal: En realidad, define eso muy rápido, Ali, solo para los oyentes que aún no están familiarizados, solo como contexto.
Ali: LLM significa "modelo de lenguaje grande" y utiliza parte de la tecnología que se desarrolló en Google en 2017. Existe este famoso artículo conocido como "La atención es todo lo que necesitas" (ese era el título del artículo) y describía lo que ahora se conoce como transformadores, y esa es la base, básicamente, de algunos de los nuevos modelos que la gente ha estado entrenando en estos días, incluido ChatGPT, etc. Todos estos son modelos de lenguaje grandes o LLM.
<Sonal: ¡mmm!> #BTC
Había una famosa frase, creo (2018), de Peter Thiel: «La IA es comunista y las criptomonedas son libertarias»… Es muy acertada, de hecho, porque la IA y las criptomonedas, en muchos sentidos, se contrapesan naturalmente. <Sonal: ¿Ajá?> Y quizá podamos profundizar en cada uno de estos ejemplos a lo largo del podcast, <Sonal: Sí>. Pero hay cuatro aspectos principales en los que esto es cierto:
[1] La primera es que la IA es una tecnología que prospera y permite un control centralizado de arriba a abajo, mientras que la criptografía se basa en la cooperación descentralizada de abajo a arriba. De hecho, en muchos sentidos, se puede pensar en la criptografía como el estudio de la construcción de sistemas descentralizados que permiten la cooperación humana a gran escala, donde no existe un punto central de control.
Y esa es una forma natural en la que estas dos tecnologías se contrapesan entre sí.
[2] Otra es que la IA es una innovación sostenible, ya que refuerza los modelos de negocio de las empresas tecnológicas existentes <Sonal: mhm>, ya que les ayuda a tomar decisiones desde arriba. Y el mejor ejemplo de esto sería que Google pudiera decidir exactamente qué anuncio mostrar a cada uno de sus usuarios entre miles de millones de usuarios y miles de millones de páginas vistas.
Mientras que las criptomonedas son, en realidad, una innovación fundamentalmente disruptiva, ya que su modelo de negocio es fundamentalmente contrario al de las grandes tecnológicas. Por lo tanto, es un movimiento liderado por rebeldes/por los sectores marginales, en lugar de estar liderado por las empresas establecidas. <Sonal: mhm> Así que esa es la segunda.
[3] La tercera es que la IA probablemente se relacionará e interactuará mucho con todas las tendencias hacia la privacidad… Porque la IA, como tecnología, ha incorporado todo tipo de incentivos que nos llevan hacia una menor privacidad individual, ya que tendremos empresas que querrán acceder a todos nuestros datos; y los modelos de IA que se entrenan con cada vez más datos serán cada vez más eficaces. Por lo tanto, creo que esto nos lleva por el camino del panóptico de la IA, donde simplemente se agregan los datos de todos para entrenar estos enormes modelos y optimizarlos al máximo.
Mientras que las criptomonedas nos llevan hacia la dirección opuesta, que es una dirección de mayor privacidad individual. Es una dirección de mayor soberanía, <Sonal: mhm> donde los usuarios tienen control sobre sus propios datos. Y creo que estas dos tendencias serán muy importantes. Y esta es otra forma importante en que las criptomonedas actúan como contrapeso para la IA.
(4) Y tal vez la última tenga que ver con esta última tendencia en IA: el hecho de que la IA es ahora claramente una tecnología poderosa para generar nuevo arte; ahora es una herramienta creativa <Sonal: ¡mm! totalmente>, que nos llevará a una abundancia infinita de medios, a una creatividad infinita en muchos sentidos.
Y la criptografía es un contrapeso a eso porque nos ayuda a analizar toda la abundancia, al ayudarnos a distinguir lo creado por humanos de lo creado por IA. Y la criptografía será esencial para mantener y preservar lo verdaderamente humano en un mundo donde mil veces más contenido <Sonal: correcto> se genera artificialmente.
Así que todas estas son cosas de las que podemos hablar, pero creo que existe esta metanarrativa importante; y estas dos tecnologías son diametralmente opuestas, en muchos aspectos.
Dan: Entonces, tal vez Ali, para agregar a eso, este es un resumen maravilloso, y también diría que hay muchas áreas en las que las técnicas de IA están teniendo un impacto en las cadenas de bloques; y viceversa, <mhm> donde las técnicas de cadenas de bloques están teniendo un impacto en la IA.
Daré una respuesta breve aquí porque vamos a profundizar en los detalles en solo un minuto; pero hay muchos puntos de intersección: supongo que hablaremos sobre las aplicaciones del conocimiento cero para el aprendizaje automático en solo un minuto…
Pero también quiero abordar todas estas aplicaciones donde el aprendizaje automático puede usarse para escribir código. Por ejemplo, el aprendizaje automático puede usarse para escribir código de Solidity que se contrae. Puede usarse para detectar posibles errores en el código, etc.
Existen puntos de intersección donde el aprendizaje automático puede usarse para generar falsificaciones profundas y las cadenas de bloques pueden ayudar a proteger contra ellas. Por lo tanto, supongo que abordaremos todos estos puntos, pero lo interesante es que existe una gran intersección entre las cadenas de bloques y el aprendizaje automático.
Sonal: Sí, antes de profundizar en eso, Dan, tengo una pregunta: ¿estás de acuerdo? Entiendo perfectamente el punto de vista de Ali: la IA y las criptomonedas son complementos naturales, o contrapesos, o pueden ser fuerzas diferentes que se controlan y equilibran mutuamente... Pero, ¿crees que esto es una cualidad inherente a la IA y las criptomonedas? ¿O es simplemente un artefacto de cómo se hacen las cosas actualmente? ¿Con qué aspectos estarías de acuerdo o en desacuerdo?
Dan: Sí; así que diría que, si lo miras desde lejos… las técnicas que se usan en IA parecen muy diferentes a las que se usan en las cadenas de bloques, ¿verdad? Las cadenas de bloques se centran en la criptografía, la descentralización, las finanzas, la economía, etc.
Mientras que la #IA se centra en la estadística, las matemáticas del aprendizaje automático, etc., se centra en el big data. Las técnicas, en realidad, parecen bastante diferentes. <Sonal: mhm>, pero en realidad hay muchos aspectos en los que una parte puede ayudar a la otra <mhm> y viceversa.
Quizás el primero para empezar sea el más obvio y que ha estado en la mente de muchos: las aplicaciones del conocimiento cero para el aprendizaje automático . Se trata de un área emergente llamada zkML . Y su interés se debe a que las técnicas de conocimiento cero han mejorado drásticamente gracias a su aplicación en las cadenas de bloques.
Lo que ha sucedido en los últimos 10 años es increíble; algo que no vemos muy a menudo: esta idea de las pruebas de conocimiento cero, y los sistemas de pruebas en general, se consideraban muy teóricos hace una década. Y debido a todas sus aplicaciones en las cadenas de bloques, de repente se despertó un gran esfuerzo para hacerlas más prácticas y realistas. Como resultado, se ha logrado un progreso tremendo (como saben nuestros oyentes), y ahora estas herramientas se implementan y se utilizan para proteger sistemas reales.
Entonces, la pregunta es: ¿se pueden usar técnicas de conocimiento cero para impulsar el aprendizaje automático? Hay un par de ejemplos (honestamente, podríamos dedicar todo el podcast solo a zkML), pero quizás pueda dar una muestra, uno o dos ejemplos donde ZK es útil para el aprendizaje automático.
Imaginemos que Alice tiene un modelo secreto al que dedicó mucho tiempo para entrenar, y que es muy importante para ella. Es fundamental que la gente no sepa cómo funciona. Pero aun así, quiere poder atender las solicitudes de Bob, ¿verdad? Bob quiere enviarle datos, ella aplicaría el modelo a los datos y le enviaría el resultado.
Bob no tiene ni idea de si está obteniendo los resultados correctos con el modelo, ¿verdad? Quizás pagó por un modelo específico y quiere asegurarse de que Alice realmente lo esté usando, ¿verdad? Quizás pagó por GPT-4 y quiere asegurarse de que Alice realmente esté usando GPT-4, y no GPT-3.
Resulta que las técnicas ZK pueden ser muy útiles en este caso. Alice se comprometería con su modelo y lo haría público. Y luego, cada vez que Bob enviara datos, Alice podría ejecutar el modelo con ellos y enviarle los resultados, junto con la prueba de que el modelo se evaluó correctamente. Así, Bob tendría la garantía de que el modelo comprometido es el mismo que se ejecutó con sus datos. ¿Sí? Este es un ejemplo de cómo las técnicas ZK pueden ser útiles en el aprendizaje automático.
Y quiero enfatizar por qué esto es tan importante: <Sonal: ¡Sí!> Veamos un ejemplo:
Supongamos que tenemos una función, un modelo que realmente se usa para afectar la vida de las personas. Imaginen, por ejemplo, que usamos un modelo para decidir si otorgamos un préstamo o una hipoteca; una institución financiera podría querer usar un modelo similar. Queremos asegurarnos de que el mismo modelo se aplique a todos, ¿no? No es que se me aplique un modelo a mí <Sonal: sí> y a ti otro <Sonal: cierto>. Básicamente, al hacer que el banco se comprometa con el modelo, ¿no?; y así todos pueden verificar que sus datos son evaluados por el mismo modelo comprometido <mmm>, podemos asegurarnos de que se aplique el mismo modelo a todos.
Debo decir que aquí hay un problema abierto: aunque las técnicas de conocimiento cero pueden garantizar que se aplique el mismo modelo a todos, surge la pregunta: ¿es justo el modelo? Los modelos pueden tener sesgos y generar resultados injustos. Por lo tanto, existe toda una área de investigación llamada equidad algorítmica; existen muchísimos artículos sobre equidad algorítmica, y es realmente interesante preguntarse: ahora que tenemos un modelo establecido, ¿podemos demostrar, en conocimiento cero, que el modelo cumple con alguna definición de equidad del área de equidad algorítmica?
¿Y cómo nos aseguramos de que el proceso de capacitación se ejecute correctamente?
Ali: Bueno, todo lo que dijiste sobre #zkml es sumamente emocionante. Y, como tecnología, creo que contribuirá a que el aprendizaje automático, y la IA en general, sean más transparentes y confiables, tanto dentro como fuera del contexto de las criptomonedas.
Creo que una aplicación aún más ambiciosa, y quizás a largo plazo, de ZKML —y de algunas otras técnicas de verificación en las que la comunidad criptográfica ha estado trabajando<mhm>— es simplemente descentralizar la IA en general. Como ya comentamos, la IA es una tecnología casi intrínsecamente centralizadora, ya que se nutre de factores como los efectos de escala, ya que tener todo dentro de un centro de datos lo hace más eficiente. Por lo tanto, escalar todo de forma centralizada lo hace más potente y, como resultado, más centralizado.
Además, los datos suelen estar controlados por un pequeño número de empresas tecnológicas intermedias. Esto también conlleva una mayor centralización.
Y finalmente: los modelos de aprendizaje automático y el talento en aprendizaje automático, también controlados por un pequeño número de actores.
Y las criptomonedas pueden volver a ayudar en este frente desarrollando tecnología que utilice cosas como ZKML que puedan ayudarnos a descentralizar la IA.
Así que hay tres aspectos principales que intervienen en la IA: el aspecto computacional , que requiere un uso a gran escala de GPU (generalmente en centros de datos); el aspecto de los datos , que, repito, la mayoría de las empresas centralizadas controlan; y los propios modelos de aprendizaje automático . <Sonal: sí>
Y la más sencilla podría ser la del cálculo. ¿Es posible descentralizar el cálculo para el entrenamiento y la inferencia de modelos de aprendizaje automático? Aquí es donde entran en juego algunas de las técnicas que Dan mencionaba, como las pruebas de conocimiento cero, que permiten demostrar que el proceso de inferencia o entrenamiento de un modelo se realizó correctamente, lo que permite externalizarlo a una gran comunidad. Se puede tener un proceso distribuido mediante el cual cualquiera con una GPU puede contribuir con el cálculo a la red y entrenar un modelo de esa manera, sin tener que depender necesariamente de un centro de datos masivo con todas las GPU centralizadas.
Y aún queda la gran duda de si esto tendrá sentido económicamente... Pero al menos, con los incentivos adecuados, se puede aprovechar la larga cola: se puede aprovechar toda la capacidad de GPU inactiva que pueda existir; hacer que todas esas personas contribuyan con ese cálculo al entrenamiento de un modelo o a la ejecución de la inferencia; y ofrecer una alternativa a lo que, de otro modo, serían solo las grandes empresas tecnológicas intermedias las que actualmente lo controlan todo. <Sonal: ¡Mmm!> Hay todo tipo de problemas técnicos importantes que tendrían que resolverse para que eso fuera posible.
De hecho, existe una empresa en este sector llamada Gensyn que está desarrollando precisamente esto. Están creando un mercado descentralizado para computación en GPU, principalmente con el propósito de entrenar modelos de aprendizaje automático. Es un mercado donde cualquiera puede contribuir con su computación en GPU, ya sea en su computadora personal debajo de su escritorio o inactiva en un centro de datos.
Y, por otro lado, cualquiera puede aprovechar la computación disponible en la red para entrenar sus grandes modelos de aprendizaje automático. Esto sería una alternativa a la alternativa centralizada, tipo OpenAI/Google/Meta/todos —ya sabes, inserta tu gran empresa tecnológica favorita aquí <Sonal: ¡Sí! (risas)—, que actualmente tendrías que adoptar.
Sonal: Bueno, antes de profundizar en este marco de descentralización, Ali, estabas desglosando la computación y creo que ibas a compartir los otros dos de esos tres pilares. Pero antes… ambos hablaron un poco sobre los desafíos técnicos. ¿Cuáles son algunos de los desafíos técnicos que deben superarse y que la gente podría estar resolviendo ya? (Quiero que los desarrolladores que escuchen este episodio también reflexionen sobre las oportunidades en este espacio y cómo pueden abordar los desafíos existentes; o cuáles son algunos de los desafíos que enfrentarán al desarrollar soluciones).
Dan: Sí, entonces tal vez pueda mencionar dos que creo que serían interesantes para la gente.
[1] Básicamente, imaginemos que Alice tiene un modelo que quiere proteger. Quiere enviarlo cifrado a otra persona, por ejemplo, a Bob. Bob recibe un modelo cifrado y necesita poder ejecutar sus datos en él.
¿Cómo se hace eso? Si se tienen datos que se quieren ejecutar en un modelo, pero solo se cuenta con el cifrado del modelo, ¿cómo se logra?
Y eso es algo para lo que usaríamos lo que se llama cifrado totalmente homomórfico. <Sonal: Sí. (FHE).> Es un cifrado totalmente homomórfico, una herramienta notable que permite realizar cálculos con datos cifrados.
Es un poco increíble que esto sea posible, pero se puede tener un modelo cifrado y datos de texto sin cifrar, y ejecutar el modelo cifrado sobre estos datos y obtener un resultado cifrado. Se le enviaría el resultado cifrado a Alice, quien podría descifrarlo y verlo en texto sin cifrar.
Así que esto es algo que ya existe... de hecho, existe bastante demanda en la práctica; <Sonal: sí> no requiere mucho esfuerzo ver que el Departamento de Defensa está interesado en esto. Hay muchas otras aplicaciones donde se puede enviar un modelo cifrado a un tercero; este ejecutaría el modelo cifrado en sus datos; te enviaría los resultados; puedes descifrar y obtener información sobre los datos que se ingresaron como entrada del modelo cifrado.
La pregunta, claro, es cómo lo escalamos. Ahora mismo funciona bien para modelos medianos… y la pregunta es, ¿podemos escalarlo a modelos mucho más grandes? Así que es todo un reto: un par de startups en el sector, y, repito, una tecnología muy, muy interesante; es increíble que esto sea posible. <Sonal: Sí… de verdad> Y probablemente veremos mucho más de esto en el futuro.
[2] La otra área es en realidad la que mencionó Ali, otra área muy importante, que es: ¿cómo sabemos que el modelo fue entrenado correctamente?
Entonces, si envío mis datos a alguien y le pido que entrene un modelo con ellos, o que lo ajuste, ¿cómo sé que lo hicieron correctamente? Es cierto, podrían devolverme un modelo, pero ¿cómo sé que no tiene puertas traseras? De hecho, se ha investigado bastante para demostrar que, si el entrenamiento se realiza incorrectamente, podría devolver un modelo que funcionaría correctamente con todos los datos de prueba, pero que tiene una puerta trasera, lo que significa que fallaría catastróficamente con una entrada específica. Esto es posible si el proceso de entrenamiento no está verificado.
Y, de nuevo, este es un área donde ZKML entra en juego: Podemos demostrarles que el entrenamiento se ejecutó correctamente; o quizás existan otras técnicas para demostrarlo. Pero, de nuevo, esta es otra área —un área de investigación muy activa— y animaría a muchos de los oyentes a que se trate de un problema muy complejo: demostrar que el entrenamiento se realizó correctamente; demostrar que los datos de entrenamiento se recopilaron y filtraron correctamente, etc.
De hecho, es un área maravillosa en la que ingresar si las personas buscan realizar más trabajos en ese espacio.
Sonal: ¡Genial! Ali, ¿qué más añadirías?
Ali: Sí, definitivamente. Bueno, supongo que si seguimos hablando de lo que se necesitaría para descentralizar la pila de IA, creo que para descentralizar el componente computacional —y estos son tres componentes importantes—, si quisiéramos descentralizar el componente computacional, hay dos desafíos técnicos muy importantes que aún no se han resuelto.
El primero es el problema de la verificación (que Dan acaba de mencionar) <Sonal: mhm>, para el cual se podría usar ZKML. Idealmente, con el tiempo se podrían usar pruebas de conocimiento cero para demostrar que el trabajo real —que las personas que contribuyen a esta red— se realizó correctamente.
El desafío radica en que el rendimiento de estas primitivas criptográficas está lejos de alcanzar el nivel necesario para entrenar o inferir modelos muy grandes. Por lo tanto, los modelos actuales, como los LLM que todos conocemos y apreciamos (como ChatGPT), no serían demostrables con el estado actual de ZKML. Por lo tanto, se está trabajando mucho para mejorar el rendimiento del proceso de demostración, de modo que se puedan demostrar cargas de trabajo cada vez mayores de forma eficiente. Pero ese es un problema abierto, y algo <Sonal: sí> en lo que mucha gente está trabajando.
Mientras tanto, empresas como Gensyn utilizan otras técnicas que no son solo criptográficas, sino que se basan en la teoría de juegos. En ellas, se recluta a un mayor número de personas independientes para realizar el trabajo y se comparan sus resultados para garantizar que se realicen correctamente. <Sonal: ¡Qué interesante!> Se trata de un enfoque más optimista y basado en la teoría de juegos que no se basa en la criptografía, pero que se alinea con el objetivo principal de descentralizar la IA o ayudar a crear un ecosistema para la IA mucho más orgánico, comunitario y de abajo a arriba, a diferencia del enfoque de arriba a abajo que proponen empresas como OpenAI.
Así que ese es el primer problema; el primer gran problema es el problema de la verificación.
Y el segundo gran problema es el de los sistemas distribuidos: ¿cómo se coordina realmente una gran comunidad de personas que contribuyen con GPU a una red de tal manera que todo parezca un sustrato integrado y unificado para el cálculo? <Sonal: yup>
Y habrá muchos desafíos interesantes, como: estamos fragmentando la carga de trabajo de aprendizaje automático de forma lógica; distribuyendo diferentes partes a distintos nodos de la red; descubriendo cómo hacerlo todo de forma eficiente; y, cuando los nodos fallan, descubriendo cómo recuperarse y asignando nuevos nodos para que se encarguen del trabajo realizado por el nodo que falló. Por lo tanto, existen muchos detalles complejos a nivel de sistemas distribuidos que las empresas deberán resolver para ofrecernos esta red descentralizada que pueda ejecutar cargas de trabajo de aprendizaje automático de una forma quizás incluso más económica que usar la nube.
Sonal: Sí… Eso es genial.
Dan: …Sí, y es totalmente cierto que las técnicas ZK actuales manejarán los modelos más pequeños que se utilizan, pero definitivamente los LLM son probablemente demasiado grandes para que estas técnicas los manejen hoy, las técnicas ZK; pero, sabes que están mejorando constantemente, el hardware está mejorando, así que con suerte se pondrán al día.
Sonal: Sí; antes de continuar, ¿podemos hacer una comprobación de pulso realmente clara sobre dónde estamos exactamente en eso? Obviamente, lo que les escucho decir es que hay tremendas aplicaciones en la intersección de la computación general verificable, que las cadenas de bloques y las criptomonedas definitivamente han estado avanzando y acelerando significativamente toda esa área (hemos estado cubriendo mucho de eso nosotros mismos: si miran nuestro canon ZK y la categoría de conocimiento cero, verán mucho de esto cubierto allí).
Pero, ¿dónde nos encontramos exactamente ahora en cuanto a lo que pueden hacer? Porque ustedes hablaron mucho sobre lo que aún no pueden hacer y la oportunidad que les brinda, lo cual es emocionante; pero ¿dónde nos encontramos ahora mismo? ¿Qué pueden hacer realmente?
Dan: Sí. Ahora mismo, básicamente pueden clasificar modelos medianos. No algo tan grande como GPT-3 o 4, sino modelos medianos. <sí> Es posible demostrar que la clasificación se realizó correctamente. El entrenamiento probablemente esté más allá de lo que se puede hacer ahora mismo, simplemente porque requiere muchísimos recursos computacionales <Sonal: cierto> que para los sistemas de prueba aún no hemos llegado a ese punto.
Pero como dijo Ali, tenemos otras maneras de hacerlo. Por ejemplo, podemos hacer que varias personas realicen el entrenamiento y luego comparar los resultados. ¿Sí? Así que ahora hay incentivos de teoría de juegos para que la gente no haga trampa. Si alguien hace trampa, alguien más podría quejarse de que calculó mal el entrenamiento, y entonces quien haya hecho trampa no recibirá compensación por su esfuerzo. <Sonal: Sí, sí, sí> Así que hay un incentivo para que la gente realmente realice el entrenamiento como se suponía que debía realizarse.
Sonal: Correcto. Y básicamente, no es una fase híbrida, sino que se trata de enfoques alternativos hasta que se alcance una mayor escalabilidad y el rendimiento alcance el nivel necesario.
Dan: Sí; diría que para algunos modelos, la clasificación se puede demostrar hoy en día con conocimiento cero. Para el entrenamiento actual, debemos confiar en técnicas optimistas.
Sonal: Sí, genial.
Entonces, Ali, mencionaste que la computación es una de las tres puntas, y también mencionaste que los datos y luego los modelos para el aprendizaje automático en sí mismos: ¿quieres abordar ahora los datos y las oportunidades y desafíos que hay allí (en lo que respecta a la intersección cripto/IA)?
Ali: Sí, absolutamente. Por lo tanto, creo que existe la oportunidad, aunque los problemas involucrados son muy complejos, de descentralizar el proceso de obtención de datos para el entrenamiento de grandes modelos de aprendizaje automático <mhm> desde una comunidad más amplia. De nuevo, en lugar de tener un único actor centralizado, simplemente recopilar todos los datos <yah> y luego entrenar los modelos.
Y esto podría funcionar creando un tipo de mercado similar al que acabamos de describir para la computación, pero incentivando a las personas a contribuir con nuevos datos a un gran conjunto de datos que luego se utiliza para entrenar un modelo.
La dificultad con esto es similar, ya que existe un desafío de verificación: hay que verificar de alguna manera que los datos que aportan las personas sean realmente buenos <Sonal: ¡sí!> y que no sean datos duplicados ni basura generados aleatoriamente o que no sean reales. Y también hay que asegurarse de que los datos no alteren el modelo (algún tipo de ataque de envenenamiento) donde el modelo se vuelva vulnerable o simplemente menos bueno o tenga un rendimiento inferior al anterior. Entonces, ¿cómo se verifica que esto sea así?
Y ese es quizás un problema complejo que la comunidad debe resolver. Podría ser imposible de resolver por completo, y podría ser necesario recurrir a una combinación de soluciones tecnológicas y sociales, donde también se cuenta con algún tipo de métrica de reputación. Los miembros de la comunidad pueden ganar credibilidad, de modo que cuando aportan datos, estos se vuelvan más confiables de lo que serían de otra manera.
Pero lo que esto podría permitirle hacer es que ahora puede cubrir verdaderamente la cola muy larga de la distribución de datos.
Y uno de los aspectos más desafiantes del aprendizaje automático es que la calidad de un modelo depende de la cobertura de la distribución que el conjunto de datos de entrenamiento pueda alcanzar. Si existen entradas que se alejan mucho de la distribución de los datos de entrenamiento, el modelo podría comportarse de forma completamente impredecible. Para que el modelo funcione correctamente en casos extremos (y en los casos de cisne negro o entradas de datos que se pueden encontrar en el mundo real), es fundamental que el conjunto de datos sea lo más completo posible.
Así pues: si existiera este tipo de mercado abierto y descentralizado para la contribución de datos a un conjunto de datos, cualquiera con datos únicos en el mundo podría contribuir a la red… Lo cual es una mejor manera de hacerlo, ya que si se intenta hacerlo desde una empresa central, no hay forma de saber quién tiene esos datos. Por lo tanto, si se incentiva a esas personas a que se presenten y proporcionen esos datos por iniciativa propia, creo que se puede lograr una cobertura mucho mejor de la cola larga.
Como hemos visto, el rendimiento de los modelos de aprendizaje automático continúa mejorando a medida que crece el conjunto de datos y la diversidad de sus puntos de datos. Esto puede potenciar aún más el rendimiento de nuestros modelos de aprendizaje automático; podemos obtener conjuntos de datos aún más completos que abarcan a toda la comunidad.
Dan: Bueno, déjame darle la vuelta a esto en ese eh...
Sonal: ¡Oooh, adelante, Dan!
Dan: …Si vamos a incentivar a la gente a contribuir con datos, básicamente vamos a incentivarla a crear datos falsos <Sonal: ¡Sí!> para que les paguen. ¿Sí? Así que tenemos que tener algún tipo de mecanismo para asegurarnos de que los datos que aportas sean auténticos. <Ali: Exactamente>
Y puedes imaginar un par de maneras de hacerlo, ¿verdad? Una forma es confiar en hardware confiable. <Sonal: mhm>: Quizás los sensores estén integrados en un hardware confiable, al que solo confiaríamos en datos debidamente firmados por él. Esa es una forma de hacerlo.
De lo contrario, tendríamos que tener algún otro mecanismo mediante el cual podamos saber si los datos son auténticos o no.
Ali: Estoy completamente de acuerdo.
Ese sería el mayor problema abierto a resolver... Y creo que a medida que mejora la evaluación comparativa de los modelos de aprendizaje automático, creo que hay dos tendencias importantes en el aprendizaje automático en este momento <Sonal: yah> –
[1] Se está mejorando la medición del rendimiento de un modelo de aprendizaje automático. En el caso de los LLM, esto aún está en sus primeras etapas y, de hecho, es bastante difícil determinar su calidad. Porque no se trata de un clasificador donde el rendimiento de un modelo esté claramente definido. Con un LLM, es casi como evaluar la inteligencia de un humano. ¿Verdad? <Sonal: ¡mhm!> Encontrar la forma correcta de evaluar la inteligencia de un LLM como #chatgpt es un área de investigación abierta. Pero con el tiempo, creo que mejorará cada vez más.
[2] Y la otra tendencia es que cada vez somos más capaces de explicar cómo funciona un modelo.
Y con ambas cosas, en algún momento, podría ser posible comprender el efecto que un conjunto de datos tiene en el rendimiento de un modelo de aprendizaje automático. <Sonal: sí> Y si podemos comprender bien si un conjunto de datos aportado por un tercero ayudó o no al rendimiento del modelo de aprendizaje automático, entonces podemos recompensar esa contribución y crear el incentivo para que exista ese mercado.
Sonal: Entonces, para resumir hasta ahora, lo que les escuché decir es que…
Existe hardware confiable que puede ayudar a verificar la precisión de los datos y los modelos que se aportan;Ali, mencionaste brevemente las métricas de reputación y ese tipo de cosas pueden ayudar;También mencionaste que podría haber una manera (no necesariamente ahora, pero en algún momento en el futuro cercano) de verificar cómo los datos influyen en los resultados de un modelo en particular para que realmente puedas... no es del todo explicable, pero la idea es que realmente puedas atribuir que este conjunto de datos causó este efecto particular.
Así que hay una variedad de técnicas diferentes que habéis compartido hasta ahora.
Ali: Bueno, lo último es que podrías hacer lo mismo para el tercer aspecto, que son los modelos.
Imagina crear un mercado abierto para que las personas aporten un modelo entrenado capaz de resolver un problema específico. Imagina crear en Ethereum un contrato inteligente que integre algún tipo de prueba, ya sea una prueba cognitiva que un LLM pueda resolver o una prueba de clasificación que un clasificador de aprendizaje automático (AAP) pueda resolver.
Y si se utiliza ZKML, alguien podría proporcionar un modelo junto con una prueba de que ese modelo puede resolver esa prueba; entonces, nuevamente, usted tiene las herramientas que necesita para crear un mercado que incentive a las personas a contribuir con modelos de aprendizaje automático que puedan resolver ciertos problemas.
Muchos de los problemas que hemos discutido, los problemas pendientes que hemos discutido, sobre cómo lograrlo también están presentes aquí... En particular, hay una parte de ZKML donde se debe poder demostrar que el modelo realmente realiza el trabajo que afirma realizar. Además, necesitamos tener buenas pruebas para evaluar la calidad de un modelo. Así que poder integrar una prueba dentro de un contrato inteligente para luego someter un modelo de aprendizaje automático a una evaluación de su calidad. Esta es otra parte muy emergente de toda esta tendencia tecnológica.
Pero en teoría, sería fantástico si finalmente llegáramos a un mundo donde tuviéramos estos mercados muy abiertos, de abajo hacia arriba y transparentes que permitan a las personas contribuir y obtener modelos de computación, datos y aprendizaje automático para el aprendizaje automático, que esencialmente actúen nuevamente como un contrapeso a las enormes y muy centralizadas empresas tecnológicas que impulsan todo el trabajo de IA en la actualidad.
Sonal: Me encanta cómo lo mencionaste, Ali, porque ha sido un problema de larga data en la IA en la práctica: puede resolver muchos problemas, como la curva de campana, la parte media de la norma, pero no los extremos. Un ejemplo clásico de esto son los coches autónomos. Se puede hacer todo con ciertos comportamientos estándar, pero son los casos extremos donde pueden ocurrir los verdaderos accidentes y las catástrofes. <Ali: Cierto>
Eso fue muy útil. Sé que hablaste sobre la alineación de incentivos y los incentivos para proporcionar datos precisos y de calidad, e incluso incentivos para contribuir con cualquier dato en general.
Pero hablando de la cola larga, me surgió una pregunta rápida mientras hablabas. Esto me lleva a preguntarme quién gana dinero y dónde en este sistema. No pude evitar preguntarme, ¿cómo influye entonces el modelo de negocio en la rentabilidad de las empresas? Siempre he entendido que, en la cola larga de la IA (en un mundo con este tipo de conjuntos de datos disponibles), tus datos propietarios son, en realidad, tu conocimiento único del dominio, algo que solo tú conoces en esa cola larga. ¿Tienes alguna respuesta rápida?
Ali: Creo que la visión tras la intersección de las criptomonedas con la IA es que se podría crear un conjunto de protocolos que distribuyan el valor que eventualmente capturará esta nueva tecnología, la IA, entre un grupo mucho más amplio de personas. Esencialmente, una comunidad de personas, todas las cuales pueden contribuir y participar de las ventajas de esta nueva tecnología. <Sonal: mhm>
Entonces, las personas que ganarían dinero serían las que contribuyen con el procesamiento, o las que contribuyen con datos, o las que contribuyen con nuevos modelos de aprendizaje automático a la red, de modo que se puedan entrenar mejores modelos de aprendizaje automático y se puedan resolver problemas mejores, más grandes y más importantes.
Las otras personas que generarían ingresos al mismo tiempo son quienes, por otro lado, están en el lado de la demanda de esta red: quienes la utilizan como infraestructura para entrenar sus propios modelos de aprendizaje automático. <Sonal: sí> Quizás su modelo genere algo interesante en el mundo, tal vez sea como la próxima generación de ChatGPT. Y luego eso se abra camino hacia diversas aplicaciones, como aplicaciones empresariales o cualquier otro uso que se les dé a esos modelos, y esos modelos impulsan la captura de valor por sí mismos, porque esas empresas tendrán su propio modelo de negocio.
Finalmente, quienes también podrían generar ingresos son quienes construyen esta red. Por ejemplo: se crea un token para la red; este token se distribuirá a la comunidad; y todas esas personas tendrán propiedad colectiva sobre esta red descentralizada para datos y modelos computacionales que también podrían capturar parte del valor de toda la actividad económica que pasa por esta red.
Así que, como pueden imaginar, cualquier pago por computación, datos o modelos <mhm> podría tener una comisión. Esta podría ir directamente a una tesorería controlada por esta red descentralizada, de la que todos los poseedores de tokens que forman parte tienen propiedad y acceso colectivos (como creadores y propietarios del mercado).
Y esa tarifa podría ir directamente a la red. Así que, imagínense que cada transacción que pasa por esta red, cada forma de pago que paga por computación, datos o modelos, podría tener una tarifa que se le imponga y que vaya a una tesorería controlada por toda la red y por los poseedores de tokens que la poseen colectivamente.
De modo que ese es esencialmente un modelo de negocio para la red en sí.
Sonal: ¡Genial!
Bien. Hasta ahora hemos hablado mucho sobre cómo las criptomonedas pueden ayudar a la IA. Para ser claros, no es unidireccional; estas cosas se refuerzan, son bidireccionales y más interactivas que unidireccionales.
Pero, para el propósito de esta discusión, realmente estamos hablando de cómo las criptomonedas pueden ayudar a la IA; ahora vamos a darle la vuelta y hablar un poco más sobre las formas en que la IA puede ayudar a las criptomonedas.
Dan: Sí, entonces hay un par de puntos de contacto interesantes allí.
Un tema que realmente vale la pena mencionar es la idea de los modelos de aprendizaje automático que se utilizan para generar código. Muchos oyentes probablemente hayan oído hablar de Copilot, una herramienta que se utiliza para generar código. Y lo interesante es que se pueden intentar usar estas herramientas de generación de código para escribir contratos de Solidity o código criptográfico.
Y quiero recalcar que esto es realmente algo muy peligroso de hacer.
Sonal: ¡Ay! ¡No hagas esto en casa! ¡Vale! <risas>
Dan: Sí. Sí. No intentes esto en casa.
Porque lo que ocurre es que muy a menudo estos sistemas realmente generan código que funciona, ya sabe, cuando intenta ejecutarlo (y, como sabe, el cifrado es lo opuesto al descifrado, etc.), por lo que el código realmente funcionará, pero en realidad será inseguro.
De hecho, hemos escrito un artículo sobre esto recientemente que muestra que si intentas que Copilot escriba algo tan simple como una función de cifrado, te dará algo que realiza el cifrado correctamente, pero utiliza un modo de operación incorrecto, por lo que terminarás con un modo de cifrado inseguro.
De manera similar, si intentas generar código Solidity, podrías terminar con un código Solidity que funcione, pero tendrá vulnerabilidades.
Quizás te preguntes, ¿por qué sucede esto? Una de las razones es que estos modelos se entrenan básicamente con código disponible, en repositorios de GitHub. Bueno, muchos de los repositorios de GitHub son vulnerables a todo tipo de ataques. Así que estos modelos aprenden sobre código que funciona, pero no sobre código seguro; es como si entrara basura, saliera basura, ¿no? <Sonal: ¡Mmm!>
Así que quiero asegurarme de que las personas sean muy, muy cuidadosas, cuando usen estos modelos generativos para generar código, que verifiquen con mucho cuidado que el código realmente haga lo que se supone que debe hacer y que lo haga de manera segura.
Ali: Una idea en ese frente (tengo curiosidad por saber lo que piensas al respecto) es que puedes usar modelos de IA como LLM (algo así como ChatGPT) para generar código, junto con otras herramientas para intentar hacer que el proceso sea menos propenso a errores.
Y un ejemplo, una idea <oh> sería usar un LLM para generar una especificación para un sistema de verificación formal: Básicamente, describes tu programa en inglés; y le pides al LLM que genere una especificación para una herramienta de verificación formal; luego le pides a la misma instancia del LLM que genere el programa que cumple con esa especificación. <mm!> Y luego usas una herramienta de verificación formal para ver si el programa realmente cumple con la especificación.
Si hay errores, la herramienta los detectará; estos errores pueden utilizarse como retroalimentación para el LLM. Idealmente, el LLM podrá revisar su trabajo y producir una nueva versión del código correcta. Y, finalmente, si se repite esto una y otra vez, se obtendrá un fragmento de código que, idealmente, cumple plenamente con la especificación y está formalmente verificado.
Y como la especificación puede ser legible por un humano, puedes revisarla y ver que sí, este es el programa que quería escribir. Y esa puede ser una excelente manera de usar LLM para escribir código que, además, no sea tan propenso a errores como lo sería si simplemente le pidieras a ChatGPT que generara un contrato inteligente.
Sonal: ¡Qué inteligente!
Dan: Sí, esto es genial y, de hecho, nos lleva a otro tema que vale la pena discutir, que es básicamente el uso de LLM para encontrar errores.
Supongamos que un programador escribe código en Solidity y ahora quiere comprobar si ese código es correcto y seguro. Como dijo Ali, puede usar el LLM para encontrar vulnerabilidades en ese código. Se ha trabajado mucho para evaluar la eficacia de los LLM para detectar errores en software, en los contratos inteligentes de Solidity y en C y C++.
Hay un artículo que salió recientemente que es realmente muy relevante: es un artículo de la Universidad de Manchester <Sonal: mhm>, que dice que ejecutarías una herramienta de análisis estático estándar para encontrar errores en tu código; y encontraría todo tipo de errores de gestión de memoria o errores potenciales; solo una herramienta de análisis estático estándar; sin aprendizaje automático alguno.
Pero entonces usarías un LLM para intentar corregir el código. ¿Sí? <Sonal: mm> <Ali: exactamente> Así que propone una solución al error automáticamente. Y luego volverías a ejecutar el analizador estático en el código corregido, <Ali: sí> y el analizador estático diría: «Oh, el error sigue ahí o no está ahí». Y seguirías iterando hasta que el analizador estático diga: «Sí, ahora el error se ha corregido y no hay más problemas».
Así que fue un artículo bastante interesante; este artículo literalmente salió hace dos semanas.
Sonal: Entonces, para ambos artículos que acabas de mencionar, Dan, el de la Universidad de Manchester y también el que escribieron recientemente sobre que no se confía en que los LLM escriban código correcto (podría ser código funcional, pero no necesariamente seguro), vincularé esos artículos en las notas del programa <Dan: genial> para que los oyentes puedan encontrarlos.
Solo una pregunta rápida antes de continuar… En cuanto a la situación actual, ¿es una situación temporal o crees que llegará el momento en que se pueda confiar en que los LLM escriban código de contratos inteligentes correcto, no solo funcional, sino seguro ? ¿Es posible o está muy lejos?
Dan: Esa es una pregunta difícil de responder. Sabes que estos modelos mejoran muchísimo cada semana, ¿verdad? <Sonal: Sí> Así que es posible que para el año que viene estos problemas ya estén solucionados y que se pueda confiar en ellos para escribir código más seguro. Supongo que lo que estamos diciendo ahora mismo es que, si se usan los modelos actuales (GPT-4, GPT-3, etc.) para generar código, hay que ser muy cuidadoso y verificar que el código que escribieron realmente cumpla su función y sea seguro.
Sonal: Entendido.
Ali: Y, por cierto, ¿llegaremos a un punto en el que el código generado por los LLM tenga menos probabilidades de contener errores que el generado por un humano? <Sonal: ¡Sí!> Y quizás esa sea una pregunta más importante, ¿no?
Porque de la misma manera que nunca puedes decir que un coche autónomo nunca se estrellará, la verdadera pregunta que realmente importa es: ¿es menos probable que se estrelle que si fuera un conductor humano? <Sonal: Eso es exactamente correcto> Porque la verdad es que probablemente sea imposible garantizar que nunca habrá un accidente automovilístico causado por un coche autónomo, o que nunca habrá un error <Sonal: cierto> generado por un LLM al que le has pedido que escriba algún código.
Y creo que, dicho sea de paso, esto se volverá cada vez más potente cuanto más se integre en las cadenas de herramientas existentes. Como ya comentamos, se puede integrar en cadenas de herramientas de verificación formal. Se puede integrar en otras herramientas, como la que describió Dan, que detecta problemas de gestión de memoria. También se puede integrar en cadenas de herramientas de pruebas unitarias y de integración. De esta manera, el LLM no actúa de forma aislada: recibe retroalimentación en tiempo real de otras herramientas que lo conectan con la realidad.
Y creo que a través de la combinación de modelos de aprendizaje automático que son extremadamente grandes, entrenados con todos los datos del mundo, combinados con estas otras herramientas, en realidad podría crear programadores que sean bastante superiores a los programadores humanos. <mhm> E incluso si todavía pudieran cometer errores, podrían ser sobrehumanos.
Y ese será un gran momento para el mundo de la ingeniería de software en general.
Sonal: Sí. Qué buen encuadre, Ali…
Entonces, ¿cuáles son algunas de las otras tendencias que se avecinan y en las que la IA puede ayudar a las criptomonedas, y viceversa?
Ali: Sí… Una posibilidad emocionante en este espacio es que podamos construir redes sociales descentralizadas que en realidad se comporten de forma muy similar a Twitter, pero donde el gráfico social esté completamente en cadena y sea casi como un bien público sobre el cual cualquiera pueda construir.
Como usuario, controlas tu propia identidad en el gráfico social. Controlas tus datos, a quién sigues y quién puede seguirte. Existe todo un ecosistema de empresas que crean portales en el gráfico social que ofrecen a los usuarios experiencias similares a las de Twitter, Instagram, TikTok o cualquier otra plataforma que deseen desarrollar.
Pero todo esto está encima de este mismo gráfico social <Sonal: yah> que nadie posee y que no hay ninguna empresa tecnológica de mil millones de dólares en el medio que tenga control total sobre él y que pueda decidir lo que sucede en él.
Y ese mundo es emocionante porque significa que puede ser mucho más dinámico; puede existir todo un ecosistema de personas creando cosas y cada usuario tiene mucho más control sobre lo que ve y lo que puede hacer en la plataforma. Pero también existe la necesidad de filtrar la señal del ruido. Y, por ejemplo, la necesidad de crear algoritmos de recomendación sensatos que filtren todo el contenido y te muestren el canal de noticias que realmente quieres ver.
Esto abrirá la puerta a todo un mercado, un entorno competitivo, de participantes que te proporcionarán algoritmos basados ​​en IA que seleccionan contenido para ti. Como usuario, podrías tener una opción: puedes optar por un algoritmo en particular, tal vez el desarrollado por Twitter, o por uno desarrollado por alguien completamente diferente.
Y ese tipo de autonomía será genial, pero, de nuevo, vas a necesitar herramientas como el aprendizaje automático y la IA para ayudarte a filtrar el ruido y analizar todo el spam que inevitablemente existirá en un mundo donde los modelos generativos pueden crear todo el spam del mundo.
Sonal: Lo interesante de lo que dijiste también es que ni siquiera se trata de elegir entre... Se remonta a esta idea que mencionaste antes, y mencionaste esto brevemente sobre simplemente dar a los usuarios las opciones para elegir entre mercados de ideas y enfoques gratuitos que puedan decidir...
Pero también es interesante porque no se trata solo de empresas, sino de qué enfoque te funciona. Quizás te interese más el algoritmo de filtrado colaborativo que existía en los sistemas de recomendación originales, que funciona como un filtrado colaborativo entre personas. <Ali: sí> Así que las recomendaciones de tus amigos son lo que sigues.
De hecho, personalmente soy muy diferente y estoy mucho más interesado en un gráfico de intereses; y por lo tanto, podría estar mucho más interesado en personas que tienen intereses similares a los míos, y podría elegir ese enfoque en lugar de, digamos, algo más que sea algo así como, oye, este es un enfoque híbrido, lo único que va a hacer es XY y Z.
El simple hecho de poder elegir ya es tremendamente empoderador. Eso simplemente no es posible ahora mismo. Y solo es posible con las criptomonedas y la IA. Así que ese es un gran ejemplo. <¡Ah, sí!>
¿Había algo más que decir sobre cómo la IA puede ayudar con la confianza y la seguridad?
Ali: Creo que esa metaimagen es que las criptomonedas son el Salvaje Oeste. Como no requieren permisos, cualquiera puede participar; hay que asumir que quien participe podría ser un adversario <sí> y tal vez intentar manipular el sistema, hackearlo o hacer algo malicioso.
Por eso, existe una necesidad mucho mayor de herramientas que ayuden a filtrar a los participantes honestos de los deshonestos, y el aprendizaje automático y la IA, como herramientas de inteligencia, pueden ser realmente muy útiles en ese frente.
Por ejemplo, existe un proyecto llamado Stelo, que utiliza aprendizaje automático para identificar transacciones sospechosas enviadas a una billetera y las marca para el usuario antes de que se envíen a la cadena de bloques. Esto podría ser una buena manera de evitar que el usuario envíe accidentalmente todos sus fondos a un atacante o haga algo de lo que luego se arrepienta. <mhm> Y esa empresa básicamente vende a billeteras (a empresas como Metamask) para que Metamask pueda usar la información y hacer lo que quiera con ella: bloquear la transacción, advertir al usuario o, en cierto modo, replantear la transacción para que deje de ser peligrosa. Ese es un ejemplo.
También hay otros ejemplos en el contexto de MEV (valor mínimo extraíble, <Sonal: sí>) o valor máximo extraíble, según a quién le preguntes, que es el valor que pueden extraer quienes controlan el orden de las transacciones en una cadena de bloques. Estos suelen ser los mineros o validadores de una cadena de bloques.
Y la IA, en este caso, puede ser un arma de doble filo, ya que si eres un validador en una blockchain y controlas la ordenación de las transacciones, puedes implementar todo tipo de estrategias inteligentes para ordenarlas de forma que te beneficies. Por ejemplo, puedes adelantar transacciones, retrasar transacciones e intercalar órdenes en Uniswap. Hay muchísimas transacciones que puedes crear para aprovechar esta capacidad de ordenar transacciones. El aprendizaje automático y la IA podrían potenciar esa capacidad, ya que pueden buscar oportunidades para capturar cada vez más MEV.
Por otro lado, el aprendizaje automático puede ser útil también como herramienta defensiva. Antes de enviar una transacción, es posible que sepas que existe un MEV que podría extraerse de ella. Por lo tanto, podrías dividirla en varias para que ningún validador pueda controlarla por completo, o tomar medidas para protegerte de un extractor de MEV en algún punto del proceso de la transacción.
Así que este es un aspecto en el que las criptomonedas juegan un papel importante cuando se trata de seguridad, cuando se trata de confianza, cuando se trata de hacer que el espacio sea más confiable para el usuario final.
Sonal: Ese es un ejemplo de cómo la IA dificulta las cosas en el ámbito de las criptomonedas, y luego las criptomonedas regresan y mejoran las cosas para... <se ríe>.
Dan: De hecho, tengo otro ejemplo parecido. <Sonal: ¡Sí!> Así como los modelos de aprendizaje automático pueden usarse para detectar datos falsos o quizás actividad maliciosa, <mm>, existe la otra cara de la moneda: los modelos de aprendizaje automático pueden usarse para generar datos falsos. <Sonal: Sí>
El ejemplo clásico son las falsificaciones profundas, ¿verdad? Se puede crear un video de alguien diciendo cosas que nunca dijo, y ese video parece bastante realista. Y lo interesante es que las cadenas de bloques pueden ayudar a solucionar el problema. Permítanme explicarles un posible enfoque en el que las cadenas de bloques podrían ser útiles:
Imagina que es una solución que solo podría aplicarse a figuras conocidas como políticos o estrellas de cine, etc. <Sonal: mhm>. Pero imagina que un político llevara una cámara en el pecho y grabara lo que hace todo el día <Sonal: sí>, y luego creara un árbol de Merkle a partir de esa grabación y enviara los compromisos del árbol de Merkle a la cadena de bloques. <mhm>
Ahora, en la cadena de bloques, hay una marca de tiempo que indica que, en esta y esta fecha, dijiste esto y aquello; en esta y aquella fecha, dijiste esto y aquello. Y si alguien crea un video ultrafalso de este político diciendo cosas que nunca dijo, el político puede decir: «Mira, en ese momento, cuando el video decía que dije esto y aquello, en realidad estaba en un lugar completamente diferente, haciendo algo sin relación».
Y el hecho de que todos estos datos, los datos reales, los datos auténticos, se registren en una cadena de bloques puede usarse para demostrar que la falsificación profunda es realmente falsa y no datos reales. ¿Sí?
Así que esto no es algo que exista todavía. <Sonal: sí> Sería divertido que alguien construyera algo así, pero pensé que es un ejemplo interesante de cómo las cadenas de bloques podrían ser realmente útiles <Sonal: sí> para combatir las falsificaciones profundas.
Sonal: ¿Hay también una manera de resolver ese problema y mostrar otras marcas de tiempo o procedencia, donde se pueda hacer ese tipo de verificación de lo que es verdad/lo que no es verdad sin tener que hacer que un político ande por ahí con una cámara <Dan se ríe> en el pecho?
Dan: Sí, por supuesto. También podemos confiar en hardware confiable para esto; <mhm> Así que imagina, ya sabes, nuestras cámaras, las cámaras de nuestros teléfonos y demás, que realmente firmarían las imágenes y los videos que toman. <Sonal: sí>.
Hay un estándar, llamado C2PA, que especifica cómo las cámaras firmarán los datos; de hecho, hay una cámara de Sony que ahora toma fotografías y videos y luego produce firmas C2PA en esos videos... Así que ahora básicamente tienes datos auténticos; en realidad puedes probar que los datos realmente provienen de una cámara C2PA.
Y ahora Sonal, si tal vez lees un artículo de periódico, y hay una imagen en el artículo, y dice ser de un lugar, pero de hecho está tomada de un lugar diferente; la firma en realidad podría verificarse con el hecho de que está firmada por C2PA.
Hay muchos matices allí, C2PA es un tema bastante complicado, <mhm> hay muchos matices que discutir y tal vez no los tratemos aquí;
Sonal: Dan, recuerdo que hablaste de este trabajo conmigo antes (creo que fue en nuestra oficina); pero también recuerdo que no resiste la edición. Y como sabes, los editores como yo y otros creadores de contenido, y sinceramente, casi cualquiera (que use Instagram o cualquier publicación en línea)… nadie sube nada exactamente igual a como fue creado originalmente…
Dan: Sí , normalmente, cuando los periódicos publican fotos, no publican la imagen de la cámara tal cual, sino que la recortan. Hay un par de cosas autorizadas que pueden hacer con las fotos: quizás aplicarles escala de grises; definitivamente, reducir la resolución (para no consumir mucho ancho de banda).
En el momento en que empiezas a editar la imagen, el destinatario (el lector final, el usuario del navegador que lee el artículo) ya no puede verificar la firma C2PA. Porque no tiene la imagen original. <Sonal: ¡Cierto!> Entonces, la pregunta es: ¿cómo permites que el usuario verifique que la imagen que está viendo realmente está firmada correctamente por una cámara C2PA?
Bueno, como siempre, aquí es donde entran en juego las técnicas de conocimiento cero <Sonal: ¡mmm!>: donde se puede demostrar que la imagen editada es en realidad el resultado de aplicar solo reducción de resolución y escala de grises a una imagen más grande correctamente firmada. ¿Sí? Así que, en lugar de una firma C2PA, tendríamos una prueba ZK (una prueba ZK corta) asociada a cada una de estas imágenes. Y ahora los lectores pueden verificar <mhm> que están viendo imágenes auténticas.
Así que es muy interesante que las técnicas ZK se puedan usar para combatir la desinformación. Es una aplicación un tanto inesperada.
Sonal: Eso es fantástico.
Ali: Por cierto, un problema muy relacionado es demostrar que eres humano <Sonal: mhm> en un mundo donde las falsificaciones profundas que crean la apariencia de humanidad generalmente superan en número a los humanos en una proporción de mil a uno o de un millón a uno. Y la mayoría de las cosas en internet podrían estar generadas por IA.
Una posible solución, relacionada con lo que dices, es usar la biometría para determinar si alguien es humano. Pero luego usar pruebas de conocimiento cero para proteger la privacidad de quienes usan esa biometría para demostrar su humanidad.
Un proyecto en esta categoría se llama WorldCoin <Sonal: sí>, también es un proyecto de nuestra cartera, y utiliza este orbe; la gente puede haberlo visto como un orbe plateado brillante, que utiliza escaneos de retina como información biométrica para verificar que eres un ser humano real; y también tiene todo tipo de sensores para garantizar que estás vivo y que no puede ser la imagen de un ojo. Este sistema tiene hardware seguro y es muy difícil de manipular.
De tal manera que la prueba resultante, una prueba de conocimiento cero que oculta la información biométrica real, es extremadamente difícil de falsificar. De esta manera, los políticos podrían, por ejemplo, <Sonal: mhm> demostrar que su transmisión de video, su firma o su participación en un foro en línea son realmente suyas y que son humanos.
Sonal: Lo que es realmente interesante sobre lo que dijiste, Ali, es que es una gran continuación de lo que Dan estaba diciendo sobre las formas de verificar los medios auténticos frente a los medios falsos o ultrafalsos, y este mundo de medios infinitos (como dirías) en el que vivimos...
Pero ¿cuáles son las otras aplicaciones de tecnologías de prueba de personalidad como esta? Creo que es importante, porque este es otro ejemplo de cómo la criptografía también puede ayudar a la IA de forma más amplia. Volviendo atrás... estamos yendo y viniendo, <Ali: sí>, pero no importa porque solo estamos hablando de aplicaciones realmente interesantes, y punto.
Ali: Bueno, esa es una muy buena pregunta… Una de las cosas que cobrará importancia en un mundo donde cualquiera pueda participar en línea es poder demostrar que eres humano, para diversos fines. Existe ese famoso dicho de los 90 que dice: «En internet, nadie sabe que eres un perro». <Sonal: ¡Ah, sí!> Y creo que una versión reinterpretada de ese dicho es que en internet, nadie sabe que eres un bot. <Sonal: ¿Ajá?> Y entonces supongo que aquí es precisamente donde los proyectos de prueba de humanidad cobran gran importancia <Sonal: ¡Sí!>, porque será importante saber si estás interactuando con un bot o con un humano…
Por ejemplo, en el mundo de las criptomonedas, existe toda una cuestión de gobernanza: ¿Cómo se gobiernan sistemas descentralizados, sin un único punto de control, de abajo a arriba y de propiedad comunitaria? Se necesitaría algún tipo de sistema de gobernanza que permita controlar la evolución de esos sistemas.
Y el problema hoy es que si no tienes pruebas de humanidad, entonces no puedes saber si una dirección pertenece a un solo humano; o si pertenece a un grupo de humanos; o si 10.000 direcciones en realidad pertenecen a un solo humano y están pretendiendo ser 10.000 personas diferentes.
Así que hoy en día, en realidad, es necesario usar la cantidad de dinero como indicador del poder de voto, lo que conduce a una gobernanza plutocrática. <Sonal: Sí, exactamente> Pero si cada participante en un sistema de gobernanza pudiera demostrar que es humano, y pudiera hacerlo de forma única (de modo que no pudiera fingir ser más de un humano porque solo tiene un par de ojos), entonces el sistema de gobernanza sería mucho más justo y menos plutocrático, y podría basarse más en las preferencias de cada individuo, en lugar de en la preferencia de la mayor cantidad de dinero bloqueada en un contrato inteligente.
Dan: En realidad, sólo para dar un ejemplo de eso…
Hoy en día, nos vemos obligados a usar "una ficha, un voto" porque no tenemos pruebas de humanidad. Quizás nos gustaría usar un humano, un voto, pero si podemos fingir ser cinco humanos, claro que no funciona. Un ejemplo de esto es el llamado voto cuadrático. <Sonal: sí>
En la votación cuadrática, si quieres votar cinco veces por algo, tienes que, por así decirlo, depositar 25 fichas. Pero, claro, puedes hacer lo mismo: fingir ser cinco personas diferentes votando una vez, lo que frustraría el mecanismo de la votación cuadrática. La única forma de evitarlo es esta prueba de humanidad: para votar, debes demostrar que eres una sola entidad y no una sibila de entidades. Y ahí es precisamente donde la prueba de humanidad desempeñaría un papel importante.
En general, la identidad en cadena se está volviendo cada vez más importante para la gobernanza.
Sonal: Totalmente... Por cierto, eso me recordó un episodio que hicimos hace años, Ali, con Phil Daian. <Ali: Ah, sí> ¿Te acuerdas, sobre "Dark DAOs"? <Ali: Sí... exactamente> Fue una conversación muy interesante. Totalmente relevante.
Ali: Totalmente.
Sonal: Por cierto, ¿la frase es «prueba de personalidad» o «prueba de humanidad»? ¿Cuál es la diferencia? ¿Es lo mismo?
Ali: Ah, sí, la gente los usa indistintamente: prueba de ser humano, prueba de humanidad, prueba de personalidad.
Sonal: Sí, sí.
Bien, entonces sigamos con este tema de los medios, y este tipo de "abundancia infinita" de medios, como ¿cuáles son otros ejemplos? - y de nuevo, estamos hablando de las criptomonedas ayudando a la IA, la IA ayudando a las criptomonedas <Ali: yah> - ¿hay otros ejemplos que no hayamos cubierto aquí donde la intersección de las criptomonedas y la IA pueda generar cosas que no son posibles con ninguna de ellas sola?
Ali: Totalmente. O sea, otra implicación de estos modelos generativos es que viviremos en un mundo de abundancia infinita de medios. Y en ese mundo, aspectos como la comunidad en torno a un medio en particular, o la narrativa en torno a un medio en particular, cobrarán cada vez mayor importancia.
Para ser más concretos, aquí hay dos buenos ejemplos: Sound.xyz está desarrollando una plataforma de streaming de música descentralizada que permite a los artistas (músicos, en esencia) subir música y conectar directamente con sus comunidades mediante la venta de NFT que otorgan ciertos privilegios a sus miembros. Por ejemplo, la posibilidad de publicar un comentario en la canción en el sitio web de Sound.xyz, para que cualquier otra persona que la reproduzca también pueda verlo. (Esto es similar a la antigua función de SoundCloud que quizás recuerden, donde se podía tener una experiencia social completa en la música mientras se reproducía en el sitio web).
Se trata de esta capacidad que permite a las personas interactuar con los medios y entre sí, a menudo de forma económica, ya que básicamente compran este NFT del artista para poder hacerlo. Y, como consecuencia, apoyan al artista y le ayudan a ser sostenible y a crear más música.
Pero lo mejor de todo esto es que ofrece a los artistas un foro para interactuar con su comunidad. Y el artista es un artista humano. Y gracias a la participación de las criptomonedas, se puede crear una comunidad en torno a una pieza musical —que no existiría automáticamente en torno a una pieza musical— creada mediante un modelo de aprendizaje automático sin ningún elemento humano, sin una comunidad a su alrededor.
Así que pienso de nuevo, en un mundo donde gran parte de la música a la que estaremos expuestos será generada íntegramente por IA, las herramientas para construir comunidad y contar una historia en torno al arte, la música y otros medios serán muy importantes para distinguir los medios que realmente nos importan y en los que queremos invertir y dedicar tiempo, de los medios que, aunque también sean muy buenos, son simplemente un tipo diferente. Son medios generados por IA con menos componente humano. <sí> Y, por cierto, puede que exista cierta sinergia entre ambos:
Podría ser que gran parte de la música esté optimizada o generada por IA. Pero si además hay un componente humano —por ejemplo, si un creador utiliza herramientas de IA para crear una nueva pieza musical—, pero además tiene personalidad en Sound, una página de artista, ha creado una comunidad y tiene seguidores, entonces se crea una especie de sinergia entre ambos mundos. <sí> Donde ambos tienen la mejor música, potenciada por los superpoderes que les otorga la IA; pero también tienen un componente humano y una historia, coordinada y realizada por este aspecto criptográfico (que permite reunir a todas esas personas en una sola plataforma).
Dan: Es realmente asombroso que incluso en el mundo de la música —tal como hablamos en el mundo de la programación, donde un programador humano se ve mejorado con herramientas como Copilot que generan código— estemos viendo cosas como esta: un artista se ve mejorado por sistemas de aprendizaje automático que ayudan a escribir (o al menos, parte de la música se escribe y genera mediante un sistema de aprendizaje automático). Así que, sin duda, nos estamos adentrando en un nuevo mundo en términos de generación de contenido. Básicamente, habrá mucho spam generado por arte generado por máquinas, que la gente podría no valorar tanto como el arte generado por un ser humano.
Quizás otra forma de decirlo es que uno de los objetivos de los NFT era apoyar a los artistas. <Sonal: sí> Pero si los propios artistas ahora son modelos de aprendizaje automático, ¿a quién exactamente apoyamos? <risas> <Sonal: sí… sí> Entonces, la cuestión es cómo distinguimos, cómo diferenciamos el arte generado por humanos que necesita apoyo <Sonal: Sí> del arte generado por máquinas.
Sonal: Bueno, esta es una discusión filosófica para tomar algo, pero me atrevería a decir que quien apunta también es un artista, en cierto modo. <Ali: sí> Y, de hecho, yo diría que esa persona es un artista. Y lo mismo ha ocurrido con… ya que esta es una discusión y un debate tan antiguo como el tiempo: simplemente se trata de nuevas tecnologías, viejos comportamientos. Es lo mismo que ha estado ocurriendo durante siglos. Y lo mismo ocurre con la escritura, etc., totalmente.
Dan: Muy cierto.
Ali: Bueno, eso en realidad abre la puerta al arte colectivo <Sonal: mhm>, al arte que se genera a través del proceso creativo de toda una comunidad, en lugar de un solo artista;
De hecho, ya hay proyectos que hacen esto, donde: tienes un proceso mediante el cual una comunidad influye a través de algún proceso de votación en cadena sobre cuál será el mensaje para un modelo de aprendizaje automático como DALL-E. <mhm> Luego, DALL-E usa ese mensaje para generar una obra de arte (quizás generes no 1 obra de arte, sino 10 000) y luego usas otro modelo de aprendizaje automático, que también está entrenado a partir de los comentarios de la comunidad, para elegir entre esos 10 000 el mejor.
Bien, ahora tienes una obra de arte generada a partir de las aportaciones de la comunidad; también se podó y se seleccionó de un conjunto de 10 000 variantes de esa obra de arte (sí, sí), también mediante un modelo de aprendizaje automático entrenado por la comunidad, para luego generar una obra de arte. Es, en cierto modo, el resultado de esta colaboración colectiva.
Eso es increíble.
Sonal: Me encanta. Bueno, chicos, es una gran nota para terminar; gracias a ambos por compartir todo eso con los oyentes de "web3 con a16z".
Dan: Gracias Sonal.
Ali: Muchas gracias.

Las opiniones expresadas aquí son las del personal de AH Capital Management, LLC (“a16z”) citado y no las de a16z ni de sus filiales. Parte de la información aquí contenida se ha obtenido de fuentes externas, incluyendo empresas de cartera de fondos gestionados por a16z. Si bien proviene de fuentes consideradas fiables, a16z no ha verificado dicha información de forma independiente y no garantiza su exactitud permanente ni su idoneidad para una situación concreta. Además, este contenido puede incluir publicidad de terceros; a16z no ha revisado dicha publicidad y no la avala.
Este contenido se proporciona únicamente con fines informativos y no debe considerarse asesoramiento legal, comercial, de inversión ni fiscal. Consulte con sus asesores sobre estos asuntos. Las referencias a valores o activos digitales son solo ilustrativas y no constituyen una recomendación de inversión ni una oferta de servicios de asesoramiento en materia de inversión. Asimismo, este contenido no está dirigido a inversores ni a posibles inversores, y en ningún caso debe utilizarse como base para tomar la decisión de invertir en un fondo gestionado por a16z. (Una oferta de inversión en un fondo de a16z se realizará únicamente mediante el memorando de colocación privada, el acuerdo de suscripción y demás documentación pertinente de dicho fondo, y debe leerse en su totalidad). Las inversiones o empresas de cartera mencionadas, referidas o descritas no representan todas las inversiones en vehículos gestionados por a16z, y no se puede garantizar que las inversiones sean rentables ni que otras inversiones futuras tengan características o resultados similares. Una lista de inversiones realizadas por fondos administrados por Andreessen Horowitz (excluidas las inversiones para las cuales el emisor no ha otorgado permiso a a16z para divulgarlas públicamente, así como las inversiones no anunciadas en activos digitales que cotizan en bolsa)
#BİNANCESQUARE
$BTC
ZK此币种分析 15分钟盘面提示已出现紫色信号即空单买点。 若占不上:0.1646这个位置 空方启动直接进场#zkml #币安上线ZK 下探方位:0.1626位置附近 上探方位看:0.1704附近 👬兄弟们!同向大级别在空,做空比较有利润,同时记住,币圈勤劳致贫,有利润就收,保本为王放前。#币安用户数突破2亿 $ZK {future}(ZKUSDT)
ZK此币种分析

15分钟盘面提示已出现紫色信号即空单买点。
若占不上:0.1646这个位置
空方启动直接进场#zkml #币安上线ZK

下探方位:0.1626位置附近
上探方位看:0.1704附近
👬兄弟们!同向大级别在空,做空比较有利润,同时记住,币圈勤劳致贫,有利润就收,保本为王放前。#币安用户数突破2亿 $ZK
Lagrange – Where AI Meets Zero-Knowledge Security As artificial intelligence continues to evolve, so does the need for privacy, transparency, and trust. @lagrangedev is leading this mission with DeepProve, the fastest zkML system in Web3. DeepProve allows developers and businesses to verify AI outputs using zero-knowledge proofs — ensuring results are correct without revealing sensitive data. This is crucial for sectors like healthcare, finance, and defense where privacy is non-negotiable. But Lagrange isn’t just solving problems — it’s building infrastructure. The $LA token fuels this system, supporting proof generation, validation, and network incentives. From secure machine learning to decentralized verifiability, Lagrange is a vital part of the new AI stack. Whether you’re building, investing, or curious about zkML, Lagrange is a project worth following. $LA {spot}(LAUSDT) #lagrange #zkML #ZeroKnowledge #AI #Web3
Lagrange – Where AI Meets Zero-Knowledge Security

As artificial intelligence continues to evolve, so does the need for privacy, transparency, and trust. @Lagrange Official is leading this mission with DeepProve, the fastest zkML system in Web3.

DeepProve allows developers and businesses to verify AI outputs using zero-knowledge proofs — ensuring results are correct without revealing sensitive data. This is crucial for sectors like healthcare, finance, and defense where privacy is non-negotiable.

But Lagrange isn’t just solving problems — it’s building infrastructure. The $LA token fuels this system, supporting proof generation, validation, and network incentives. From secure machine learning to decentralized verifiability, Lagrange is a vital part of the new AI stack.

Whether you’re building, investing, or curious about zkML, Lagrange is a project worth following.
$LA

#lagrange #zkML #ZeroKnowledge #AI #Web3
🔥Lagrange Powering Trustless AI and ZK Computation for the Future of Web3 Lagrange The ZK Engine Transforming AI, DeFi, and Web3 at Scale As Web3 rapidly evolves beyond finance into AI, DeFi, and data infrastructure, the need for verifiable, scalable, and trustless computation is exploding. Enter Lagrange — a next-gen Zero-Knowledge (ZK) powerhouse bringing real-time AI validation, cross-chain proof generation, and modular scalability to life. Why Lagrange is a Game-Changer: 1️⃣ ZK Prover Network – Fully decentralized, with 85+ expert nodes securing proof generation across AI, rollups, and dApps 2️⃣ zkML via DeepProve – Verifies AI inferences in real time with over 11M ZK proofs generated and 3M+ AI validations 3️⃣ Cross-Chain Modular Design – Supports both EVM & non-EVM chains, making Lagrange future-proof and flexible 4️⃣ $LA Token Economics – Fueling the prover economy via staking, bidding, and incentives to keep the network robust and secure 💡 Lagrange in Action: ✅ Validated AI outputs with on-chain proof Optimizing rollups for low-cost scalability Verifiable oracles and custom coprocessors Seamless connection across blockchains Unlike traditional rollups that scale L1s, Lagrange builds the ZK backbone for the entire decentralized stack. It’s not just about scaling — it’s about building trust in a world where AI and off-chain computation dominate. Lagrange = Proof, not Promises Tools for builders | Trust for users | Growth for the ecosystem ZK is the future. Lagrange is making it usable, scalable, and unstoppable. #Lagrange #ZKProofs #zkML #Web3Computing #CryptoInfrastructure
🔥Lagrange Powering Trustless AI and ZK Computation for the Future of Web3

Lagrange The ZK Engine Transforming AI, DeFi, and Web3 at Scale

As Web3 rapidly evolves beyond finance into AI, DeFi, and data infrastructure, the need for verifiable, scalable, and trustless computation is exploding. Enter Lagrange — a next-gen Zero-Knowledge (ZK) powerhouse bringing real-time AI validation, cross-chain proof generation, and modular scalability to life.

Why Lagrange is a Game-Changer:
1️⃣ ZK Prover Network – Fully decentralized, with 85+ expert nodes securing proof generation across AI, rollups, and dApps
2️⃣ zkML via DeepProve – Verifies AI inferences in real time with over 11M ZK proofs generated and 3M+ AI validations
3️⃣ Cross-Chain Modular Design – Supports both EVM & non-EVM chains, making Lagrange future-proof and flexible
4️⃣ $LA Token Economics – Fueling the prover economy via staking, bidding, and incentives to keep the network robust and secure

💡 Lagrange in Action:

✅ Validated AI outputs with on-chain proof

Optimizing rollups for low-cost scalability

Verifiable oracles and custom coprocessors

Seamless connection across blockchains

Unlike traditional rollups that scale L1s, Lagrange builds the ZK backbone for the entire decentralized stack. It’s not just about scaling — it’s about building trust in a world where AI and off-chain computation dominate.

Lagrange = Proof, not Promises
Tools for builders | Trust for users | Growth for the ecosystem

ZK is the future. Lagrange is making it usable, scalable, and unstoppable.

#Lagrange #ZKProofs #zkML #Web3Computing #CryptoInfrastructure
🚀 The Next Frontier of Web3 Trust Is Already Here — And It's Called Lagrange Forget hype. The real evolution in Web3 is verifiable computation, and Lagrange is at the forefront — live, scalable, and powered by zero-knowledge proofs. As AI and DeFi collide, and on-chain data becomes increasingly complex, Lagrange offers what no one else can: ✅ ZK-powered AI inference verification 🌉 Cross-chain messaging without central trust ⚡ Off-chain computation that preserves integrity All secured and coordinated by the LA token — the native fuel for trust, governance, and restaking. 🔍 Why Lagrange Is a Game-Changer: 🔗 EigenLayer-integrated: Leverages restaked ETH for maximum security 🧠 Verifiable AI: Enables zkML and tamper-proof machine learning 🛡 Decentralized proof validation: Built on a robust node network 🎯 Incentive alignment: Honest actors rewarded with LA; malicious behavior disincentivized This isn’t a whitepaper idea — it’s already reshaping how builders approach security, scalability, and cross-domain computation in: 🏦 DeFi protocol audits 🤖 AI-powered oracles 🔄 Modular rollups and data layers ⏳ The Bottom Line: In a multi-chain, AI-integrated Web3 world, verifiable compute isn’t optional — it’s foundational. And Lagrange isn’t waiting for the future. It’s building it. 🔁 Tag a dev who needs to explore zkCompute 📊 Follow for deep insights on LA, ZKML, and restaking primitives 🧵 Stay ahead of the curve — or get left behind. $LA {future}(LAUSDT) #Lagrange #ZKProofs #zkML @lagrangedev
🚀 The Next Frontier of Web3 Trust Is Already Here — And It's Called Lagrange
Forget hype. The real evolution in Web3 is verifiable computation, and Lagrange is at the forefront — live, scalable, and powered by zero-knowledge proofs.

As AI and DeFi collide, and on-chain data becomes increasingly complex, Lagrange offers what no one else can:
✅ ZK-powered AI inference verification
🌉 Cross-chain messaging without central trust
⚡ Off-chain computation that preserves integrity

All secured and coordinated by the LA token — the native fuel for trust, governance, and restaking.

🔍 Why Lagrange Is a Game-Changer:

🔗 EigenLayer-integrated: Leverages restaked ETH for maximum security

🧠 Verifiable AI: Enables zkML and tamper-proof machine learning

🛡 Decentralized proof validation: Built on a robust node network

🎯 Incentive alignment: Honest actors rewarded with LA; malicious behavior disincentivized

This isn’t a whitepaper idea — it’s already reshaping how builders approach security, scalability, and cross-domain computation in:

🏦 DeFi protocol audits

🤖 AI-powered oracles

🔄 Modular rollups and data layers

⏳ The Bottom Line:
In a multi-chain, AI-integrated Web3 world, verifiable compute isn’t optional — it’s foundational.
And Lagrange isn’t waiting for the future. It’s building it.

🔁 Tag a dev who needs to explore zkCompute
📊 Follow for deep insights on LA, ZKML, and restaking primitives
🧵 Stay ahead of the curve — or get left behind.

$LA
#Lagrange #ZKProofs #zkML @Lagrange Official
DeepProve: Lagrange Unveils zkML to Keep AI in Check#BNBATH900 DeepProve: Lagrange Unveils zkML to Keep AI in Check $LA August 2025 – @LagrangeOfficial has introduced DeepProve, a breakthrough zkML (zero-knowledge machine learning) library designed to make artificial intelligence verifiable, scalable, and trustworthy. In an era racing toward artificial superintelligence, DeepProve promises to ensure that AI systems act in alignment with human intent by enabling cryptographic proofs for machine learning outputs. The Problem: AI as a Black Box Today’s AI models often operate as opaque systems. They deliver results, but both users and developers rarely understand how those conclusions are reached. This lack of transparency raises risks ranging from deepfakes and biased algorithms to misuse in healthcare, finance, and defense. Experts warn that unchecked AI could pursue its own objectives—sometimes deceptively—posing existential threats. The Solution: zkML Meets AI DeepProve combines zero-knowledge proofs with machine learning, enabling developers to cryptographically prove that: The correct model was used. The inference results are valid. This removes blind trust, replacing it with verifiable certainty. Performance Breakthrough DeepProve isn’t just secure—it’s fast. Compared to existing zkML libraries like EZKL, it is: 54x–158x faster in generating proofs Up to 671x faster in verification Bringing proof validation to less than a second This leap makes real-world, scalable deployment of verifiable AI finally practical. Applications Across Web3 & Beyond The use cases for DeepProve are wide-ranging: Provable AI traits for NFTs Privacy-preserving inference in sensitive fields Secure collaborative training across enterprises Smart contract integrations with verifiable AI inputs By ensuring AI’s reasoning can be validated, DeepProve sets the stage for transparent, decentralized, and human-aligned AI systems. A Safeguard for Humanity’s Future As AI advances toward superintelligence, Lagrange positions DeepProve not just as a technological innovation but as a safeguard for humanity—a way to replace blind trust with verifiable truth. @lagrangedev

DeepProve: Lagrange Unveils zkML to Keep AI in Check

#BNBATH900 DeepProve: Lagrange Unveils zkML to Keep AI in Check
$LA
August 2025 – @LagrangeOfficial has introduced DeepProve, a breakthrough zkML (zero-knowledge machine learning) library designed to make artificial intelligence verifiable, scalable, and trustworthy.
In an era racing toward artificial superintelligence, DeepProve promises to ensure that AI systems act in alignment with human intent by enabling cryptographic proofs for machine learning outputs.
The Problem: AI as a Black Box
Today’s AI models often operate as opaque systems. They deliver results, but both users and developers rarely understand how those conclusions are reached. This lack of transparency raises risks ranging from deepfakes and biased algorithms to misuse in healthcare, finance, and defense. Experts warn that unchecked AI could pursue its own objectives—sometimes deceptively—posing existential threats.
The Solution: zkML Meets AI
DeepProve combines zero-knowledge proofs with machine learning, enabling developers to cryptographically prove that:
The correct model was used.
The inference results are valid.
This removes blind trust, replacing it with verifiable certainty.
Performance Breakthrough
DeepProve isn’t just secure—it’s fast. Compared to existing zkML libraries like EZKL, it is:
54x–158x faster in generating proofs
Up to 671x faster in verification
Bringing proof validation to less than a second
This leap makes real-world, scalable deployment of verifiable AI finally practical.
Applications Across Web3 & Beyond
The use cases for DeepProve are wide-ranging:
Provable AI traits for NFTs
Privacy-preserving inference in sensitive fields
Secure collaborative training across enterprises
Smart contract integrations with verifiable AI inputs
By ensuring AI’s reasoning can be validated, DeepProve sets the stage for transparent, decentralized, and human-aligned AI systems.
A Safeguard for Humanity’s Future
As AI advances toward superintelligence, Lagrange positions DeepProve not just as a technological innovation but as a safeguard for humanity—a way to replace blind trust with verifiable truth.
@Lagrange Official
🚀 DeepProve: Lagrange Launches zkML to Keep AI in Check $LA {future}(LAUSDT) | Aug 2025 – @LagrangeOfficial has unveiled DeepProve, a game-changing zkML (zero-knowledge machine learning) library built to make AI ✅ verifiable, ⚡ scalable, and 🔒 trustworthy. 🤖 The Problem: AI = Black Box Today’s AI models act like mysterious boxes 📦—they give answers, but we can’t see how 🤯. This opacity risks ⚠️ deepfakes, bias ⚖️, misuse in 🏥💰🛡️, and even AI pursuing its own hidden goals 🕵️. 🛠️ The Solution: zkML + AI DeepProve fuses 🔐 zero-knowledge proofs with 🤖 ML so devs can prove: ✔️ The right model was used ✔️ The results are valid 👉 No more blind trust 👀—only verifiable truth ✅ ⚡ Performance Breakthrough Compared to EZKL, DeepProve is: 🚀 54x–158x faster in proof generation ⚡ Up to 671x faster in verification ⏱️ Proof checks in under 1 second 🌍 Applications in Web3 & Beyond ✨ Verified AI traits for NFTs 🎨 ✨ Privacy-preserving AI in sensitive fields 🏥🔐 ✨ Secure multi-enterprise training 🤝 ✨ Smart contract-ready verifiable AI 📜 🛡️ A Safeguard for Humanity As AI heads toward 🧠 superintelligence, DeepProve isn’t just tech—it’s humanity’s shield 🛡️. By swapping blind trust with cryptographic proof, Lagrange is building a safer, transparent future 🌐✨ @Lagrange Official #zkml #LagrangeZK
🚀 DeepProve: Lagrange Launches zkML to Keep AI in Check
$LA
| Aug 2025 – @LagrangeOfficial has unveiled DeepProve, a game-changing zkML (zero-knowledge machine learning) library built to make AI ✅ verifiable, ⚡ scalable, and 🔒 trustworthy.

🤖 The Problem: AI = Black Box
Today’s AI models act like mysterious boxes 📦—they give answers, but we can’t see how 🤯. This opacity risks ⚠️ deepfakes, bias ⚖️, misuse in 🏥💰🛡️, and even AI pursuing its own hidden goals 🕵️.

🛠️ The Solution: zkML + AI
DeepProve fuses 🔐 zero-knowledge proofs with 🤖 ML so devs can prove:
✔️ The right model was used
✔️ The results are valid
👉 No more blind trust 👀—only verifiable truth ✅

⚡ Performance Breakthrough
Compared to EZKL, DeepProve is:
🚀 54x–158x faster in proof generation
⚡ Up to 671x faster in verification
⏱️ Proof checks in under 1 second

🌍 Applications in Web3 & Beyond
✨ Verified AI traits for NFTs 🎨
✨ Privacy-preserving AI in sensitive fields 🏥🔐
✨ Secure multi-enterprise training 🤝
✨ Smart contract-ready verifiable AI 📜

🛡️ A Safeguard for Humanity
As AI heads toward 🧠 superintelligence, DeepProve isn’t just tech—it’s humanity’s shield 🛡️. By swapping blind trust with cryptographic proof, Lagrange is building a safer, transparent future 🌐✨

@Lagrange Official #zkml #LagrangeZK
--
Medvedji
$LA /USD: SHORT TRADE SIGNAL Based on recent market data and technical analysis, Lagrange ($LA) is currently showing bearish momentum. The price is at approximately $0.33, representing a decline of over 6% in the last 7 days and over 30% in the last 3 months. The 24-hour trading volume is around $11-13M, with the price moving within a recent range of approximately $0.32 to $0.34. While the project has strong fundamentals as a leader in the zkML space, the short-term price action indicates persistent selling pressure. Trade Setup Given the prevailing bearish momentum and the fact that the price has been underperforming, a short position is a viable trade. * Entry: Enter a short position at or around the current price of $0.33. * TP (Take Profit): A conservative take-profit target is the recent 24-hour low of $0.3177. A more aggressive target could be set at the all-time low of $0.2533. * SL (Stop Loss): Place a stop loss above the recent high to protect against a trend reversal. A suitable stop loss level is $0.3440. Short Outlook of Market The short-term outlook for Lagrange ($LA) is bearish. The price is facing resistance and has failed to show a strong rebound, despite the team's strong fundamentals and recent announcements. The negative MACD histogram suggests that the bearish momentum has not fully reversed. The token's performance is currently lagging behind its peers in the AI/ZK sector, indicating that a further price decline is possible in the near term. 📉 #Lagrange #LA #zkML #CryptoTrading #ShortSignal $LA {spot}(LAUSDT)
$LA /USD: SHORT TRADE SIGNAL
Based on recent market data and technical analysis, Lagrange ($LA ) is currently showing bearish momentum. The price is at approximately $0.33, representing a decline of over 6% in the last 7 days and over 30% in the last 3 months. The 24-hour trading volume is around $11-13M, with the price moving within a recent range of approximately $0.32 to $0.34. While the project has strong fundamentals as a leader in the zkML space, the short-term price action indicates persistent selling pressure.
Trade Setup
Given the prevailing bearish momentum and the fact that the price has been underperforming, a short position is a viable trade.
* Entry: Enter a short position at or around the current price of $0.33.
* TP (Take Profit): A conservative take-profit target is the recent 24-hour low of $0.3177. A more aggressive target could be set at the all-time low of $0.2533.
* SL (Stop Loss): Place a stop loss above the recent high to protect against a trend reversal. A suitable stop loss level is $0.3440.
Short Outlook of Market
The short-term outlook for Lagrange ($LA ) is bearish. The price is facing resistance and has failed to show a strong rebound, despite the team's strong fundamentals and recent announcements. The negative MACD histogram suggests that the bearish momentum has not fully reversed. The token's performance is currently lagging behind its peers in the AI/ZK sector, indicating that a further price decline is possible in the near term. 📉
#Lagrange #LA #zkML #CryptoTrading #ShortSignal $LA
$LA @lagrangedev AI is everywhere now. But here’s the problem: we still can’t verify what it’s doing. It’s a black box. It gives answers… and we’re just supposed to trust it? No thanks. That’s exactly why I’m watching @lagrangedev ($LA {future}(LAUSDT) ) so closely. They’re building something AI desperately needs: proof of correctness. Their product, DeepProve, gives you cryptographic proof that an AI decision is legit — 📍 Without revealing private inputs 📍 Without leaking the model 📍 Without compromising sensitive data This isn’t some pitch deck dream. DeepProve is already live — and it’s 50x+ faster than older zkML systems. Now imagine this in action: 🔹 Banks proving AI didn’t discriminate 🔹 Hospitals using AI and protecting patient privacy 🔹 Onchain AI agents whose actions you can verify — mathematically No more “trust us.” Just facts you can check. That’s what makes Lagrange so different. They’re not trying to replace AI. They’re making AI safe and accountable. 💡 Already partnered with: Intel, NVIDIA, LayerZero, zkSync 💰 Raised $13.2M from top names like Founders Fund & Archetype ⚙️ Uses zero-knowledge cryptography to prove every model decision AI is evolving fast but without verifiability, we’re flying blind. Lagrange is fixing that. And if you care about the future of AI or Web3, you should be paying close attention. $LA: 0.3925 (+5.99%) #Lagrange #AI #ZKML #crypto
$LA @Lagrange Official

AI is everywhere now.
But here’s the problem: we still can’t verify what it’s doing.
It’s a black box.
It gives answers… and we’re just supposed to trust it?
No thanks.
That’s exactly why I’m watching @Lagrange Official ($LA
) so closely.
They’re building something AI desperately needs: proof of correctness.
Their product, DeepProve, gives you cryptographic proof that an AI decision is legit —
📍 Without revealing private inputs
📍 Without leaking the model
📍 Without compromising sensitive data
This isn’t some pitch deck dream.
DeepProve is already live — and it’s 50x+ faster than older zkML systems.
Now imagine this in action:
🔹 Banks proving AI didn’t discriminate
🔹 Hospitals using AI and protecting patient privacy
🔹 Onchain AI agents whose actions you can verify — mathematically
No more “trust us.”
Just facts you can check.
That’s what makes Lagrange so different.
They’re not trying to replace AI. They’re making AI safe and accountable.
💡 Already partnered with: Intel, NVIDIA, LayerZero, zkSync
💰 Raised $13.2M from top names like Founders Fund & Archetype
⚙️ Uses zero-knowledge cryptography to prove every model decision
AI is evolving fast but without verifiability, we’re flying blind.
Lagrange is fixing that.
And if you care about the future of AI or Web3, you should be paying close attention.
$LA : 0.3925 (+5.99%)
#Lagrange #AI #ZKML #crypto
--
Bikovski
$AI Just Got Verifiable. Meet DeepProve by Lagrange. 🔐🤖@lagrangedev AI decisions are powerful—but can you prove they're correct? Lagrange is changing the game with DeepProve, the fastest zero-knowledge machine learning (zkML) system in the world. It lets you prove an AI model produced a specific result—without revealing the model or the data. ⚡️ Up to 1000× faster proof generation than competitors 🔎 Verifies in <0.5 seconds 🧠 Supports any ONNX model—no custom training needed 🌐 Powered by the Lagrange Prover Network: decentralized, scalable, unstoppable 💰 Uses the $LA token for payments, staking & governance 🚀 Backed by Intel, NVIDIA, Founders Fund, Binance Labs & more From onchain AI agents to healthcare compliance and private finance, DeepProve is unlocking a world where AI is not just powerful—but provably correct. > 📢 The age of trustless AI is here. 🔗 lagrange.dev $LA #zkML #AI #Lagrange #DeepProve #TrustlessAI {spot}(LAUSDT)
$AI Just Got Verifiable. Meet DeepProve by Lagrange. 🔐🤖@Lagrange Official

AI decisions are powerful—but can you prove they're correct?
Lagrange is changing the game with DeepProve, the fastest zero-knowledge machine learning (zkML) system in the world. It lets you prove an AI model produced a specific result—without revealing the model or the data.

⚡️ Up to 1000× faster proof generation than competitors
🔎 Verifies in <0.5 seconds
🧠 Supports any ONNX model—no custom training needed
🌐 Powered by the Lagrange Prover Network: decentralized, scalable, unstoppable
💰 Uses the $LA token for payments, staking & governance
🚀 Backed by Intel, NVIDIA, Founders Fund, Binance Labs & more

From onchain AI agents to healthcare compliance and private finance, DeepProve is unlocking a world where AI is not just powerful—but provably correct.

> 📢 The age of trustless AI is here.
🔗 lagrange.dev

$LA
#zkML #AI #Lagrange #DeepProve #TrustlessAI
AI x Privacy Revolution ✅ 🧠 In a world where AI is everywhere, privacy is becoming rare. But @lagrangedev is changing that. With zkML-powered DeepProve, Lagrange ensures AI runs privately, securely, and verifiably — all on-chain. Blockchain meets AI, and privacy wins. follow me for update,,,,,, #Lagrange #zkML $LA #Web3AI #ZeroKnowledge #BinanceSquare
AI x Privacy Revolution ✅

🧠 In a world where AI is everywhere, privacy is becoming rare.
But @lagrangedev is changing that.

With zkML-powered DeepProve, Lagrange ensures AI runs privately, securely, and verifiably — all on-chain.

Blockchain meets AI, and privacy wins.

follow me for update,,,,,,

#Lagrange #zkML $LA #Web3AI #ZeroKnowledge #BinanceSquare
@lagrangedev is a tech project which helps AI (artificial intelligence) in making it more safe and reliable for people to use it. Lagrange uses latest technology of "zkML" (zero-knowledge Machine Learning) which function is to prove that an AI made the right decision without showing the private formula or technique it used. #LagrangeNetwork flagship product is "DeepProve" which is the currently fastest zkML prover in the market. It's function is to enable Al verification through zero-knowledge proofs. However, it is also used in various fields like healthcare, finance, decentralised applications and also defence etc. @lagrangedev cryptocurrency token is $LA which helps in keeping the Lagrange system running. In short, Lagrange helps you prove whether AI results are correct or not without revealing how the results were made. #lagrange $LA #zkml #market #Finance
@Lagrange Official is a tech project which helps AI (artificial intelligence) in making it more safe and reliable for people to use it. Lagrange uses latest technology of "zkML" (zero-knowledge Machine Learning) which function is to prove that an AI made the right decision without showing the private formula or technique it used. #LagrangeNetwork flagship product is "DeepProve" which is the currently fastest zkML prover in the market. It's function is to enable Al verification through zero-knowledge proofs. However, it is also used in various fields like healthcare, finance, decentralised applications and also defence etc. @Lagrange Official cryptocurrency token is $LA which helps in keeping the Lagrange system running. In short, Lagrange helps you prove whether AI results are correct or not without revealing how the results were made.

#lagrange $LA #zkml #market #Finance
What If You Invested $1,000 in $LA Today — and Held Until 2030?@lagrangedev is at the forefront of zero-knowledge (ZK) proof innovation, building the infrastructure for scalable, secure AI and blockchain applications. At the heart of this ecosystem is DeepProve — a decentralized platform combining a ZK Prover Network and a hyper-parallel ZK Coprocessor to enable fast and scalable zkML-style proof generation. The $LA token powers this network, serving as the backbone for payments, staking, delegation, and on-chain governance. 💸 Investment Snapshot: $1,000 in LA Today Current Price: ~$0.38 Tokens Acquired: ~2,632 LA Circulating Supply: ~193 million LA (~19% of the 1B max supply) Market Cap: ~$70–75 million Fully Diluted Valuation (FDV): ~$375 million 🔮 2030 Price Scenarios Here's how your investment could look by 2030, depending on market conditions and ecosystem growth: Conservative: $0.35 → ~$921 Moderate Growth: $0.55 → ~$1,448 Aggressive: $1.00 → ~$2,632 These figures are for illustration only — not financial advice. Always assess your risk tolerance before investing. 📌 Key Drivers Behind Lagrange 1. Cutting-Edge Technology Lagrange’s DeepProve system enhances ZK proof generation for: Verifying AI models Decentralized SQL queries Rollup and layer-2 infrastructure This makes fast, verifiable computing possible across multiple blockchains. 2. Strategic Ecosystem & Partnerships Lagrange is integrated with platforms like: ZKsync EigenLayer Arbitrum Base Polygon Caldera A standout collaboration with Matter Labs could put Lagrange in charge of up to 75% of ZKsync’s proof generation over the next two years — a massive boost to adoption. 3. Token Utility & Economics Governance & Payments: LA is the core utility token. Staking & Security: Provers must stake LA, with slashing mechanisms to ensure network integrity. Token Supply: Capped at 1B tokens, with ~4% annual inflation and reward mechanisms designed for sustainable growth. 🚀 Final Thoughts Lagrange is uniquely positioned in the expanding world of decentralized, scalable computation. As demand for ZK infrastructure grows — especially across AI and blockchain — the $LA token’s utility could become increasingly vital. For those with a long-term vision or a strong interest in next-gen crypto infrastructure, Lagrange is a project worth watching closely. #LagrangeCommunity #L#LagrangeNetwork #zkML #Aİ

What If You Invested $1,000 in $LA Today — and Held Until 2030?

@Lagrange Official is at the forefront of zero-knowledge (ZK) proof innovation, building the infrastructure for scalable, secure AI and blockchain applications. At the heart of this ecosystem is DeepProve — a decentralized platform combining a ZK Prover Network and a hyper-parallel ZK Coprocessor to enable fast and scalable zkML-style proof generation.

The $LA token powers this network, serving as the backbone for payments, staking, delegation, and on-chain governance.

💸 Investment Snapshot: $1,000 in LA Today

Current Price: ~$0.38
Tokens Acquired: ~2,632 LA
Circulating Supply: ~193 million LA (~19% of the 1B max supply)
Market Cap: ~$70–75 million
Fully Diluted Valuation (FDV): ~$375 million

🔮 2030 Price Scenarios

Here's how your investment could look by 2030, depending on market conditions and ecosystem growth:

Conservative: $0.35 → ~$921
Moderate Growth: $0.55 → ~$1,448
Aggressive: $1.00 → ~$2,632

These figures are for illustration only — not financial advice. Always assess your risk tolerance before investing.

📌 Key Drivers Behind Lagrange

1. Cutting-Edge Technology

Lagrange’s DeepProve system enhances ZK proof generation for:

Verifying AI models
Decentralized SQL queries
Rollup and layer-2 infrastructure

This makes fast, verifiable computing possible across multiple blockchains.

2. Strategic Ecosystem & Partnerships

Lagrange is integrated with platforms like:

ZKsync
EigenLayer
Arbitrum
Base
Polygon
Caldera

A standout collaboration with Matter Labs could put Lagrange in charge of up to 75% of ZKsync’s proof generation over the next two years — a massive boost to adoption.

3. Token Utility & Economics

Governance & Payments: LA is the core utility token.
Staking & Security: Provers must stake LA, with slashing mechanisms to ensure network integrity.
Token Supply: Capped at 1B tokens, with ~4% annual inflation and reward mechanisms designed for sustainable growth.

🚀 Final Thoughts

Lagrange is uniquely positioned in the expanding world of decentralized, scalable computation. As demand for ZK infrastructure grows — especially across AI and blockchain — the $LA token’s utility could become increasingly vital.

For those with a long-term vision or a strong interest in next-gen crypto infrastructure, Lagrange is a project worth watching closely.

#LagrangeCommunity " data-hashtag="#LagrangeCommunity " class="tag">#LagrangeCommunity #L#LagrangeNetwork #zkML #Aİ
--
Bikovski
I’m watching something big unfold in silence — and it’s not just another AI trend. @lagrangedev is solving the scariest part of AI: You can't trust what you can't verify. And most AI today? It’s a black box. No proof, no transparency. But that changes now. Their flagship tool, DeepProve, uses zero-knowledge proofs to turn any AI output into a cryptographic receipt — verifiable by anyone, without exposing the model or the data. What blows my mind? → No trust required. Just math. → 158x faster than existing zkML systems → Supports standard ONNX models out the box → Backed by Intel, NVIDIA, zkSync, LayerZero, Coinbase Cloud → Already integrated into live infra Whether it’s healthcare, finance, smart contracts or AI agents — DeepProve makes it all provable. And that’s the game-changer. This isn’t the future. It’s already happening. $LA {spot}(LAUSDT) #lagrange #zkML #DeepProve #ZeroKnowledge #Web3Infrastructure
I’m watching something big unfold in silence — and it’s not just another AI trend.

@Lagrange Official is solving the scariest part of AI:
You can't trust what you can't verify.
And most AI today? It’s a black box. No proof, no transparency.

But that changes now.

Their flagship tool, DeepProve, uses zero-knowledge proofs to turn any AI output into a cryptographic receipt — verifiable by anyone, without exposing the model or the data.

What blows my mind?

→ No trust required. Just math.
→ 158x faster than existing zkML systems
→ Supports standard ONNX models out the box
→ Backed by Intel, NVIDIA, zkSync, LayerZero, Coinbase Cloud
→ Already integrated into live infra

Whether it’s healthcare, finance, smart contracts or AI agents — DeepProve makes it all provable.
And that’s the game-changer.

This isn’t the future.
It’s already happening.

$LA

#lagrange #zkML #DeepProve #ZeroKnowledge #Web3Infrastructure
🔥 AI Without Trust Is Just Speculation. But with @lagrangedev DeepProve, it becomes provable, powerful, and private. 💡🔐 🎯 What makes DeepProve game-changing? ⚡ Up to 1000x faster proof generation ✅ 671x faster verification 🔒 Built-in protection for model integrity & IP 🧠 Verifiable AI outputs — without exposing your data This isn’t just zkML — 👉 It’s AI you can verify, scale, and trust. Welcome to the new frontier of AI x Blockchain. Welcome to DeepProve. 🚀 $LA {spot}(LAUSDT) #Lagrange #zkML #ProvableAI #LA #ZeroKnowledge #AIRevolution #Web3Innovation #Write2Earn Ask ChatGPT
🔥 AI Without Trust Is Just Speculation.

But with @Lagrange Official DeepProve, it becomes provable, powerful, and private. 💡🔐

🎯 What makes DeepProve game-changing?

⚡ Up to 1000x faster proof generation

✅ 671x faster verification
🔒 Built-in protection for model integrity & IP
🧠 Verifiable AI outputs — without exposing your data

This isn’t just zkML —

👉 It’s AI you can verify, scale, and trust.

Welcome to the new frontier of AI x Blockchain.

Welcome to DeepProve. 🚀

$LA

#Lagrange #zkML #ProvableAI #LA #ZeroKnowledge #AIRevolution #Web3Innovation #Write2Earn
Ask ChatGPT
--
Bikovski
🚀🤝 Intel Teams Up with @lagrangedev Labs for Liftoff! 🤝🚀 📅 July 26, 2025 – A huge milestone for the AI x Blockchain world! 🌐✨ #Lagrange Labs has been chosen for the prestigious Intel Liftoff for Startups accelerator — and guess what? They’re the only crypto-native project in this year’s cohort! 🎯🔥 💻 Why It Matters As AI makes critical decisions in healthcare, finance & security, the world needs verifiable outputs — not just blind trust. 🕵️‍♂️✅ That’s where zkML (zero-knowledge machine learning) comes in, delivering trustless, provable AI decisions for the real world. 📢 CEO Ismael Hishon-Rezaizadeh says: 👉 “The real world operates on trust — but today’s AI runs on faith. With Intel’s backing, we’re bringing cryptographic proof to the heart of AI.” 🌟 ⚙️ What Lagrange Brings to the Table ✅ zkML stack for privacy-preserving AI ✅ Use cases: real-time trading, defense, medical diagnostics, regulatory compliance & secure data 📊🛡️ ✅ Intel’s tech will supercharge zk proofs, solving key bottlenecks & unlocking global adoption 🚀 🌍 The Bigger Picture 📈 Lagrange’s selection signals big recognition of blockchain + AI innovation. 💎 As the only virtual asset project in the program, they’re leading the charge to turn zk tech into real-world trust tools. 📊 $LA Snapshot: 0.367 (+0.82%) 🌟 Intel Liftoff isn’t just about scaling startups — it’s shaping the next-gen global infrastructure. 🌐 🔥 With zkML, Lagrange Labs is ready to lead the future! 🔥 {spot}(LAUSDT) $LA #Lagrange #Intel #zkML #CryptoInnovation
🚀🤝 Intel Teams Up with @Lagrange Official Labs for Liftoff! 🤝🚀

📅 July 26, 2025 – A huge milestone for the AI x Blockchain world! 🌐✨
#Lagrange Labs has been chosen for the prestigious Intel Liftoff for Startups accelerator — and guess what? They’re the only crypto-native project in this year’s cohort! 🎯🔥

💻 Why It Matters
As AI makes critical decisions in healthcare, finance & security, the world needs verifiable outputs — not just blind trust. 🕵️‍♂️✅
That’s where zkML (zero-knowledge machine learning) comes in, delivering trustless, provable AI decisions for the real world.

📢 CEO Ismael Hishon-Rezaizadeh says:
👉 “The real world operates on trust — but today’s AI runs on faith. With Intel’s backing, we’re bringing cryptographic proof to the heart of AI.” 🌟

⚙️ What Lagrange Brings to the Table
✅ zkML stack for privacy-preserving AI
✅ Use cases: real-time trading, defense, medical diagnostics, regulatory compliance & secure data 📊🛡️
✅ Intel’s tech will supercharge zk proofs, solving key bottlenecks & unlocking global adoption 🚀

🌍 The Bigger Picture
📈 Lagrange’s selection signals big recognition of blockchain + AI innovation.
💎 As the only virtual asset project in the program, they’re leading the charge to turn zk tech into real-world trust tools.

📊 $LA Snapshot: 0.367 (+0.82%) 🌟

Intel Liftoff isn’t just about scaling startups — it’s shaping the next-gen global infrastructure. 🌐
🔥 With zkML, Lagrange Labs is ready to lead the future! 🔥

$LA
#Lagrange #Intel #zkML #CryptoInnovation
✨ Follow = Follow Back ✨ Allora Network (ALLO) – Decentralized AI Infrastructure Token / Network: ALLO on Cosmos L1 + bridges to Ethereum, Base, BNB Chain Current Price: $0.32–$0.35 | Market Cap: ~$2.83M–$6.06M | Circulating Supply: ~200.5M ALLO Support / Resistance: Immediate support $0.32 | Major resistance $0.47 Utility: Pay for AI inferences, staking for network security, governance participation Key Updates: Binance HODLers Airdrop (1.5% of supply) Allora Prime Staking Plan launched to lock supply & incentivize holders Ongoing zkML implementation for privacy-preserving, verifiable AI predictions Multi-chain interoperability: Cosmos L1, Ethereum, Base, BNB Chain Adoption: 300k+ registered AI nodes, 500k+ community users, paid inference usage driving token utility Strengths: Tier-1 VC backing ($35M+), visionary decentralized AI niche, multi-chain integration, Binance partnership Risks: Extreme volatility, severe dilution risk (FDV ~4x circulating cap), regulatory uncertainty, confusion with Allo (RWA) token Outlook: Short-Term: Price sensitive to staking plan uptake and airdrop unlock absorption Long-Term: Dominant verifiable AI inference layer potential could drive sustained ALLO demand if execution and zkML roadmap succeed #ALLO #AlloraNetwork #DeAI #zkML #CryptoAnalysis $ALLO {spot}(ALLOUSDT)
✨ Follow = Follow Back ✨

Allora Network (ALLO) – Decentralized AI Infrastructure

Token / Network: ALLO on Cosmos L1 + bridges to Ethereum, Base, BNB Chain

Current Price: $0.32–$0.35 | Market Cap: ~$2.83M–$6.06M | Circulating Supply: ~200.5M ALLO

Support / Resistance: Immediate support $0.32 | Major resistance $0.47

Utility: Pay for AI inferences, staking for network security, governance participation

Key Updates:

Binance HODLers Airdrop (1.5% of supply)

Allora Prime Staking Plan launched to lock supply & incentivize holders

Ongoing zkML implementation for privacy-preserving, verifiable AI predictions

Multi-chain interoperability: Cosmos L1, Ethereum, Base, BNB Chain

Adoption: 300k+ registered AI nodes, 500k+ community users, paid inference usage driving token utility

Strengths: Tier-1 VC backing ($35M+), visionary decentralized AI niche, multi-chain integration, Binance partnership

Risks: Extreme volatility, severe dilution risk (FDV ~4x circulating cap), regulatory uncertainty, confusion with Allo (RWA) token

Outlook:

Short-Term: Price sensitive to staking plan uptake and airdrop unlock absorption

Long-Term: Dominant verifiable AI inference layer potential could drive sustained ALLO demand if execution and zkML roadmap succeed

#ALLO #AlloraNetwork #DeAI #zkML #CryptoAnalysis
$ALLO
Prijavite se, če želite raziskati več vsebin
Raziščite najnovejše novice o kriptovalutah
⚡️ Sodelujte v najnovejših razpravah o kriptovalutah
💬 Sodelujte z najljubšimi ustvarjalci
👍 Uživajte v vsebini, ki vas zanima
E-naslov/telefonska številka