Binance Square

zkml

40,593 zobrazení
Diskutuje: 138
Bertosanti
--
Přeložit
TRANSCRIPCIÓN #CRYPTOEl nuevo episodio de esta semana aborda la convergencia de dos tendencias importantes y de gran actualidad: la IA (inteligencia artificial) y las cadenas de bloques/criptomonedas. Estos dominios, en conjunto, tienen importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es ideal para quienes tengan curiosidad o ya estén desarrollando este sector. La conversación abarca temas que van desde las deepfakes, los bots y la necesidad de una prueba de humanidad en un mundo de IA; hasta el big data, los grandes modelos de lenguaje como ChatGPT, el control de usuarios, la gobernanza, la privacidad y la seguridad, el conocimiento cero y zkML; hasta MEV, los medios de comunicación, el arte y mucho más. Nuestros invitados expertos, en conversación con la anfitriona Sonal Chokshi, incluyen: Dan Boneh , profesor de Stanford (y asesor principal de investigación en a16z crypto), un criptógrafo que ha estado trabajando en cadenas de bloques durante más de una década y que se especializa en criptografía, seguridad informática y aprendizaje automático, todos los cuales se cruzan en este episodio;Ali Yahya , socio general de a16z crypto, quien también trabajó anteriormente en Google, donde no solo trabajó en un sistema distribuido para una flota de robots (una especie de "aprendizaje de refuerzo colectivo") sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow construida en Google. La primera mitad de la conversación informal entre Ali y Dan (quienes se conocen como estudiantes y profesores en Stanford) gira en torno a cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad, a cómo las criptomonedas podrían beneficiarse de la IA... El hilo conductor es la tensión entre centralización y descentralización. Así, también analizamos cómo la intersección de las criptomonedas y la IA puede generar resultados que ninguna de las dos sería posible por sí sola... Piezas referenciadas en este episodio/lectura relacionada: El próximo sistema de razonamiento cibernético para la ciberseguridad  (2023) de Mohamed Ferrag, Ammar Battah, Norbert Tihanyi, Merouane Debbah, Thierry Lestable y Lucas CordeiroUna nueva era en seguridad de software: Hacia software autorreparador mediante modelos de lenguaje extensos y verificación formal  (2023) por Yiannis Charalambous, Norbert Tihanyi, Ridhi Jain, Youcheng Sun, Mohamed Ferrag, Lucas CordeiroCorrección de errores de seguridad de hardware con modelos de lenguaje extensos  (2023) por Baleegh Ahmad, Shailja Thakur, Benjamin Tan, Ramesh Karri y Hammond Pearce¿Los usuarios escriben código más inseguro con asistentes de IA?  (2022) por Neil Perry, Megha Srivastava, Deepak Kumar y Dan Boneh¿Dormido frente al teclado? Evaluación de la seguridad de las contribuciones de código de GitHub Copilot  (2021) por Hammond Pearce, Baleegh Ahmad, Benjamin Tan, Brendan Dolan-Gavitt, Ramesh KarriVotación, seguridad y gobernanza en blockchains  (2019) con Ali Yahya y Phil Daian TRANSCRIPCIÓN: Bienvenidos a "web3 con a16z", un programa sobre cómo construir la próxima generación de internet del equipo de a16z crypto; incluyéndome a mí, su presentadora, Sonal Chokshi. El nuevo episodio de hoy aborda la convergencia de dos importantes tendencias de vanguardia: la IA (inteligencia artificial) y las criptomonedas. Esto tiene importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es para cualquiera que tenga curiosidad o que ya esté desarrollando en este sector. Nuestros invitados especiales de hoy son: Dan Boneh, profesor de Stanford (y asesor sénior de investigación en a16z crypto). Es un criptógrafo que lleva más de una década trabajando en cadenas de bloques. Los temas de este episodio tienen una fuerte intersección entre la criptografía, la seguridad informática y el aprendizaje automático, todas sus áreas de especialización. También tenemos a Ali Yahya, socio general de a16z crypto, quien también trabajó en Google, donde no solo desarrolló un sistema distribuido para robótica (más concretamente, una especie de "aprendizaje de refuerzo colectivo" que implicaba entrenar una única red neuronal que contribuía a las acciones de toda una flota de robots), sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow. De hecho, Dan y Ali se conocen desde que Ali era estudiante de grado y maestría en Stanford, así que esta conversación es más bien una charla informal entre ellos a la que les pedí que me uniera. Abordamos todo, desde deepfakes y bots hasta la prueba de humanidad en un mundo de IA y mucho, mucho más. La primera mitad trata sobre cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad sobre cómo las criptomonedas podrían beneficiarse de la IA; y el hilo conductor es la tensión entre centralización y descentralización.  Como recordatorio: nada de lo siguiente debe interpretarse como asesoramiento de inversión, legal, comercial o fiscal; consulte a16z.com/disclosures para obtener más información importante, incluido un enlace a una lista de nuestras inversiones, especialmente porque somos inversores en las empresas mencionadas en este episodio.  Pero primero: comenzamos con la intersección de ambos mundos, compartiendo brevemente las áreas (¡o visiones!) que les entusiasman; la primera voz que escucharán será la de Ali. Ali: Hay una novela de ciencia ficción muy buena llamada “La era del diamante” de Neal Stephenson, en la que hay un dispositivo conocido como “manual ilustrado”, que es una especie de dispositivo de inteligencia artificial que actúa como tu mentor y tu maestro a lo largo de la vida. Y entonces, cuando naces, estás emparejado con una IA que, esencialmente, te conoce muy bien, aprende tus preferencias, te sigue durante toda la vida, te ayuda a tomar decisiones y te guía en la dirección correcta. Así que existe un futuro de ciencia ficción… en el que se podría construir una IA, pero no se querría que estuviera controlada por un gigante tecnológico monopolista. Porque esa posición le otorgaría a esa empresa un gran control, y existen todas estas cuestiones de privacidad y soberanía, y se querría tener cierto control sobre ella. ¿Y qué pasa si la empresa desaparece, cambia las reglas o los precios? Sería fantástico poder crear una IA que pudiera funcionar durante muchísimo tiempo y llegar a conocerte a lo largo de tu vida, pero que fuera realmente tuya. Y entonces existe esta visión en la que se podría hacer eso con una cadena de bloques: se podría integrar una IA dentro de un contrato inteligente. Y con el poder de las pruebas de conocimiento cero, también podrá mantener sus datos privados. Y luego, con el paso de las décadas, esta IA puede volverse más inteligente y ayudarte, y entonces tendrás la opción de hacer lo que quieras con ella. O modificarla como quieras; o desactivarla. Y esa es una visión interesante para las IA de largo plazo que están en continua evolución y cada vez son mejores: sería mejor si no estuvieran controladas por una única empresa centralizada. Claro: es una idea muy de ciencia ficción, porque conlleva muchos problemas, incluyendo los de verificación y los de mantener la privacidad de los datos mediante criptografía y, a la vez, poder realizar cálculos sobre ellos, quizás con cifrado totalmente homomórfico. <Sonal: mhm> Todos estos problemas siguen pendientes, pero no es algo inconcebible. Dan: ¡Guau! ¡Me encanta la visión de Ali! Sonal: A mí también me encanta, especialmente teniendo en cuenta esa cita (creo que era de Asimov) de que la ciencia ficción de hoy es la ciencia factual del mañana. Ali, sé que tienes un meta-marco para pensar acerca de todo esto que te he escuchado compartir antes, ¿puedes compartirlo ahora también? Ali: Sí, existe una narrativa más amplia que existe desde hace bastante tiempo y que ahora se está acentuando mucho más con el desarrollo de cosas como los LLM. Sonal: En realidad, define eso muy rápido, Ali, solo para los oyentes que aún no están familiarizados, solo como contexto. Ali: LLM significa "modelo de lenguaje grande" y utiliza parte de la tecnología que se desarrolló en Google en 2017. Existe este famoso artículo conocido como "La atención es todo lo que necesitas" (ese era el título del artículo) y describía lo que ahora se conoce como transformadores, y esa es la base, básicamente, de algunos de los nuevos modelos que la gente ha estado entrenando en estos días, incluido ChatGPT, etc. Todos estos son modelos de lenguaje grandes o LLM. <Sonal: ¡mmm!> #BTC Había una famosa frase, creo (2018), de Peter Thiel: «La IA es comunista y las criptomonedas son libertarias»… Es muy acertada, de hecho, porque la IA y las criptomonedas, en muchos sentidos, se contrapesan naturalmente. <Sonal: ¿Ajá?> Y quizá podamos profundizar en cada uno de estos ejemplos a lo largo del podcast, <Sonal: Sí>. Pero hay cuatro aspectos principales en los que esto es cierto: [1] La primera es que la IA es una tecnología que prospera y permite un control centralizado de arriba a abajo, mientras que la criptografía se basa en la cooperación descentralizada de abajo a arriba. De hecho, en muchos sentidos, se puede pensar en la criptografía como el estudio de la construcción de sistemas descentralizados que permiten la cooperación humana a gran escala, donde no existe un punto central de control. Y esa es una forma natural en la que estas dos tecnologías se contrapesan entre sí. [2] Otra es que la IA es una innovación sostenible, ya que refuerza los modelos de negocio de las empresas tecnológicas existentes <Sonal: mhm>, ya que les ayuda a tomar decisiones desde arriba. Y el mejor ejemplo de esto sería que Google pudiera decidir exactamente qué anuncio mostrar a cada uno de sus usuarios entre miles de millones de usuarios y miles de millones de páginas vistas. Mientras que las criptomonedas son, en realidad, una innovación fundamentalmente disruptiva, ya que su modelo de negocio es fundamentalmente contrario al de las grandes tecnológicas. Por lo tanto, es un movimiento liderado por rebeldes/por los sectores marginales, en lugar de estar liderado por las empresas establecidas. <Sonal: mhm> Así que esa es la segunda. [3] La tercera es que la IA probablemente se relacionará e interactuará mucho con todas las tendencias hacia la privacidad… Porque la IA, como tecnología, ha incorporado todo tipo de incentivos que nos llevan hacia una menor privacidad individual, ya que tendremos empresas que querrán acceder a todos nuestros datos; y los modelos de IA que se entrenan con cada vez más datos serán cada vez más eficaces. Por lo tanto, creo que esto nos lleva por el camino del panóptico de la IA, donde simplemente se agregan los datos de todos para entrenar estos enormes modelos y optimizarlos al máximo. Mientras que las criptomonedas nos llevan hacia la dirección opuesta, que es una dirección de mayor privacidad individual. Es una dirección de mayor soberanía, <Sonal: mhm> donde los usuarios tienen control sobre sus propios datos. Y creo que estas dos tendencias serán muy importantes. Y esta es otra forma importante en que las criptomonedas actúan como contrapeso para la IA. (4) Y tal vez la última tenga que ver con esta última tendencia en IA: el hecho de que la IA es ahora claramente una tecnología poderosa para generar nuevo arte; ahora es una herramienta creativa <Sonal: ¡mm! totalmente>, que nos llevará a una abundancia infinita de medios, a una creatividad infinita en muchos sentidos. Y la criptografía es un contrapeso a eso porque nos ayuda a analizar toda la abundancia, al ayudarnos a distinguir lo creado por humanos de lo creado por IA. Y la criptografía será esencial para mantener y preservar lo verdaderamente humano en un mundo donde mil veces más contenido <Sonal: correcto> se genera artificialmente. Así que todas estas son cosas de las que podemos hablar, pero creo que existe esta metanarrativa importante; y estas dos tecnologías son diametralmente opuestas, en muchos aspectos. Dan: Entonces, tal vez Ali, para agregar a eso, este es un resumen maravilloso, y también diría que hay muchas áreas en las que las técnicas de IA están teniendo un impacto en las cadenas de bloques; y viceversa, <mhm> donde las técnicas de cadenas de bloques están teniendo un impacto en la IA. Daré una respuesta breve aquí porque vamos a profundizar en los detalles en solo un minuto; pero hay muchos puntos de intersección: supongo que hablaremos sobre las aplicaciones del conocimiento cero para el aprendizaje automático en solo un minuto… Pero también quiero abordar todas estas aplicaciones donde el aprendizaje automático puede usarse para escribir código. Por ejemplo, el aprendizaje automático puede usarse para escribir código de Solidity que se contrae. Puede usarse para detectar posibles errores en el código, etc. Existen puntos de intersección donde el aprendizaje automático puede usarse para generar falsificaciones profundas y las cadenas de bloques pueden ayudar a proteger contra ellas. Por lo tanto, supongo que abordaremos todos estos puntos, pero lo interesante es que existe una gran intersección entre las cadenas de bloques y el aprendizaje automático. Sonal: Sí, antes de profundizar en eso, Dan, tengo una pregunta: ¿estás de acuerdo? Entiendo perfectamente el punto de vista de Ali: la IA y las criptomonedas son complementos naturales, o contrapesos, o pueden ser fuerzas diferentes que se controlan y equilibran mutuamente... Pero, ¿crees que esto es una cualidad inherente a la IA y las criptomonedas? ¿O es simplemente un artefacto de cómo se hacen las cosas actualmente? ¿Con qué aspectos estarías de acuerdo o en desacuerdo? Dan: Sí; así que diría que, si lo miras desde lejos… las técnicas que se usan en IA parecen muy diferentes a las que se usan en las cadenas de bloques, ¿verdad? Las cadenas de bloques se centran en la criptografía, la descentralización, las finanzas, la economía, etc. Mientras que la #IA se centra en la estadística, las matemáticas del aprendizaje automático, etc., se centra en el big data. Las técnicas, en realidad, parecen bastante diferentes. <Sonal: mhm>, pero en realidad hay muchos aspectos en los que una parte puede ayudar a la otra <mhm> y viceversa. Quizás el primero para empezar sea el más obvio y que ha estado en la mente de muchos: las aplicaciones del conocimiento cero para el aprendizaje automático . Se trata de un área emergente llamada zkML . Y su interés se debe a que las técnicas de conocimiento cero han mejorado drásticamente gracias a su aplicación en las cadenas de bloques. Lo que ha sucedido en los últimos 10 años es increíble; algo que no vemos muy a menudo: esta idea de las pruebas de conocimiento cero, y los sistemas de pruebas en general, se consideraban muy teóricos hace una década. Y debido a todas sus aplicaciones en las cadenas de bloques, de repente se despertó un gran esfuerzo para hacerlas más prácticas y realistas. Como resultado, se ha logrado un progreso tremendo (como saben nuestros oyentes), y ahora estas herramientas se implementan y se utilizan para proteger sistemas reales. Entonces, la pregunta es: ¿se pueden usar técnicas de conocimiento cero para impulsar el aprendizaje automático? Hay un par de ejemplos (honestamente, podríamos dedicar todo el podcast solo a zkML), pero quizás pueda dar una muestra, uno o dos ejemplos donde ZK es útil para el aprendizaje automático. Imaginemos que Alice tiene un modelo secreto al que dedicó mucho tiempo para entrenar, y que es muy importante para ella. Es fundamental que la gente no sepa cómo funciona. Pero aun así, quiere poder atender las solicitudes de Bob, ¿verdad? Bob quiere enviarle datos, ella aplicaría el modelo a los datos y le enviaría el resultado. Bob no tiene ni idea de si está obteniendo los resultados correctos con el modelo, ¿verdad? Quizás pagó por un modelo específico y quiere asegurarse de que Alice realmente lo esté usando, ¿verdad? Quizás pagó por GPT-4 y quiere asegurarse de que Alice realmente esté usando GPT-4, y no GPT-3. Resulta que las técnicas ZK pueden ser muy útiles en este caso. Alice se comprometería con su modelo y lo haría público. Y luego, cada vez que Bob enviara datos, Alice podría ejecutar el modelo con ellos y enviarle los resultados, junto con la prueba de que el modelo se evaluó correctamente. Así, Bob tendría la garantía de que el modelo comprometido es el mismo que se ejecutó con sus datos. ¿Sí? Este es un ejemplo de cómo las técnicas ZK pueden ser útiles en el aprendizaje automático. Y quiero enfatizar por qué esto es tan importante: <Sonal: ¡Sí!> Veamos un ejemplo: Supongamos que tenemos una función, un modelo que realmente se usa para afectar la vida de las personas. Imaginen, por ejemplo, que usamos un modelo para decidir si otorgamos un préstamo o una hipoteca; una institución financiera podría querer usar un modelo similar. Queremos asegurarnos de que el mismo modelo se aplique a todos, ¿no? No es que se me aplique un modelo a mí <Sonal: sí> y a ti otro <Sonal: cierto>. Básicamente, al hacer que el banco se comprometa con el modelo, ¿no?; y así todos pueden verificar que sus datos son evaluados por el mismo modelo comprometido <mmm>, podemos asegurarnos de que se aplique el mismo modelo a todos. Debo decir que aquí hay un problema abierto: aunque las técnicas de conocimiento cero pueden garantizar que se aplique el mismo modelo a todos, surge la pregunta: ¿es justo el modelo? Los modelos pueden tener sesgos y generar resultados injustos. Por lo tanto, existe toda una área de investigación llamada equidad algorítmica; existen muchísimos artículos sobre equidad algorítmica, y es realmente interesante preguntarse: ahora que tenemos un modelo establecido, ¿podemos demostrar, en conocimiento cero, que el modelo cumple con alguna definición de equidad del área de equidad algorítmica? ¿Y cómo nos aseguramos de que el proceso de capacitación se ejecute correctamente? Ali: Bueno, todo lo que dijiste sobre #zkml es sumamente emocionante. Y, como tecnología, creo que contribuirá a que el aprendizaje automático, y la IA en general, sean más transparentes y confiables, tanto dentro como fuera del contexto de las criptomonedas. Creo que una aplicación aún más ambiciosa, y quizás a largo plazo, de ZKML —y de algunas otras técnicas de verificación en las que la comunidad criptográfica ha estado trabajando<mhm>— es simplemente descentralizar la IA en general. Como ya comentamos, la IA es una tecnología casi intrínsecamente centralizadora, ya que se nutre de factores como los efectos de escala, ya que tener todo dentro de un centro de datos lo hace más eficiente. Por lo tanto, escalar todo de forma centralizada lo hace más potente y, como resultado, más centralizado. Además, los datos suelen estar controlados por un pequeño número de empresas tecnológicas intermedias. Esto también conlleva una mayor centralización. Y finalmente: los modelos de aprendizaje automático y el talento en aprendizaje automático, también controlados por un pequeño número de actores. Y las criptomonedas pueden volver a ayudar en este frente desarrollando tecnología que utilice cosas como ZKML que puedan ayudarnos a descentralizar la IA. Así que hay tres aspectos principales que intervienen en la IA: el aspecto computacional , que requiere un uso a gran escala de GPU (generalmente en centros de datos); el aspecto de los datos , que, repito, la mayoría de las empresas centralizadas controlan; y los propios modelos de aprendizaje automático . <Sonal: sí> Y la más sencilla podría ser la del cálculo. ¿Es posible descentralizar el cálculo para el entrenamiento y la inferencia de modelos de aprendizaje automático? Aquí es donde entran en juego algunas de las técnicas que Dan mencionaba, como las pruebas de conocimiento cero, que permiten demostrar que el proceso de inferencia o entrenamiento de un modelo se realizó correctamente, lo que permite externalizarlo a una gran comunidad. Se puede tener un proceso distribuido mediante el cual cualquiera con una GPU puede contribuir con el cálculo a la red y entrenar un modelo de esa manera, sin tener que depender necesariamente de un centro de datos masivo con todas las GPU centralizadas. Y aún queda la gran duda de si esto tendrá sentido económicamente... Pero al menos, con los incentivos adecuados, se puede aprovechar la larga cola: se puede aprovechar toda la capacidad de GPU inactiva que pueda existir; hacer que todas esas personas contribuyan con ese cálculo al entrenamiento de un modelo o a la ejecución de la inferencia; y ofrecer una alternativa a lo que, de otro modo, serían solo las grandes empresas tecnológicas intermedias las que actualmente lo controlan todo. <Sonal: ¡Mmm!> Hay todo tipo de problemas técnicos importantes que tendrían que resolverse para que eso fuera posible. De hecho, existe una empresa en este sector llamada Gensyn que está desarrollando precisamente esto. Están creando un mercado descentralizado para computación en GPU, principalmente con el propósito de entrenar modelos de aprendizaje automático. Es un mercado donde cualquiera puede contribuir con su computación en GPU, ya sea en su computadora personal debajo de su escritorio o inactiva en un centro de datos. Y, por otro lado, cualquiera puede aprovechar la computación disponible en la red para entrenar sus grandes modelos de aprendizaje automático. Esto sería una alternativa a la alternativa centralizada, tipo OpenAI/Google/Meta/todos —ya sabes, inserta tu gran empresa tecnológica favorita aquí <Sonal: ¡Sí! (risas)—, que actualmente tendrías que adoptar. Sonal: Bueno, antes de profundizar en este marco de descentralización, Ali, estabas desglosando la computación y creo que ibas a compartir los otros dos de esos tres pilares. Pero antes… ambos hablaron un poco sobre los desafíos técnicos. ¿Cuáles son algunos de los desafíos técnicos que deben superarse y que la gente podría estar resolviendo ya? (Quiero que los desarrolladores que escuchen este episodio también reflexionen sobre las oportunidades en este espacio y cómo pueden abordar los desafíos existentes; o cuáles son algunos de los desafíos que enfrentarán al desarrollar soluciones). Dan: Sí, entonces tal vez pueda mencionar dos que creo que serían interesantes para la gente. [1] Básicamente, imaginemos que Alice tiene un modelo que quiere proteger. Quiere enviarlo cifrado a otra persona, por ejemplo, a Bob. Bob recibe un modelo cifrado y necesita poder ejecutar sus datos en él. ¿Cómo se hace eso? Si se tienen datos que se quieren ejecutar en un modelo, pero solo se cuenta con el cifrado del modelo, ¿cómo se logra? Y eso es algo para lo que usaríamos lo que se llama cifrado totalmente homomórfico. <Sonal: Sí. (FHE).> Es un cifrado totalmente homomórfico, una herramienta notable que permite realizar cálculos con datos cifrados. Es un poco increíble que esto sea posible, pero se puede tener un modelo cifrado y datos de texto sin cifrar, y ejecutar el modelo cifrado sobre estos datos y obtener un resultado cifrado. Se le enviaría el resultado cifrado a Alice, quien podría descifrarlo y verlo en texto sin cifrar. Así que esto es algo que ya existe... de hecho, existe bastante demanda en la práctica; <Sonal: sí> no requiere mucho esfuerzo ver que el Departamento de Defensa está interesado en esto. Hay muchas otras aplicaciones donde se puede enviar un modelo cifrado a un tercero; este ejecutaría el modelo cifrado en sus datos; te enviaría los resultados; puedes descifrar y obtener información sobre los datos que se ingresaron como entrada del modelo cifrado. La pregunta, claro, es cómo lo escalamos. Ahora mismo funciona bien para modelos medianos… y la pregunta es, ¿podemos escalarlo a modelos mucho más grandes? Así que es todo un reto: un par de startups en el sector, y, repito, una tecnología muy, muy interesante; es increíble que esto sea posible. <Sonal: Sí… de verdad> Y probablemente veremos mucho más de esto en el futuro. [2] La otra área es en realidad la que mencionó Ali, otra área muy importante, que es: ¿cómo sabemos que el modelo fue entrenado correctamente? Entonces, si envío mis datos a alguien y le pido que entrene un modelo con ellos, o que lo ajuste, ¿cómo sé que lo hicieron correctamente? Es cierto, podrían devolverme un modelo, pero ¿cómo sé que no tiene puertas traseras? De hecho, se ha investigado bastante para demostrar que, si el entrenamiento se realiza incorrectamente, podría devolver un modelo que funcionaría correctamente con todos los datos de prueba, pero que tiene una puerta trasera, lo que significa que fallaría catastróficamente con una entrada específica. Esto es posible si el proceso de entrenamiento no está verificado. Y, de nuevo, este es un área donde ZKML entra en juego: Podemos demostrarles que el entrenamiento se ejecutó correctamente; o quizás existan otras técnicas para demostrarlo. Pero, de nuevo, esta es otra área —un área de investigación muy activa— y animaría a muchos de los oyentes a que se trate de un problema muy complejo: demostrar que el entrenamiento se realizó correctamente; demostrar que los datos de entrenamiento se recopilaron y filtraron correctamente, etc. De hecho, es un área maravillosa en la que ingresar si las personas buscan realizar más trabajos en ese espacio. Sonal: ¡Genial! Ali, ¿qué más añadirías? Ali: Sí, definitivamente. Bueno, supongo que si seguimos hablando de lo que se necesitaría para descentralizar la pila de IA, creo que para descentralizar el componente computacional —y estos son tres componentes importantes—, si quisiéramos descentralizar el componente computacional, hay dos desafíos técnicos muy importantes que aún no se han resuelto. El primero es el problema de la verificación (que Dan acaba de mencionar) <Sonal: mhm>, para el cual se podría usar ZKML. Idealmente, con el tiempo se podrían usar pruebas de conocimiento cero para demostrar que el trabajo real —que las personas que contribuyen a esta red— se realizó correctamente. El desafío radica en que el rendimiento de estas primitivas criptográficas está lejos de alcanzar el nivel necesario para entrenar o inferir modelos muy grandes. Por lo tanto, los modelos actuales, como los LLM que todos conocemos y apreciamos (como ChatGPT), no serían demostrables con el estado actual de ZKML. Por lo tanto, se está trabajando mucho para mejorar el rendimiento del proceso de demostración, de modo que se puedan demostrar cargas de trabajo cada vez mayores de forma eficiente. Pero ese es un problema abierto, y algo <Sonal: sí> en lo que mucha gente está trabajando. Mientras tanto, empresas como Gensyn utilizan otras técnicas que no son solo criptográficas, sino que se basan en la teoría de juegos. En ellas, se recluta a un mayor número de personas independientes para realizar el trabajo y se comparan sus resultados para garantizar que se realicen correctamente. <Sonal: ¡Qué interesante!> Se trata de un enfoque más optimista y basado en la teoría de juegos que no se basa en la criptografía, pero que se alinea con el objetivo principal de descentralizar la IA o ayudar a crear un ecosistema para la IA mucho más orgánico, comunitario y de abajo a arriba, a diferencia del enfoque de arriba a abajo que proponen empresas como OpenAI. Así que ese es el primer problema; el primer gran problema es el problema de la verificación. Y el segundo gran problema es el de los sistemas distribuidos: ¿cómo se coordina realmente una gran comunidad de personas que contribuyen con GPU a una red de tal manera que todo parezca un sustrato integrado y unificado para el cálculo? <Sonal: yup> Y habrá muchos desafíos interesantes, como: estamos fragmentando la carga de trabajo de aprendizaje automático de forma lógica; distribuyendo diferentes partes a distintos nodos de la red; descubriendo cómo hacerlo todo de forma eficiente; y, cuando los nodos fallan, descubriendo cómo recuperarse y asignando nuevos nodos para que se encarguen del trabajo realizado por el nodo que falló. Por lo tanto, existen muchos detalles complejos a nivel de sistemas distribuidos que las empresas deberán resolver para ofrecernos esta red descentralizada que pueda ejecutar cargas de trabajo de aprendizaje automático de una forma quizás incluso más económica que usar la nube. Sonal: Sí… Eso es genial. Dan: …Sí, y es totalmente cierto que las técnicas ZK actuales manejarán los modelos más pequeños que se utilizan, pero definitivamente los LLM son probablemente demasiado grandes para que estas técnicas los manejen hoy, las técnicas ZK; pero, sabes que están mejorando constantemente, el hardware está mejorando, así que con suerte se pondrán al día. Sonal: Sí; antes de continuar, ¿podemos hacer una comprobación de pulso realmente clara sobre dónde estamos exactamente en eso? Obviamente, lo que les escucho decir es que hay tremendas aplicaciones en la intersección de la computación general verificable, que las cadenas de bloques y las criptomonedas definitivamente han estado avanzando y acelerando significativamente toda esa área (hemos estado cubriendo mucho de eso nosotros mismos: si miran nuestro canon ZK y la categoría de conocimiento cero, verán mucho de esto cubierto allí). Pero, ¿dónde nos encontramos exactamente ahora en cuanto a lo que pueden hacer? Porque ustedes hablaron mucho sobre lo que aún no pueden hacer y la oportunidad que les brinda, lo cual es emocionante; pero ¿dónde nos encontramos ahora mismo? ¿Qué pueden hacer realmente? Dan: Sí. Ahora mismo, básicamente pueden clasificar modelos medianos. No algo tan grande como GPT-3 o 4, sino modelos medianos. <sí> Es posible demostrar que la clasificación se realizó correctamente. El entrenamiento probablemente esté más allá de lo que se puede hacer ahora mismo, simplemente porque requiere muchísimos recursos computacionales <Sonal: cierto> que para los sistemas de prueba aún no hemos llegado a ese punto. Pero como dijo Ali, tenemos otras maneras de hacerlo. Por ejemplo, podemos hacer que varias personas realicen el entrenamiento y luego comparar los resultados. ¿Sí? Así que ahora hay incentivos de teoría de juegos para que la gente no haga trampa. Si alguien hace trampa, alguien más podría quejarse de que calculó mal el entrenamiento, y entonces quien haya hecho trampa no recibirá compensación por su esfuerzo. <Sonal: Sí, sí, sí> Así que hay un incentivo para que la gente realmente realice el entrenamiento como se suponía que debía realizarse. Sonal: Correcto. Y básicamente, no es una fase híbrida, sino que se trata de enfoques alternativos hasta que se alcance una mayor escalabilidad y el rendimiento alcance el nivel necesario. Dan: Sí; diría que para algunos modelos, la clasificación se puede demostrar hoy en día con conocimiento cero. Para el entrenamiento actual, debemos confiar en técnicas optimistas. Sonal: Sí, genial. Entonces, Ali, mencionaste que la computación es una de las tres puntas, y también mencionaste que los datos y luego los modelos para el aprendizaje automático en sí mismos: ¿quieres abordar ahora los datos y las oportunidades y desafíos que hay allí (en lo que respecta a la intersección cripto/IA)? Ali: Sí, absolutamente. Por lo tanto, creo que existe la oportunidad, aunque los problemas involucrados son muy complejos, de descentralizar el proceso de obtención de datos para el entrenamiento de grandes modelos de aprendizaje automático <mhm> desde una comunidad más amplia. De nuevo, en lugar de tener un único actor centralizado, simplemente recopilar todos los datos <yah> y luego entrenar los modelos. Y esto podría funcionar creando un tipo de mercado similar al que acabamos de describir para la computación, pero incentivando a las personas a contribuir con nuevos datos a un gran conjunto de datos que luego se utiliza para entrenar un modelo. La dificultad con esto es similar, ya que existe un desafío de verificación: hay que verificar de alguna manera que los datos que aportan las personas sean realmente buenos <Sonal: ¡sí!> y que no sean datos duplicados ni basura generados aleatoriamente o que no sean reales. Y también hay que asegurarse de que los datos no alteren el modelo (algún tipo de ataque de envenenamiento) donde el modelo se vuelva vulnerable o simplemente menos bueno o tenga un rendimiento inferior al anterior. Entonces, ¿cómo se verifica que esto sea así? Y ese es quizás un problema complejo que la comunidad debe resolver. Podría ser imposible de resolver por completo, y podría ser necesario recurrir a una combinación de soluciones tecnológicas y sociales, donde también se cuenta con algún tipo de métrica de reputación. Los miembros de la comunidad pueden ganar credibilidad, de modo que cuando aportan datos, estos se vuelvan más confiables de lo que serían de otra manera. Pero lo que esto podría permitirle hacer es que ahora puede cubrir verdaderamente la cola muy larga de la distribución de datos. Y uno de los aspectos más desafiantes del aprendizaje automático es que la calidad de un modelo depende de la cobertura de la distribución que el conjunto de datos de entrenamiento pueda alcanzar. Si existen entradas que se alejan mucho de la distribución de los datos de entrenamiento, el modelo podría comportarse de forma completamente impredecible. Para que el modelo funcione correctamente en casos extremos (y en los casos de cisne negro o entradas de datos que se pueden encontrar en el mundo real), es fundamental que el conjunto de datos sea lo más completo posible. Así pues: si existiera este tipo de mercado abierto y descentralizado para la contribución de datos a un conjunto de datos, cualquiera con datos únicos en el mundo podría contribuir a la red… Lo cual es una mejor manera de hacerlo, ya que si se intenta hacerlo desde una empresa central, no hay forma de saber quién tiene esos datos. Por lo tanto, si se incentiva a esas personas a que se presenten y proporcionen esos datos por iniciativa propia, creo que se puede lograr una cobertura mucho mejor de la cola larga. Como hemos visto, el rendimiento de los modelos de aprendizaje automático continúa mejorando a medida que crece el conjunto de datos y la diversidad de sus puntos de datos. Esto puede potenciar aún más el rendimiento de nuestros modelos de aprendizaje automático; podemos obtener conjuntos de datos aún más completos que abarcan a toda la comunidad. Dan: Bueno, déjame darle la vuelta a esto en ese eh... Sonal: ¡Oooh, adelante, Dan! Dan: …Si vamos a incentivar a la gente a contribuir con datos, básicamente vamos a incentivarla a crear datos falsos <Sonal: ¡Sí!> para que les paguen. ¿Sí? Así que tenemos que tener algún tipo de mecanismo para asegurarnos de que los datos que aportas sean auténticos. <Ali: Exactamente> Y puedes imaginar un par de maneras de hacerlo, ¿verdad? Una forma es confiar en hardware confiable. <Sonal: mhm>: Quizás los sensores estén integrados en un hardware confiable, al que solo confiaríamos en datos debidamente firmados por él. Esa es una forma de hacerlo. De lo contrario, tendríamos que tener algún otro mecanismo mediante el cual podamos saber si los datos son auténticos o no. Ali: Estoy completamente de acuerdo. Ese sería el mayor problema abierto a resolver... Y creo que a medida que mejora la evaluación comparativa de los modelos de aprendizaje automático, creo que hay dos tendencias importantes en el aprendizaje automático en este momento <Sonal: yah> – [1] Se está mejorando la medición del rendimiento de un modelo de aprendizaje automático. En el caso de los LLM, esto aún está en sus primeras etapas y, de hecho, es bastante difícil determinar su calidad. Porque no se trata de un clasificador donde el rendimiento de un modelo esté claramente definido. Con un LLM, es casi como evaluar la inteligencia de un humano. ¿Verdad? <Sonal: ¡mhm!> Encontrar la forma correcta de evaluar la inteligencia de un LLM como #chatgpt es un área de investigación abierta. Pero con el tiempo, creo que mejorará cada vez más. [2] Y la otra tendencia es que cada vez somos más capaces de explicar cómo funciona un modelo. Y con ambas cosas, en algún momento, podría ser posible comprender el efecto que un conjunto de datos tiene en el rendimiento de un modelo de aprendizaje automático. <Sonal: sí> Y si podemos comprender bien si un conjunto de datos aportado por un tercero ayudó o no al rendimiento del modelo de aprendizaje automático, entonces podemos recompensar esa contribución y crear el incentivo para que exista ese mercado. Sonal: Entonces, para resumir hasta ahora, lo que les escuché decir es que… Existe hardware confiable que puede ayudar a verificar la precisión de los datos y los modelos que se aportan;Ali, mencionaste brevemente las métricas de reputación y ese tipo de cosas pueden ayudar;También mencionaste que podría haber una manera (no necesariamente ahora, pero en algún momento en el futuro cercano) de verificar cómo los datos influyen en los resultados de un modelo en particular para que realmente puedas... no es del todo explicable, pero la idea es que realmente puedas atribuir que este conjunto de datos causó este efecto particular. Así que hay una variedad de técnicas diferentes que habéis compartido hasta ahora. Ali: Bueno, lo último es que podrías hacer lo mismo para el tercer aspecto, que son los modelos. Imagina crear un mercado abierto para que las personas aporten un modelo entrenado capaz de resolver un problema específico. Imagina crear en Ethereum un contrato inteligente que integre algún tipo de prueba, ya sea una prueba cognitiva que un LLM pueda resolver o una prueba de clasificación que un clasificador de aprendizaje automático (AAP) pueda resolver. Y si se utiliza ZKML, alguien podría proporcionar un modelo junto con una prueba de que ese modelo puede resolver esa prueba; entonces, nuevamente, usted tiene las herramientas que necesita para crear un mercado que incentive a las personas a contribuir con modelos de aprendizaje automático que puedan resolver ciertos problemas. Muchos de los problemas que hemos discutido, los problemas pendientes que hemos discutido, sobre cómo lograrlo también están presentes aquí... En particular, hay una parte de ZKML donde se debe poder demostrar que el modelo realmente realiza el trabajo que afirma realizar. Además, necesitamos tener buenas pruebas para evaluar la calidad de un modelo. Así que poder integrar una prueba dentro de un contrato inteligente para luego someter un modelo de aprendizaje automático a una evaluación de su calidad. Esta es otra parte muy emergente de toda esta tendencia tecnológica. Pero en teoría, sería fantástico si finalmente llegáramos a un mundo donde tuviéramos estos mercados muy abiertos, de abajo hacia arriba y transparentes que permitan a las personas contribuir y obtener modelos de computación, datos y aprendizaje automático para el aprendizaje automático, que esencialmente actúen nuevamente como un contrapeso a las enormes y muy centralizadas empresas tecnológicas que impulsan todo el trabajo de IA en la actualidad. Sonal: Me encanta cómo lo mencionaste, Ali, porque ha sido un problema de larga data en la IA en la práctica: puede resolver muchos problemas, como la curva de campana, la parte media de la norma, pero no los extremos. Un ejemplo clásico de esto son los coches autónomos. Se puede hacer todo con ciertos comportamientos estándar, pero son los casos extremos donde pueden ocurrir los verdaderos accidentes y las catástrofes. <Ali: Cierto> Eso fue muy útil. Sé que hablaste sobre la alineación de incentivos y los incentivos para proporcionar datos precisos y de calidad, e incluso incentivos para contribuir con cualquier dato en general. Pero hablando de la cola larga, me surgió una pregunta rápida mientras hablabas. Esto me lleva a preguntarme quién gana dinero y dónde en este sistema. No pude evitar preguntarme, ¿cómo influye entonces el modelo de negocio en la rentabilidad de las empresas? Siempre he entendido que, en la cola larga de la IA (en un mundo con este tipo de conjuntos de datos disponibles), tus datos propietarios son, en realidad, tu conocimiento único del dominio, algo que solo tú conoces en esa cola larga. ¿Tienes alguna respuesta rápida? Ali: Creo que la visión tras la intersección de las criptomonedas con la IA es que se podría crear un conjunto de protocolos que distribuyan el valor que eventualmente capturará esta nueva tecnología, la IA, entre un grupo mucho más amplio de personas. Esencialmente, una comunidad de personas, todas las cuales pueden contribuir y participar de las ventajas de esta nueva tecnología. <Sonal: mhm> Entonces, las personas que ganarían dinero serían las que contribuyen con el procesamiento, o las que contribuyen con datos, o las que contribuyen con nuevos modelos de aprendizaje automático a la red, de modo que se puedan entrenar mejores modelos de aprendizaje automático y se puedan resolver problemas mejores, más grandes y más importantes. Las otras personas que generarían ingresos al mismo tiempo son quienes, por otro lado, están en el lado de la demanda de esta red: quienes la utilizan como infraestructura para entrenar sus propios modelos de aprendizaje automático. <Sonal: sí> Quizás su modelo genere algo interesante en el mundo, tal vez sea como la próxima generación de ChatGPT. Y luego eso se abra camino hacia diversas aplicaciones, como aplicaciones empresariales o cualquier otro uso que se les dé a esos modelos, y esos modelos impulsan la captura de valor por sí mismos, porque esas empresas tendrán su propio modelo de negocio. Finalmente, quienes también podrían generar ingresos son quienes construyen esta red. Por ejemplo: se crea un token para la red; este token se distribuirá a la comunidad; y todas esas personas tendrán propiedad colectiva sobre esta red descentralizada para datos y modelos computacionales que también podrían capturar parte del valor de toda la actividad económica que pasa por esta red. Así que, como pueden imaginar, cualquier pago por computación, datos o modelos <mhm> podría tener una comisión. Esta podría ir directamente a una tesorería controlada por esta red descentralizada, de la que todos los poseedores de tokens que forman parte tienen propiedad y acceso colectivos (como creadores y propietarios del mercado). Y esa tarifa podría ir directamente a la red. Así que, imagínense que cada transacción que pasa por esta red, cada forma de pago que paga por computación, datos o modelos, podría tener una tarifa que se le imponga y que vaya a una tesorería controlada por toda la red y por los poseedores de tokens que la poseen colectivamente. De modo que ese es esencialmente un modelo de negocio para la red en sí. Sonal: ¡Genial! Bien. Hasta ahora hemos hablado mucho sobre cómo las criptomonedas pueden ayudar a la IA. Para ser claros, no es unidireccional; estas cosas se refuerzan, son bidireccionales y más interactivas que unidireccionales. Pero, para el propósito de esta discusión, realmente estamos hablando de cómo las criptomonedas pueden ayudar a la IA; ahora vamos a darle la vuelta y hablar un poco más sobre las formas en que la IA puede ayudar a las criptomonedas. Dan: Sí, entonces hay un par de puntos de contacto interesantes allí. Un tema que realmente vale la pena mencionar es la idea de los modelos de aprendizaje automático que se utilizan para generar código. Muchos oyentes probablemente hayan oído hablar de Copilot, una herramienta que se utiliza para generar código. Y lo interesante es que se pueden intentar usar estas herramientas de generación de código para escribir contratos de Solidity o código criptográfico. Y quiero recalcar que esto es realmente algo muy peligroso de hacer. Sonal: ¡Ay! ¡No hagas esto en casa! ¡Vale! <risas> Dan: Sí. Sí. No intentes esto en casa. Porque lo que ocurre es que muy a menudo estos sistemas realmente generan código que funciona, ya sabe, cuando intenta ejecutarlo (y, como sabe, el cifrado es lo opuesto al descifrado, etc.), por lo que el código realmente funcionará, pero en realidad será inseguro. De hecho, hemos escrito un artículo sobre esto recientemente que muestra que si intentas que Copilot escriba algo tan simple como una función de cifrado, te dará algo que realiza el cifrado correctamente, pero utiliza un modo de operación incorrecto, por lo que terminarás con un modo de cifrado inseguro. De manera similar, si intentas generar código Solidity, podrías terminar con un código Solidity que funcione, pero tendrá vulnerabilidades. Quizás te preguntes, ¿por qué sucede esto? Una de las razones es que estos modelos se entrenan básicamente con código disponible, en repositorios de GitHub. Bueno, muchos de los repositorios de GitHub son vulnerables a todo tipo de ataques. Así que estos modelos aprenden sobre código que funciona, pero no sobre código seguro; es como si entrara basura, saliera basura, ¿no? <Sonal: ¡Mmm!> Así que quiero asegurarme de que las personas sean muy, muy cuidadosas, cuando usen estos modelos generativos para generar código, que verifiquen con mucho cuidado que el código realmente haga lo que se supone que debe hacer y que lo haga de manera segura. Ali: Una idea en ese frente (tengo curiosidad por saber lo que piensas al respecto) es que puedes usar modelos de IA como LLM (algo así como ChatGPT) para generar código, junto con otras herramientas para intentar hacer que el proceso sea menos propenso a errores. Y un ejemplo, una idea <oh> sería usar un LLM para generar una especificación para un sistema de verificación formal: Básicamente, describes tu programa en inglés; y le pides al LLM que genere una especificación para una herramienta de verificación formal; luego le pides a la misma instancia del LLM que genere el programa que cumple con esa especificación. <mm!> Y luego usas una herramienta de verificación formal para ver si el programa realmente cumple con la especificación. Si hay errores, la herramienta los detectará; estos errores pueden utilizarse como retroalimentación para el LLM. Idealmente, el LLM podrá revisar su trabajo y producir una nueva versión del código correcta. Y, finalmente, si se repite esto una y otra vez, se obtendrá un fragmento de código que, idealmente, cumple plenamente con la especificación y está formalmente verificado. Y como la especificación puede ser legible por un humano, puedes revisarla y ver que sí, este es el programa que quería escribir. Y esa puede ser una excelente manera de usar LLM para escribir código que, además, no sea tan propenso a errores como lo sería si simplemente le pidieras a ChatGPT que generara un contrato inteligente. Sonal: ¡Qué inteligente! Dan: Sí, esto es genial y, de hecho, nos lleva a otro tema que vale la pena discutir, que es básicamente el uso de LLM para encontrar errores. Supongamos que un programador escribe código en Solidity y ahora quiere comprobar si ese código es correcto y seguro. Como dijo Ali, puede usar el LLM para encontrar vulnerabilidades en ese código. Se ha trabajado mucho para evaluar la eficacia de los LLM para detectar errores en software, en los contratos inteligentes de Solidity y en C y C++. Hay un artículo que salió recientemente que es realmente muy relevante: es un artículo de la Universidad de Manchester <Sonal: mhm>, que dice que ejecutarías una herramienta de análisis estático estándar para encontrar errores en tu código; y encontraría todo tipo de errores de gestión de memoria o errores potenciales; solo una herramienta de análisis estático estándar; sin aprendizaje automático alguno. Pero entonces usarías un LLM para intentar corregir el código. ¿Sí? <Sonal: mm> <Ali: exactamente> Así que propone una solución al error automáticamente. Y luego volverías a ejecutar el analizador estático en el código corregido, <Ali: sí> y el analizador estático diría: «Oh, el error sigue ahí o no está ahí». Y seguirías iterando hasta que el analizador estático diga: «Sí, ahora el error se ha corregido y no hay más problemas». Así que fue un artículo bastante interesante; este artículo literalmente salió hace dos semanas. Sonal: Entonces, para ambos artículos que acabas de mencionar, Dan, el de la Universidad de Manchester y también el que escribieron recientemente sobre que no se confía en que los LLM escriban código correcto (podría ser código funcional, pero no necesariamente seguro), vincularé esos artículos en las notas del programa <Dan: genial> para que los oyentes puedan encontrarlos. Solo una pregunta rápida antes de continuar… En cuanto a la situación actual, ¿es una situación temporal o crees que llegará el momento en que se pueda confiar en que los LLM escriban código de contratos inteligentes correcto, no solo funcional, sino seguro ? ¿Es posible o está muy lejos? Dan: Esa es una pregunta difícil de responder. Sabes que estos modelos mejoran muchísimo cada semana, ¿verdad? <Sonal: Sí> Así que es posible que para el año que viene estos problemas ya estén solucionados y que se pueda confiar en ellos para escribir código más seguro. Supongo que lo que estamos diciendo ahora mismo es que, si se usan los modelos actuales (GPT-4, GPT-3, etc.) para generar código, hay que ser muy cuidadoso y verificar que el código que escribieron realmente cumpla su función y sea seguro. Sonal: Entendido. Ali: Y, por cierto, ¿llegaremos a un punto en el que el código generado por los LLM tenga menos probabilidades de contener errores que el generado por un humano? <Sonal: ¡Sí!> Y quizás esa sea una pregunta más importante, ¿no? Porque de la misma manera que nunca puedes decir que un coche autónomo nunca se estrellará, la verdadera pregunta que realmente importa es: ¿es menos probable que se estrelle que si fuera un conductor humano? <Sonal: Eso es exactamente correcto> Porque la verdad es que probablemente sea imposible garantizar que nunca habrá un accidente automovilístico causado por un coche autónomo, o que nunca habrá un error <Sonal: cierto> generado por un LLM al que le has pedido que escriba algún código. Y creo que, dicho sea de paso, esto se volverá cada vez más potente cuanto más se integre en las cadenas de herramientas existentes. Como ya comentamos, se puede integrar en cadenas de herramientas de verificación formal. Se puede integrar en otras herramientas, como la que describió Dan, que detecta problemas de gestión de memoria. También se puede integrar en cadenas de herramientas de pruebas unitarias y de integración. De esta manera, el LLM no actúa de forma aislada: recibe retroalimentación en tiempo real de otras herramientas que lo conectan con la realidad. Y creo que a través de la combinación de modelos de aprendizaje automático que son extremadamente grandes, entrenados con todos los datos del mundo, combinados con estas otras herramientas, en realidad podría crear programadores que sean bastante superiores a los programadores humanos. <mhm> E incluso si todavía pudieran cometer errores, podrían ser sobrehumanos. Y ese será un gran momento para el mundo de la ingeniería de software en general. Sonal: Sí. Qué buen encuadre, Ali… Entonces, ¿cuáles son algunas de las otras tendencias que se avecinan y en las que la IA puede ayudar a las criptomonedas, y viceversa? Ali: Sí… Una posibilidad emocionante en este espacio es que podamos construir redes sociales descentralizadas que en realidad se comporten de forma muy similar a Twitter, pero donde el gráfico social esté completamente en cadena y sea casi como un bien público sobre el cual cualquiera pueda construir. Como usuario, controlas tu propia identidad en el gráfico social. Controlas tus datos, a quién sigues y quién puede seguirte. Existe todo un ecosistema de empresas que crean portales en el gráfico social que ofrecen a los usuarios experiencias similares a las de Twitter, Instagram, TikTok o cualquier otra plataforma que deseen desarrollar. Pero todo esto está encima de este mismo gráfico social <Sonal: yah> que nadie posee y que no hay ninguna empresa tecnológica de mil millones de dólares en el medio que tenga control total sobre él y que pueda decidir lo que sucede en él. Y ese mundo es emocionante porque significa que puede ser mucho más dinámico; puede existir todo un ecosistema de personas creando cosas y cada usuario tiene mucho más control sobre lo que ve y lo que puede hacer en la plataforma. Pero también existe la necesidad de filtrar la señal del ruido. Y, por ejemplo, la necesidad de crear algoritmos de recomendación sensatos que filtren todo el contenido y te muestren el canal de noticias que realmente quieres ver. Esto abrirá la puerta a todo un mercado, un entorno competitivo, de participantes que te proporcionarán algoritmos basados ​​en IA que seleccionan contenido para ti. Como usuario, podrías tener una opción: puedes optar por un algoritmo en particular, tal vez el desarrollado por Twitter, o por uno desarrollado por alguien completamente diferente. Y ese tipo de autonomía será genial, pero, de nuevo, vas a necesitar herramientas como el aprendizaje automático y la IA para ayudarte a filtrar el ruido y analizar todo el spam que inevitablemente existirá en un mundo donde los modelos generativos pueden crear todo el spam del mundo. Sonal: Lo interesante de lo que dijiste también es que ni siquiera se trata de elegir entre... Se remonta a esta idea que mencionaste antes, y mencionaste esto brevemente sobre simplemente dar a los usuarios las opciones para elegir entre mercados de ideas y enfoques gratuitos que puedan decidir... Pero también es interesante porque no se trata solo de empresas, sino de qué enfoque te funciona. Quizás te interese más el algoritmo de filtrado colaborativo que existía en los sistemas de recomendación originales, que funciona como un filtrado colaborativo entre personas. <Ali: sí> Así que las recomendaciones de tus amigos son lo que sigues. De hecho, personalmente soy muy diferente y estoy mucho más interesado en un gráfico de intereses; y por lo tanto, podría estar mucho más interesado en personas que tienen intereses similares a los míos, y podría elegir ese enfoque en lugar de, digamos, algo más que sea algo así como, oye, este es un enfoque híbrido, lo único que va a hacer es XY y Z. El simple hecho de poder elegir ya es tremendamente empoderador. Eso simplemente no es posible ahora mismo. Y solo es posible con las criptomonedas y la IA. Así que ese es un gran ejemplo. <¡Ah, sí!> ¿Había algo más que decir sobre cómo la IA puede ayudar con la confianza y la seguridad? Ali: Creo que esa metaimagen es que las criptomonedas son el Salvaje Oeste. Como no requieren permisos, cualquiera puede participar; hay que asumir que quien participe podría ser un adversario <sí> y tal vez intentar manipular el sistema, hackearlo o hacer algo malicioso. Por eso, existe una necesidad mucho mayor de herramientas que ayuden a filtrar a los participantes honestos de los deshonestos, y el aprendizaje automático y la IA, como herramientas de inteligencia, pueden ser realmente muy útiles en ese frente. Por ejemplo, existe un proyecto llamado Stelo, que utiliza aprendizaje automático para identificar transacciones sospechosas enviadas a una billetera y las marca para el usuario antes de que se envíen a la cadena de bloques. Esto podría ser una buena manera de evitar que el usuario envíe accidentalmente todos sus fondos a un atacante o haga algo de lo que luego se arrepienta. <mhm> Y esa empresa básicamente vende a billeteras (a empresas como Metamask) para que Metamask pueda usar la información y hacer lo que quiera con ella: bloquear la transacción, advertir al usuario o, en cierto modo, replantear la transacción para que deje de ser peligrosa. Ese es un ejemplo. También hay otros ejemplos en el contexto de MEV (valor mínimo extraíble, <Sonal: sí>) o valor máximo extraíble, según a quién le preguntes, que es el valor que pueden extraer quienes controlan el orden de las transacciones en una cadena de bloques. Estos suelen ser los mineros o validadores de una cadena de bloques. Y la IA, en este caso, puede ser un arma de doble filo, ya que si eres un validador en una blockchain y controlas la ordenación de las transacciones, puedes implementar todo tipo de estrategias inteligentes para ordenarlas de forma que te beneficies. Por ejemplo, puedes adelantar transacciones, retrasar transacciones e intercalar órdenes en Uniswap. Hay muchísimas transacciones que puedes crear para aprovechar esta capacidad de ordenar transacciones. El aprendizaje automático y la IA podrían potenciar esa capacidad, ya que pueden buscar oportunidades para capturar cada vez más MEV. Por otro lado, el aprendizaje automático puede ser útil también como herramienta defensiva. Antes de enviar una transacción, es posible que sepas que existe un MEV que podría extraerse de ella. Por lo tanto, podrías dividirla en varias para que ningún validador pueda controlarla por completo, o tomar medidas para protegerte de un extractor de MEV en algún punto del proceso de la transacción. Así que este es un aspecto en el que las criptomonedas juegan un papel importante cuando se trata de seguridad, cuando se trata de confianza, cuando se trata de hacer que el espacio sea más confiable para el usuario final. Sonal: Ese es un ejemplo de cómo la IA dificulta las cosas en el ámbito de las criptomonedas, y luego las criptomonedas regresan y mejoran las cosas para... <se ríe>. Dan: De hecho, tengo otro ejemplo parecido. <Sonal: ¡Sí!> Así como los modelos de aprendizaje automático pueden usarse para detectar datos falsos o quizás actividad maliciosa, <mm>, existe la otra cara de la moneda: los modelos de aprendizaje automático pueden usarse para generar datos falsos. <Sonal: Sí> El ejemplo clásico son las falsificaciones profundas, ¿verdad? Se puede crear un video de alguien diciendo cosas que nunca dijo, y ese video parece bastante realista. Y lo interesante es que las cadenas de bloques pueden ayudar a solucionar el problema. Permítanme explicarles un posible enfoque en el que las cadenas de bloques podrían ser útiles: Imagina que es una solución que solo podría aplicarse a figuras conocidas como políticos o estrellas de cine, etc. <Sonal: mhm>. Pero imagina que un político llevara una cámara en el pecho y grabara lo que hace todo el día <Sonal: sí>, y luego creara un árbol de Merkle a partir de esa grabación y enviara los compromisos del árbol de Merkle a la cadena de bloques. <mhm> Ahora, en la cadena de bloques, hay una marca de tiempo que indica que, en esta y esta fecha, dijiste esto y aquello; en esta y aquella fecha, dijiste esto y aquello. Y si alguien crea un video ultrafalso de este político diciendo cosas que nunca dijo, el político puede decir: «Mira, en ese momento, cuando el video decía que dije esto y aquello, en realidad estaba en un lugar completamente diferente, haciendo algo sin relación». Y el hecho de que todos estos datos, los datos reales, los datos auténticos, se registren en una cadena de bloques puede usarse para demostrar que la falsificación profunda es realmente falsa y no datos reales. ¿Sí? Así que esto no es algo que exista todavía. <Sonal: sí> Sería divertido que alguien construyera algo así, pero pensé que es un ejemplo interesante de cómo las cadenas de bloques podrían ser realmente útiles <Sonal: sí> para combatir las falsificaciones profundas. Sonal: ¿Hay también una manera de resolver ese problema y mostrar otras marcas de tiempo o procedencia, donde se pueda hacer ese tipo de verificación de lo que es verdad/lo que no es verdad sin tener que hacer que un político ande por ahí con una cámara <Dan se ríe> en el pecho? Dan: Sí, por supuesto. También podemos confiar en hardware confiable para esto; <mhm> Así que imagina, ya sabes, nuestras cámaras, las cámaras de nuestros teléfonos y demás, que realmente firmarían las imágenes y los videos que toman. <Sonal: sí>. Hay un estándar, llamado C2PA, que especifica cómo las cámaras firmarán los datos; de hecho, hay una cámara de Sony que ahora toma fotografías y videos y luego produce firmas C2PA en esos videos... Así que ahora básicamente tienes datos auténticos; en realidad puedes probar que los datos realmente provienen de una cámara C2PA. Y ahora Sonal, si tal vez lees un artículo de periódico, y hay una imagen en el artículo, y dice ser de un lugar, pero de hecho está tomada de un lugar diferente; la firma en realidad podría verificarse con el hecho de que está firmada por C2PA. Hay muchos matices allí, C2PA es un tema bastante complicado, <mhm> hay muchos matices que discutir y tal vez no los tratemos aquí; Sonal: Dan, recuerdo que hablaste de este trabajo conmigo antes (creo que fue en nuestra oficina); pero también recuerdo que no resiste la edición. Y como sabes, los editores como yo y otros creadores de contenido, y sinceramente, casi cualquiera (que use Instagram o cualquier publicación en línea)… nadie sube nada exactamente igual a como fue creado originalmente… Dan: Sí , normalmente, cuando los periódicos publican fotos, no publican la imagen de la cámara tal cual, sino que la recortan. Hay un par de cosas autorizadas que pueden hacer con las fotos: quizás aplicarles escala de grises; definitivamente, reducir la resolución (para no consumir mucho ancho de banda). En el momento en que empiezas a editar la imagen, el destinatario (el lector final, el usuario del navegador que lee el artículo) ya no puede verificar la firma C2PA. Porque no tiene la imagen original. <Sonal: ¡Cierto!> Entonces, la pregunta es: ¿cómo permites que el usuario verifique que la imagen que está viendo realmente está firmada correctamente por una cámara C2PA? Bueno, como siempre, aquí es donde entran en juego las técnicas de conocimiento cero <Sonal: ¡mmm!>: donde se puede demostrar que la imagen editada es en realidad el resultado de aplicar solo reducción de resolución y escala de grises a una imagen más grande correctamente firmada. ¿Sí? Así que, en lugar de una firma C2PA, tendríamos una prueba ZK (una prueba ZK corta) asociada a cada una de estas imágenes. Y ahora los lectores pueden verificar <mhm> que están viendo imágenes auténticas. Así que es muy interesante que las técnicas ZK se puedan usar para combatir la desinformación. Es una aplicación un tanto inesperada. Sonal: Eso es fantástico. Ali: Por cierto, un problema muy relacionado es demostrar que eres humano <Sonal: mhm> en un mundo donde las falsificaciones profundas que crean la apariencia de humanidad generalmente superan en número a los humanos en una proporción de mil a uno o de un millón a uno. Y la mayoría de las cosas en internet podrían estar generadas por IA. Una posible solución, relacionada con lo que dices, es usar la biometría para determinar si alguien es humano. Pero luego usar pruebas de conocimiento cero para proteger la privacidad de quienes usan esa biometría para demostrar su humanidad. Un proyecto en esta categoría se llama WorldCoin <Sonal: sí>, también es un proyecto de nuestra cartera, y utiliza este orbe; la gente puede haberlo visto como un orbe plateado brillante, que utiliza escaneos de retina como información biométrica para verificar que eres un ser humano real; y también tiene todo tipo de sensores para garantizar que estás vivo y que no puede ser la imagen de un ojo. Este sistema tiene hardware seguro y es muy difícil de manipular. De tal manera que la prueba resultante, una prueba de conocimiento cero que oculta la información biométrica real, es extremadamente difícil de falsificar. De esta manera, los políticos podrían, por ejemplo, <Sonal: mhm> demostrar que su transmisión de video, su firma o su participación en un foro en línea son realmente suyas y que son humanos. Sonal: Lo que es realmente interesante sobre lo que dijiste, Ali, es que es una gran continuación de lo que Dan estaba diciendo sobre las formas de verificar los medios auténticos frente a los medios falsos o ultrafalsos, y este mundo de medios infinitos (como dirías) en el que vivimos... Pero ¿cuáles son las otras aplicaciones de tecnologías de prueba de personalidad como esta? Creo que es importante, porque este es otro ejemplo de cómo la criptografía también puede ayudar a la IA de forma más amplia. Volviendo atrás... estamos yendo y viniendo, <Ali: sí>, pero no importa porque solo estamos hablando de aplicaciones realmente interesantes, y punto. Ali: Bueno, esa es una muy buena pregunta… Una de las cosas que cobrará importancia en un mundo donde cualquiera pueda participar en línea es poder demostrar que eres humano, para diversos fines. Existe ese famoso dicho de los 90 que dice: «En internet, nadie sabe que eres un perro». <Sonal: ¡Ah, sí!> Y creo que una versión reinterpretada de ese dicho es que en internet, nadie sabe que eres un bot. <Sonal: ¿Ajá?> Y entonces supongo que aquí es precisamente donde los proyectos de prueba de humanidad cobran gran importancia <Sonal: ¡Sí!>, porque será importante saber si estás interactuando con un bot o con un humano… Por ejemplo, en el mundo de las criptomonedas, existe toda una cuestión de gobernanza: ¿Cómo se gobiernan sistemas descentralizados, sin un único punto de control, de abajo a arriba y de propiedad comunitaria? Se necesitaría algún tipo de sistema de gobernanza que permita controlar la evolución de esos sistemas. Y el problema hoy es que si no tienes pruebas de humanidad, entonces no puedes saber si una dirección pertenece a un solo humano; o si pertenece a un grupo de humanos; o si 10.000 direcciones en realidad pertenecen a un solo humano y están pretendiendo ser 10.000 personas diferentes. Así que hoy en día, en realidad, es necesario usar la cantidad de dinero como indicador del poder de voto, lo que conduce a una gobernanza plutocrática. <Sonal: Sí, exactamente> Pero si cada participante en un sistema de gobernanza pudiera demostrar que es humano, y pudiera hacerlo de forma única (de modo que no pudiera fingir ser más de un humano porque solo tiene un par de ojos), entonces el sistema de gobernanza sería mucho más justo y menos plutocrático, y podría basarse más en las preferencias de cada individuo, en lugar de en la preferencia de la mayor cantidad de dinero bloqueada en un contrato inteligente. Dan: En realidad, sólo para dar un ejemplo de eso… Hoy en día, nos vemos obligados a usar "una ficha, un voto" porque no tenemos pruebas de humanidad. Quizás nos gustaría usar un humano, un voto, pero si podemos fingir ser cinco humanos, claro que no funciona. Un ejemplo de esto es el llamado voto cuadrático. <Sonal: sí> En la votación cuadrática, si quieres votar cinco veces por algo, tienes que, por así decirlo, depositar 25 fichas. Pero, claro, puedes hacer lo mismo: fingir ser cinco personas diferentes votando una vez, lo que frustraría el mecanismo de la votación cuadrática. La única forma de evitarlo es esta prueba de humanidad: para votar, debes demostrar que eres una sola entidad y no una sibila de entidades. Y ahí es precisamente donde la prueba de humanidad desempeñaría un papel importante. En general, la identidad en cadena se está volviendo cada vez más importante para la gobernanza. Sonal: Totalmente... Por cierto, eso me recordó un episodio que hicimos hace años, Ali, con Phil Daian. <Ali: Ah, sí> ¿Te acuerdas, sobre "Dark DAOs"? <Ali: Sí... exactamente> Fue una conversación muy interesante. Totalmente relevante. Ali: Totalmente. Sonal: Por cierto, ¿la frase es «prueba de personalidad» o «prueba de humanidad»? ¿Cuál es la diferencia? ¿Es lo mismo? Ali: Ah, sí, la gente los usa indistintamente: prueba de ser humano, prueba de humanidad, prueba de personalidad. Sonal: Sí, sí. Bien, entonces sigamos con este tema de los medios, y este tipo de "abundancia infinita" de medios, como ¿cuáles son otros ejemplos? - y de nuevo, estamos hablando de las criptomonedas ayudando a la IA, la IA ayudando a las criptomonedas <Ali: yah> - ¿hay otros ejemplos que no hayamos cubierto aquí donde la intersección de las criptomonedas y la IA pueda generar cosas que no son posibles con ninguna de ellas sola? Ali: Totalmente. O sea, otra implicación de estos modelos generativos es que viviremos en un mundo de abundancia infinita de medios. Y en ese mundo, aspectos como la comunidad en torno a un medio en particular, o la narrativa en torno a un medio en particular, cobrarán cada vez mayor importancia. Para ser más concretos, aquí hay dos buenos ejemplos: Sound.xyz está desarrollando una plataforma de streaming de música descentralizada que permite a los artistas (músicos, en esencia) subir música y conectar directamente con sus comunidades mediante la venta de NFT que otorgan ciertos privilegios a sus miembros. Por ejemplo, la posibilidad de publicar un comentario en la canción en el sitio web de Sound.xyz, para que cualquier otra persona que la reproduzca también pueda verlo. (Esto es similar a la antigua función de SoundCloud que quizás recuerden, donde se podía tener una experiencia social completa en la música mientras se reproducía en el sitio web). Se trata de esta capacidad que permite a las personas interactuar con los medios y entre sí, a menudo de forma económica, ya que básicamente compran este NFT del artista para poder hacerlo. Y, como consecuencia, apoyan al artista y le ayudan a ser sostenible y a crear más música. Pero lo mejor de todo esto es que ofrece a los artistas un foro para interactuar con su comunidad. Y el artista es un artista humano. Y gracias a la participación de las criptomonedas, se puede crear una comunidad en torno a una pieza musical —que no existiría automáticamente en torno a una pieza musical— creada mediante un modelo de aprendizaje automático sin ningún elemento humano, sin una comunidad a su alrededor. Así que pienso de nuevo, en un mundo donde gran parte de la música a la que estaremos expuestos será generada íntegramente por IA, las herramientas para construir comunidad y contar una historia en torno al arte, la música y otros medios serán muy importantes para distinguir los medios que realmente nos importan y en los que queremos invertir y dedicar tiempo, de los medios que, aunque también sean muy buenos, son simplemente un tipo diferente. Son medios generados por IA con menos componente humano. <sí> Y, por cierto, puede que exista cierta sinergia entre ambos: Podría ser que gran parte de la música esté optimizada o generada por IA. Pero si además hay un componente humano —por ejemplo, si un creador utiliza herramientas de IA para crear una nueva pieza musical—, pero además tiene personalidad en Sound, una página de artista, ha creado una comunidad y tiene seguidores, entonces se crea una especie de sinergia entre ambos mundos. <sí> Donde ambos tienen la mejor música, potenciada por los superpoderes que les otorga la IA; pero también tienen un componente humano y una historia, coordinada y realizada por este aspecto criptográfico (que permite reunir a todas esas personas en una sola plataforma). Dan: Es realmente asombroso que incluso en el mundo de la música —tal como hablamos en el mundo de la programación, donde un programador humano se ve mejorado con herramientas como Copilot que generan código— estemos viendo cosas como esta: un artista se ve mejorado por sistemas de aprendizaje automático que ayudan a escribir (o al menos, parte de la música se escribe y genera mediante un sistema de aprendizaje automático). Así que, sin duda, nos estamos adentrando en un nuevo mundo en términos de generación de contenido. Básicamente, habrá mucho spam generado por arte generado por máquinas, que la gente podría no valorar tanto como el arte generado por un ser humano. Quizás otra forma de decirlo es que uno de los objetivos de los NFT era apoyar a los artistas. <Sonal: sí> Pero si los propios artistas ahora son modelos de aprendizaje automático, ¿a quién exactamente apoyamos? <risas> <Sonal: sí… sí> Entonces, la cuestión es cómo distinguimos, cómo diferenciamos el arte generado por humanos que necesita apoyo <Sonal: Sí> del arte generado por máquinas. Sonal: Bueno, esta es una discusión filosófica para tomar algo, pero me atrevería a decir que quien apunta también es un artista, en cierto modo. <Ali: sí> Y, de hecho, yo diría que esa persona es un artista. Y lo mismo ha ocurrido con… ya que esta es una discusión y un debate tan antiguo como el tiempo: simplemente se trata de nuevas tecnologías, viejos comportamientos. Es lo mismo que ha estado ocurriendo durante siglos. Y lo mismo ocurre con la escritura, etc., totalmente. Dan: Muy cierto. Ali: Bueno, eso en realidad abre la puerta al arte colectivo <Sonal: mhm>, al arte que se genera a través del proceso creativo de toda una comunidad, en lugar de un solo artista; De hecho, ya hay proyectos que hacen esto, donde: tienes un proceso mediante el cual una comunidad influye a través de algún proceso de votación en cadena sobre cuál será el mensaje para un modelo de aprendizaje automático como DALL-E. <mhm> Luego, DALL-E usa ese mensaje para generar una obra de arte (quizás generes no 1 obra de arte, sino 10 000) y luego usas otro modelo de aprendizaje automático, que también está entrenado a partir de los comentarios de la comunidad, para elegir entre esos 10 000 el mejor. Bien, ahora tienes una obra de arte generada a partir de las aportaciones de la comunidad; también se podó y se seleccionó de un conjunto de 10 000 variantes de esa obra de arte (sí, sí), también mediante un modelo de aprendizaje automático entrenado por la comunidad, para luego generar una obra de arte. Es, en cierto modo, el resultado de esta colaboración colectiva. Eso es increíble. Sonal: Me encanta. Bueno, chicos, es una gran nota para terminar; gracias a ambos por compartir todo eso con los oyentes de "web3 con a16z". Dan: Gracias Sonal. Ali: Muchas gracias. Las opiniones expresadas aquí son las del personal de AH Capital Management, LLC (“a16z”) citado y no las de a16z ni de sus filiales. Parte de la información aquí contenida se ha obtenido de fuentes externas, incluyendo empresas de cartera de fondos gestionados por a16z. Si bien proviene de fuentes consideradas fiables, a16z no ha verificado dicha información de forma independiente y no garantiza su exactitud permanente ni su idoneidad para una situación concreta. Además, este contenido puede incluir publicidad de terceros; a16z no ha revisado dicha publicidad y no la avala. Este contenido se proporciona únicamente con fines informativos y no debe considerarse asesoramiento legal, comercial, de inversión ni fiscal. Consulte con sus asesores sobre estos asuntos. Las referencias a valores o activos digitales son solo ilustrativas y no constituyen una recomendación de inversión ni una oferta de servicios de asesoramiento en materia de inversión. Asimismo, este contenido no está dirigido a inversores ni a posibles inversores, y en ningún caso debe utilizarse como base para tomar la decisión de invertir en un fondo gestionado por a16z. (Una oferta de inversión en un fondo de a16z se realizará únicamente mediante el memorando de colocación privada, el acuerdo de suscripción y demás documentación pertinente de dicho fondo, y debe leerse en su totalidad). Las inversiones o empresas de cartera mencionadas, referidas o descritas no representan todas las inversiones en vehículos gestionados por a16z, y no se puede garantizar que las inversiones sean rentables ni que otras inversiones futuras tengan características o resultados similares. Una lista de inversiones realizadas por fondos administrados por Andreessen Horowitz (excluidas las inversiones para las cuales el emisor no ha otorgado permiso a a16z para divulgarlas públicamente, así como las inversiones no anunciadas en activos digitales que cotizan en bolsa) #BİNANCESQUARE $BTC {spot}(BTCUSDT)

TRANSCRIPCIÓN #CRYPTO

El nuevo episodio de esta semana aborda la convergencia de dos tendencias importantes y de gran actualidad: la IA (inteligencia artificial) y las cadenas de bloques/criptomonedas. Estos dominios, en conjunto, tienen importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es ideal para quienes tengan curiosidad o ya estén desarrollando este sector. La conversación abarca temas que van desde las deepfakes, los bots y la necesidad de una prueba de humanidad en un mundo de IA; hasta el big data, los grandes modelos de lenguaje como ChatGPT, el control de usuarios, la gobernanza, la privacidad y la seguridad, el conocimiento cero y zkML; hasta MEV, los medios de comunicación, el arte y mucho más.
Nuestros invitados expertos, en conversación con la anfitriona Sonal Chokshi, incluyen:
Dan Boneh , profesor de Stanford (y asesor principal de investigación en a16z crypto), un criptógrafo que ha estado trabajando en cadenas de bloques durante más de una década y que se especializa en criptografía, seguridad informática y aprendizaje automático, todos los cuales se cruzan en este episodio;Ali Yahya , socio general de a16z crypto, quien también trabajó anteriormente en Google, donde no solo trabajó en un sistema distribuido para una flota de robots (una especie de "aprendizaje de refuerzo colectivo") sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow construida en Google.
La primera mitad de la conversación informal entre Ali y Dan (quienes se conocen como estudiantes y profesores en Stanford) gira en torno a cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad, a cómo las criptomonedas podrían beneficiarse de la IA... El hilo conductor es la tensión entre centralización y descentralización. Así, también analizamos cómo la intersección de las criptomonedas y la IA puede generar resultados que ninguna de las dos sería posible por sí sola...
Piezas referenciadas en este episodio/lectura relacionada:
El próximo sistema de razonamiento cibernético para la ciberseguridad  (2023) de Mohamed Ferrag, Ammar Battah, Norbert Tihanyi, Merouane Debbah, Thierry Lestable y Lucas CordeiroUna nueva era en seguridad de software: Hacia software autorreparador mediante modelos de lenguaje extensos y verificación formal  (2023) por Yiannis Charalambous, Norbert Tihanyi, Ridhi Jain, Youcheng Sun, Mohamed Ferrag, Lucas CordeiroCorrección de errores de seguridad de hardware con modelos de lenguaje extensos  (2023) por Baleegh Ahmad, Shailja Thakur, Benjamin Tan, Ramesh Karri y Hammond Pearce¿Los usuarios escriben código más inseguro con asistentes de IA?  (2022) por Neil Perry, Megha Srivastava, Deepak Kumar y Dan Boneh¿Dormido frente al teclado? Evaluación de la seguridad de las contribuciones de código de GitHub Copilot  (2021) por Hammond Pearce, Baleegh Ahmad, Benjamin Tan, Brendan Dolan-Gavitt, Ramesh KarriVotación, seguridad y gobernanza en blockchains  (2019) con Ali Yahya y Phil Daian
TRANSCRIPCIÓN:
Bienvenidos a "web3 con a16z", un programa sobre cómo construir la próxima generación de internet del equipo de a16z crypto; incluyéndome a mí, su presentadora, Sonal Chokshi. El nuevo episodio de hoy aborda la convergencia de dos importantes tendencias de vanguardia: la IA (inteligencia artificial) y las criptomonedas. Esto tiene importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es para cualquiera que tenga curiosidad o que ya esté desarrollando en este sector.
Nuestros invitados especiales de hoy son: Dan Boneh, profesor de Stanford (y asesor sénior de investigación en a16z crypto). Es un criptógrafo que lleva más de una década trabajando en cadenas de bloques. Los temas de este episodio tienen una fuerte intersección entre la criptografía, la seguridad informática y el aprendizaje automático, todas sus áreas de especialización. También tenemos a Ali Yahya, socio general de a16z crypto, quien también trabajó en Google, donde no solo desarrolló un sistema distribuido para robótica (más concretamente, una especie de "aprendizaje de refuerzo colectivo" que implicaba entrenar una única red neuronal que contribuía a las acciones de toda una flota de robots), sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow. De hecho, Dan y Ali se conocen desde que Ali era estudiante de grado y maestría en Stanford, así que esta conversación es más bien una charla informal entre ellos a la que les pedí que me uniera. Abordamos todo, desde deepfakes y bots hasta la prueba de humanidad en un mundo de IA y mucho, mucho más.
La primera mitad trata sobre cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad sobre cómo las criptomonedas podrían beneficiarse de la IA; y el hilo conductor es la tensión entre centralización y descentralización.  Como recordatorio: nada de lo siguiente debe interpretarse como asesoramiento de inversión, legal, comercial o fiscal; consulte a16z.com/disclosures para obtener más información importante, incluido un enlace a una lista de nuestras inversiones, especialmente porque somos inversores en las empresas mencionadas en este episodio.  Pero primero: comenzamos con la intersección de ambos mundos, compartiendo brevemente las áreas (¡o visiones!) que les entusiasman; la primera voz que escucharán será la de Ali.
Ali: Hay una novela de ciencia ficción muy buena llamada “La era del diamante” de Neal Stephenson, en la que hay un dispositivo conocido como “manual ilustrado”, que es una especie de dispositivo de inteligencia artificial que actúa como tu mentor y tu maestro a lo largo de la vida.
Y entonces, cuando naces, estás emparejado con una IA que, esencialmente, te conoce muy bien, aprende tus preferencias, te sigue durante toda la vida, te ayuda a tomar decisiones y te guía en la dirección correcta.
Así que existe un futuro de ciencia ficción… en el que se podría construir una IA, pero no se querría que estuviera controlada por un gigante tecnológico monopolista. Porque esa posición le otorgaría a esa empresa un gran control, y existen todas estas cuestiones de privacidad y soberanía, y se querría tener cierto control sobre ella.
¿Y qué pasa si la empresa desaparece, cambia las reglas o los precios? Sería fantástico poder crear una IA que pudiera funcionar durante muchísimo tiempo y llegar a conocerte a lo largo de tu vida, pero que fuera realmente tuya.
Y entonces existe esta visión en la que se podría hacer eso con una cadena de bloques: se podría integrar una IA dentro de un contrato inteligente.
Y con el poder de las pruebas de conocimiento cero, también podrá mantener sus datos privados.
Y luego, con el paso de las décadas, esta IA puede volverse más inteligente y ayudarte, y entonces tendrás la opción de hacer lo que quieras con ella. O modificarla como quieras; o desactivarla.
Y esa es una visión interesante para las IA de largo plazo que están en continua evolución y cada vez son mejores: sería mejor si no estuvieran controladas por una única empresa centralizada.
Claro: es una idea muy de ciencia ficción, porque conlleva muchos problemas, incluyendo los de verificación y los de mantener la privacidad de los datos mediante criptografía y, a la vez, poder realizar cálculos sobre ellos, quizás con cifrado totalmente homomórfico. <Sonal: mhm> Todos estos problemas siguen pendientes, pero no es algo inconcebible.
Dan: ¡Guau! ¡Me encanta la visión de Ali!
Sonal: A mí también me encanta, especialmente teniendo en cuenta esa cita (creo que era de Asimov) de que la ciencia ficción de hoy es la ciencia factual del mañana.
Ali, sé que tienes un meta-marco para pensar acerca de todo esto que te he escuchado compartir antes, ¿puedes compartirlo ahora también?
Ali: Sí, existe una narrativa más amplia que existe desde hace bastante tiempo y que ahora se está acentuando mucho más con el desarrollo de cosas como los LLM.
Sonal: En realidad, define eso muy rápido, Ali, solo para los oyentes que aún no están familiarizados, solo como contexto.
Ali: LLM significa "modelo de lenguaje grande" y utiliza parte de la tecnología que se desarrolló en Google en 2017. Existe este famoso artículo conocido como "La atención es todo lo que necesitas" (ese era el título del artículo) y describía lo que ahora se conoce como transformadores, y esa es la base, básicamente, de algunos de los nuevos modelos que la gente ha estado entrenando en estos días, incluido ChatGPT, etc. Todos estos son modelos de lenguaje grandes o LLM.
<Sonal: ¡mmm!> #BTC
Había una famosa frase, creo (2018), de Peter Thiel: «La IA es comunista y las criptomonedas son libertarias»… Es muy acertada, de hecho, porque la IA y las criptomonedas, en muchos sentidos, se contrapesan naturalmente. <Sonal: ¿Ajá?> Y quizá podamos profundizar en cada uno de estos ejemplos a lo largo del podcast, <Sonal: Sí>. Pero hay cuatro aspectos principales en los que esto es cierto:
[1] La primera es que la IA es una tecnología que prospera y permite un control centralizado de arriba a abajo, mientras que la criptografía se basa en la cooperación descentralizada de abajo a arriba. De hecho, en muchos sentidos, se puede pensar en la criptografía como el estudio de la construcción de sistemas descentralizados que permiten la cooperación humana a gran escala, donde no existe un punto central de control.
Y esa es una forma natural en la que estas dos tecnologías se contrapesan entre sí.
[2] Otra es que la IA es una innovación sostenible, ya que refuerza los modelos de negocio de las empresas tecnológicas existentes <Sonal: mhm>, ya que les ayuda a tomar decisiones desde arriba. Y el mejor ejemplo de esto sería que Google pudiera decidir exactamente qué anuncio mostrar a cada uno de sus usuarios entre miles de millones de usuarios y miles de millones de páginas vistas.
Mientras que las criptomonedas son, en realidad, una innovación fundamentalmente disruptiva, ya que su modelo de negocio es fundamentalmente contrario al de las grandes tecnológicas. Por lo tanto, es un movimiento liderado por rebeldes/por los sectores marginales, en lugar de estar liderado por las empresas establecidas. <Sonal: mhm> Así que esa es la segunda.
[3] La tercera es que la IA probablemente se relacionará e interactuará mucho con todas las tendencias hacia la privacidad… Porque la IA, como tecnología, ha incorporado todo tipo de incentivos que nos llevan hacia una menor privacidad individual, ya que tendremos empresas que querrán acceder a todos nuestros datos; y los modelos de IA que se entrenan con cada vez más datos serán cada vez más eficaces. Por lo tanto, creo que esto nos lleva por el camino del panóptico de la IA, donde simplemente se agregan los datos de todos para entrenar estos enormes modelos y optimizarlos al máximo.
Mientras que las criptomonedas nos llevan hacia la dirección opuesta, que es una dirección de mayor privacidad individual. Es una dirección de mayor soberanía, <Sonal: mhm> donde los usuarios tienen control sobre sus propios datos. Y creo que estas dos tendencias serán muy importantes. Y esta es otra forma importante en que las criptomonedas actúan como contrapeso para la IA.
(4) Y tal vez la última tenga que ver con esta última tendencia en IA: el hecho de que la IA es ahora claramente una tecnología poderosa para generar nuevo arte; ahora es una herramienta creativa <Sonal: ¡mm! totalmente>, que nos llevará a una abundancia infinita de medios, a una creatividad infinita en muchos sentidos.
Y la criptografía es un contrapeso a eso porque nos ayuda a analizar toda la abundancia, al ayudarnos a distinguir lo creado por humanos de lo creado por IA. Y la criptografía será esencial para mantener y preservar lo verdaderamente humano en un mundo donde mil veces más contenido <Sonal: correcto> se genera artificialmente.
Así que todas estas son cosas de las que podemos hablar, pero creo que existe esta metanarrativa importante; y estas dos tecnologías son diametralmente opuestas, en muchos aspectos.
Dan: Entonces, tal vez Ali, para agregar a eso, este es un resumen maravilloso, y también diría que hay muchas áreas en las que las técnicas de IA están teniendo un impacto en las cadenas de bloques; y viceversa, <mhm> donde las técnicas de cadenas de bloques están teniendo un impacto en la IA.
Daré una respuesta breve aquí porque vamos a profundizar en los detalles en solo un minuto; pero hay muchos puntos de intersección: supongo que hablaremos sobre las aplicaciones del conocimiento cero para el aprendizaje automático en solo un minuto…
Pero también quiero abordar todas estas aplicaciones donde el aprendizaje automático puede usarse para escribir código. Por ejemplo, el aprendizaje automático puede usarse para escribir código de Solidity que se contrae. Puede usarse para detectar posibles errores en el código, etc.
Existen puntos de intersección donde el aprendizaje automático puede usarse para generar falsificaciones profundas y las cadenas de bloques pueden ayudar a proteger contra ellas. Por lo tanto, supongo que abordaremos todos estos puntos, pero lo interesante es que existe una gran intersección entre las cadenas de bloques y el aprendizaje automático.
Sonal: Sí, antes de profundizar en eso, Dan, tengo una pregunta: ¿estás de acuerdo? Entiendo perfectamente el punto de vista de Ali: la IA y las criptomonedas son complementos naturales, o contrapesos, o pueden ser fuerzas diferentes que se controlan y equilibran mutuamente... Pero, ¿crees que esto es una cualidad inherente a la IA y las criptomonedas? ¿O es simplemente un artefacto de cómo se hacen las cosas actualmente? ¿Con qué aspectos estarías de acuerdo o en desacuerdo?
Dan: Sí; así que diría que, si lo miras desde lejos… las técnicas que se usan en IA parecen muy diferentes a las que se usan en las cadenas de bloques, ¿verdad? Las cadenas de bloques se centran en la criptografía, la descentralización, las finanzas, la economía, etc.
Mientras que la #IA se centra en la estadística, las matemáticas del aprendizaje automático, etc., se centra en el big data. Las técnicas, en realidad, parecen bastante diferentes. <Sonal: mhm>, pero en realidad hay muchos aspectos en los que una parte puede ayudar a la otra <mhm> y viceversa.
Quizás el primero para empezar sea el más obvio y que ha estado en la mente de muchos: las aplicaciones del conocimiento cero para el aprendizaje automático . Se trata de un área emergente llamada zkML . Y su interés se debe a que las técnicas de conocimiento cero han mejorado drásticamente gracias a su aplicación en las cadenas de bloques.
Lo que ha sucedido en los últimos 10 años es increíble; algo que no vemos muy a menudo: esta idea de las pruebas de conocimiento cero, y los sistemas de pruebas en general, se consideraban muy teóricos hace una década. Y debido a todas sus aplicaciones en las cadenas de bloques, de repente se despertó un gran esfuerzo para hacerlas más prácticas y realistas. Como resultado, se ha logrado un progreso tremendo (como saben nuestros oyentes), y ahora estas herramientas se implementan y se utilizan para proteger sistemas reales.
Entonces, la pregunta es: ¿se pueden usar técnicas de conocimiento cero para impulsar el aprendizaje automático? Hay un par de ejemplos (honestamente, podríamos dedicar todo el podcast solo a zkML), pero quizás pueda dar una muestra, uno o dos ejemplos donde ZK es útil para el aprendizaje automático.
Imaginemos que Alice tiene un modelo secreto al que dedicó mucho tiempo para entrenar, y que es muy importante para ella. Es fundamental que la gente no sepa cómo funciona. Pero aun así, quiere poder atender las solicitudes de Bob, ¿verdad? Bob quiere enviarle datos, ella aplicaría el modelo a los datos y le enviaría el resultado.
Bob no tiene ni idea de si está obteniendo los resultados correctos con el modelo, ¿verdad? Quizás pagó por un modelo específico y quiere asegurarse de que Alice realmente lo esté usando, ¿verdad? Quizás pagó por GPT-4 y quiere asegurarse de que Alice realmente esté usando GPT-4, y no GPT-3.
Resulta que las técnicas ZK pueden ser muy útiles en este caso. Alice se comprometería con su modelo y lo haría público. Y luego, cada vez que Bob enviara datos, Alice podría ejecutar el modelo con ellos y enviarle los resultados, junto con la prueba de que el modelo se evaluó correctamente. Así, Bob tendría la garantía de que el modelo comprometido es el mismo que se ejecutó con sus datos. ¿Sí? Este es un ejemplo de cómo las técnicas ZK pueden ser útiles en el aprendizaje automático.
Y quiero enfatizar por qué esto es tan importante: <Sonal: ¡Sí!> Veamos un ejemplo:
Supongamos que tenemos una función, un modelo que realmente se usa para afectar la vida de las personas. Imaginen, por ejemplo, que usamos un modelo para decidir si otorgamos un préstamo o una hipoteca; una institución financiera podría querer usar un modelo similar. Queremos asegurarnos de que el mismo modelo se aplique a todos, ¿no? No es que se me aplique un modelo a mí <Sonal: sí> y a ti otro <Sonal: cierto>. Básicamente, al hacer que el banco se comprometa con el modelo, ¿no?; y así todos pueden verificar que sus datos son evaluados por el mismo modelo comprometido <mmm>, podemos asegurarnos de que se aplique el mismo modelo a todos.
Debo decir que aquí hay un problema abierto: aunque las técnicas de conocimiento cero pueden garantizar que se aplique el mismo modelo a todos, surge la pregunta: ¿es justo el modelo? Los modelos pueden tener sesgos y generar resultados injustos. Por lo tanto, existe toda una área de investigación llamada equidad algorítmica; existen muchísimos artículos sobre equidad algorítmica, y es realmente interesante preguntarse: ahora que tenemos un modelo establecido, ¿podemos demostrar, en conocimiento cero, que el modelo cumple con alguna definición de equidad del área de equidad algorítmica?
¿Y cómo nos aseguramos de que el proceso de capacitación se ejecute correctamente?
Ali: Bueno, todo lo que dijiste sobre #zkml es sumamente emocionante. Y, como tecnología, creo que contribuirá a que el aprendizaje automático, y la IA en general, sean más transparentes y confiables, tanto dentro como fuera del contexto de las criptomonedas.
Creo que una aplicación aún más ambiciosa, y quizás a largo plazo, de ZKML —y de algunas otras técnicas de verificación en las que la comunidad criptográfica ha estado trabajando<mhm>— es simplemente descentralizar la IA en general. Como ya comentamos, la IA es una tecnología casi intrínsecamente centralizadora, ya que se nutre de factores como los efectos de escala, ya que tener todo dentro de un centro de datos lo hace más eficiente. Por lo tanto, escalar todo de forma centralizada lo hace más potente y, como resultado, más centralizado.
Además, los datos suelen estar controlados por un pequeño número de empresas tecnológicas intermedias. Esto también conlleva una mayor centralización.
Y finalmente: los modelos de aprendizaje automático y el talento en aprendizaje automático, también controlados por un pequeño número de actores.
Y las criptomonedas pueden volver a ayudar en este frente desarrollando tecnología que utilice cosas como ZKML que puedan ayudarnos a descentralizar la IA.
Así que hay tres aspectos principales que intervienen en la IA: el aspecto computacional , que requiere un uso a gran escala de GPU (generalmente en centros de datos); el aspecto de los datos , que, repito, la mayoría de las empresas centralizadas controlan; y los propios modelos de aprendizaje automático . <Sonal: sí>
Y la más sencilla podría ser la del cálculo. ¿Es posible descentralizar el cálculo para el entrenamiento y la inferencia de modelos de aprendizaje automático? Aquí es donde entran en juego algunas de las técnicas que Dan mencionaba, como las pruebas de conocimiento cero, que permiten demostrar que el proceso de inferencia o entrenamiento de un modelo se realizó correctamente, lo que permite externalizarlo a una gran comunidad. Se puede tener un proceso distribuido mediante el cual cualquiera con una GPU puede contribuir con el cálculo a la red y entrenar un modelo de esa manera, sin tener que depender necesariamente de un centro de datos masivo con todas las GPU centralizadas.
Y aún queda la gran duda de si esto tendrá sentido económicamente... Pero al menos, con los incentivos adecuados, se puede aprovechar la larga cola: se puede aprovechar toda la capacidad de GPU inactiva que pueda existir; hacer que todas esas personas contribuyan con ese cálculo al entrenamiento de un modelo o a la ejecución de la inferencia; y ofrecer una alternativa a lo que, de otro modo, serían solo las grandes empresas tecnológicas intermedias las que actualmente lo controlan todo. <Sonal: ¡Mmm!> Hay todo tipo de problemas técnicos importantes que tendrían que resolverse para que eso fuera posible.
De hecho, existe una empresa en este sector llamada Gensyn que está desarrollando precisamente esto. Están creando un mercado descentralizado para computación en GPU, principalmente con el propósito de entrenar modelos de aprendizaje automático. Es un mercado donde cualquiera puede contribuir con su computación en GPU, ya sea en su computadora personal debajo de su escritorio o inactiva en un centro de datos.
Y, por otro lado, cualquiera puede aprovechar la computación disponible en la red para entrenar sus grandes modelos de aprendizaje automático. Esto sería una alternativa a la alternativa centralizada, tipo OpenAI/Google/Meta/todos —ya sabes, inserta tu gran empresa tecnológica favorita aquí <Sonal: ¡Sí! (risas)—, que actualmente tendrías que adoptar.
Sonal: Bueno, antes de profundizar en este marco de descentralización, Ali, estabas desglosando la computación y creo que ibas a compartir los otros dos de esos tres pilares. Pero antes… ambos hablaron un poco sobre los desafíos técnicos. ¿Cuáles son algunos de los desafíos técnicos que deben superarse y que la gente podría estar resolviendo ya? (Quiero que los desarrolladores que escuchen este episodio también reflexionen sobre las oportunidades en este espacio y cómo pueden abordar los desafíos existentes; o cuáles son algunos de los desafíos que enfrentarán al desarrollar soluciones).
Dan: Sí, entonces tal vez pueda mencionar dos que creo que serían interesantes para la gente.
[1] Básicamente, imaginemos que Alice tiene un modelo que quiere proteger. Quiere enviarlo cifrado a otra persona, por ejemplo, a Bob. Bob recibe un modelo cifrado y necesita poder ejecutar sus datos en él.
¿Cómo se hace eso? Si se tienen datos que se quieren ejecutar en un modelo, pero solo se cuenta con el cifrado del modelo, ¿cómo se logra?
Y eso es algo para lo que usaríamos lo que se llama cifrado totalmente homomórfico. <Sonal: Sí. (FHE).> Es un cifrado totalmente homomórfico, una herramienta notable que permite realizar cálculos con datos cifrados.
Es un poco increíble que esto sea posible, pero se puede tener un modelo cifrado y datos de texto sin cifrar, y ejecutar el modelo cifrado sobre estos datos y obtener un resultado cifrado. Se le enviaría el resultado cifrado a Alice, quien podría descifrarlo y verlo en texto sin cifrar.
Así que esto es algo que ya existe... de hecho, existe bastante demanda en la práctica; <Sonal: sí> no requiere mucho esfuerzo ver que el Departamento de Defensa está interesado en esto. Hay muchas otras aplicaciones donde se puede enviar un modelo cifrado a un tercero; este ejecutaría el modelo cifrado en sus datos; te enviaría los resultados; puedes descifrar y obtener información sobre los datos que se ingresaron como entrada del modelo cifrado.
La pregunta, claro, es cómo lo escalamos. Ahora mismo funciona bien para modelos medianos… y la pregunta es, ¿podemos escalarlo a modelos mucho más grandes? Así que es todo un reto: un par de startups en el sector, y, repito, una tecnología muy, muy interesante; es increíble que esto sea posible. <Sonal: Sí… de verdad> Y probablemente veremos mucho más de esto en el futuro.
[2] La otra área es en realidad la que mencionó Ali, otra área muy importante, que es: ¿cómo sabemos que el modelo fue entrenado correctamente?
Entonces, si envío mis datos a alguien y le pido que entrene un modelo con ellos, o que lo ajuste, ¿cómo sé que lo hicieron correctamente? Es cierto, podrían devolverme un modelo, pero ¿cómo sé que no tiene puertas traseras? De hecho, se ha investigado bastante para demostrar que, si el entrenamiento se realiza incorrectamente, podría devolver un modelo que funcionaría correctamente con todos los datos de prueba, pero que tiene una puerta trasera, lo que significa que fallaría catastróficamente con una entrada específica. Esto es posible si el proceso de entrenamiento no está verificado.
Y, de nuevo, este es un área donde ZKML entra en juego: Podemos demostrarles que el entrenamiento se ejecutó correctamente; o quizás existan otras técnicas para demostrarlo. Pero, de nuevo, esta es otra área —un área de investigación muy activa— y animaría a muchos de los oyentes a que se trate de un problema muy complejo: demostrar que el entrenamiento se realizó correctamente; demostrar que los datos de entrenamiento se recopilaron y filtraron correctamente, etc.
De hecho, es un área maravillosa en la que ingresar si las personas buscan realizar más trabajos en ese espacio.
Sonal: ¡Genial! Ali, ¿qué más añadirías?
Ali: Sí, definitivamente. Bueno, supongo que si seguimos hablando de lo que se necesitaría para descentralizar la pila de IA, creo que para descentralizar el componente computacional —y estos son tres componentes importantes—, si quisiéramos descentralizar el componente computacional, hay dos desafíos técnicos muy importantes que aún no se han resuelto.
El primero es el problema de la verificación (que Dan acaba de mencionar) <Sonal: mhm>, para el cual se podría usar ZKML. Idealmente, con el tiempo se podrían usar pruebas de conocimiento cero para demostrar que el trabajo real —que las personas que contribuyen a esta red— se realizó correctamente.
El desafío radica en que el rendimiento de estas primitivas criptográficas está lejos de alcanzar el nivel necesario para entrenar o inferir modelos muy grandes. Por lo tanto, los modelos actuales, como los LLM que todos conocemos y apreciamos (como ChatGPT), no serían demostrables con el estado actual de ZKML. Por lo tanto, se está trabajando mucho para mejorar el rendimiento del proceso de demostración, de modo que se puedan demostrar cargas de trabajo cada vez mayores de forma eficiente. Pero ese es un problema abierto, y algo <Sonal: sí> en lo que mucha gente está trabajando.
Mientras tanto, empresas como Gensyn utilizan otras técnicas que no son solo criptográficas, sino que se basan en la teoría de juegos. En ellas, se recluta a un mayor número de personas independientes para realizar el trabajo y se comparan sus resultados para garantizar que se realicen correctamente. <Sonal: ¡Qué interesante!> Se trata de un enfoque más optimista y basado en la teoría de juegos que no se basa en la criptografía, pero que se alinea con el objetivo principal de descentralizar la IA o ayudar a crear un ecosistema para la IA mucho más orgánico, comunitario y de abajo a arriba, a diferencia del enfoque de arriba a abajo que proponen empresas como OpenAI.
Así que ese es el primer problema; el primer gran problema es el problema de la verificación.
Y el segundo gran problema es el de los sistemas distribuidos: ¿cómo se coordina realmente una gran comunidad de personas que contribuyen con GPU a una red de tal manera que todo parezca un sustrato integrado y unificado para el cálculo? <Sonal: yup>
Y habrá muchos desafíos interesantes, como: estamos fragmentando la carga de trabajo de aprendizaje automático de forma lógica; distribuyendo diferentes partes a distintos nodos de la red; descubriendo cómo hacerlo todo de forma eficiente; y, cuando los nodos fallan, descubriendo cómo recuperarse y asignando nuevos nodos para que se encarguen del trabajo realizado por el nodo que falló. Por lo tanto, existen muchos detalles complejos a nivel de sistemas distribuidos que las empresas deberán resolver para ofrecernos esta red descentralizada que pueda ejecutar cargas de trabajo de aprendizaje automático de una forma quizás incluso más económica que usar la nube.
Sonal: Sí… Eso es genial.
Dan: …Sí, y es totalmente cierto que las técnicas ZK actuales manejarán los modelos más pequeños que se utilizan, pero definitivamente los LLM son probablemente demasiado grandes para que estas técnicas los manejen hoy, las técnicas ZK; pero, sabes que están mejorando constantemente, el hardware está mejorando, así que con suerte se pondrán al día.
Sonal: Sí; antes de continuar, ¿podemos hacer una comprobación de pulso realmente clara sobre dónde estamos exactamente en eso? Obviamente, lo que les escucho decir es que hay tremendas aplicaciones en la intersección de la computación general verificable, que las cadenas de bloques y las criptomonedas definitivamente han estado avanzando y acelerando significativamente toda esa área (hemos estado cubriendo mucho de eso nosotros mismos: si miran nuestro canon ZK y la categoría de conocimiento cero, verán mucho de esto cubierto allí).
Pero, ¿dónde nos encontramos exactamente ahora en cuanto a lo que pueden hacer? Porque ustedes hablaron mucho sobre lo que aún no pueden hacer y la oportunidad que les brinda, lo cual es emocionante; pero ¿dónde nos encontramos ahora mismo? ¿Qué pueden hacer realmente?
Dan: Sí. Ahora mismo, básicamente pueden clasificar modelos medianos. No algo tan grande como GPT-3 o 4, sino modelos medianos. <sí> Es posible demostrar que la clasificación se realizó correctamente. El entrenamiento probablemente esté más allá de lo que se puede hacer ahora mismo, simplemente porque requiere muchísimos recursos computacionales <Sonal: cierto> que para los sistemas de prueba aún no hemos llegado a ese punto.
Pero como dijo Ali, tenemos otras maneras de hacerlo. Por ejemplo, podemos hacer que varias personas realicen el entrenamiento y luego comparar los resultados. ¿Sí? Así que ahora hay incentivos de teoría de juegos para que la gente no haga trampa. Si alguien hace trampa, alguien más podría quejarse de que calculó mal el entrenamiento, y entonces quien haya hecho trampa no recibirá compensación por su esfuerzo. <Sonal: Sí, sí, sí> Así que hay un incentivo para que la gente realmente realice el entrenamiento como se suponía que debía realizarse.
Sonal: Correcto. Y básicamente, no es una fase híbrida, sino que se trata de enfoques alternativos hasta que se alcance una mayor escalabilidad y el rendimiento alcance el nivel necesario.
Dan: Sí; diría que para algunos modelos, la clasificación se puede demostrar hoy en día con conocimiento cero. Para el entrenamiento actual, debemos confiar en técnicas optimistas.
Sonal: Sí, genial.
Entonces, Ali, mencionaste que la computación es una de las tres puntas, y también mencionaste que los datos y luego los modelos para el aprendizaje automático en sí mismos: ¿quieres abordar ahora los datos y las oportunidades y desafíos que hay allí (en lo que respecta a la intersección cripto/IA)?
Ali: Sí, absolutamente. Por lo tanto, creo que existe la oportunidad, aunque los problemas involucrados son muy complejos, de descentralizar el proceso de obtención de datos para el entrenamiento de grandes modelos de aprendizaje automático <mhm> desde una comunidad más amplia. De nuevo, en lugar de tener un único actor centralizado, simplemente recopilar todos los datos <yah> y luego entrenar los modelos.
Y esto podría funcionar creando un tipo de mercado similar al que acabamos de describir para la computación, pero incentivando a las personas a contribuir con nuevos datos a un gran conjunto de datos que luego se utiliza para entrenar un modelo.
La dificultad con esto es similar, ya que existe un desafío de verificación: hay que verificar de alguna manera que los datos que aportan las personas sean realmente buenos <Sonal: ¡sí!> y que no sean datos duplicados ni basura generados aleatoriamente o que no sean reales. Y también hay que asegurarse de que los datos no alteren el modelo (algún tipo de ataque de envenenamiento) donde el modelo se vuelva vulnerable o simplemente menos bueno o tenga un rendimiento inferior al anterior. Entonces, ¿cómo se verifica que esto sea así?
Y ese es quizás un problema complejo que la comunidad debe resolver. Podría ser imposible de resolver por completo, y podría ser necesario recurrir a una combinación de soluciones tecnológicas y sociales, donde también se cuenta con algún tipo de métrica de reputación. Los miembros de la comunidad pueden ganar credibilidad, de modo que cuando aportan datos, estos se vuelvan más confiables de lo que serían de otra manera.
Pero lo que esto podría permitirle hacer es que ahora puede cubrir verdaderamente la cola muy larga de la distribución de datos.
Y uno de los aspectos más desafiantes del aprendizaje automático es que la calidad de un modelo depende de la cobertura de la distribución que el conjunto de datos de entrenamiento pueda alcanzar. Si existen entradas que se alejan mucho de la distribución de los datos de entrenamiento, el modelo podría comportarse de forma completamente impredecible. Para que el modelo funcione correctamente en casos extremos (y en los casos de cisne negro o entradas de datos que se pueden encontrar en el mundo real), es fundamental que el conjunto de datos sea lo más completo posible.
Así pues: si existiera este tipo de mercado abierto y descentralizado para la contribución de datos a un conjunto de datos, cualquiera con datos únicos en el mundo podría contribuir a la red… Lo cual es una mejor manera de hacerlo, ya que si se intenta hacerlo desde una empresa central, no hay forma de saber quién tiene esos datos. Por lo tanto, si se incentiva a esas personas a que se presenten y proporcionen esos datos por iniciativa propia, creo que se puede lograr una cobertura mucho mejor de la cola larga.
Como hemos visto, el rendimiento de los modelos de aprendizaje automático continúa mejorando a medida que crece el conjunto de datos y la diversidad de sus puntos de datos. Esto puede potenciar aún más el rendimiento de nuestros modelos de aprendizaje automático; podemos obtener conjuntos de datos aún más completos que abarcan a toda la comunidad.
Dan: Bueno, déjame darle la vuelta a esto en ese eh...
Sonal: ¡Oooh, adelante, Dan!
Dan: …Si vamos a incentivar a la gente a contribuir con datos, básicamente vamos a incentivarla a crear datos falsos <Sonal: ¡Sí!> para que les paguen. ¿Sí? Así que tenemos que tener algún tipo de mecanismo para asegurarnos de que los datos que aportas sean auténticos. <Ali: Exactamente>
Y puedes imaginar un par de maneras de hacerlo, ¿verdad? Una forma es confiar en hardware confiable. <Sonal: mhm>: Quizás los sensores estén integrados en un hardware confiable, al que solo confiaríamos en datos debidamente firmados por él. Esa es una forma de hacerlo.
De lo contrario, tendríamos que tener algún otro mecanismo mediante el cual podamos saber si los datos son auténticos o no.
Ali: Estoy completamente de acuerdo.
Ese sería el mayor problema abierto a resolver... Y creo que a medida que mejora la evaluación comparativa de los modelos de aprendizaje automático, creo que hay dos tendencias importantes en el aprendizaje automático en este momento <Sonal: yah> –
[1] Se está mejorando la medición del rendimiento de un modelo de aprendizaje automático. En el caso de los LLM, esto aún está en sus primeras etapas y, de hecho, es bastante difícil determinar su calidad. Porque no se trata de un clasificador donde el rendimiento de un modelo esté claramente definido. Con un LLM, es casi como evaluar la inteligencia de un humano. ¿Verdad? <Sonal: ¡mhm!> Encontrar la forma correcta de evaluar la inteligencia de un LLM como #chatgpt es un área de investigación abierta. Pero con el tiempo, creo que mejorará cada vez más.
[2] Y la otra tendencia es que cada vez somos más capaces de explicar cómo funciona un modelo.
Y con ambas cosas, en algún momento, podría ser posible comprender el efecto que un conjunto de datos tiene en el rendimiento de un modelo de aprendizaje automático. <Sonal: sí> Y si podemos comprender bien si un conjunto de datos aportado por un tercero ayudó o no al rendimiento del modelo de aprendizaje automático, entonces podemos recompensar esa contribución y crear el incentivo para que exista ese mercado.
Sonal: Entonces, para resumir hasta ahora, lo que les escuché decir es que…
Existe hardware confiable que puede ayudar a verificar la precisión de los datos y los modelos que se aportan;Ali, mencionaste brevemente las métricas de reputación y ese tipo de cosas pueden ayudar;También mencionaste que podría haber una manera (no necesariamente ahora, pero en algún momento en el futuro cercano) de verificar cómo los datos influyen en los resultados de un modelo en particular para que realmente puedas... no es del todo explicable, pero la idea es que realmente puedas atribuir que este conjunto de datos causó este efecto particular.
Así que hay una variedad de técnicas diferentes que habéis compartido hasta ahora.
Ali: Bueno, lo último es que podrías hacer lo mismo para el tercer aspecto, que son los modelos.
Imagina crear un mercado abierto para que las personas aporten un modelo entrenado capaz de resolver un problema específico. Imagina crear en Ethereum un contrato inteligente que integre algún tipo de prueba, ya sea una prueba cognitiva que un LLM pueda resolver o una prueba de clasificación que un clasificador de aprendizaje automático (AAP) pueda resolver.
Y si se utiliza ZKML, alguien podría proporcionar un modelo junto con una prueba de que ese modelo puede resolver esa prueba; entonces, nuevamente, usted tiene las herramientas que necesita para crear un mercado que incentive a las personas a contribuir con modelos de aprendizaje automático que puedan resolver ciertos problemas.
Muchos de los problemas que hemos discutido, los problemas pendientes que hemos discutido, sobre cómo lograrlo también están presentes aquí... En particular, hay una parte de ZKML donde se debe poder demostrar que el modelo realmente realiza el trabajo que afirma realizar. Además, necesitamos tener buenas pruebas para evaluar la calidad de un modelo. Así que poder integrar una prueba dentro de un contrato inteligente para luego someter un modelo de aprendizaje automático a una evaluación de su calidad. Esta es otra parte muy emergente de toda esta tendencia tecnológica.
Pero en teoría, sería fantástico si finalmente llegáramos a un mundo donde tuviéramos estos mercados muy abiertos, de abajo hacia arriba y transparentes que permitan a las personas contribuir y obtener modelos de computación, datos y aprendizaje automático para el aprendizaje automático, que esencialmente actúen nuevamente como un contrapeso a las enormes y muy centralizadas empresas tecnológicas que impulsan todo el trabajo de IA en la actualidad.
Sonal: Me encanta cómo lo mencionaste, Ali, porque ha sido un problema de larga data en la IA en la práctica: puede resolver muchos problemas, como la curva de campana, la parte media de la norma, pero no los extremos. Un ejemplo clásico de esto son los coches autónomos. Se puede hacer todo con ciertos comportamientos estándar, pero son los casos extremos donde pueden ocurrir los verdaderos accidentes y las catástrofes. <Ali: Cierto>
Eso fue muy útil. Sé que hablaste sobre la alineación de incentivos y los incentivos para proporcionar datos precisos y de calidad, e incluso incentivos para contribuir con cualquier dato en general.
Pero hablando de la cola larga, me surgió una pregunta rápida mientras hablabas. Esto me lleva a preguntarme quién gana dinero y dónde en este sistema. No pude evitar preguntarme, ¿cómo influye entonces el modelo de negocio en la rentabilidad de las empresas? Siempre he entendido que, en la cola larga de la IA (en un mundo con este tipo de conjuntos de datos disponibles), tus datos propietarios son, en realidad, tu conocimiento único del dominio, algo que solo tú conoces en esa cola larga. ¿Tienes alguna respuesta rápida?
Ali: Creo que la visión tras la intersección de las criptomonedas con la IA es que se podría crear un conjunto de protocolos que distribuyan el valor que eventualmente capturará esta nueva tecnología, la IA, entre un grupo mucho más amplio de personas. Esencialmente, una comunidad de personas, todas las cuales pueden contribuir y participar de las ventajas de esta nueva tecnología. <Sonal: mhm>
Entonces, las personas que ganarían dinero serían las que contribuyen con el procesamiento, o las que contribuyen con datos, o las que contribuyen con nuevos modelos de aprendizaje automático a la red, de modo que se puedan entrenar mejores modelos de aprendizaje automático y se puedan resolver problemas mejores, más grandes y más importantes.
Las otras personas que generarían ingresos al mismo tiempo son quienes, por otro lado, están en el lado de la demanda de esta red: quienes la utilizan como infraestructura para entrenar sus propios modelos de aprendizaje automático. <Sonal: sí> Quizás su modelo genere algo interesante en el mundo, tal vez sea como la próxima generación de ChatGPT. Y luego eso se abra camino hacia diversas aplicaciones, como aplicaciones empresariales o cualquier otro uso que se les dé a esos modelos, y esos modelos impulsan la captura de valor por sí mismos, porque esas empresas tendrán su propio modelo de negocio.
Finalmente, quienes también podrían generar ingresos son quienes construyen esta red. Por ejemplo: se crea un token para la red; este token se distribuirá a la comunidad; y todas esas personas tendrán propiedad colectiva sobre esta red descentralizada para datos y modelos computacionales que también podrían capturar parte del valor de toda la actividad económica que pasa por esta red.
Así que, como pueden imaginar, cualquier pago por computación, datos o modelos <mhm> podría tener una comisión. Esta podría ir directamente a una tesorería controlada por esta red descentralizada, de la que todos los poseedores de tokens que forman parte tienen propiedad y acceso colectivos (como creadores y propietarios del mercado).
Y esa tarifa podría ir directamente a la red. Así que, imagínense que cada transacción que pasa por esta red, cada forma de pago que paga por computación, datos o modelos, podría tener una tarifa que se le imponga y que vaya a una tesorería controlada por toda la red y por los poseedores de tokens que la poseen colectivamente.
De modo que ese es esencialmente un modelo de negocio para la red en sí.
Sonal: ¡Genial!
Bien. Hasta ahora hemos hablado mucho sobre cómo las criptomonedas pueden ayudar a la IA. Para ser claros, no es unidireccional; estas cosas se refuerzan, son bidireccionales y más interactivas que unidireccionales.
Pero, para el propósito de esta discusión, realmente estamos hablando de cómo las criptomonedas pueden ayudar a la IA; ahora vamos a darle la vuelta y hablar un poco más sobre las formas en que la IA puede ayudar a las criptomonedas.
Dan: Sí, entonces hay un par de puntos de contacto interesantes allí.
Un tema que realmente vale la pena mencionar es la idea de los modelos de aprendizaje automático que se utilizan para generar código. Muchos oyentes probablemente hayan oído hablar de Copilot, una herramienta que se utiliza para generar código. Y lo interesante es que se pueden intentar usar estas herramientas de generación de código para escribir contratos de Solidity o código criptográfico.
Y quiero recalcar que esto es realmente algo muy peligroso de hacer.
Sonal: ¡Ay! ¡No hagas esto en casa! ¡Vale! <risas>
Dan: Sí. Sí. No intentes esto en casa.
Porque lo que ocurre es que muy a menudo estos sistemas realmente generan código que funciona, ya sabe, cuando intenta ejecutarlo (y, como sabe, el cifrado es lo opuesto al descifrado, etc.), por lo que el código realmente funcionará, pero en realidad será inseguro.
De hecho, hemos escrito un artículo sobre esto recientemente que muestra que si intentas que Copilot escriba algo tan simple como una función de cifrado, te dará algo que realiza el cifrado correctamente, pero utiliza un modo de operación incorrecto, por lo que terminarás con un modo de cifrado inseguro.
De manera similar, si intentas generar código Solidity, podrías terminar con un código Solidity que funcione, pero tendrá vulnerabilidades.
Quizás te preguntes, ¿por qué sucede esto? Una de las razones es que estos modelos se entrenan básicamente con código disponible, en repositorios de GitHub. Bueno, muchos de los repositorios de GitHub son vulnerables a todo tipo de ataques. Así que estos modelos aprenden sobre código que funciona, pero no sobre código seguro; es como si entrara basura, saliera basura, ¿no? <Sonal: ¡Mmm!>
Así que quiero asegurarme de que las personas sean muy, muy cuidadosas, cuando usen estos modelos generativos para generar código, que verifiquen con mucho cuidado que el código realmente haga lo que se supone que debe hacer y que lo haga de manera segura.
Ali: Una idea en ese frente (tengo curiosidad por saber lo que piensas al respecto) es que puedes usar modelos de IA como LLM (algo así como ChatGPT) para generar código, junto con otras herramientas para intentar hacer que el proceso sea menos propenso a errores.
Y un ejemplo, una idea <oh> sería usar un LLM para generar una especificación para un sistema de verificación formal: Básicamente, describes tu programa en inglés; y le pides al LLM que genere una especificación para una herramienta de verificación formal; luego le pides a la misma instancia del LLM que genere el programa que cumple con esa especificación. <mm!> Y luego usas una herramienta de verificación formal para ver si el programa realmente cumple con la especificación.
Si hay errores, la herramienta los detectará; estos errores pueden utilizarse como retroalimentación para el LLM. Idealmente, el LLM podrá revisar su trabajo y producir una nueva versión del código correcta. Y, finalmente, si se repite esto una y otra vez, se obtendrá un fragmento de código que, idealmente, cumple plenamente con la especificación y está formalmente verificado.
Y como la especificación puede ser legible por un humano, puedes revisarla y ver que sí, este es el programa que quería escribir. Y esa puede ser una excelente manera de usar LLM para escribir código que, además, no sea tan propenso a errores como lo sería si simplemente le pidieras a ChatGPT que generara un contrato inteligente.
Sonal: ¡Qué inteligente!
Dan: Sí, esto es genial y, de hecho, nos lleva a otro tema que vale la pena discutir, que es básicamente el uso de LLM para encontrar errores.
Supongamos que un programador escribe código en Solidity y ahora quiere comprobar si ese código es correcto y seguro. Como dijo Ali, puede usar el LLM para encontrar vulnerabilidades en ese código. Se ha trabajado mucho para evaluar la eficacia de los LLM para detectar errores en software, en los contratos inteligentes de Solidity y en C y C++.
Hay un artículo que salió recientemente que es realmente muy relevante: es un artículo de la Universidad de Manchester <Sonal: mhm>, que dice que ejecutarías una herramienta de análisis estático estándar para encontrar errores en tu código; y encontraría todo tipo de errores de gestión de memoria o errores potenciales; solo una herramienta de análisis estático estándar; sin aprendizaje automático alguno.
Pero entonces usarías un LLM para intentar corregir el código. ¿Sí? <Sonal: mm> <Ali: exactamente> Así que propone una solución al error automáticamente. Y luego volverías a ejecutar el analizador estático en el código corregido, <Ali: sí> y el analizador estático diría: «Oh, el error sigue ahí o no está ahí». Y seguirías iterando hasta que el analizador estático diga: «Sí, ahora el error se ha corregido y no hay más problemas».
Así que fue un artículo bastante interesante; este artículo literalmente salió hace dos semanas.
Sonal: Entonces, para ambos artículos que acabas de mencionar, Dan, el de la Universidad de Manchester y también el que escribieron recientemente sobre que no se confía en que los LLM escriban código correcto (podría ser código funcional, pero no necesariamente seguro), vincularé esos artículos en las notas del programa <Dan: genial> para que los oyentes puedan encontrarlos.
Solo una pregunta rápida antes de continuar… En cuanto a la situación actual, ¿es una situación temporal o crees que llegará el momento en que se pueda confiar en que los LLM escriban código de contratos inteligentes correcto, no solo funcional, sino seguro ? ¿Es posible o está muy lejos?
Dan: Esa es una pregunta difícil de responder. Sabes que estos modelos mejoran muchísimo cada semana, ¿verdad? <Sonal: Sí> Así que es posible que para el año que viene estos problemas ya estén solucionados y que se pueda confiar en ellos para escribir código más seguro. Supongo que lo que estamos diciendo ahora mismo es que, si se usan los modelos actuales (GPT-4, GPT-3, etc.) para generar código, hay que ser muy cuidadoso y verificar que el código que escribieron realmente cumpla su función y sea seguro.
Sonal: Entendido.
Ali: Y, por cierto, ¿llegaremos a un punto en el que el código generado por los LLM tenga menos probabilidades de contener errores que el generado por un humano? <Sonal: ¡Sí!> Y quizás esa sea una pregunta más importante, ¿no?
Porque de la misma manera que nunca puedes decir que un coche autónomo nunca se estrellará, la verdadera pregunta que realmente importa es: ¿es menos probable que se estrelle que si fuera un conductor humano? <Sonal: Eso es exactamente correcto> Porque la verdad es que probablemente sea imposible garantizar que nunca habrá un accidente automovilístico causado por un coche autónomo, o que nunca habrá un error <Sonal: cierto> generado por un LLM al que le has pedido que escriba algún código.
Y creo que, dicho sea de paso, esto se volverá cada vez más potente cuanto más se integre en las cadenas de herramientas existentes. Como ya comentamos, se puede integrar en cadenas de herramientas de verificación formal. Se puede integrar en otras herramientas, como la que describió Dan, que detecta problemas de gestión de memoria. También se puede integrar en cadenas de herramientas de pruebas unitarias y de integración. De esta manera, el LLM no actúa de forma aislada: recibe retroalimentación en tiempo real de otras herramientas que lo conectan con la realidad.
Y creo que a través de la combinación de modelos de aprendizaje automático que son extremadamente grandes, entrenados con todos los datos del mundo, combinados con estas otras herramientas, en realidad podría crear programadores que sean bastante superiores a los programadores humanos. <mhm> E incluso si todavía pudieran cometer errores, podrían ser sobrehumanos.
Y ese será un gran momento para el mundo de la ingeniería de software en general.
Sonal: Sí. Qué buen encuadre, Ali…
Entonces, ¿cuáles son algunas de las otras tendencias que se avecinan y en las que la IA puede ayudar a las criptomonedas, y viceversa?
Ali: Sí… Una posibilidad emocionante en este espacio es que podamos construir redes sociales descentralizadas que en realidad se comporten de forma muy similar a Twitter, pero donde el gráfico social esté completamente en cadena y sea casi como un bien público sobre el cual cualquiera pueda construir.
Como usuario, controlas tu propia identidad en el gráfico social. Controlas tus datos, a quién sigues y quién puede seguirte. Existe todo un ecosistema de empresas que crean portales en el gráfico social que ofrecen a los usuarios experiencias similares a las de Twitter, Instagram, TikTok o cualquier otra plataforma que deseen desarrollar.
Pero todo esto está encima de este mismo gráfico social <Sonal: yah> que nadie posee y que no hay ninguna empresa tecnológica de mil millones de dólares en el medio que tenga control total sobre él y que pueda decidir lo que sucede en él.
Y ese mundo es emocionante porque significa que puede ser mucho más dinámico; puede existir todo un ecosistema de personas creando cosas y cada usuario tiene mucho más control sobre lo que ve y lo que puede hacer en la plataforma. Pero también existe la necesidad de filtrar la señal del ruido. Y, por ejemplo, la necesidad de crear algoritmos de recomendación sensatos que filtren todo el contenido y te muestren el canal de noticias que realmente quieres ver.
Esto abrirá la puerta a todo un mercado, un entorno competitivo, de participantes que te proporcionarán algoritmos basados ​​en IA que seleccionan contenido para ti. Como usuario, podrías tener una opción: puedes optar por un algoritmo en particular, tal vez el desarrollado por Twitter, o por uno desarrollado por alguien completamente diferente.
Y ese tipo de autonomía será genial, pero, de nuevo, vas a necesitar herramientas como el aprendizaje automático y la IA para ayudarte a filtrar el ruido y analizar todo el spam que inevitablemente existirá en un mundo donde los modelos generativos pueden crear todo el spam del mundo.
Sonal: Lo interesante de lo que dijiste también es que ni siquiera se trata de elegir entre... Se remonta a esta idea que mencionaste antes, y mencionaste esto brevemente sobre simplemente dar a los usuarios las opciones para elegir entre mercados de ideas y enfoques gratuitos que puedan decidir...
Pero también es interesante porque no se trata solo de empresas, sino de qué enfoque te funciona. Quizás te interese más el algoritmo de filtrado colaborativo que existía en los sistemas de recomendación originales, que funciona como un filtrado colaborativo entre personas. <Ali: sí> Así que las recomendaciones de tus amigos son lo que sigues.
De hecho, personalmente soy muy diferente y estoy mucho más interesado en un gráfico de intereses; y por lo tanto, podría estar mucho más interesado en personas que tienen intereses similares a los míos, y podría elegir ese enfoque en lugar de, digamos, algo más que sea algo así como, oye, este es un enfoque híbrido, lo único que va a hacer es XY y Z.
El simple hecho de poder elegir ya es tremendamente empoderador. Eso simplemente no es posible ahora mismo. Y solo es posible con las criptomonedas y la IA. Así que ese es un gran ejemplo. <¡Ah, sí!>
¿Había algo más que decir sobre cómo la IA puede ayudar con la confianza y la seguridad?
Ali: Creo que esa metaimagen es que las criptomonedas son el Salvaje Oeste. Como no requieren permisos, cualquiera puede participar; hay que asumir que quien participe podría ser un adversario <sí> y tal vez intentar manipular el sistema, hackearlo o hacer algo malicioso.
Por eso, existe una necesidad mucho mayor de herramientas que ayuden a filtrar a los participantes honestos de los deshonestos, y el aprendizaje automático y la IA, como herramientas de inteligencia, pueden ser realmente muy útiles en ese frente.
Por ejemplo, existe un proyecto llamado Stelo, que utiliza aprendizaje automático para identificar transacciones sospechosas enviadas a una billetera y las marca para el usuario antes de que se envíen a la cadena de bloques. Esto podría ser una buena manera de evitar que el usuario envíe accidentalmente todos sus fondos a un atacante o haga algo de lo que luego se arrepienta. <mhm> Y esa empresa básicamente vende a billeteras (a empresas como Metamask) para que Metamask pueda usar la información y hacer lo que quiera con ella: bloquear la transacción, advertir al usuario o, en cierto modo, replantear la transacción para que deje de ser peligrosa. Ese es un ejemplo.
También hay otros ejemplos en el contexto de MEV (valor mínimo extraíble, <Sonal: sí>) o valor máximo extraíble, según a quién le preguntes, que es el valor que pueden extraer quienes controlan el orden de las transacciones en una cadena de bloques. Estos suelen ser los mineros o validadores de una cadena de bloques.
Y la IA, en este caso, puede ser un arma de doble filo, ya que si eres un validador en una blockchain y controlas la ordenación de las transacciones, puedes implementar todo tipo de estrategias inteligentes para ordenarlas de forma que te beneficies. Por ejemplo, puedes adelantar transacciones, retrasar transacciones e intercalar órdenes en Uniswap. Hay muchísimas transacciones que puedes crear para aprovechar esta capacidad de ordenar transacciones. El aprendizaje automático y la IA podrían potenciar esa capacidad, ya que pueden buscar oportunidades para capturar cada vez más MEV.
Por otro lado, el aprendizaje automático puede ser útil también como herramienta defensiva. Antes de enviar una transacción, es posible que sepas que existe un MEV que podría extraerse de ella. Por lo tanto, podrías dividirla en varias para que ningún validador pueda controlarla por completo, o tomar medidas para protegerte de un extractor de MEV en algún punto del proceso de la transacción.
Así que este es un aspecto en el que las criptomonedas juegan un papel importante cuando se trata de seguridad, cuando se trata de confianza, cuando se trata de hacer que el espacio sea más confiable para el usuario final.
Sonal: Ese es un ejemplo de cómo la IA dificulta las cosas en el ámbito de las criptomonedas, y luego las criptomonedas regresan y mejoran las cosas para... <se ríe>.
Dan: De hecho, tengo otro ejemplo parecido. <Sonal: ¡Sí!> Así como los modelos de aprendizaje automático pueden usarse para detectar datos falsos o quizás actividad maliciosa, <mm>, existe la otra cara de la moneda: los modelos de aprendizaje automático pueden usarse para generar datos falsos. <Sonal: Sí>
El ejemplo clásico son las falsificaciones profundas, ¿verdad? Se puede crear un video de alguien diciendo cosas que nunca dijo, y ese video parece bastante realista. Y lo interesante es que las cadenas de bloques pueden ayudar a solucionar el problema. Permítanme explicarles un posible enfoque en el que las cadenas de bloques podrían ser útiles:
Imagina que es una solución que solo podría aplicarse a figuras conocidas como políticos o estrellas de cine, etc. <Sonal: mhm>. Pero imagina que un político llevara una cámara en el pecho y grabara lo que hace todo el día <Sonal: sí>, y luego creara un árbol de Merkle a partir de esa grabación y enviara los compromisos del árbol de Merkle a la cadena de bloques. <mhm>
Ahora, en la cadena de bloques, hay una marca de tiempo que indica que, en esta y esta fecha, dijiste esto y aquello; en esta y aquella fecha, dijiste esto y aquello. Y si alguien crea un video ultrafalso de este político diciendo cosas que nunca dijo, el político puede decir: «Mira, en ese momento, cuando el video decía que dije esto y aquello, en realidad estaba en un lugar completamente diferente, haciendo algo sin relación».
Y el hecho de que todos estos datos, los datos reales, los datos auténticos, se registren en una cadena de bloques puede usarse para demostrar que la falsificación profunda es realmente falsa y no datos reales. ¿Sí?
Así que esto no es algo que exista todavía. <Sonal: sí> Sería divertido que alguien construyera algo así, pero pensé que es un ejemplo interesante de cómo las cadenas de bloques podrían ser realmente útiles <Sonal: sí> para combatir las falsificaciones profundas.
Sonal: ¿Hay también una manera de resolver ese problema y mostrar otras marcas de tiempo o procedencia, donde se pueda hacer ese tipo de verificación de lo que es verdad/lo que no es verdad sin tener que hacer que un político ande por ahí con una cámara <Dan se ríe> en el pecho?
Dan: Sí, por supuesto. También podemos confiar en hardware confiable para esto; <mhm> Así que imagina, ya sabes, nuestras cámaras, las cámaras de nuestros teléfonos y demás, que realmente firmarían las imágenes y los videos que toman. <Sonal: sí>.
Hay un estándar, llamado C2PA, que especifica cómo las cámaras firmarán los datos; de hecho, hay una cámara de Sony que ahora toma fotografías y videos y luego produce firmas C2PA en esos videos... Así que ahora básicamente tienes datos auténticos; en realidad puedes probar que los datos realmente provienen de una cámara C2PA.
Y ahora Sonal, si tal vez lees un artículo de periódico, y hay una imagen en el artículo, y dice ser de un lugar, pero de hecho está tomada de un lugar diferente; la firma en realidad podría verificarse con el hecho de que está firmada por C2PA.
Hay muchos matices allí, C2PA es un tema bastante complicado, <mhm> hay muchos matices que discutir y tal vez no los tratemos aquí;
Sonal: Dan, recuerdo que hablaste de este trabajo conmigo antes (creo que fue en nuestra oficina); pero también recuerdo que no resiste la edición. Y como sabes, los editores como yo y otros creadores de contenido, y sinceramente, casi cualquiera (que use Instagram o cualquier publicación en línea)… nadie sube nada exactamente igual a como fue creado originalmente…
Dan: Sí , normalmente, cuando los periódicos publican fotos, no publican la imagen de la cámara tal cual, sino que la recortan. Hay un par de cosas autorizadas que pueden hacer con las fotos: quizás aplicarles escala de grises; definitivamente, reducir la resolución (para no consumir mucho ancho de banda).
En el momento en que empiezas a editar la imagen, el destinatario (el lector final, el usuario del navegador que lee el artículo) ya no puede verificar la firma C2PA. Porque no tiene la imagen original. <Sonal: ¡Cierto!> Entonces, la pregunta es: ¿cómo permites que el usuario verifique que la imagen que está viendo realmente está firmada correctamente por una cámara C2PA?
Bueno, como siempre, aquí es donde entran en juego las técnicas de conocimiento cero <Sonal: ¡mmm!>: donde se puede demostrar que la imagen editada es en realidad el resultado de aplicar solo reducción de resolución y escala de grises a una imagen más grande correctamente firmada. ¿Sí? Así que, en lugar de una firma C2PA, tendríamos una prueba ZK (una prueba ZK corta) asociada a cada una de estas imágenes. Y ahora los lectores pueden verificar <mhm> que están viendo imágenes auténticas.
Así que es muy interesante que las técnicas ZK se puedan usar para combatir la desinformación. Es una aplicación un tanto inesperada.
Sonal: Eso es fantástico.
Ali: Por cierto, un problema muy relacionado es demostrar que eres humano <Sonal: mhm> en un mundo donde las falsificaciones profundas que crean la apariencia de humanidad generalmente superan en número a los humanos en una proporción de mil a uno o de un millón a uno. Y la mayoría de las cosas en internet podrían estar generadas por IA.
Una posible solución, relacionada con lo que dices, es usar la biometría para determinar si alguien es humano. Pero luego usar pruebas de conocimiento cero para proteger la privacidad de quienes usan esa biometría para demostrar su humanidad.
Un proyecto en esta categoría se llama WorldCoin <Sonal: sí>, también es un proyecto de nuestra cartera, y utiliza este orbe; la gente puede haberlo visto como un orbe plateado brillante, que utiliza escaneos de retina como información biométrica para verificar que eres un ser humano real; y también tiene todo tipo de sensores para garantizar que estás vivo y que no puede ser la imagen de un ojo. Este sistema tiene hardware seguro y es muy difícil de manipular.
De tal manera que la prueba resultante, una prueba de conocimiento cero que oculta la información biométrica real, es extremadamente difícil de falsificar. De esta manera, los políticos podrían, por ejemplo, <Sonal: mhm> demostrar que su transmisión de video, su firma o su participación en un foro en línea son realmente suyas y que son humanos.
Sonal: Lo que es realmente interesante sobre lo que dijiste, Ali, es que es una gran continuación de lo que Dan estaba diciendo sobre las formas de verificar los medios auténticos frente a los medios falsos o ultrafalsos, y este mundo de medios infinitos (como dirías) en el que vivimos...
Pero ¿cuáles son las otras aplicaciones de tecnologías de prueba de personalidad como esta? Creo que es importante, porque este es otro ejemplo de cómo la criptografía también puede ayudar a la IA de forma más amplia. Volviendo atrás... estamos yendo y viniendo, <Ali: sí>, pero no importa porque solo estamos hablando de aplicaciones realmente interesantes, y punto.
Ali: Bueno, esa es una muy buena pregunta… Una de las cosas que cobrará importancia en un mundo donde cualquiera pueda participar en línea es poder demostrar que eres humano, para diversos fines. Existe ese famoso dicho de los 90 que dice: «En internet, nadie sabe que eres un perro». <Sonal: ¡Ah, sí!> Y creo que una versión reinterpretada de ese dicho es que en internet, nadie sabe que eres un bot. <Sonal: ¿Ajá?> Y entonces supongo que aquí es precisamente donde los proyectos de prueba de humanidad cobran gran importancia <Sonal: ¡Sí!>, porque será importante saber si estás interactuando con un bot o con un humano…
Por ejemplo, en el mundo de las criptomonedas, existe toda una cuestión de gobernanza: ¿Cómo se gobiernan sistemas descentralizados, sin un único punto de control, de abajo a arriba y de propiedad comunitaria? Se necesitaría algún tipo de sistema de gobernanza que permita controlar la evolución de esos sistemas.
Y el problema hoy es que si no tienes pruebas de humanidad, entonces no puedes saber si una dirección pertenece a un solo humano; o si pertenece a un grupo de humanos; o si 10.000 direcciones en realidad pertenecen a un solo humano y están pretendiendo ser 10.000 personas diferentes.
Así que hoy en día, en realidad, es necesario usar la cantidad de dinero como indicador del poder de voto, lo que conduce a una gobernanza plutocrática. <Sonal: Sí, exactamente> Pero si cada participante en un sistema de gobernanza pudiera demostrar que es humano, y pudiera hacerlo de forma única (de modo que no pudiera fingir ser más de un humano porque solo tiene un par de ojos), entonces el sistema de gobernanza sería mucho más justo y menos plutocrático, y podría basarse más en las preferencias de cada individuo, en lugar de en la preferencia de la mayor cantidad de dinero bloqueada en un contrato inteligente.
Dan: En realidad, sólo para dar un ejemplo de eso…
Hoy en día, nos vemos obligados a usar "una ficha, un voto" porque no tenemos pruebas de humanidad. Quizás nos gustaría usar un humano, un voto, pero si podemos fingir ser cinco humanos, claro que no funciona. Un ejemplo de esto es el llamado voto cuadrático. <Sonal: sí>
En la votación cuadrática, si quieres votar cinco veces por algo, tienes que, por así decirlo, depositar 25 fichas. Pero, claro, puedes hacer lo mismo: fingir ser cinco personas diferentes votando una vez, lo que frustraría el mecanismo de la votación cuadrática. La única forma de evitarlo es esta prueba de humanidad: para votar, debes demostrar que eres una sola entidad y no una sibila de entidades. Y ahí es precisamente donde la prueba de humanidad desempeñaría un papel importante.
En general, la identidad en cadena se está volviendo cada vez más importante para la gobernanza.
Sonal: Totalmente... Por cierto, eso me recordó un episodio que hicimos hace años, Ali, con Phil Daian. <Ali: Ah, sí> ¿Te acuerdas, sobre "Dark DAOs"? <Ali: Sí... exactamente> Fue una conversación muy interesante. Totalmente relevante.
Ali: Totalmente.
Sonal: Por cierto, ¿la frase es «prueba de personalidad» o «prueba de humanidad»? ¿Cuál es la diferencia? ¿Es lo mismo?
Ali: Ah, sí, la gente los usa indistintamente: prueba de ser humano, prueba de humanidad, prueba de personalidad.
Sonal: Sí, sí.
Bien, entonces sigamos con este tema de los medios, y este tipo de "abundancia infinita" de medios, como ¿cuáles son otros ejemplos? - y de nuevo, estamos hablando de las criptomonedas ayudando a la IA, la IA ayudando a las criptomonedas <Ali: yah> - ¿hay otros ejemplos que no hayamos cubierto aquí donde la intersección de las criptomonedas y la IA pueda generar cosas que no son posibles con ninguna de ellas sola?
Ali: Totalmente. O sea, otra implicación de estos modelos generativos es que viviremos en un mundo de abundancia infinita de medios. Y en ese mundo, aspectos como la comunidad en torno a un medio en particular, o la narrativa en torno a un medio en particular, cobrarán cada vez mayor importancia.
Para ser más concretos, aquí hay dos buenos ejemplos: Sound.xyz está desarrollando una plataforma de streaming de música descentralizada que permite a los artistas (músicos, en esencia) subir música y conectar directamente con sus comunidades mediante la venta de NFT que otorgan ciertos privilegios a sus miembros. Por ejemplo, la posibilidad de publicar un comentario en la canción en el sitio web de Sound.xyz, para que cualquier otra persona que la reproduzca también pueda verlo. (Esto es similar a la antigua función de SoundCloud que quizás recuerden, donde se podía tener una experiencia social completa en la música mientras se reproducía en el sitio web).
Se trata de esta capacidad que permite a las personas interactuar con los medios y entre sí, a menudo de forma económica, ya que básicamente compran este NFT del artista para poder hacerlo. Y, como consecuencia, apoyan al artista y le ayudan a ser sostenible y a crear más música.
Pero lo mejor de todo esto es que ofrece a los artistas un foro para interactuar con su comunidad. Y el artista es un artista humano. Y gracias a la participación de las criptomonedas, se puede crear una comunidad en torno a una pieza musical —que no existiría automáticamente en torno a una pieza musical— creada mediante un modelo de aprendizaje automático sin ningún elemento humano, sin una comunidad a su alrededor.
Así que pienso de nuevo, en un mundo donde gran parte de la música a la que estaremos expuestos será generada íntegramente por IA, las herramientas para construir comunidad y contar una historia en torno al arte, la música y otros medios serán muy importantes para distinguir los medios que realmente nos importan y en los que queremos invertir y dedicar tiempo, de los medios que, aunque también sean muy buenos, son simplemente un tipo diferente. Son medios generados por IA con menos componente humano. <sí> Y, por cierto, puede que exista cierta sinergia entre ambos:
Podría ser que gran parte de la música esté optimizada o generada por IA. Pero si además hay un componente humano —por ejemplo, si un creador utiliza herramientas de IA para crear una nueva pieza musical—, pero además tiene personalidad en Sound, una página de artista, ha creado una comunidad y tiene seguidores, entonces se crea una especie de sinergia entre ambos mundos. <sí> Donde ambos tienen la mejor música, potenciada por los superpoderes que les otorga la IA; pero también tienen un componente humano y una historia, coordinada y realizada por este aspecto criptográfico (que permite reunir a todas esas personas en una sola plataforma).
Dan: Es realmente asombroso que incluso en el mundo de la música —tal como hablamos en el mundo de la programación, donde un programador humano se ve mejorado con herramientas como Copilot que generan código— estemos viendo cosas como esta: un artista se ve mejorado por sistemas de aprendizaje automático que ayudan a escribir (o al menos, parte de la música se escribe y genera mediante un sistema de aprendizaje automático). Así que, sin duda, nos estamos adentrando en un nuevo mundo en términos de generación de contenido. Básicamente, habrá mucho spam generado por arte generado por máquinas, que la gente podría no valorar tanto como el arte generado por un ser humano.
Quizás otra forma de decirlo es que uno de los objetivos de los NFT era apoyar a los artistas. <Sonal: sí> Pero si los propios artistas ahora son modelos de aprendizaje automático, ¿a quién exactamente apoyamos? <risas> <Sonal: sí… sí> Entonces, la cuestión es cómo distinguimos, cómo diferenciamos el arte generado por humanos que necesita apoyo <Sonal: Sí> del arte generado por máquinas.
Sonal: Bueno, esta es una discusión filosófica para tomar algo, pero me atrevería a decir que quien apunta también es un artista, en cierto modo. <Ali: sí> Y, de hecho, yo diría que esa persona es un artista. Y lo mismo ha ocurrido con… ya que esta es una discusión y un debate tan antiguo como el tiempo: simplemente se trata de nuevas tecnologías, viejos comportamientos. Es lo mismo que ha estado ocurriendo durante siglos. Y lo mismo ocurre con la escritura, etc., totalmente.
Dan: Muy cierto.
Ali: Bueno, eso en realidad abre la puerta al arte colectivo <Sonal: mhm>, al arte que se genera a través del proceso creativo de toda una comunidad, en lugar de un solo artista;
De hecho, ya hay proyectos que hacen esto, donde: tienes un proceso mediante el cual una comunidad influye a través de algún proceso de votación en cadena sobre cuál será el mensaje para un modelo de aprendizaje automático como DALL-E. <mhm> Luego, DALL-E usa ese mensaje para generar una obra de arte (quizás generes no 1 obra de arte, sino 10 000) y luego usas otro modelo de aprendizaje automático, que también está entrenado a partir de los comentarios de la comunidad, para elegir entre esos 10 000 el mejor.
Bien, ahora tienes una obra de arte generada a partir de las aportaciones de la comunidad; también se podó y se seleccionó de un conjunto de 10 000 variantes de esa obra de arte (sí, sí), también mediante un modelo de aprendizaje automático entrenado por la comunidad, para luego generar una obra de arte. Es, en cierto modo, el resultado de esta colaboración colectiva.
Eso es increíble.
Sonal: Me encanta. Bueno, chicos, es una gran nota para terminar; gracias a ambos por compartir todo eso con los oyentes de "web3 con a16z".
Dan: Gracias Sonal.
Ali: Muchas gracias.

Las opiniones expresadas aquí son las del personal de AH Capital Management, LLC (“a16z”) citado y no las de a16z ni de sus filiales. Parte de la información aquí contenida se ha obtenido de fuentes externas, incluyendo empresas de cartera de fondos gestionados por a16z. Si bien proviene de fuentes consideradas fiables, a16z no ha verificado dicha información de forma independiente y no garantiza su exactitud permanente ni su idoneidad para una situación concreta. Además, este contenido puede incluir publicidad de terceros; a16z no ha revisado dicha publicidad y no la avala.
Este contenido se proporciona únicamente con fines informativos y no debe considerarse asesoramiento legal, comercial, de inversión ni fiscal. Consulte con sus asesores sobre estos asuntos. Las referencias a valores o activos digitales son solo ilustrativas y no constituyen una recomendación de inversión ni una oferta de servicios de asesoramiento en materia de inversión. Asimismo, este contenido no está dirigido a inversores ni a posibles inversores, y en ningún caso debe utilizarse como base para tomar la decisión de invertir en un fondo gestionado por a16z. (Una oferta de inversión en un fondo de a16z se realizará únicamente mediante el memorando de colocación privada, el acuerdo de suscripción y demás documentación pertinente de dicho fondo, y debe leerse en su totalidad). Las inversiones o empresas de cartera mencionadas, referidas o descritas no representan todas las inversiones en vehículos gestionados por a16z, y no se puede garantizar que las inversiones sean rentables ni que otras inversiones futuras tengan características o resultados similares. Una lista de inversiones realizadas por fondos administrados por Andreessen Horowitz (excluidas las inversiones para las cuales el emisor no ha otorgado permiso a a16z para divulgarlas públicamente, así como las inversiones no anunciadas en activos digitales que cotizan en bolsa)
#BİNANCESQUARE
$BTC
Zobrazit originál
ZK analýza této měny V 15 minutě trh vyzve, že se objevil fialový signál, což je krátký nákupní bod. Pokud nemůže obsadit: 0,1646 pozice Krátká strana začíná vstupovat na trh přímo #zkml #币安上线ZK Směr průzkumu: blízko pozice 0,1626 Hledejte směr: kolem 0,1704 👬 Bratři! Velké úrovně ve stejném směru jsou krátké a prodej nakrátko je ziskovější. Zároveň si pamatujte, že tvrdá práce vede k chudobě v měnovém kruhu. #币安用户数突破2亿 $ZK {future}(ZKUSDT)
ZK analýza této měny

V 15 minutě trh vyzve, že se objevil fialový signál, což je krátký nákupní bod.
Pokud nemůže obsadit: 0,1646 pozice
Krátká strana začíná vstupovat na trh přímo #zkml #币安上线ZK

Směr průzkumu: blízko pozice 0,1626
Hledejte směr: kolem 0,1704
👬 Bratři! Velké úrovně ve stejném směru jsou krátké a prodej nakrátko je ziskovější. Zároveň si pamatujte, že tvrdá práce vede k chudobě v měnovém kruhu. #币安用户数突破2亿 $ZK
Zobrazit originál
Lagrange – Kde se AI setkává s bezpečností bez znalosti Jak se umělá inteligence neustále vyvíjí, roste také potřeba soukromí, transparentnosti a důvěry. @lagrangedev vede tuto misi s DeepProve, nejrychlejším zkML systémem ve Web3. DeepProve umožňuje vývojářům a firmám ověřovat výstupy AI pomocí důkazů bez znalosti — zajišťuje, že výsledky jsou správné, aniž by odhalily citlivá data. To je zásadní pro sektory jako zdravotnictví, finance a obrana, kde je soukromí nevyjednatelné. Ale Lagrange neřeší jen problémy — buduje infrastrukturu. Token $LA pohání tento systém, podporuje generování důkazů, validaci a incentivy v síti. Od bezpečného strojového učení po decentralizovanou verifikovatelnost, Lagrange je zásadní součástí nové AI vrstvy. Ať už stavíte, investujete, nebo vás zajímá zkML, Lagrange je projekt, který stojí za sledování. $LA {spot}(LAUSDT) #lagrange #zkML #ZeroKnowledge #AI #Web3
Lagrange – Kde se AI setkává s bezpečností bez znalosti

Jak se umělá inteligence neustále vyvíjí, roste také potřeba soukromí, transparentnosti a důvěry. @Lagrange Official vede tuto misi s DeepProve, nejrychlejším zkML systémem ve Web3.

DeepProve umožňuje vývojářům a firmám ověřovat výstupy AI pomocí důkazů bez znalosti — zajišťuje, že výsledky jsou správné, aniž by odhalily citlivá data. To je zásadní pro sektory jako zdravotnictví, finance a obrana, kde je soukromí nevyjednatelné.

Ale Lagrange neřeší jen problémy — buduje infrastrukturu. Token $LA pohání tento systém, podporuje generování důkazů, validaci a incentivy v síti. Od bezpečného strojového učení po decentralizovanou verifikovatelnost, Lagrange je zásadní součástí nové AI vrstvy.

Ať už stavíte, investujete, nebo vás zajímá zkML, Lagrange je projekt, který stojí za sledování.
$LA

#lagrange #zkML #ZeroKnowledge #AI #Web3
Zobrazit originál
🔥Lagrange napájí bezdůvodnou AI a ZK výpočty pro budoucnost Web3 Lagrange ZK motor transformující AI, DeFi a Web3 v měřítku Jak se Web3 rychle vyvíjí za hranice financí do AI, DeFi a datové infrastruktury, potřeba ověřitelných, škálovatelných a bezdůvodných výpočtů roste. Vstupte do Lagrange – příští generace mocného Zero-Knowledge (ZK), která přináší validaci AI v reálném čase, generování důkazů mezi řetězci a modulární škálovatelnost do života. Proč je Lagrange game-changer: 1️⃣ ZK Prover Network – Plně decentralizovaná, s 85+ expertními uzly zabezpečujícími generování důkazů napříč AI, rollupy a dApps 2️⃣ zkML prostřednictvím DeepProve – Ověřuje inferences AI v reálném čase s více než 11M ZK důkazů generovaných a 3M+ validací AI 3️⃣ Modularní design napříč řetězci – Podporuje jak EVM, tak ne-EVM řetězce, což činí Lagrange budoucí a flexibilní 4️⃣ Ekonomika tokenu $LA – Podporování prover ekonomiky prostřednictvím stakingu, nabízení a pobídek k udržení robustnosti a bezpečnosti sítě 💡 Lagrange v akci: ✅ Ověřené AI výstupy s on-chain důkazem Optimalizace rollupů pro nízkonákladovou škálovatelnost Ověřitelné orákuly a vlastní koprocessory Bezproblémové propojení napříč blockchainy Na rozdíl od tradičních rollupů, které škálují L1s, Lagrange buduje ZK páteř pro celý decentralizovaný stack. Nejde jen o škálování – jde o budování důvěry ve světě, kde dominuje AI a off-chain výpočty. Lagrange = Důkaz, ne sliby Nástroje pro tvůrce | Důvěra pro uživatele | Růst pro ekosystém ZK je budoucnost. Lagrange ji činí použitelnou, škálovatelnou a nezastavitelnou. #Lagrange #ZKProofs #zkML #Web3Computing #CryptoInfrastructure
🔥Lagrange napájí bezdůvodnou AI a ZK výpočty pro budoucnost Web3

Lagrange ZK motor transformující AI, DeFi a Web3 v měřítku

Jak se Web3 rychle vyvíjí za hranice financí do AI, DeFi a datové infrastruktury, potřeba ověřitelných, škálovatelných a bezdůvodných výpočtů roste. Vstupte do Lagrange – příští generace mocného Zero-Knowledge (ZK), která přináší validaci AI v reálném čase, generování důkazů mezi řetězci a modulární škálovatelnost do života.

Proč je Lagrange game-changer:
1️⃣ ZK Prover Network – Plně decentralizovaná, s 85+ expertními uzly zabezpečujícími generování důkazů napříč AI, rollupy a dApps
2️⃣ zkML prostřednictvím DeepProve – Ověřuje inferences AI v reálném čase s více než 11M ZK důkazů generovaných a 3M+ validací AI
3️⃣ Modularní design napříč řetězci – Podporuje jak EVM, tak ne-EVM řetězce, což činí Lagrange budoucí a flexibilní
4️⃣ Ekonomika tokenu $LA – Podporování prover ekonomiky prostřednictvím stakingu, nabízení a pobídek k udržení robustnosti a bezpečnosti sítě

💡 Lagrange v akci:

✅ Ověřené AI výstupy s on-chain důkazem

Optimalizace rollupů pro nízkonákladovou škálovatelnost

Ověřitelné orákuly a vlastní koprocessory

Bezproblémové propojení napříč blockchainy

Na rozdíl od tradičních rollupů, které škálují L1s, Lagrange buduje ZK páteř pro celý decentralizovaný stack. Nejde jen o škálování – jde o budování důvěry ve světě, kde dominuje AI a off-chain výpočty.

Lagrange = Důkaz, ne sliby
Nástroje pro tvůrce | Důvěra pro uživatele | Růst pro ekosystém

ZK je budoucnost. Lagrange ji činí použitelnou, škálovatelnou a nezastavitelnou.

#Lagrange #ZKProofs #zkML #Web3Computing #CryptoInfrastructure
Zobrazit originál
🚀 Další hranice důvěry Web3 je již tady — a jmenuje se Lagrange Zapomeňte na hype. Skutečná evoluce ve Web3 je ověřitelný výpočet a Lagrange je v čele — živý, škálovatelný a poháněný důkazy s nulovým znalostem. Jak se AI a DeFi střetávají a on-chain data se stávají stále složitějšími, Lagrange nabízí to, co nikdo jiný nemůže: ✅ Ověřování inference AI s nulovým znalostem 🌉 Meziřetězcová komunikace bez centrální důvěry ⚡ Off-chain výpočet, který zachovává integritu Vše zabezpečeno a koordinováno tokenem LA — nativním palivem pro důvěru, správu a restaking. 🔍 Proč je Lagrange změnou hry: 🔗 Integrovaný EigenLayer: Využívá restakovaný ETH pro maximální bezpečnost 🧠 Ověřitelná AI: Umožňuje zkML a nepozměnitelné strojové učení 🛡 Decentralizované ověřování důkazů: Postaveno na robustní síti uzlů 🎯 Motivace k souladu: Poctiví aktéři odměňováni LA; zlé chování demotivováno To není nápad z whitepaperu — už to mění, jak se stavitelé přistupují k bezpečnosti, škálovatelnosti a výpočtům napříč doménami v: 🏦 Auditech DeFi protokolů 🤖 AI-poháněné orákuly 🔄 Modulární rollupy a datové vrstvy ⏳ Závěr: Ve světě Web3 s více řetězci a integrovanou AI není ověřitelný výpočet volbou — je základem. A Lagrange nečeká na budoucnost. Staví ji. 🔁 Označte vývojáře, který potřebuje prozkoumat zkCompute 📊 Sledujte pro hluboké poznatky o LA, ZKML a základech restakingu 🧵 Buďte napřed — nebo zůstaňte pozadu. $LA {future}(LAUSDT) #Lagrange #ZKProofs #zkML @lagrangedev
🚀 Další hranice důvěry Web3 je již tady — a jmenuje se Lagrange
Zapomeňte na hype. Skutečná evoluce ve Web3 je ověřitelný výpočet a Lagrange je v čele — živý, škálovatelný a poháněný důkazy s nulovým znalostem.

Jak se AI a DeFi střetávají a on-chain data se stávají stále složitějšími, Lagrange nabízí to, co nikdo jiný nemůže:
✅ Ověřování inference AI s nulovým znalostem
🌉 Meziřetězcová komunikace bez centrální důvěry
⚡ Off-chain výpočet, který zachovává integritu

Vše zabezpečeno a koordinováno tokenem LA — nativním palivem pro důvěru, správu a restaking.

🔍 Proč je Lagrange změnou hry:

🔗 Integrovaný EigenLayer: Využívá restakovaný ETH pro maximální bezpečnost

🧠 Ověřitelná AI: Umožňuje zkML a nepozměnitelné strojové učení

🛡 Decentralizované ověřování důkazů: Postaveno na robustní síti uzlů

🎯 Motivace k souladu: Poctiví aktéři odměňováni LA; zlé chování demotivováno

To není nápad z whitepaperu — už to mění, jak se stavitelé přistupují k bezpečnosti, škálovatelnosti a výpočtům napříč doménami v:

🏦 Auditech DeFi protokolů

🤖 AI-poháněné orákuly

🔄 Modulární rollupy a datové vrstvy

⏳ Závěr:
Ve světě Web3 s více řetězci a integrovanou AI není ověřitelný výpočet volbou — je základem.
A Lagrange nečeká na budoucnost. Staví ji.

🔁 Označte vývojáře, který potřebuje prozkoumat zkCompute
📊 Sledujte pro hluboké poznatky o LA, ZKML a základech restakingu
🧵 Buďte napřed — nebo zůstaňte pozadu.

$LA
#Lagrange #ZKProofs #zkML @Lagrange Official
Zobrazit originál
DeepProve: Lagrange uvádí zkML, aby udržel AI pod kontrolou#BNBATH900 DeepProve: Lagrange uvádí zkML, aby udržel AI pod kontrolou $LA Srpen 2025 – @LagrangeOfficial uvedl DeepProve, průlomovou knihovnu zkML (strojové učení s nulovým znalostem) navrženou tak, aby umělou inteligenci učinila ověřitelnou, škálovatelnou a důvěryhodnou. V éře, která spěchá k umělé superinteligenci, DeepProve slibuje zajistit, aby AI systémy jednaly v souladu s lidským záměrem tím, že umožní kryptografické důkazy pro výstupy strojového učení. Problém: AI jako černá skříňka Dnešní AI modely často fungují jako neprůhledné systémy. Dodávají výsledky, ale jak uživatelé, tak vývojáři zřídka rozumí tomu, jak byly tyto závěry dosaženy. Tento nedostatek transparentnosti zvyšuje rizika, která se pohybují od deepfake a zaujatých algoritmů po zneužití ve zdravotnictví, financích a obraně. Odborníci varují, že nekontrolovaná AI by mohla sledovat své vlastní cíle – někdy klamně – a představovat existenční hrozby.

DeepProve: Lagrange uvádí zkML, aby udržel AI pod kontrolou

#BNBATH900 DeepProve: Lagrange uvádí zkML, aby udržel AI pod kontrolou
$LA
Srpen 2025 – @LagrangeOfficial uvedl DeepProve, průlomovou knihovnu zkML (strojové učení s nulovým znalostem) navrženou tak, aby umělou inteligenci učinila ověřitelnou, škálovatelnou a důvěryhodnou.
V éře, která spěchá k umělé superinteligenci, DeepProve slibuje zajistit, aby AI systémy jednaly v souladu s lidským záměrem tím, že umožní kryptografické důkazy pro výstupy strojového učení.
Problém: AI jako černá skříňka
Dnešní AI modely často fungují jako neprůhledné systémy. Dodávají výsledky, ale jak uživatelé, tak vývojáři zřídka rozumí tomu, jak byly tyto závěry dosaženy. Tento nedostatek transparentnosti zvyšuje rizika, která se pohybují od deepfake a zaujatých algoritmů po zneužití ve zdravotnictví, financích a obraně. Odborníci varují, že nekontrolovaná AI by mohla sledovat své vlastní cíle – někdy klamně – a představovat existenční hrozby.
Zobrazit originál
🚀 DeepProve: Lagrange uvádí zkML, aby udržel AI pod kontrolou $LA {future}(LAUSDT) | Srp 2025 – @LagrangeOfficial představil DeepProve, revoluční knihovnu zkML (zero-knowledge machine learning) navrženou tak, aby AI ✅ byla ověřitelná, ⚡ škálovatelná a 🔒 důvěryhodná. 🤖 Problém: AI = Černá skříňka Dnešní AI modely fungují jako tajemné krabice 📦—dávají odpovědi, ale nemůžeme vidět jak 🤯. Tato neprůhlednost představuje riziko ⚠️ deepfake, zaujatosti ⚖️, zneužití v 🏥💰🛡️, a dokonce i AI, která sleduje své vlastní skryté cíle 🕵️. 🛠️ Řešení: zkML + AI DeepProve spojuje 🔐 zero-knowledge důkazy s 🤖 ML, takže vývojáři mohou prokázat: ✔️ Byla použita správná model ✔️ Výsledky jsou platné 👉 Žádné slepé důvěřování 👀—jen ověřitelná pravda ✅ ⚡ Průlom ve výkonu Ve srovnání s EZKL je DeepProve: 🚀 54x–158x rychlejší v generování důkazů ⚡ Až 671x rychlejší v ověřování ⏱️ Ověření důkazů za méně než 1 sekundu 🌍 Aplikace v Web3 & Další ✨ Ověřené vlastnosti AI pro NFT 🎨 ✨ AI chránící soukromí v citlivých oblastech 🏥🔐 ✨ Bezpečné školení mezi více podniky 🤝 ✨ Ověřitelná AI připravená na smart kontrakty 📜 🛡️ Ochrana pro lidstvo Jak se AI blíží 🧠 superinteligenci, DeepProve není jen technologie—je to štít lidstva 🛡️. Vyměnou slepé důvěry za kryptografický důkaz Lagrange buduje bezpečnější, transparentnější budoucnost 🌐✨ @Lagrange Oficiální #zkml #LagrangeZK
🚀 DeepProve: Lagrange uvádí zkML, aby udržel AI pod kontrolou
$LA
| Srp 2025 – @LagrangeOfficial představil DeepProve, revoluční knihovnu zkML (zero-knowledge machine learning) navrženou tak, aby AI ✅ byla ověřitelná, ⚡ škálovatelná a 🔒 důvěryhodná.

🤖 Problém: AI = Černá skříňka
Dnešní AI modely fungují jako tajemné krabice 📦—dávají odpovědi, ale nemůžeme vidět jak 🤯. Tato neprůhlednost představuje riziko ⚠️ deepfake, zaujatosti ⚖️, zneužití v 🏥💰🛡️, a dokonce i AI, která sleduje své vlastní skryté cíle 🕵️.

🛠️ Řešení: zkML + AI
DeepProve spojuje 🔐 zero-knowledge důkazy s 🤖 ML, takže vývojáři mohou prokázat:
✔️ Byla použita správná model
✔️ Výsledky jsou platné
👉 Žádné slepé důvěřování 👀—jen ověřitelná pravda ✅

⚡ Průlom ve výkonu
Ve srovnání s EZKL je DeepProve:
🚀 54x–158x rychlejší v generování důkazů
⚡ Až 671x rychlejší v ověřování
⏱️ Ověření důkazů za méně než 1 sekundu

🌍 Aplikace v Web3 & Další
✨ Ověřené vlastnosti AI pro NFT 🎨
✨ AI chránící soukromí v citlivých oblastech 🏥🔐
✨ Bezpečné školení mezi více podniky 🤝
✨ Ověřitelná AI připravená na smart kontrakty 📜

🛡️ Ochrana pro lidstvo
Jak se AI blíží 🧠 superinteligenci, DeepProve není jen technologie—je to štít lidstva 🛡️. Vyměnou slepé důvěry za kryptografický důkaz Lagrange buduje bezpečnější, transparentnější budoucnost 🌐✨

@Lagrange Oficiální #zkml #LagrangeZK
--
Medvědí
Zobrazit originál
$LA /USD: KRÁTKÁ OBCHODNÍ SIGNA Na základě nedávných tržních dat a technické analýzy Lagrange ($LA) aktuálně vykazuje medvědí moment. Cena je přibližně $0.33, což představuje pokles o více než 6 % za posledních 7 dní a více než 30 % za poslední 3 měsíce. 24-hodinový obchodní objem je kolem $11-13M, přičemž cena se pohybuje v nedávném rozmezí přibližně od $0.32 do $0.34. I když projekt má silné základy jako lídr v oblasti zkML, krátkodobý cenový pohyb naznačuje trvalý prodejní tlak. Nastavení obchodu Vzhledem k přetrvávajícímu medvědímu momentu a skutečnosti, že cena podává slabé výkony, je krátká pozice životaschopným obchodem. * Vstup: Vstupte do krátké pozice za nebo kolem aktuální ceny $0.33. * TP (Take Profit): Konzervativní cíl pro zisk je nedávné 24-hodinové minimum $0.3177. Agresivnější cíl může být nastaven na historické minimum $0.2533. * SL (Stop Loss): Nastavte stop loss nad nedávným maximem, abyste se chránili proti obratu trendu. Vhodná úroveň stop loss je $0.3440. Krátkodobý výhled trhu Krátkodobý výhled pro Lagrange ($LA) je medvědí. Cena čelí odporu a neprokázala silný odraz, navzdory silným základům týmu a nedávným oznámením. Negativní histogram MACD naznačuje, že medvědí moment se úplně neobrátil. Výkon tokenu momentálně zaostává za jeho konkurenty v sektoru AI/ZK, což naznačuje, že další pokles ceny je v blízké době možný. 📉 #Lagrange #LA #zkML #CryptoTrading #ShortSignal $LA {spot}(LAUSDT)
$LA /USD: KRÁTKÁ OBCHODNÍ SIGNA
Na základě nedávných tržních dat a technické analýzy Lagrange ($LA ) aktuálně vykazuje medvědí moment. Cena je přibližně $0.33, což představuje pokles o více než 6 % za posledních 7 dní a více než 30 % za poslední 3 měsíce. 24-hodinový obchodní objem je kolem $11-13M, přičemž cena se pohybuje v nedávném rozmezí přibližně od $0.32 do $0.34. I když projekt má silné základy jako lídr v oblasti zkML, krátkodobý cenový pohyb naznačuje trvalý prodejní tlak.
Nastavení obchodu
Vzhledem k přetrvávajícímu medvědímu momentu a skutečnosti, že cena podává slabé výkony, je krátká pozice životaschopným obchodem.
* Vstup: Vstupte do krátké pozice za nebo kolem aktuální ceny $0.33.
* TP (Take Profit): Konzervativní cíl pro zisk je nedávné 24-hodinové minimum $0.3177. Agresivnější cíl může být nastaven na historické minimum $0.2533.
* SL (Stop Loss): Nastavte stop loss nad nedávným maximem, abyste se chránili proti obratu trendu. Vhodná úroveň stop loss je $0.3440.
Krátkodobý výhled trhu
Krátkodobý výhled pro Lagrange ($LA ) je medvědí. Cena čelí odporu a neprokázala silný odraz, navzdory silným základům týmu a nedávným oznámením. Negativní histogram MACD naznačuje, že medvědí moment se úplně neobrátil. Výkon tokenu momentálně zaostává za jeho konkurenty v sektoru AI/ZK, což naznačuje, že další pokles ceny je v blízké době možný. 📉
#Lagrange #LA #zkML #CryptoTrading #ShortSignal $LA
--
Býčí
Zobrazit originál
$AI Právě bylo ověřeno. Seznamte se s DeepProve od Lagrange. 🔐🤖@lagrangedev Rozhodnutí AI jsou mocná—ale můžete dokázat, že jsou správná? Lagrange mění hru s DeepProve, nejrychlejším systémem strojového učení s nulovým poznáním (zkML) na světě. Umožňuje vám dokázat, že model AI vyprodukoval konkrétní výsledek—aniž byste odhalili model nebo data. ⚡️ Až 1000× rychlejší generování důkazů než konkurence 🔎 Ověřuje za <0.5 sekundy 🧠 Podporuje jakýkoli model ONNX—není potřeba žádné vlastní školení 🌐 Poháněno sítí Lagrange Prover: decentralizované, škálovatelné, nezastavitelné 💰 Používá token $LA pro platby, staking & správu 🚀 Podporováno společnostmi Intel, NVIDIA, Founders Fund, Binance Labs & dalšími Od on-chain AI agentů po dodržování zdravotní předpisy a soukromé finance, DeepProve odemyká svět, kde AI není jen mocná—ale prokazatelně správná. > 📢 Éra AI bez důvěry je tady. 🔗 lagrange.dev $LA #zkML #AI #Lagrange #DeepProve #TrustlessAI {spot}(LAUSDT)
$AI Právě bylo ověřeno. Seznamte se s DeepProve od Lagrange. 🔐🤖@Lagrange Official

Rozhodnutí AI jsou mocná—ale můžete dokázat, že jsou správná?
Lagrange mění hru s DeepProve, nejrychlejším systémem strojového učení s nulovým poznáním (zkML) na světě. Umožňuje vám dokázat, že model AI vyprodukoval konkrétní výsledek—aniž byste odhalili model nebo data.

⚡️ Až 1000× rychlejší generování důkazů než konkurence
🔎 Ověřuje za <0.5 sekundy
🧠 Podporuje jakýkoli model ONNX—není potřeba žádné vlastní školení
🌐 Poháněno sítí Lagrange Prover: decentralizované, škálovatelné, nezastavitelné
💰 Používá token $LA pro platby, staking & správu
🚀 Podporováno společnostmi Intel, NVIDIA, Founders Fund, Binance Labs & dalšími

Od on-chain AI agentů po dodržování zdravotní předpisy a soukromé finance, DeepProve odemyká svět, kde AI není jen mocná—ale prokazatelně správná.

> 📢 Éra AI bez důvěry je tady.
🔗 lagrange.dev

$LA
#zkML #AI #Lagrange #DeepProve #TrustlessAI
Zobrazit originál
Co kdybyste dnes investovali 1 000 USD do $LA — a drželi až do roku 2030?@lagrangedev je v čele inovací v oblasti důkazů s nulovými znalostmi (ZK), buduje infrastrukturu pro škálovatelné, bezpečné aplikace AI a blockchain. V srdci tohoto ekosystému je DeepProve — decentralizovaná platforma kombinující síť ZK Prover a hyper-paralelní ZK koprocesor pro rychlé a škálovatelné generování důkazů ve stylu zkML. Token $LA pohání tuto síť, slouží jako páteř pro platby, staking, delegaci a on-chain governance. 💸 Přehled investice: 1 000 USD v LA dnes

Co kdybyste dnes investovali 1 000 USD do $LA — a drželi až do roku 2030?

@Lagrange Official je v čele inovací v oblasti důkazů s nulovými znalostmi (ZK), buduje infrastrukturu pro škálovatelné, bezpečné aplikace AI a blockchain. V srdci tohoto ekosystému je DeepProve — decentralizovaná platforma kombinující síť ZK Prover a hyper-paralelní ZK koprocesor pro rychlé a škálovatelné generování důkazů ve stylu zkML.

Token $LA pohání tuto síť, slouží jako páteř pro platby, staking, delegaci a on-chain governance.

💸 Přehled investice: 1 000 USD v LA dnes
Zobrazit originál
Revoluce AI x Soukromí ✅ 🧠 Ve světě, kde je AI všude, se soukromí stává vzácným. Ale @lagrangedev to mění. S DeepProve poháněným zkML Lagrange zajišťuje, že AI běží soukromě, bezpečně a ověřitelně — vše na řetězci. Blockchain se setkává s AI a soukromí vítězí. Sledujte mě pro aktualizace,,,,,, #Lagrange #zkML $LA #Web3AI #ZeroKnowledge #BinanceSquare
Revoluce AI x Soukromí ✅

🧠 Ve světě, kde je AI všude, se soukromí stává vzácným.
Ale @lagrangedev to mění.

S DeepProve poháněným zkML Lagrange zajišťuje, že AI běží soukromě, bezpečně a ověřitelně — vše na řetězci.

Blockchain se setkává s AI a soukromí vítězí.

Sledujte mě pro aktualizace,,,,,,

#Lagrange #zkML $LA #Web3AI #ZeroKnowledge #BinanceSquare
Zobrazit originál
🔥 AI bez důvěry je jen spekulace. Ale s @lagrangedev DeepProve se stává prokazatelným, mocným a soukromým. 💡🔐 🎯 Co dělá DeepProve revolučním? ⚡ Až 1000x rychlejší generování důkazů ✅ 671x rychlejší ověřování 🔒 Vestavěná ochrana integrity modelu a duševního vlastnictví 🧠 Ověřitelné výstupy AI — bez odhalení vašich dat Tohle není jen zkML — 👉 Je to AI, kterou můžete ověřit, škálovat a důvěřovat jí. Vítejte na nové hranici AI x Blockchain. Vítejte v DeepProve. 🚀 $LA {spot}(LAUSDT) #Lagrange #zkML #ProvableAI #LA #ZeroKnowledge #AIRevolution #Web3Innovation #Write2Earn Zeptejte se ChatGPT
🔥 AI bez důvěry je jen spekulace.

Ale s @Lagrange Official DeepProve se stává prokazatelným, mocným a soukromým. 💡🔐

🎯 Co dělá DeepProve revolučním?

⚡ Až 1000x rychlejší generování důkazů

✅ 671x rychlejší ověřování
🔒 Vestavěná ochrana integrity modelu a duševního vlastnictví
🧠 Ověřitelné výstupy AI — bez odhalení vašich dat

Tohle není jen zkML —

👉 Je to AI, kterou můžete ověřit, škálovat a důvěřovat jí.

Vítejte na nové hranici AI x Blockchain.

Vítejte v DeepProve. 🚀

$LA

#Lagrange #zkML #ProvableAI #LA #ZeroKnowledge #AIRevolution #Web3Innovation #Write2Earn
Zeptejte se ChatGPT
Zobrazit originál
@lagrangedev je technologický projekt, který pomáhá AI (umělé inteligenci) učinit ji bezpečnější a spolehlivější pro uživatele. Lagrange využívá nejnovější technologii "zkML" (zero-knowledge Machine Learning), jejíž funkcí je prokázat, že AI učinila správné rozhodnutí, aniž by ukázala soukromý vzorec nebo techniku, kterou použila. #LagrangeNetwork vlajkový produkt je "DeepProve", což je v současnosti nejrychlejší zkML prover na trhu. Jeho funkcí je umožnit ověřování Al prostřednictvím zero-knowledge důkazů. Nicméně, je také používán v různých oblastech jako zdravotnictví, finance, decentralizované aplikace a také obrana atd. @lagrangedev kryptoměnový token je $LA , který pomáhá udržovat systém Lagrange v chodu. Stručně řečeno, Lagrange vám pomáhá prokázat, zda jsou výsledky AI správné, nebo ne, aniž by odhalil, jak byly výsledky vytvořeny. #lagrange $LA #zkml #market #Finance
@Lagrange Official je technologický projekt, který pomáhá AI (umělé inteligenci) učinit ji bezpečnější a spolehlivější pro uživatele. Lagrange využívá nejnovější technologii "zkML" (zero-knowledge Machine Learning), jejíž funkcí je prokázat, že AI učinila správné rozhodnutí, aniž by ukázala soukromý vzorec nebo techniku, kterou použila. #LagrangeNetwork vlajkový produkt je "DeepProve", což je v současnosti nejrychlejší zkML prover na trhu. Jeho funkcí je umožnit ověřování Al prostřednictvím zero-knowledge důkazů. Nicméně, je také používán v různých oblastech jako zdravotnictví, finance, decentralizované aplikace a také obrana atd. @Lagrange Official kryptoměnový token je $LA , který pomáhá udržovat systém Lagrange v chodu. Stručně řečeno, Lagrange vám pomáhá prokázat, zda jsou výsledky AI správné, nebo ne, aniž by odhalil, jak byly výsledky vytvořeny.

#lagrange $LA #zkml #market #Finance
Zobrazit originál
Sleduji, jak se v tichosti odehrává něco velkého – a není to jen další trend v AI. @lagrangedev řeší nejděsivější část AI: Nemůžete důvěřovat tomu, co nemůžete ověřit. A většina AI dnes? Je to černá skříňka. Žádný důkaz, žádná transparentnost. Ale to se teď mění. Jejich vlajkový nástroj, DeepProve, používá důkazy s nulovým znalostním obsahem, aby převedl jakýkoli výstup AI na kryptografický doklad – ověřitelný kýmkoli, aniž by odhalil model nebo data. Co mě ohromuje? → Není potřeba důvěra. Jen matematika. → 158x rychlejší než stávající systémy zkML → Podporuje standardní modely ONNX hned po vybalení → Podpořeno společnostmi Intel, NVIDIA, zkSync, LayerZero, Coinbase Cloud → Již integrováno do živé infrastruktury Ať už se jedná o zdravotnictví, finance, chytré smlouvy nebo AI agenty – DeepProve to vše činí prokazatelným. A to je ten, kdo mění hru. Tohle není budoucnost. To se už děje. $LA {spot}(LAUSDT) #lagrange #zkML #DeepProve #ZeroKnowledge #Web3Infrastructure
Sleduji, jak se v tichosti odehrává něco velkého – a není to jen další trend v AI.

@Lagrange Official řeší nejděsivější část AI:
Nemůžete důvěřovat tomu, co nemůžete ověřit.
A většina AI dnes? Je to černá skříňka. Žádný důkaz, žádná transparentnost.

Ale to se teď mění.

Jejich vlajkový nástroj, DeepProve, používá důkazy s nulovým znalostním obsahem, aby převedl jakýkoli výstup AI na kryptografický doklad – ověřitelný kýmkoli, aniž by odhalil model nebo data.

Co mě ohromuje?

→ Není potřeba důvěra. Jen matematika.
→ 158x rychlejší než stávající systémy zkML
→ Podporuje standardní modely ONNX hned po vybalení
→ Podpořeno společnostmi Intel, NVIDIA, zkSync, LayerZero, Coinbase Cloud
→ Již integrováno do živé infrastruktury

Ať už se jedná o zdravotnictví, finance, chytré smlouvy nebo AI agenty – DeepProve to vše činí prokazatelným.
A to je ten, kdo mění hru.

Tohle není budoucnost.
To se už děje.

$LA

#lagrange #zkML #DeepProve #ZeroKnowledge #Web3Infrastructure
Zobrazit originál
$LA @lagrangedev AI je teď všude. Ale tady je problém: stále nemůžeme ověřit, co dělá. Je to černá skříňka. Dává odpovědi… a my se máme jen spolehnout na to? Ne, díky. Právě proto pozorně sleduji @lagrangedev ($LA {future}(LAUSDT) ). Budují něco, co AI zoufale potřebuje: důkaz správnosti. Jejich produkt, DeepProve, vám poskytuje kryptografický důkaz, že rozhodnutí AI je legitimní — 📍 Bez odhalení soukromých vstupů 📍 Bez úniku modelu 📍 Bez ohrožení citlivých dat Tohle není nějaký snový pitch deck. DeepProve je už v provozu — a je více než 50x rychlejší než starší zkML systémy. Teď si představte toto v akci: 🔹 Banky dokazující, že AI nediskriminovalo 🔹 Nemocnice používající AI a chránící soukromí pacientů 🔹 Onchain AI agenti, jejichž akce můžete ověřit — matematicky Žádné „věřte nám.“ Jen fakta, která si můžete zkontrolovat. To je to, co dělá Lagrange tak odlišné. Nesnaží se nahradit AI. Dělají AI bezpečné a odpovědné. 💡 Již spolupracují s: Intel, NVIDIA, LayerZero, zkSync 💰 Získali 13,2 milionu dolarů od předních jmen jako Founders Fund & Archetype ⚙️ Používá kryptografii s nulovým poznáním k prokázání každého rozhodnutí modelu AI se rychle vyvíjí, ale bez ověřitelnosti letíme naslepo. Lagrange to opravuje. A pokud vám záleží na budoucnosti AI nebo Web3, měli byste věnovat pozornost. $LA: 0.3925 (+5.99%) #Lagrange #AI #ZKML #crypto
$LA @Lagrange Official

AI je teď všude.
Ale tady je problém: stále nemůžeme ověřit, co dělá.
Je to černá skříňka.
Dává odpovědi… a my se máme jen spolehnout na to?
Ne, díky.
Právě proto pozorně sleduji @Lagrange Official ($LA
).
Budují něco, co AI zoufale potřebuje: důkaz správnosti.
Jejich produkt, DeepProve, vám poskytuje kryptografický důkaz, že rozhodnutí AI je legitimní —
📍 Bez odhalení soukromých vstupů
📍 Bez úniku modelu
📍 Bez ohrožení citlivých dat
Tohle není nějaký snový pitch deck.
DeepProve je už v provozu — a je více než 50x rychlejší než starší zkML systémy.
Teď si představte toto v akci:
🔹 Banky dokazující, že AI nediskriminovalo
🔹 Nemocnice používající AI a chránící soukromí pacientů
🔹 Onchain AI agenti, jejichž akce můžete ověřit — matematicky
Žádné „věřte nám.“
Jen fakta, která si můžete zkontrolovat.
To je to, co dělá Lagrange tak odlišné.
Nesnaží se nahradit AI. Dělají AI bezpečné a odpovědné.
💡 Již spolupracují s: Intel, NVIDIA, LayerZero, zkSync
💰 Získali 13,2 milionu dolarů od předních jmen jako Founders Fund & Archetype
⚙️ Používá kryptografii s nulovým poznáním k prokázání každého rozhodnutí modelu
AI se rychle vyvíjí, ale bez ověřitelnosti letíme naslepo.
Lagrange to opravuje.
A pokud vám záleží na budoucnosti AI nebo Web3, měli byste věnovat pozornost.
$LA : 0.3925 (+5.99%)
#Lagrange #AI #ZKML #crypto
--
Býčí
Zobrazit originál
🚀🤝 Intel se spojil s @lagrangedev Labs pro start! 🤝🚀 📅 26. července 2025 – Obrovský milník pro svět AI a blockchainu! 🌐✨ #Lagrange Labs byla vybrána pro prestižní akcelerátor Intel Liftoff for Startups — a hádejte co? Jsou jediným projektem zaměřeným na kryptoměny v letošním ročníku! 🎯🔥 💻 Proč je to důležité Jakmile AI přijímá kritická rozhodnutí ve zdravotní péči, financích a bezpečnosti, svět potřebuje ověřitelné výstupy — ne jen slepou důvěru. 🕵️‍♂️✅ To je místo, kde přichází zkML (strojové učení s nulovými znalostmi), které přináší důvěryhodná, prokazatelná AI rozhodnutí pro reálný svět. 📢 CEO Ismael Hishon-Rezaizadeh říká: 👉 „Skutečný svět funguje na důvěře — ale dnešní AI běží na víře. S podporou Intelu přinášíme kryptografický důkaz do srdce AI.“ 🌟 ⚙️ Co Lagrange přináší na stůl ✅ zkML stack pro AI chránící soukromí ✅ Případové studie: obchodování v reálném čase, obrana, lékařská diagnostika, dodržování předpisů a zabezpečená data 📊🛡️ ✅ Intelova technologie urychlí zk důkazy, vyřeší klíčové úzké hrdla a odemkne globální přijetí 🚀 🌍 Širší obrázek 📈 Výběr Lagrange signalizuje velké uznání inovací blockchainu a AI. 💎 Jako jediný projekt virtuálních aktiv v programu vedou cestu k tomu, aby se technologie zk stala nástroji důvěry v reálném světě. 📊 $LA Snapshot: 0.367 (+0.82%) 🌟 Intel Liftoff není jen o škálování startupů — formuje příští generaci globální infrastruktury. 🌐 🔥 S zkML je Lagrange Labs připraven vést budoucnost! 🔥 {spot}(LAUSDT) $LA #Lagrange #Intel #zkML #CryptoInnovation
🚀🤝 Intel se spojil s @Lagrange Official Labs pro start! 🤝🚀

📅 26. července 2025 – Obrovský milník pro svět AI a blockchainu! 🌐✨
#Lagrange Labs byla vybrána pro prestižní akcelerátor Intel Liftoff for Startups — a hádejte co? Jsou jediným projektem zaměřeným na kryptoměny v letošním ročníku! 🎯🔥

💻 Proč je to důležité
Jakmile AI přijímá kritická rozhodnutí ve zdravotní péči, financích a bezpečnosti, svět potřebuje ověřitelné výstupy — ne jen slepou důvěru. 🕵️‍♂️✅
To je místo, kde přichází zkML (strojové učení s nulovými znalostmi), které přináší důvěryhodná, prokazatelná AI rozhodnutí pro reálný svět.

📢 CEO Ismael Hishon-Rezaizadeh říká:
👉 „Skutečný svět funguje na důvěře — ale dnešní AI běží na víře. S podporou Intelu přinášíme kryptografický důkaz do srdce AI.“ 🌟

⚙️ Co Lagrange přináší na stůl
✅ zkML stack pro AI chránící soukromí
✅ Případové studie: obchodování v reálném čase, obrana, lékařská diagnostika, dodržování předpisů a zabezpečená data 📊🛡️
✅ Intelova technologie urychlí zk důkazy, vyřeší klíčové úzké hrdla a odemkne globální přijetí 🚀

🌍 Širší obrázek
📈 Výběr Lagrange signalizuje velké uznání inovací blockchainu a AI.
💎 Jako jediný projekt virtuálních aktiv v programu vedou cestu k tomu, aby se technologie zk stala nástroji důvěry v reálném světě.

📊 $LA Snapshot: 0.367 (+0.82%) 🌟

Intel Liftoff není jen o škálování startupů — formuje příští generaci globální infrastruktury. 🌐
🔥 S zkML je Lagrange Labs připraven vést budoucnost! 🔥

$LA
#Lagrange #Intel #zkML #CryptoInnovation
Zobrazit originál
✨ Sleduj = Sleduj zpět ✨ Allora Network (ALLO) – Decentralizovaná AI infrastruktura Token / Síť: ALLO na Cosmos L1 + mosty na Ethereum, Base, BNB Chain Aktuální cena: $0.32–$0.35 | Tržní kapitalizace: ~$2.83M–$6.06M | Obíhající zásoba: ~200.5M ALLO Podpora / Odpor: Okamžitá podpora $0.32 | Hlavní odpor $0.47 Užitečnost: Platba za AI inference, staking pro zabezpečení sítě, účast na správě Klíčové aktualizace: Airdrop pro HODLery Binance (1.5% zásoby) Zahájen plán stakingu Allora Prime k uzamčení zásoby a motivaci držitelů Probíhající implementace zkML pro ochranu soukromí, ověřitelné AI predikce Multi-chain interoperabilita: Cosmos L1, Ethereum, Base, BNB Chain Přijetí: 300k+ registrovaných AI uzlů, 500k+ uživatelů komunity, placené využití inference zvyšující užitečnost tokenu Silné stránky: Podpora Tier-1 VC ($35M+), vizionářská decentralizovaná AI niche, multi-chain integrace, partnerství s Binance Rizika: Extrémní volatilita, vážné riziko zředění (FDV ~4x obíhající kapacita), regulační nejistota, zmatek s tokenem Allo (RWA) Výhled: Krátkodobě: Cena citlivá na přijetí plánu stakingu a uvolnění airdropu Dlouhodobě: Dominantní ověřitelná AI inference vrstva by mohla pohánět trvalou poptávku po ALLO, pokud se podaří realizace a roadmapa zkML #ALLO #AlloraNetwork #DeAI #zkML #CryptoAnalysis $ALLO {spot}(ALLOUSDT)
✨ Sleduj = Sleduj zpět ✨

Allora Network (ALLO) – Decentralizovaná AI infrastruktura

Token / Síť: ALLO na Cosmos L1 + mosty na Ethereum, Base, BNB Chain

Aktuální cena: $0.32–$0.35 | Tržní kapitalizace: ~$2.83M–$6.06M | Obíhající zásoba: ~200.5M ALLO

Podpora / Odpor: Okamžitá podpora $0.32 | Hlavní odpor $0.47

Užitečnost: Platba za AI inference, staking pro zabezpečení sítě, účast na správě

Klíčové aktualizace:

Airdrop pro HODLery Binance (1.5% zásoby)

Zahájen plán stakingu Allora Prime k uzamčení zásoby a motivaci držitelů

Probíhající implementace zkML pro ochranu soukromí, ověřitelné AI predikce

Multi-chain interoperabilita: Cosmos L1, Ethereum, Base, BNB Chain

Přijetí: 300k+ registrovaných AI uzlů, 500k+ uživatelů komunity, placené využití inference zvyšující užitečnost tokenu

Silné stránky: Podpora Tier-1 VC ($35M+), vizionářská decentralizovaná AI niche, multi-chain integrace, partnerství s Binance

Rizika: Extrémní volatilita, vážné riziko zředění (FDV ~4x obíhající kapacita), regulační nejistota, zmatek s tokenem Allo (RWA)

Výhled:

Krátkodobě: Cena citlivá na přijetí plánu stakingu a uvolnění airdropu

Dlouhodobě: Dominantní ověřitelná AI inference vrstva by mohla pohánět trvalou poptávku po ALLO, pokud se podaří realizace a roadmapa zkML

#ALLO #AlloraNetwork #DeAI #zkML #CryptoAnalysis
$ALLO
Přihlaste se a prozkoumejte další obsah
Prohlédněte si nejnovější zprávy o kryptoměnách
⚡️ Zúčastněte se aktuálních diskuzí o kryptoměnách
💬 Komunikujte se svými oblíbenými tvůrci
👍 Užívejte si obsah, který vás zajímá
E-mail / telefonní číslo