Binance Square

ia

Просмотров: 848,311
1,114 обсуждают
Jeremias908
--
Рост
​🧠 Bittensor ($TAO): La "Apple" de la IA Descentralizada explota hoy ​¿Te perdiste el rally de Bitcoin? No cometas el mismo error con la IA. Hoy, 12 de enero, $TAO lidera el sector con una fuerza técnica impresionante. Mientras el mercado tradicional duda, el capital inteligente está fluyendo hacia la infraestructura real de inteligencia artificial. ​🔥 ¿Por qué todo el mundo habla de $TAO hoy? ​Shock de Oferta: Tras el halving de diciembre, la emisión diaria se redujo a la mitad. ¡Menos monedas, más demanda! ​Fiebre Institucional: Grayscale ya tiene a TAO como su mayor apuesta (29%) y gigantes como Bitwise han solicitado su propio ETF de TAO. ​Precio actual: Alrededor de $280 - $290# USD, rompiendo resistencias clave y con miras a los $312 en el corto plazo. ​Evolución 2026: Con la expansión a más de 128 subnets, Bittensor ya no es solo una moneda, es el cerebro de la nueva economía digital. $TAO #TAO #IA #TrendingTopic #inversión {spot}(TAOUSDT)
​🧠 Bittensor ($TAO ): La "Apple" de la IA Descentralizada explota hoy

​¿Te perdiste el rally de Bitcoin? No cometas el mismo error con la IA. Hoy, 12 de enero, $TAO lidera el sector con una fuerza técnica impresionante. Mientras el mercado tradicional duda, el capital inteligente está fluyendo hacia la infraestructura real de inteligencia artificial.

​🔥 ¿Por qué todo el mundo habla de $TAO hoy?
​Shock de Oferta: Tras el halving de diciembre, la emisión diaria se redujo a la mitad. ¡Menos monedas, más demanda!

​Fiebre Institucional: Grayscale ya tiene a TAO como su mayor apuesta (29%) y gigantes como Bitwise han solicitado su propio ETF de TAO.

​Precio actual: Alrededor de $280 - $290# USD, rompiendo resistencias clave y con miras a los $312 en el corto plazo.

​Evolución 2026: Con la expansión a más de 128 subnets, Bittensor ya no es solo una moneda, es el cerebro de la nueva economía digital.
$TAO #TAO #IA #TrendingTopic #inversión
#IA Las ganancias del trading cuantitativo impulsado por IA provienen de inversores de exchanges descentralizados. Los usuarios depositan USDT en sus billeteras descentralizadas y activan el sistema de IA de contratos inteligentes. El sistema calcula la potencia de procesamiento en función de sus tenencias de USDT y genera automáticamente ganancias a través del contrato inteligente, distribuyéndolas diariamente según su potencia de procesamiento. El mecanismo específico es el siguiente: 1. Los proveedores de liquidez (LP) depositan monedas estables vinculadas al USD (como USDT) en sus billeteras descentralizadas. 2. Estos fondos ingresan a fondos de liquidez y se proporcionan a diversas plataformas descentralizadas subyacentes para generar ingresos por comisiones de transacción. 3. Finalmente, los proveedores de liquidez reciben recompensas en tokens según su contribución al fondo.
#IA Las ganancias del trading cuantitativo impulsado por IA provienen de inversores de exchanges descentralizados. Los usuarios depositan USDT en sus billeteras descentralizadas y activan el sistema de IA de contratos inteligentes. El sistema calcula la potencia de procesamiento en función de sus tenencias de USDT y genera automáticamente ganancias a través del contrato inteligente, distribuyéndolas diariamente según su potencia de procesamiento.

El mecanismo específico es el siguiente:
1. Los proveedores de liquidez (LP) depositan monedas estables vinculadas al USD (como USDT) en sus billeteras descentralizadas.

2. Estos fondos ingresan a fondos de liquidez y se proporcionan a diversas plataformas descentralizadas subyacentes para generar ingresos por comisiones de transacción.

3. Finalmente, los proveedores de liquidez reciben recompensas en tokens según su contribución al fondo.
TRANSCRIPCIÓN #CRYPTOEl nuevo episodio de esta semana aborda la convergencia de dos tendencias importantes y de gran actualidad: la IA (inteligencia artificial) y las cadenas de bloques/criptomonedas. Estos dominios, en conjunto, tienen importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es ideal para quienes tengan curiosidad o ya estén desarrollando este sector. La conversación abarca temas que van desde las deepfakes, los bots y la necesidad de una prueba de humanidad en un mundo de IA; hasta el big data, los grandes modelos de lenguaje como ChatGPT, el control de usuarios, la gobernanza, la privacidad y la seguridad, el conocimiento cero y zkML; hasta MEV, los medios de comunicación, el arte y mucho más. Nuestros invitados expertos, en conversación con la anfitriona Sonal Chokshi, incluyen: Dan Boneh , profesor de Stanford (y asesor principal de investigación en a16z crypto), un criptógrafo que ha estado trabajando en cadenas de bloques durante más de una década y que se especializa en criptografía, seguridad informática y aprendizaje automático, todos los cuales se cruzan en este episodio;Ali Yahya , socio general de a16z crypto, quien también trabajó anteriormente en Google, donde no solo trabajó en un sistema distribuido para una flota de robots (una especie de "aprendizaje de refuerzo colectivo") sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow construida en Google. La primera mitad de la conversación informal entre Ali y Dan (quienes se conocen como estudiantes y profesores en Stanford) gira en torno a cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad, a cómo las criptomonedas podrían beneficiarse de la IA... El hilo conductor es la tensión entre centralización y descentralización. Así, también analizamos cómo la intersección de las criptomonedas y la IA puede generar resultados que ninguna de las dos sería posible por sí sola... Piezas referenciadas en este episodio/lectura relacionada: El próximo sistema de razonamiento cibernético para la ciberseguridad  (2023) de Mohamed Ferrag, Ammar Battah, Norbert Tihanyi, Merouane Debbah, Thierry Lestable y Lucas CordeiroUna nueva era en seguridad de software: Hacia software autorreparador mediante modelos de lenguaje extensos y verificación formal  (2023) por Yiannis Charalambous, Norbert Tihanyi, Ridhi Jain, Youcheng Sun, Mohamed Ferrag, Lucas CordeiroCorrección de errores de seguridad de hardware con modelos de lenguaje extensos  (2023) por Baleegh Ahmad, Shailja Thakur, Benjamin Tan, Ramesh Karri y Hammond Pearce¿Los usuarios escriben código más inseguro con asistentes de IA?  (2022) por Neil Perry, Megha Srivastava, Deepak Kumar y Dan Boneh¿Dormido frente al teclado? Evaluación de la seguridad de las contribuciones de código de GitHub Copilot  (2021) por Hammond Pearce, Baleegh Ahmad, Benjamin Tan, Brendan Dolan-Gavitt, Ramesh KarriVotación, seguridad y gobernanza en blockchains  (2019) con Ali Yahya y Phil Daian TRANSCRIPCIÓN: Bienvenidos a "web3 con a16z", un programa sobre cómo construir la próxima generación de internet del equipo de a16z crypto; incluyéndome a mí, su presentadora, Sonal Chokshi. El nuevo episodio de hoy aborda la convergencia de dos importantes tendencias de vanguardia: la IA (inteligencia artificial) y las criptomonedas. Esto tiene importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es para cualquiera que tenga curiosidad o que ya esté desarrollando en este sector. Nuestros invitados especiales de hoy son: Dan Boneh, profesor de Stanford (y asesor sénior de investigación en a16z crypto). Es un criptógrafo que lleva más de una década trabajando en cadenas de bloques. Los temas de este episodio tienen una fuerte intersección entre la criptografía, la seguridad informática y el aprendizaje automático, todas sus áreas de especialización. También tenemos a Ali Yahya, socio general de a16z crypto, quien también trabajó en Google, donde no solo desarrolló un sistema distribuido para robótica (más concretamente, una especie de "aprendizaje de refuerzo colectivo" que implicaba entrenar una única red neuronal que contribuía a las acciones de toda una flota de robots), sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow. De hecho, Dan y Ali se conocen desde que Ali era estudiante de grado y maestría en Stanford, así que esta conversación es más bien una charla informal entre ellos a la que les pedí que me uniera. Abordamos todo, desde deepfakes y bots hasta la prueba de humanidad en un mundo de IA y mucho, mucho más. La primera mitad trata sobre cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad sobre cómo las criptomonedas podrían beneficiarse de la IA; y el hilo conductor es la tensión entre centralización y descentralización.  Como recordatorio: nada de lo siguiente debe interpretarse como asesoramiento de inversión, legal, comercial o fiscal; consulte a16z.com/disclosures para obtener más información importante, incluido un enlace a una lista de nuestras inversiones, especialmente porque somos inversores en las empresas mencionadas en este episodio.  Pero primero: comenzamos con la intersección de ambos mundos, compartiendo brevemente las áreas (¡o visiones!) que les entusiasman; la primera voz que escucharán será la de Ali. Ali: Hay una novela de ciencia ficción muy buena llamada “La era del diamante” de Neal Stephenson, en la que hay un dispositivo conocido como “manual ilustrado”, que es una especie de dispositivo de inteligencia artificial que actúa como tu mentor y tu maestro a lo largo de la vida. Y entonces, cuando naces, estás emparejado con una IA que, esencialmente, te conoce muy bien, aprende tus preferencias, te sigue durante toda la vida, te ayuda a tomar decisiones y te guía en la dirección correcta. Así que existe un futuro de ciencia ficción… en el que se podría construir una IA, pero no se querría que estuviera controlada por un gigante tecnológico monopolista. Porque esa posición le otorgaría a esa empresa un gran control, y existen todas estas cuestiones de privacidad y soberanía, y se querría tener cierto control sobre ella. ¿Y qué pasa si la empresa desaparece, cambia las reglas o los precios? Sería fantástico poder crear una IA que pudiera funcionar durante muchísimo tiempo y llegar a conocerte a lo largo de tu vida, pero que fuera realmente tuya. Y entonces existe esta visión en la que se podría hacer eso con una cadena de bloques: se podría integrar una IA dentro de un contrato inteligente. Y con el poder de las pruebas de conocimiento cero, también podrá mantener sus datos privados. Y luego, con el paso de las décadas, esta IA puede volverse más inteligente y ayudarte, y entonces tendrás la opción de hacer lo que quieras con ella. O modificarla como quieras; o desactivarla. Y esa es una visión interesante para las IA de largo plazo que están en continua evolución y cada vez son mejores: sería mejor si no estuvieran controladas por una única empresa centralizada. Claro: es una idea muy de ciencia ficción, porque conlleva muchos problemas, incluyendo los de verificación y los de mantener la privacidad de los datos mediante criptografía y, a la vez, poder realizar cálculos sobre ellos, quizás con cifrado totalmente homomórfico. <Sonal: mhm> Todos estos problemas siguen pendientes, pero no es algo inconcebible. Dan: ¡Guau! ¡Me encanta la visión de Ali! Sonal: A mí también me encanta, especialmente teniendo en cuenta esa cita (creo que era de Asimov) de que la ciencia ficción de hoy es la ciencia factual del mañana. Ali, sé que tienes un meta-marco para pensar acerca de todo esto que te he escuchado compartir antes, ¿puedes compartirlo ahora también? Ali: Sí, existe una narrativa más amplia que existe desde hace bastante tiempo y que ahora se está acentuando mucho más con el desarrollo de cosas como los LLM. Sonal: En realidad, define eso muy rápido, Ali, solo para los oyentes que aún no están familiarizados, solo como contexto. Ali: LLM significa "modelo de lenguaje grande" y utiliza parte de la tecnología que se desarrolló en Google en 2017. Existe este famoso artículo conocido como "La atención es todo lo que necesitas" (ese era el título del artículo) y describía lo que ahora se conoce como transformadores, y esa es la base, básicamente, de algunos de los nuevos modelos que la gente ha estado entrenando en estos días, incluido ChatGPT, etc. Todos estos son modelos de lenguaje grandes o LLM. <Sonal: ¡mmm!> #BTC Había una famosa frase, creo (2018), de Peter Thiel: «La IA es comunista y las criptomonedas son libertarias»… Es muy acertada, de hecho, porque la IA y las criptomonedas, en muchos sentidos, se contrapesan naturalmente. <Sonal: ¿Ajá?> Y quizá podamos profundizar en cada uno de estos ejemplos a lo largo del podcast, <Sonal: Sí>. Pero hay cuatro aspectos principales en los que esto es cierto: [1] La primera es que la IA es una tecnología que prospera y permite un control centralizado de arriba a abajo, mientras que la criptografía se basa en la cooperación descentralizada de abajo a arriba. De hecho, en muchos sentidos, se puede pensar en la criptografía como el estudio de la construcción de sistemas descentralizados que permiten la cooperación humana a gran escala, donde no existe un punto central de control. Y esa es una forma natural en la que estas dos tecnologías se contrapesan entre sí. [2] Otra es que la IA es una innovación sostenible, ya que refuerza los modelos de negocio de las empresas tecnológicas existentes <Sonal: mhm>, ya que les ayuda a tomar decisiones desde arriba. Y el mejor ejemplo de esto sería que Google pudiera decidir exactamente qué anuncio mostrar a cada uno de sus usuarios entre miles de millones de usuarios y miles de millones de páginas vistas. Mientras que las criptomonedas son, en realidad, una innovación fundamentalmente disruptiva, ya que su modelo de negocio es fundamentalmente contrario al de las grandes tecnológicas. Por lo tanto, es un movimiento liderado por rebeldes/por los sectores marginales, en lugar de estar liderado por las empresas establecidas. <Sonal: mhm> Así que esa es la segunda. [3] La tercera es que la IA probablemente se relacionará e interactuará mucho con todas las tendencias hacia la privacidad… Porque la IA, como tecnología, ha incorporado todo tipo de incentivos que nos llevan hacia una menor privacidad individual, ya que tendremos empresas que querrán acceder a todos nuestros datos; y los modelos de IA que se entrenan con cada vez más datos serán cada vez más eficaces. Por lo tanto, creo que esto nos lleva por el camino del panóptico de la IA, donde simplemente se agregan los datos de todos para entrenar estos enormes modelos y optimizarlos al máximo. Mientras que las criptomonedas nos llevan hacia la dirección opuesta, que es una dirección de mayor privacidad individual. Es una dirección de mayor soberanía, <Sonal: mhm> donde los usuarios tienen control sobre sus propios datos. Y creo que estas dos tendencias serán muy importantes. Y esta es otra forma importante en que las criptomonedas actúan como contrapeso para la IA. (4) Y tal vez la última tenga que ver con esta última tendencia en IA: el hecho de que la IA es ahora claramente una tecnología poderosa para generar nuevo arte; ahora es una herramienta creativa <Sonal: ¡mm! totalmente>, que nos llevará a una abundancia infinita de medios, a una creatividad infinita en muchos sentidos. Y la criptografía es un contrapeso a eso porque nos ayuda a analizar toda la abundancia, al ayudarnos a distinguir lo creado por humanos de lo creado por IA. Y la criptografía será esencial para mantener y preservar lo verdaderamente humano en un mundo donde mil veces más contenido <Sonal: correcto> se genera artificialmente. Así que todas estas son cosas de las que podemos hablar, pero creo que existe esta metanarrativa importante; y estas dos tecnologías son diametralmente opuestas, en muchos aspectos. Dan: Entonces, tal vez Ali, para agregar a eso, este es un resumen maravilloso, y también diría que hay muchas áreas en las que las técnicas de IA están teniendo un impacto en las cadenas de bloques; y viceversa, <mhm> donde las técnicas de cadenas de bloques están teniendo un impacto en la IA. Daré una respuesta breve aquí porque vamos a profundizar en los detalles en solo un minuto; pero hay muchos puntos de intersección: supongo que hablaremos sobre las aplicaciones del conocimiento cero para el aprendizaje automático en solo un minuto… Pero también quiero abordar todas estas aplicaciones donde el aprendizaje automático puede usarse para escribir código. Por ejemplo, el aprendizaje automático puede usarse para escribir código de Solidity que se contrae. Puede usarse para detectar posibles errores en el código, etc. Existen puntos de intersección donde el aprendizaje automático puede usarse para generar falsificaciones profundas y las cadenas de bloques pueden ayudar a proteger contra ellas. Por lo tanto, supongo que abordaremos todos estos puntos, pero lo interesante es que existe una gran intersección entre las cadenas de bloques y el aprendizaje automático. Sonal: Sí, antes de profundizar en eso, Dan, tengo una pregunta: ¿estás de acuerdo? Entiendo perfectamente el punto de vista de Ali: la IA y las criptomonedas son complementos naturales, o contrapesos, o pueden ser fuerzas diferentes que se controlan y equilibran mutuamente... Pero, ¿crees que esto es una cualidad inherente a la IA y las criptomonedas? ¿O es simplemente un artefacto de cómo se hacen las cosas actualmente? ¿Con qué aspectos estarías de acuerdo o en desacuerdo? Dan: Sí; así que diría que, si lo miras desde lejos… las técnicas que se usan en IA parecen muy diferentes a las que se usan en las cadenas de bloques, ¿verdad? Las cadenas de bloques se centran en la criptografía, la descentralización, las finanzas, la economía, etc. Mientras que la #IA se centra en la estadística, las matemáticas del aprendizaje automático, etc., se centra en el big data. Las técnicas, en realidad, parecen bastante diferentes. <Sonal: mhm>, pero en realidad hay muchos aspectos en los que una parte puede ayudar a la otra <mhm> y viceversa. Quizás el primero para empezar sea el más obvio y que ha estado en la mente de muchos: las aplicaciones del conocimiento cero para el aprendizaje automático . Se trata de un área emergente llamada zkML . Y su interés se debe a que las técnicas de conocimiento cero han mejorado drásticamente gracias a su aplicación en las cadenas de bloques. Lo que ha sucedido en los últimos 10 años es increíble; algo que no vemos muy a menudo: esta idea de las pruebas de conocimiento cero, y los sistemas de pruebas en general, se consideraban muy teóricos hace una década. Y debido a todas sus aplicaciones en las cadenas de bloques, de repente se despertó un gran esfuerzo para hacerlas más prácticas y realistas. Como resultado, se ha logrado un progreso tremendo (como saben nuestros oyentes), y ahora estas herramientas se implementan y se utilizan para proteger sistemas reales. Entonces, la pregunta es: ¿se pueden usar técnicas de conocimiento cero para impulsar el aprendizaje automático? Hay un par de ejemplos (honestamente, podríamos dedicar todo el podcast solo a zkML), pero quizás pueda dar una muestra, uno o dos ejemplos donde ZK es útil para el aprendizaje automático. Imaginemos que Alice tiene un modelo secreto al que dedicó mucho tiempo para entrenar, y que es muy importante para ella. Es fundamental que la gente no sepa cómo funciona. Pero aun así, quiere poder atender las solicitudes de Bob, ¿verdad? Bob quiere enviarle datos, ella aplicaría el modelo a los datos y le enviaría el resultado. Bob no tiene ni idea de si está obteniendo los resultados correctos con el modelo, ¿verdad? Quizás pagó por un modelo específico y quiere asegurarse de que Alice realmente lo esté usando, ¿verdad? Quizás pagó por GPT-4 y quiere asegurarse de que Alice realmente esté usando GPT-4, y no GPT-3. Resulta que las técnicas ZK pueden ser muy útiles en este caso. Alice se comprometería con su modelo y lo haría público. Y luego, cada vez que Bob enviara datos, Alice podría ejecutar el modelo con ellos y enviarle los resultados, junto con la prueba de que el modelo se evaluó correctamente. Así, Bob tendría la garantía de que el modelo comprometido es el mismo que se ejecutó con sus datos. ¿Sí? Este es un ejemplo de cómo las técnicas ZK pueden ser útiles en el aprendizaje automático. Y quiero enfatizar por qué esto es tan importante: <Sonal: ¡Sí!> Veamos un ejemplo: Supongamos que tenemos una función, un modelo que realmente se usa para afectar la vida de las personas. Imaginen, por ejemplo, que usamos un modelo para decidir si otorgamos un préstamo o una hipoteca; una institución financiera podría querer usar un modelo similar. Queremos asegurarnos de que el mismo modelo se aplique a todos, ¿no? No es que se me aplique un modelo a mí <Sonal: sí> y a ti otro <Sonal: cierto>. Básicamente, al hacer que el banco se comprometa con el modelo, ¿no?; y así todos pueden verificar que sus datos son evaluados por el mismo modelo comprometido <mmm>, podemos asegurarnos de que se aplique el mismo modelo a todos. Debo decir que aquí hay un problema abierto: aunque las técnicas de conocimiento cero pueden garantizar que se aplique el mismo modelo a todos, surge la pregunta: ¿es justo el modelo? Los modelos pueden tener sesgos y generar resultados injustos. Por lo tanto, existe toda una área de investigación llamada equidad algorítmica; existen muchísimos artículos sobre equidad algorítmica, y es realmente interesante preguntarse: ahora que tenemos un modelo establecido, ¿podemos demostrar, en conocimiento cero, que el modelo cumple con alguna definición de equidad del área de equidad algorítmica? ¿Y cómo nos aseguramos de que el proceso de capacitación se ejecute correctamente? Ali: Bueno, todo lo que dijiste sobre #zkml es sumamente emocionante. Y, como tecnología, creo que contribuirá a que el aprendizaje automático, y la IA en general, sean más transparentes y confiables, tanto dentro como fuera del contexto de las criptomonedas. Creo que una aplicación aún más ambiciosa, y quizás a largo plazo, de ZKML —y de algunas otras técnicas de verificación en las que la comunidad criptográfica ha estado trabajando<mhm>— es simplemente descentralizar la IA en general. Como ya comentamos, la IA es una tecnología casi intrínsecamente centralizadora, ya que se nutre de factores como los efectos de escala, ya que tener todo dentro de un centro de datos lo hace más eficiente. Por lo tanto, escalar todo de forma centralizada lo hace más potente y, como resultado, más centralizado. Además, los datos suelen estar controlados por un pequeño número de empresas tecnológicas intermedias. Esto también conlleva una mayor centralización. Y finalmente: los modelos de aprendizaje automático y el talento en aprendizaje automático, también controlados por un pequeño número de actores. Y las criptomonedas pueden volver a ayudar en este frente desarrollando tecnología que utilice cosas como ZKML que puedan ayudarnos a descentralizar la IA. Así que hay tres aspectos principales que intervienen en la IA: el aspecto computacional , que requiere un uso a gran escala de GPU (generalmente en centros de datos); el aspecto de los datos , que, repito, la mayoría de las empresas centralizadas controlan; y los propios modelos de aprendizaje automático . <Sonal: sí> Y la más sencilla podría ser la del cálculo. ¿Es posible descentralizar el cálculo para el entrenamiento y la inferencia de modelos de aprendizaje automático? Aquí es donde entran en juego algunas de las técnicas que Dan mencionaba, como las pruebas de conocimiento cero, que permiten demostrar que el proceso de inferencia o entrenamiento de un modelo se realizó correctamente, lo que permite externalizarlo a una gran comunidad. Se puede tener un proceso distribuido mediante el cual cualquiera con una GPU puede contribuir con el cálculo a la red y entrenar un modelo de esa manera, sin tener que depender necesariamente de un centro de datos masivo con todas las GPU centralizadas. Y aún queda la gran duda de si esto tendrá sentido económicamente... Pero al menos, con los incentivos adecuados, se puede aprovechar la larga cola: se puede aprovechar toda la capacidad de GPU inactiva que pueda existir; hacer que todas esas personas contribuyan con ese cálculo al entrenamiento de un modelo o a la ejecución de la inferencia; y ofrecer una alternativa a lo que, de otro modo, serían solo las grandes empresas tecnológicas intermedias las que actualmente lo controlan todo. <Sonal: ¡Mmm!> Hay todo tipo de problemas técnicos importantes que tendrían que resolverse para que eso fuera posible. De hecho, existe una empresa en este sector llamada Gensyn que está desarrollando precisamente esto. Están creando un mercado descentralizado para computación en GPU, principalmente con el propósito de entrenar modelos de aprendizaje automático. Es un mercado donde cualquiera puede contribuir con su computación en GPU, ya sea en su computadora personal debajo de su escritorio o inactiva en un centro de datos. Y, por otro lado, cualquiera puede aprovechar la computación disponible en la red para entrenar sus grandes modelos de aprendizaje automático. Esto sería una alternativa a la alternativa centralizada, tipo OpenAI/Google/Meta/todos —ya sabes, inserta tu gran empresa tecnológica favorita aquí <Sonal: ¡Sí! (risas)—, que actualmente tendrías que adoptar. Sonal: Bueno, antes de profundizar en este marco de descentralización, Ali, estabas desglosando la computación y creo que ibas a compartir los otros dos de esos tres pilares. Pero antes… ambos hablaron un poco sobre los desafíos técnicos. ¿Cuáles son algunos de los desafíos técnicos que deben superarse y que la gente podría estar resolviendo ya? (Quiero que los desarrolladores que escuchen este episodio también reflexionen sobre las oportunidades en este espacio y cómo pueden abordar los desafíos existentes; o cuáles son algunos de los desafíos que enfrentarán al desarrollar soluciones). Dan: Sí, entonces tal vez pueda mencionar dos que creo que serían interesantes para la gente. [1] Básicamente, imaginemos que Alice tiene un modelo que quiere proteger. Quiere enviarlo cifrado a otra persona, por ejemplo, a Bob. Bob recibe un modelo cifrado y necesita poder ejecutar sus datos en él. ¿Cómo se hace eso? Si se tienen datos que se quieren ejecutar en un modelo, pero solo se cuenta con el cifrado del modelo, ¿cómo se logra? Y eso es algo para lo que usaríamos lo que se llama cifrado totalmente homomórfico. <Sonal: Sí. (FHE).> Es un cifrado totalmente homomórfico, una herramienta notable que permite realizar cálculos con datos cifrados. Es un poco increíble que esto sea posible, pero se puede tener un modelo cifrado y datos de texto sin cifrar, y ejecutar el modelo cifrado sobre estos datos y obtener un resultado cifrado. Se le enviaría el resultado cifrado a Alice, quien podría descifrarlo y verlo en texto sin cifrar. Así que esto es algo que ya existe... de hecho, existe bastante demanda en la práctica; <Sonal: sí> no requiere mucho esfuerzo ver que el Departamento de Defensa está interesado en esto. Hay muchas otras aplicaciones donde se puede enviar un modelo cifrado a un tercero; este ejecutaría el modelo cifrado en sus datos; te enviaría los resultados; puedes descifrar y obtener información sobre los datos que se ingresaron como entrada del modelo cifrado. La pregunta, claro, es cómo lo escalamos. Ahora mismo funciona bien para modelos medianos… y la pregunta es, ¿podemos escalarlo a modelos mucho más grandes? Así que es todo un reto: un par de startups en el sector, y, repito, una tecnología muy, muy interesante; es increíble que esto sea posible. <Sonal: Sí… de verdad> Y probablemente veremos mucho más de esto en el futuro. [2] La otra área es en realidad la que mencionó Ali, otra área muy importante, que es: ¿cómo sabemos que el modelo fue entrenado correctamente? Entonces, si envío mis datos a alguien y le pido que entrene un modelo con ellos, o que lo ajuste, ¿cómo sé que lo hicieron correctamente? Es cierto, podrían devolverme un modelo, pero ¿cómo sé que no tiene puertas traseras? De hecho, se ha investigado bastante para demostrar que, si el entrenamiento se realiza incorrectamente, podría devolver un modelo que funcionaría correctamente con todos los datos de prueba, pero que tiene una puerta trasera, lo que significa que fallaría catastróficamente con una entrada específica. Esto es posible si el proceso de entrenamiento no está verificado. Y, de nuevo, este es un área donde ZKML entra en juego: Podemos demostrarles que el entrenamiento se ejecutó correctamente; o quizás existan otras técnicas para demostrarlo. Pero, de nuevo, esta es otra área —un área de investigación muy activa— y animaría a muchos de los oyentes a que se trate de un problema muy complejo: demostrar que el entrenamiento se realizó correctamente; demostrar que los datos de entrenamiento se recopilaron y filtraron correctamente, etc. De hecho, es un área maravillosa en la que ingresar si las personas buscan realizar más trabajos en ese espacio. Sonal: ¡Genial! Ali, ¿qué más añadirías? Ali: Sí, definitivamente. Bueno, supongo que si seguimos hablando de lo que se necesitaría para descentralizar la pila de IA, creo que para descentralizar el componente computacional —y estos son tres componentes importantes—, si quisiéramos descentralizar el componente computacional, hay dos desafíos técnicos muy importantes que aún no se han resuelto. El primero es el problema de la verificación (que Dan acaba de mencionar) <Sonal: mhm>, para el cual se podría usar ZKML. Idealmente, con el tiempo se podrían usar pruebas de conocimiento cero para demostrar que el trabajo real —que las personas que contribuyen a esta red— se realizó correctamente. El desafío radica en que el rendimiento de estas primitivas criptográficas está lejos de alcanzar el nivel necesario para entrenar o inferir modelos muy grandes. Por lo tanto, los modelos actuales, como los LLM que todos conocemos y apreciamos (como ChatGPT), no serían demostrables con el estado actual de ZKML. Por lo tanto, se está trabajando mucho para mejorar el rendimiento del proceso de demostración, de modo que se puedan demostrar cargas de trabajo cada vez mayores de forma eficiente. Pero ese es un problema abierto, y algo <Sonal: sí> en lo que mucha gente está trabajando. Mientras tanto, empresas como Gensyn utilizan otras técnicas que no son solo criptográficas, sino que se basan en la teoría de juegos. En ellas, se recluta a un mayor número de personas independientes para realizar el trabajo y se comparan sus resultados para garantizar que se realicen correctamente. <Sonal: ¡Qué interesante!> Se trata de un enfoque más optimista y basado en la teoría de juegos que no se basa en la criptografía, pero que se alinea con el objetivo principal de descentralizar la IA o ayudar a crear un ecosistema para la IA mucho más orgánico, comunitario y de abajo a arriba, a diferencia del enfoque de arriba a abajo que proponen empresas como OpenAI. Así que ese es el primer problema; el primer gran problema es el problema de la verificación. Y el segundo gran problema es el de los sistemas distribuidos: ¿cómo se coordina realmente una gran comunidad de personas que contribuyen con GPU a una red de tal manera que todo parezca un sustrato integrado y unificado para el cálculo? <Sonal: yup> Y habrá muchos desafíos interesantes, como: estamos fragmentando la carga de trabajo de aprendizaje automático de forma lógica; distribuyendo diferentes partes a distintos nodos de la red; descubriendo cómo hacerlo todo de forma eficiente; y, cuando los nodos fallan, descubriendo cómo recuperarse y asignando nuevos nodos para que se encarguen del trabajo realizado por el nodo que falló. Por lo tanto, existen muchos detalles complejos a nivel de sistemas distribuidos que las empresas deberán resolver para ofrecernos esta red descentralizada que pueda ejecutar cargas de trabajo de aprendizaje automático de una forma quizás incluso más económica que usar la nube. Sonal: Sí… Eso es genial. Dan: …Sí, y es totalmente cierto que las técnicas ZK actuales manejarán los modelos más pequeños que se utilizan, pero definitivamente los LLM son probablemente demasiado grandes para que estas técnicas los manejen hoy, las técnicas ZK; pero, sabes que están mejorando constantemente, el hardware está mejorando, así que con suerte se pondrán al día. Sonal: Sí; antes de continuar, ¿podemos hacer una comprobación de pulso realmente clara sobre dónde estamos exactamente en eso? Obviamente, lo que les escucho decir es que hay tremendas aplicaciones en la intersección de la computación general verificable, que las cadenas de bloques y las criptomonedas definitivamente han estado avanzando y acelerando significativamente toda esa área (hemos estado cubriendo mucho de eso nosotros mismos: si miran nuestro canon ZK y la categoría de conocimiento cero, verán mucho de esto cubierto allí). Pero, ¿dónde nos encontramos exactamente ahora en cuanto a lo que pueden hacer? Porque ustedes hablaron mucho sobre lo que aún no pueden hacer y la oportunidad que les brinda, lo cual es emocionante; pero ¿dónde nos encontramos ahora mismo? ¿Qué pueden hacer realmente? Dan: Sí. Ahora mismo, básicamente pueden clasificar modelos medianos. No algo tan grande como GPT-3 o 4, sino modelos medianos. <sí> Es posible demostrar que la clasificación se realizó correctamente. El entrenamiento probablemente esté más allá de lo que se puede hacer ahora mismo, simplemente porque requiere muchísimos recursos computacionales <Sonal: cierto> que para los sistemas de prueba aún no hemos llegado a ese punto. Pero como dijo Ali, tenemos otras maneras de hacerlo. Por ejemplo, podemos hacer que varias personas realicen el entrenamiento y luego comparar los resultados. ¿Sí? Así que ahora hay incentivos de teoría de juegos para que la gente no haga trampa. Si alguien hace trampa, alguien más podría quejarse de que calculó mal el entrenamiento, y entonces quien haya hecho trampa no recibirá compensación por su esfuerzo. <Sonal: Sí, sí, sí> Así que hay un incentivo para que la gente realmente realice el entrenamiento como se suponía que debía realizarse. Sonal: Correcto. Y básicamente, no es una fase híbrida, sino que se trata de enfoques alternativos hasta que se alcance una mayor escalabilidad y el rendimiento alcance el nivel necesario. Dan: Sí; diría que para algunos modelos, la clasificación se puede demostrar hoy en día con conocimiento cero. Para el entrenamiento actual, debemos confiar en técnicas optimistas. Sonal: Sí, genial. Entonces, Ali, mencionaste que la computación es una de las tres puntas, y también mencionaste que los datos y luego los modelos para el aprendizaje automático en sí mismos: ¿quieres abordar ahora los datos y las oportunidades y desafíos que hay allí (en lo que respecta a la intersección cripto/IA)? Ali: Sí, absolutamente. Por lo tanto, creo que existe la oportunidad, aunque los problemas involucrados son muy complejos, de descentralizar el proceso de obtención de datos para el entrenamiento de grandes modelos de aprendizaje automático <mhm> desde una comunidad más amplia. De nuevo, en lugar de tener un único actor centralizado, simplemente recopilar todos los datos <yah> y luego entrenar los modelos. Y esto podría funcionar creando un tipo de mercado similar al que acabamos de describir para la computación, pero incentivando a las personas a contribuir con nuevos datos a un gran conjunto de datos que luego se utiliza para entrenar un modelo. La dificultad con esto es similar, ya que existe un desafío de verificación: hay que verificar de alguna manera que los datos que aportan las personas sean realmente buenos <Sonal: ¡sí!> y que no sean datos duplicados ni basura generados aleatoriamente o que no sean reales. Y también hay que asegurarse de que los datos no alteren el modelo (algún tipo de ataque de envenenamiento) donde el modelo se vuelva vulnerable o simplemente menos bueno o tenga un rendimiento inferior al anterior. Entonces, ¿cómo se verifica que esto sea así? Y ese es quizás un problema complejo que la comunidad debe resolver. Podría ser imposible de resolver por completo, y podría ser necesario recurrir a una combinación de soluciones tecnológicas y sociales, donde también se cuenta con algún tipo de métrica de reputación. Los miembros de la comunidad pueden ganar credibilidad, de modo que cuando aportan datos, estos se vuelvan más confiables de lo que serían de otra manera. Pero lo que esto podría permitirle hacer es que ahora puede cubrir verdaderamente la cola muy larga de la distribución de datos. Y uno de los aspectos más desafiantes del aprendizaje automático es que la calidad de un modelo depende de la cobertura de la distribución que el conjunto de datos de entrenamiento pueda alcanzar. Si existen entradas que se alejan mucho de la distribución de los datos de entrenamiento, el modelo podría comportarse de forma completamente impredecible. Para que el modelo funcione correctamente en casos extremos (y en los casos de cisne negro o entradas de datos que se pueden encontrar en el mundo real), es fundamental que el conjunto de datos sea lo más completo posible. Así pues: si existiera este tipo de mercado abierto y descentralizado para la contribución de datos a un conjunto de datos, cualquiera con datos únicos en el mundo podría contribuir a la red… Lo cual es una mejor manera de hacerlo, ya que si se intenta hacerlo desde una empresa central, no hay forma de saber quién tiene esos datos. Por lo tanto, si se incentiva a esas personas a que se presenten y proporcionen esos datos por iniciativa propia, creo que se puede lograr una cobertura mucho mejor de la cola larga. Como hemos visto, el rendimiento de los modelos de aprendizaje automático continúa mejorando a medida que crece el conjunto de datos y la diversidad de sus puntos de datos. Esto puede potenciar aún más el rendimiento de nuestros modelos de aprendizaje automático; podemos obtener conjuntos de datos aún más completos que abarcan a toda la comunidad. Dan: Bueno, déjame darle la vuelta a esto en ese eh... Sonal: ¡Oooh, adelante, Dan! Dan: …Si vamos a incentivar a la gente a contribuir con datos, básicamente vamos a incentivarla a crear datos falsos <Sonal: ¡Sí!> para que les paguen. ¿Sí? Así que tenemos que tener algún tipo de mecanismo para asegurarnos de que los datos que aportas sean auténticos. <Ali: Exactamente> Y puedes imaginar un par de maneras de hacerlo, ¿verdad? Una forma es confiar en hardware confiable. <Sonal: mhm>: Quizás los sensores estén integrados en un hardware confiable, al que solo confiaríamos en datos debidamente firmados por él. Esa es una forma de hacerlo. De lo contrario, tendríamos que tener algún otro mecanismo mediante el cual podamos saber si los datos son auténticos o no. Ali: Estoy completamente de acuerdo. Ese sería el mayor problema abierto a resolver... Y creo que a medida que mejora la evaluación comparativa de los modelos de aprendizaje automático, creo que hay dos tendencias importantes en el aprendizaje automático en este momento <Sonal: yah> – [1] Se está mejorando la medición del rendimiento de un modelo de aprendizaje automático. En el caso de los LLM, esto aún está en sus primeras etapas y, de hecho, es bastante difícil determinar su calidad. Porque no se trata de un clasificador donde el rendimiento de un modelo esté claramente definido. Con un LLM, es casi como evaluar la inteligencia de un humano. ¿Verdad? <Sonal: ¡mhm!> Encontrar la forma correcta de evaluar la inteligencia de un LLM como #chatgpt es un área de investigación abierta. Pero con el tiempo, creo que mejorará cada vez más. [2] Y la otra tendencia es que cada vez somos más capaces de explicar cómo funciona un modelo. Y con ambas cosas, en algún momento, podría ser posible comprender el efecto que un conjunto de datos tiene en el rendimiento de un modelo de aprendizaje automático. <Sonal: sí> Y si podemos comprender bien si un conjunto de datos aportado por un tercero ayudó o no al rendimiento del modelo de aprendizaje automático, entonces podemos recompensar esa contribución y crear el incentivo para que exista ese mercado. Sonal: Entonces, para resumir hasta ahora, lo que les escuché decir es que… Existe hardware confiable que puede ayudar a verificar la precisión de los datos y los modelos que se aportan;Ali, mencionaste brevemente las métricas de reputación y ese tipo de cosas pueden ayudar;También mencionaste que podría haber una manera (no necesariamente ahora, pero en algún momento en el futuro cercano) de verificar cómo los datos influyen en los resultados de un modelo en particular para que realmente puedas... no es del todo explicable, pero la idea es que realmente puedas atribuir que este conjunto de datos causó este efecto particular. Así que hay una variedad de técnicas diferentes que habéis compartido hasta ahora. Ali: Bueno, lo último es que podrías hacer lo mismo para el tercer aspecto, que son los modelos. Imagina crear un mercado abierto para que las personas aporten un modelo entrenado capaz de resolver un problema específico. Imagina crear en Ethereum un contrato inteligente que integre algún tipo de prueba, ya sea una prueba cognitiva que un LLM pueda resolver o una prueba de clasificación que un clasificador de aprendizaje automático (AAP) pueda resolver. Y si se utiliza ZKML, alguien podría proporcionar un modelo junto con una prueba de que ese modelo puede resolver esa prueba; entonces, nuevamente, usted tiene las herramientas que necesita para crear un mercado que incentive a las personas a contribuir con modelos de aprendizaje automático que puedan resolver ciertos problemas. Muchos de los problemas que hemos discutido, los problemas pendientes que hemos discutido, sobre cómo lograrlo también están presentes aquí... En particular, hay una parte de ZKML donde se debe poder demostrar que el modelo realmente realiza el trabajo que afirma realizar. Además, necesitamos tener buenas pruebas para evaluar la calidad de un modelo. Así que poder integrar una prueba dentro de un contrato inteligente para luego someter un modelo de aprendizaje automático a una evaluación de su calidad. Esta es otra parte muy emergente de toda esta tendencia tecnológica. Pero en teoría, sería fantástico si finalmente llegáramos a un mundo donde tuviéramos estos mercados muy abiertos, de abajo hacia arriba y transparentes que permitan a las personas contribuir y obtener modelos de computación, datos y aprendizaje automático para el aprendizaje automático, que esencialmente actúen nuevamente como un contrapeso a las enormes y muy centralizadas empresas tecnológicas que impulsan todo el trabajo de IA en la actualidad. Sonal: Me encanta cómo lo mencionaste, Ali, porque ha sido un problema de larga data en la IA en la práctica: puede resolver muchos problemas, como la curva de campana, la parte media de la norma, pero no los extremos. Un ejemplo clásico de esto son los coches autónomos. Se puede hacer todo con ciertos comportamientos estándar, pero son los casos extremos donde pueden ocurrir los verdaderos accidentes y las catástrofes. <Ali: Cierto> Eso fue muy útil. Sé que hablaste sobre la alineación de incentivos y los incentivos para proporcionar datos precisos y de calidad, e incluso incentivos para contribuir con cualquier dato en general. Pero hablando de la cola larga, me surgió una pregunta rápida mientras hablabas. Esto me lleva a preguntarme quién gana dinero y dónde en este sistema. No pude evitar preguntarme, ¿cómo influye entonces el modelo de negocio en la rentabilidad de las empresas? Siempre he entendido que, en la cola larga de la IA (en un mundo con este tipo de conjuntos de datos disponibles), tus datos propietarios son, en realidad, tu conocimiento único del dominio, algo que solo tú conoces en esa cola larga. ¿Tienes alguna respuesta rápida? Ali: Creo que la visión tras la intersección de las criptomonedas con la IA es que se podría crear un conjunto de protocolos que distribuyan el valor que eventualmente capturará esta nueva tecnología, la IA, entre un grupo mucho más amplio de personas. Esencialmente, una comunidad de personas, todas las cuales pueden contribuir y participar de las ventajas de esta nueva tecnología. <Sonal: mhm> Entonces, las personas que ganarían dinero serían las que contribuyen con el procesamiento, o las que contribuyen con datos, o las que contribuyen con nuevos modelos de aprendizaje automático a la red, de modo que se puedan entrenar mejores modelos de aprendizaje automático y se puedan resolver problemas mejores, más grandes y más importantes. Las otras personas que generarían ingresos al mismo tiempo son quienes, por otro lado, están en el lado de la demanda de esta red: quienes la utilizan como infraestructura para entrenar sus propios modelos de aprendizaje automático. <Sonal: sí> Quizás su modelo genere algo interesante en el mundo, tal vez sea como la próxima generación de ChatGPT. Y luego eso se abra camino hacia diversas aplicaciones, como aplicaciones empresariales o cualquier otro uso que se les dé a esos modelos, y esos modelos impulsan la captura de valor por sí mismos, porque esas empresas tendrán su propio modelo de negocio. Finalmente, quienes también podrían generar ingresos son quienes construyen esta red. Por ejemplo: se crea un token para la red; este token se distribuirá a la comunidad; y todas esas personas tendrán propiedad colectiva sobre esta red descentralizada para datos y modelos computacionales que también podrían capturar parte del valor de toda la actividad económica que pasa por esta red. Así que, como pueden imaginar, cualquier pago por computación, datos o modelos <mhm> podría tener una comisión. Esta podría ir directamente a una tesorería controlada por esta red descentralizada, de la que todos los poseedores de tokens que forman parte tienen propiedad y acceso colectivos (como creadores y propietarios del mercado). Y esa tarifa podría ir directamente a la red. Así que, imagínense que cada transacción que pasa por esta red, cada forma de pago que paga por computación, datos o modelos, podría tener una tarifa que se le imponga y que vaya a una tesorería controlada por toda la red y por los poseedores de tokens que la poseen colectivamente. De modo que ese es esencialmente un modelo de negocio para la red en sí. Sonal: ¡Genial! Bien. Hasta ahora hemos hablado mucho sobre cómo las criptomonedas pueden ayudar a la IA. Para ser claros, no es unidireccional; estas cosas se refuerzan, son bidireccionales y más interactivas que unidireccionales. Pero, para el propósito de esta discusión, realmente estamos hablando de cómo las criptomonedas pueden ayudar a la IA; ahora vamos a darle la vuelta y hablar un poco más sobre las formas en que la IA puede ayudar a las criptomonedas. Dan: Sí, entonces hay un par de puntos de contacto interesantes allí. Un tema que realmente vale la pena mencionar es la idea de los modelos de aprendizaje automático que se utilizan para generar código. Muchos oyentes probablemente hayan oído hablar de Copilot, una herramienta que se utiliza para generar código. Y lo interesante es que se pueden intentar usar estas herramientas de generación de código para escribir contratos de Solidity o código criptográfico. Y quiero recalcar que esto es realmente algo muy peligroso de hacer. Sonal: ¡Ay! ¡No hagas esto en casa! ¡Vale! <risas> Dan: Sí. Sí. No intentes esto en casa. Porque lo que ocurre es que muy a menudo estos sistemas realmente generan código que funciona, ya sabe, cuando intenta ejecutarlo (y, como sabe, el cifrado es lo opuesto al descifrado, etc.), por lo que el código realmente funcionará, pero en realidad será inseguro. De hecho, hemos escrito un artículo sobre esto recientemente que muestra que si intentas que Copilot escriba algo tan simple como una función de cifrado, te dará algo que realiza el cifrado correctamente, pero utiliza un modo de operación incorrecto, por lo que terminarás con un modo de cifrado inseguro. De manera similar, si intentas generar código Solidity, podrías terminar con un código Solidity que funcione, pero tendrá vulnerabilidades. Quizás te preguntes, ¿por qué sucede esto? Una de las razones es que estos modelos se entrenan básicamente con código disponible, en repositorios de GitHub. Bueno, muchos de los repositorios de GitHub son vulnerables a todo tipo de ataques. Así que estos modelos aprenden sobre código que funciona, pero no sobre código seguro; es como si entrara basura, saliera basura, ¿no? <Sonal: ¡Mmm!> Así que quiero asegurarme de que las personas sean muy, muy cuidadosas, cuando usen estos modelos generativos para generar código, que verifiquen con mucho cuidado que el código realmente haga lo que se supone que debe hacer y que lo haga de manera segura. Ali: Una idea en ese frente (tengo curiosidad por saber lo que piensas al respecto) es que puedes usar modelos de IA como LLM (algo así como ChatGPT) para generar código, junto con otras herramientas para intentar hacer que el proceso sea menos propenso a errores. Y un ejemplo, una idea <oh> sería usar un LLM para generar una especificación para un sistema de verificación formal: Básicamente, describes tu programa en inglés; y le pides al LLM que genere una especificación para una herramienta de verificación formal; luego le pides a la misma instancia del LLM que genere el programa que cumple con esa especificación. <mm!> Y luego usas una herramienta de verificación formal para ver si el programa realmente cumple con la especificación. Si hay errores, la herramienta los detectará; estos errores pueden utilizarse como retroalimentación para el LLM. Idealmente, el LLM podrá revisar su trabajo y producir una nueva versión del código correcta. Y, finalmente, si se repite esto una y otra vez, se obtendrá un fragmento de código que, idealmente, cumple plenamente con la especificación y está formalmente verificado. Y como la especificación puede ser legible por un humano, puedes revisarla y ver que sí, este es el programa que quería escribir. Y esa puede ser una excelente manera de usar LLM para escribir código que, además, no sea tan propenso a errores como lo sería si simplemente le pidieras a ChatGPT que generara un contrato inteligente. Sonal: ¡Qué inteligente! Dan: Sí, esto es genial y, de hecho, nos lleva a otro tema que vale la pena discutir, que es básicamente el uso de LLM para encontrar errores. Supongamos que un programador escribe código en Solidity y ahora quiere comprobar si ese código es correcto y seguro. Como dijo Ali, puede usar el LLM para encontrar vulnerabilidades en ese código. Se ha trabajado mucho para evaluar la eficacia de los LLM para detectar errores en software, en los contratos inteligentes de Solidity y en C y C++. Hay un artículo que salió recientemente que es realmente muy relevante: es un artículo de la Universidad de Manchester <Sonal: mhm>, que dice que ejecutarías una herramienta de análisis estático estándar para encontrar errores en tu código; y encontraría todo tipo de errores de gestión de memoria o errores potenciales; solo una herramienta de análisis estático estándar; sin aprendizaje automático alguno. Pero entonces usarías un LLM para intentar corregir el código. ¿Sí? <Sonal: mm> <Ali: exactamente> Así que propone una solución al error automáticamente. Y luego volverías a ejecutar el analizador estático en el código corregido, <Ali: sí> y el analizador estático diría: «Oh, el error sigue ahí o no está ahí». Y seguirías iterando hasta que el analizador estático diga: «Sí, ahora el error se ha corregido y no hay más problemas». Así que fue un artículo bastante interesante; este artículo literalmente salió hace dos semanas. Sonal: Entonces, para ambos artículos que acabas de mencionar, Dan, el de la Universidad de Manchester y también el que escribieron recientemente sobre que no se confía en que los LLM escriban código correcto (podría ser código funcional, pero no necesariamente seguro), vincularé esos artículos en las notas del programa <Dan: genial> para que los oyentes puedan encontrarlos. Solo una pregunta rápida antes de continuar… En cuanto a la situación actual, ¿es una situación temporal o crees que llegará el momento en que se pueda confiar en que los LLM escriban código de contratos inteligentes correcto, no solo funcional, sino seguro ? ¿Es posible o está muy lejos? Dan: Esa es una pregunta difícil de responder. Sabes que estos modelos mejoran muchísimo cada semana, ¿verdad? <Sonal: Sí> Así que es posible que para el año que viene estos problemas ya estén solucionados y que se pueda confiar en ellos para escribir código más seguro. Supongo que lo que estamos diciendo ahora mismo es que, si se usan los modelos actuales (GPT-4, GPT-3, etc.) para generar código, hay que ser muy cuidadoso y verificar que el código que escribieron realmente cumpla su función y sea seguro. Sonal: Entendido. Ali: Y, por cierto, ¿llegaremos a un punto en el que el código generado por los LLM tenga menos probabilidades de contener errores que el generado por un humano? <Sonal: ¡Sí!> Y quizás esa sea una pregunta más importante, ¿no? Porque de la misma manera que nunca puedes decir que un coche autónomo nunca se estrellará, la verdadera pregunta que realmente importa es: ¿es menos probable que se estrelle que si fuera un conductor humano? <Sonal: Eso es exactamente correcto> Porque la verdad es que probablemente sea imposible garantizar que nunca habrá un accidente automovilístico causado por un coche autónomo, o que nunca habrá un error <Sonal: cierto> generado por un LLM al que le has pedido que escriba algún código. Y creo que, dicho sea de paso, esto se volverá cada vez más potente cuanto más se integre en las cadenas de herramientas existentes. Como ya comentamos, se puede integrar en cadenas de herramientas de verificación formal. Se puede integrar en otras herramientas, como la que describió Dan, que detecta problemas de gestión de memoria. También se puede integrar en cadenas de herramientas de pruebas unitarias y de integración. De esta manera, el LLM no actúa de forma aislada: recibe retroalimentación en tiempo real de otras herramientas que lo conectan con la realidad. Y creo que a través de la combinación de modelos de aprendizaje automático que son extremadamente grandes, entrenados con todos los datos del mundo, combinados con estas otras herramientas, en realidad podría crear programadores que sean bastante superiores a los programadores humanos. <mhm> E incluso si todavía pudieran cometer errores, podrían ser sobrehumanos. Y ese será un gran momento para el mundo de la ingeniería de software en general. Sonal: Sí. Qué buen encuadre, Ali… Entonces, ¿cuáles son algunas de las otras tendencias que se avecinan y en las que la IA puede ayudar a las criptomonedas, y viceversa? Ali: Sí… Una posibilidad emocionante en este espacio es que podamos construir redes sociales descentralizadas que en realidad se comporten de forma muy similar a Twitter, pero donde el gráfico social esté completamente en cadena y sea casi como un bien público sobre el cual cualquiera pueda construir. Como usuario, controlas tu propia identidad en el gráfico social. Controlas tus datos, a quién sigues y quién puede seguirte. Existe todo un ecosistema de empresas que crean portales en el gráfico social que ofrecen a los usuarios experiencias similares a las de Twitter, Instagram, TikTok o cualquier otra plataforma que deseen desarrollar. Pero todo esto está encima de este mismo gráfico social <Sonal: yah> que nadie posee y que no hay ninguna empresa tecnológica de mil millones de dólares en el medio que tenga control total sobre él y que pueda decidir lo que sucede en él. Y ese mundo es emocionante porque significa que puede ser mucho más dinámico; puede existir todo un ecosistema de personas creando cosas y cada usuario tiene mucho más control sobre lo que ve y lo que puede hacer en la plataforma. Pero también existe la necesidad de filtrar la señal del ruido. Y, por ejemplo, la necesidad de crear algoritmos de recomendación sensatos que filtren todo el contenido y te muestren el canal de noticias que realmente quieres ver. Esto abrirá la puerta a todo un mercado, un entorno competitivo, de participantes que te proporcionarán algoritmos basados ​​en IA que seleccionan contenido para ti. Como usuario, podrías tener una opción: puedes optar por un algoritmo en particular, tal vez el desarrollado por Twitter, o por uno desarrollado por alguien completamente diferente. Y ese tipo de autonomía será genial, pero, de nuevo, vas a necesitar herramientas como el aprendizaje automático y la IA para ayudarte a filtrar el ruido y analizar todo el spam que inevitablemente existirá en un mundo donde los modelos generativos pueden crear todo el spam del mundo. Sonal: Lo interesante de lo que dijiste también es que ni siquiera se trata de elegir entre... Se remonta a esta idea que mencionaste antes, y mencionaste esto brevemente sobre simplemente dar a los usuarios las opciones para elegir entre mercados de ideas y enfoques gratuitos que puedan decidir... Pero también es interesante porque no se trata solo de empresas, sino de qué enfoque te funciona. Quizás te interese más el algoritmo de filtrado colaborativo que existía en los sistemas de recomendación originales, que funciona como un filtrado colaborativo entre personas. <Ali: sí> Así que las recomendaciones de tus amigos son lo que sigues. De hecho, personalmente soy muy diferente y estoy mucho más interesado en un gráfico de intereses; y por lo tanto, podría estar mucho más interesado en personas que tienen intereses similares a los míos, y podría elegir ese enfoque en lugar de, digamos, algo más que sea algo así como, oye, este es un enfoque híbrido, lo único que va a hacer es XY y Z. El simple hecho de poder elegir ya es tremendamente empoderador. Eso simplemente no es posible ahora mismo. Y solo es posible con las criptomonedas y la IA. Así que ese es un gran ejemplo. <¡Ah, sí!> ¿Había algo más que decir sobre cómo la IA puede ayudar con la confianza y la seguridad? Ali: Creo que esa metaimagen es que las criptomonedas son el Salvaje Oeste. Como no requieren permisos, cualquiera puede participar; hay que asumir que quien participe podría ser un adversario <sí> y tal vez intentar manipular el sistema, hackearlo o hacer algo malicioso. Por eso, existe una necesidad mucho mayor de herramientas que ayuden a filtrar a los participantes honestos de los deshonestos, y el aprendizaje automático y la IA, como herramientas de inteligencia, pueden ser realmente muy útiles en ese frente. Por ejemplo, existe un proyecto llamado Stelo, que utiliza aprendizaje automático para identificar transacciones sospechosas enviadas a una billetera y las marca para el usuario antes de que se envíen a la cadena de bloques. Esto podría ser una buena manera de evitar que el usuario envíe accidentalmente todos sus fondos a un atacante o haga algo de lo que luego se arrepienta. <mhm> Y esa empresa básicamente vende a billeteras (a empresas como Metamask) para que Metamask pueda usar la información y hacer lo que quiera con ella: bloquear la transacción, advertir al usuario o, en cierto modo, replantear la transacción para que deje de ser peligrosa. Ese es un ejemplo. También hay otros ejemplos en el contexto de MEV (valor mínimo extraíble, <Sonal: sí>) o valor máximo extraíble, según a quién le preguntes, que es el valor que pueden extraer quienes controlan el orden de las transacciones en una cadena de bloques. Estos suelen ser los mineros o validadores de una cadena de bloques. Y la IA, en este caso, puede ser un arma de doble filo, ya que si eres un validador en una blockchain y controlas la ordenación de las transacciones, puedes implementar todo tipo de estrategias inteligentes para ordenarlas de forma que te beneficies. Por ejemplo, puedes adelantar transacciones, retrasar transacciones e intercalar órdenes en Uniswap. Hay muchísimas transacciones que puedes crear para aprovechar esta capacidad de ordenar transacciones. El aprendizaje automático y la IA podrían potenciar esa capacidad, ya que pueden buscar oportunidades para capturar cada vez más MEV. Por otro lado, el aprendizaje automático puede ser útil también como herramienta defensiva. Antes de enviar una transacción, es posible que sepas que existe un MEV que podría extraerse de ella. Por lo tanto, podrías dividirla en varias para que ningún validador pueda controlarla por completo, o tomar medidas para protegerte de un extractor de MEV en algún punto del proceso de la transacción. Así que este es un aspecto en el que las criptomonedas juegan un papel importante cuando se trata de seguridad, cuando se trata de confianza, cuando se trata de hacer que el espacio sea más confiable para el usuario final. Sonal: Ese es un ejemplo de cómo la IA dificulta las cosas en el ámbito de las criptomonedas, y luego las criptomonedas regresan y mejoran las cosas para... <se ríe>. Dan: De hecho, tengo otro ejemplo parecido. <Sonal: ¡Sí!> Así como los modelos de aprendizaje automático pueden usarse para detectar datos falsos o quizás actividad maliciosa, <mm>, existe la otra cara de la moneda: los modelos de aprendizaje automático pueden usarse para generar datos falsos. <Sonal: Sí> El ejemplo clásico son las falsificaciones profundas, ¿verdad? Se puede crear un video de alguien diciendo cosas que nunca dijo, y ese video parece bastante realista. Y lo interesante es que las cadenas de bloques pueden ayudar a solucionar el problema. Permítanme explicarles un posible enfoque en el que las cadenas de bloques podrían ser útiles: Imagina que es una solución que solo podría aplicarse a figuras conocidas como políticos o estrellas de cine, etc. <Sonal: mhm>. Pero imagina que un político llevara una cámara en el pecho y grabara lo que hace todo el día <Sonal: sí>, y luego creara un árbol de Merkle a partir de esa grabación y enviara los compromisos del árbol de Merkle a la cadena de bloques. <mhm> Ahora, en la cadena de bloques, hay una marca de tiempo que indica que, en esta y esta fecha, dijiste esto y aquello; en esta y aquella fecha, dijiste esto y aquello. Y si alguien crea un video ultrafalso de este político diciendo cosas que nunca dijo, el político puede decir: «Mira, en ese momento, cuando el video decía que dije esto y aquello, en realidad estaba en un lugar completamente diferente, haciendo algo sin relación». Y el hecho de que todos estos datos, los datos reales, los datos auténticos, se registren en una cadena de bloques puede usarse para demostrar que la falsificación profunda es realmente falsa y no datos reales. ¿Sí? Así que esto no es algo que exista todavía. <Sonal: sí> Sería divertido que alguien construyera algo así, pero pensé que es un ejemplo interesante de cómo las cadenas de bloques podrían ser realmente útiles <Sonal: sí> para combatir las falsificaciones profundas. Sonal: ¿Hay también una manera de resolver ese problema y mostrar otras marcas de tiempo o procedencia, donde se pueda hacer ese tipo de verificación de lo que es verdad/lo que no es verdad sin tener que hacer que un político ande por ahí con una cámara <Dan se ríe> en el pecho? Dan: Sí, por supuesto. También podemos confiar en hardware confiable para esto; <mhm> Así que imagina, ya sabes, nuestras cámaras, las cámaras de nuestros teléfonos y demás, que realmente firmarían las imágenes y los videos que toman. <Sonal: sí>. Hay un estándar, llamado C2PA, que especifica cómo las cámaras firmarán los datos; de hecho, hay una cámara de Sony que ahora toma fotografías y videos y luego produce firmas C2PA en esos videos... Así que ahora básicamente tienes datos auténticos; en realidad puedes probar que los datos realmente provienen de una cámara C2PA. Y ahora Sonal, si tal vez lees un artículo de periódico, y hay una imagen en el artículo, y dice ser de un lugar, pero de hecho está tomada de un lugar diferente; la firma en realidad podría verificarse con el hecho de que está firmada por C2PA. Hay muchos matices allí, C2PA es un tema bastante complicado, <mhm> hay muchos matices que discutir y tal vez no los tratemos aquí; Sonal: Dan, recuerdo que hablaste de este trabajo conmigo antes (creo que fue en nuestra oficina); pero también recuerdo que no resiste la edición. Y como sabes, los editores como yo y otros creadores de contenido, y sinceramente, casi cualquiera (que use Instagram o cualquier publicación en línea)… nadie sube nada exactamente igual a como fue creado originalmente… Dan: Sí , normalmente, cuando los periódicos publican fotos, no publican la imagen de la cámara tal cual, sino que la recortan. Hay un par de cosas autorizadas que pueden hacer con las fotos: quizás aplicarles escala de grises; definitivamente, reducir la resolución (para no consumir mucho ancho de banda). En el momento en que empiezas a editar la imagen, el destinatario (el lector final, el usuario del navegador que lee el artículo) ya no puede verificar la firma C2PA. Porque no tiene la imagen original. <Sonal: ¡Cierto!> Entonces, la pregunta es: ¿cómo permites que el usuario verifique que la imagen que está viendo realmente está firmada correctamente por una cámara C2PA? Bueno, como siempre, aquí es donde entran en juego las técnicas de conocimiento cero <Sonal: ¡mmm!>: donde se puede demostrar que la imagen editada es en realidad el resultado de aplicar solo reducción de resolución y escala de grises a una imagen más grande correctamente firmada. ¿Sí? Así que, en lugar de una firma C2PA, tendríamos una prueba ZK (una prueba ZK corta) asociada a cada una de estas imágenes. Y ahora los lectores pueden verificar <mhm> que están viendo imágenes auténticas. Así que es muy interesante que las técnicas ZK se puedan usar para combatir la desinformación. Es una aplicación un tanto inesperada. Sonal: Eso es fantástico. Ali: Por cierto, un problema muy relacionado es demostrar que eres humano <Sonal: mhm> en un mundo donde las falsificaciones profundas que crean la apariencia de humanidad generalmente superan en número a los humanos en una proporción de mil a uno o de un millón a uno. Y la mayoría de las cosas en internet podrían estar generadas por IA. Una posible solución, relacionada con lo que dices, es usar la biometría para determinar si alguien es humano. Pero luego usar pruebas de conocimiento cero para proteger la privacidad de quienes usan esa biometría para demostrar su humanidad. Un proyecto en esta categoría se llama WorldCoin <Sonal: sí>, también es un proyecto de nuestra cartera, y utiliza este orbe; la gente puede haberlo visto como un orbe plateado brillante, que utiliza escaneos de retina como información biométrica para verificar que eres un ser humano real; y también tiene todo tipo de sensores para garantizar que estás vivo y que no puede ser la imagen de un ojo. Este sistema tiene hardware seguro y es muy difícil de manipular. De tal manera que la prueba resultante, una prueba de conocimiento cero que oculta la información biométrica real, es extremadamente difícil de falsificar. De esta manera, los políticos podrían, por ejemplo, <Sonal: mhm> demostrar que su transmisión de video, su firma o su participación en un foro en línea son realmente suyas y que son humanos. Sonal: Lo que es realmente interesante sobre lo que dijiste, Ali, es que es una gran continuación de lo que Dan estaba diciendo sobre las formas de verificar los medios auténticos frente a los medios falsos o ultrafalsos, y este mundo de medios infinitos (como dirías) en el que vivimos... Pero ¿cuáles son las otras aplicaciones de tecnologías de prueba de personalidad como esta? Creo que es importante, porque este es otro ejemplo de cómo la criptografía también puede ayudar a la IA de forma más amplia. Volviendo atrás... estamos yendo y viniendo, <Ali: sí>, pero no importa porque solo estamos hablando de aplicaciones realmente interesantes, y punto. Ali: Bueno, esa es una muy buena pregunta… Una de las cosas que cobrará importancia en un mundo donde cualquiera pueda participar en línea es poder demostrar que eres humano, para diversos fines. Existe ese famoso dicho de los 90 que dice: «En internet, nadie sabe que eres un perro». <Sonal: ¡Ah, sí!> Y creo que una versión reinterpretada de ese dicho es que en internet, nadie sabe que eres un bot. <Sonal: ¿Ajá?> Y entonces supongo que aquí es precisamente donde los proyectos de prueba de humanidad cobran gran importancia <Sonal: ¡Sí!>, porque será importante saber si estás interactuando con un bot o con un humano… Por ejemplo, en el mundo de las criptomonedas, existe toda una cuestión de gobernanza: ¿Cómo se gobiernan sistemas descentralizados, sin un único punto de control, de abajo a arriba y de propiedad comunitaria? Se necesitaría algún tipo de sistema de gobernanza que permita controlar la evolución de esos sistemas. Y el problema hoy es que si no tienes pruebas de humanidad, entonces no puedes saber si una dirección pertenece a un solo humano; o si pertenece a un grupo de humanos; o si 10.000 direcciones en realidad pertenecen a un solo humano y están pretendiendo ser 10.000 personas diferentes. Así que hoy en día, en realidad, es necesario usar la cantidad de dinero como indicador del poder de voto, lo que conduce a una gobernanza plutocrática. <Sonal: Sí, exactamente> Pero si cada participante en un sistema de gobernanza pudiera demostrar que es humano, y pudiera hacerlo de forma única (de modo que no pudiera fingir ser más de un humano porque solo tiene un par de ojos), entonces el sistema de gobernanza sería mucho más justo y menos plutocrático, y podría basarse más en las preferencias de cada individuo, en lugar de en la preferencia de la mayor cantidad de dinero bloqueada en un contrato inteligente. Dan: En realidad, sólo para dar un ejemplo de eso… Hoy en día, nos vemos obligados a usar "una ficha, un voto" porque no tenemos pruebas de humanidad. Quizás nos gustaría usar un humano, un voto, pero si podemos fingir ser cinco humanos, claro que no funciona. Un ejemplo de esto es el llamado voto cuadrático. <Sonal: sí> En la votación cuadrática, si quieres votar cinco veces por algo, tienes que, por así decirlo, depositar 25 fichas. Pero, claro, puedes hacer lo mismo: fingir ser cinco personas diferentes votando una vez, lo que frustraría el mecanismo de la votación cuadrática. La única forma de evitarlo es esta prueba de humanidad: para votar, debes demostrar que eres una sola entidad y no una sibila de entidades. Y ahí es precisamente donde la prueba de humanidad desempeñaría un papel importante. En general, la identidad en cadena se está volviendo cada vez más importante para la gobernanza. Sonal: Totalmente... Por cierto, eso me recordó un episodio que hicimos hace años, Ali, con Phil Daian. <Ali: Ah, sí> ¿Te acuerdas, sobre "Dark DAOs"? <Ali: Sí... exactamente> Fue una conversación muy interesante. Totalmente relevante. Ali: Totalmente. Sonal: Por cierto, ¿la frase es «prueba de personalidad» o «prueba de humanidad»? ¿Cuál es la diferencia? ¿Es lo mismo? Ali: Ah, sí, la gente los usa indistintamente: prueba de ser humano, prueba de humanidad, prueba de personalidad. Sonal: Sí, sí. Bien, entonces sigamos con este tema de los medios, y este tipo de "abundancia infinita" de medios, como ¿cuáles son otros ejemplos? - y de nuevo, estamos hablando de las criptomonedas ayudando a la IA, la IA ayudando a las criptomonedas <Ali: yah> - ¿hay otros ejemplos que no hayamos cubierto aquí donde la intersección de las criptomonedas y la IA pueda generar cosas que no son posibles con ninguna de ellas sola? Ali: Totalmente. O sea, otra implicación de estos modelos generativos es que viviremos en un mundo de abundancia infinita de medios. Y en ese mundo, aspectos como la comunidad en torno a un medio en particular, o la narrativa en torno a un medio en particular, cobrarán cada vez mayor importancia. Para ser más concretos, aquí hay dos buenos ejemplos: Sound.xyz está desarrollando una plataforma de streaming de música descentralizada que permite a los artistas (músicos, en esencia) subir música y conectar directamente con sus comunidades mediante la venta de NFT que otorgan ciertos privilegios a sus miembros. Por ejemplo, la posibilidad de publicar un comentario en la canción en el sitio web de Sound.xyz, para que cualquier otra persona que la reproduzca también pueda verlo. (Esto es similar a la antigua función de SoundCloud que quizás recuerden, donde se podía tener una experiencia social completa en la música mientras se reproducía en el sitio web). Se trata de esta capacidad que permite a las personas interactuar con los medios y entre sí, a menudo de forma económica, ya que básicamente compran este NFT del artista para poder hacerlo. Y, como consecuencia, apoyan al artista y le ayudan a ser sostenible y a crear más música. Pero lo mejor de todo esto es que ofrece a los artistas un foro para interactuar con su comunidad. Y el artista es un artista humano. Y gracias a la participación de las criptomonedas, se puede crear una comunidad en torno a una pieza musical —que no existiría automáticamente en torno a una pieza musical— creada mediante un modelo de aprendizaje automático sin ningún elemento humano, sin una comunidad a su alrededor. Así que pienso de nuevo, en un mundo donde gran parte de la música a la que estaremos expuestos será generada íntegramente por IA, las herramientas para construir comunidad y contar una historia en torno al arte, la música y otros medios serán muy importantes para distinguir los medios que realmente nos importan y en los que queremos invertir y dedicar tiempo, de los medios que, aunque también sean muy buenos, son simplemente un tipo diferente. Son medios generados por IA con menos componente humano. <sí> Y, por cierto, puede que exista cierta sinergia entre ambos: Podría ser que gran parte de la música esté optimizada o generada por IA. Pero si además hay un componente humano —por ejemplo, si un creador utiliza herramientas de IA para crear una nueva pieza musical—, pero además tiene personalidad en Sound, una página de artista, ha creado una comunidad y tiene seguidores, entonces se crea una especie de sinergia entre ambos mundos. <sí> Donde ambos tienen la mejor música, potenciada por los superpoderes que les otorga la IA; pero también tienen un componente humano y una historia, coordinada y realizada por este aspecto criptográfico (que permite reunir a todas esas personas en una sola plataforma). Dan: Es realmente asombroso que incluso en el mundo de la música —tal como hablamos en el mundo de la programación, donde un programador humano se ve mejorado con herramientas como Copilot que generan código— estemos viendo cosas como esta: un artista se ve mejorado por sistemas de aprendizaje automático que ayudan a escribir (o al menos, parte de la música se escribe y genera mediante un sistema de aprendizaje automático). Así que, sin duda, nos estamos adentrando en un nuevo mundo en términos de generación de contenido. Básicamente, habrá mucho spam generado por arte generado por máquinas, que la gente podría no valorar tanto como el arte generado por un ser humano. Quizás otra forma de decirlo es que uno de los objetivos de los NFT era apoyar a los artistas. <Sonal: sí> Pero si los propios artistas ahora son modelos de aprendizaje automático, ¿a quién exactamente apoyamos? <risas> <Sonal: sí… sí> Entonces, la cuestión es cómo distinguimos, cómo diferenciamos el arte generado por humanos que necesita apoyo <Sonal: Sí> del arte generado por máquinas. Sonal: Bueno, esta es una discusión filosófica para tomar algo, pero me atrevería a decir que quien apunta también es un artista, en cierto modo. <Ali: sí> Y, de hecho, yo diría que esa persona es un artista. Y lo mismo ha ocurrido con… ya que esta es una discusión y un debate tan antiguo como el tiempo: simplemente se trata de nuevas tecnologías, viejos comportamientos. Es lo mismo que ha estado ocurriendo durante siglos. Y lo mismo ocurre con la escritura, etc., totalmente. Dan: Muy cierto. Ali: Bueno, eso en realidad abre la puerta al arte colectivo <Sonal: mhm>, al arte que se genera a través del proceso creativo de toda una comunidad, en lugar de un solo artista; De hecho, ya hay proyectos que hacen esto, donde: tienes un proceso mediante el cual una comunidad influye a través de algún proceso de votación en cadena sobre cuál será el mensaje para un modelo de aprendizaje automático como DALL-E. <mhm> Luego, DALL-E usa ese mensaje para generar una obra de arte (quizás generes no 1 obra de arte, sino 10 000) y luego usas otro modelo de aprendizaje automático, que también está entrenado a partir de los comentarios de la comunidad, para elegir entre esos 10 000 el mejor. Bien, ahora tienes una obra de arte generada a partir de las aportaciones de la comunidad; también se podó y se seleccionó de un conjunto de 10 000 variantes de esa obra de arte (sí, sí), también mediante un modelo de aprendizaje automático entrenado por la comunidad, para luego generar una obra de arte. Es, en cierto modo, el resultado de esta colaboración colectiva. Eso es increíble. Sonal: Me encanta. Bueno, chicos, es una gran nota para terminar; gracias a ambos por compartir todo eso con los oyentes de "web3 con a16z". Dan: Gracias Sonal. Ali: Muchas gracias. Las opiniones expresadas aquí son las del personal de AH Capital Management, LLC (“a16z”) citado y no las de a16z ni de sus filiales. Parte de la información aquí contenida se ha obtenido de fuentes externas, incluyendo empresas de cartera de fondos gestionados por a16z. Si bien proviene de fuentes consideradas fiables, a16z no ha verificado dicha información de forma independiente y no garantiza su exactitud permanente ni su idoneidad para una situación concreta. Además, este contenido puede incluir publicidad de terceros; a16z no ha revisado dicha publicidad y no la avala. Este contenido se proporciona únicamente con fines informativos y no debe considerarse asesoramiento legal, comercial, de inversión ni fiscal. Consulte con sus asesores sobre estos asuntos. Las referencias a valores o activos digitales son solo ilustrativas y no constituyen una recomendación de inversión ni una oferta de servicios de asesoramiento en materia de inversión. Asimismo, este contenido no está dirigido a inversores ni a posibles inversores, y en ningún caso debe utilizarse como base para tomar la decisión de invertir en un fondo gestionado por a16z. (Una oferta de inversión en un fondo de a16z se realizará únicamente mediante el memorando de colocación privada, el acuerdo de suscripción y demás documentación pertinente de dicho fondo, y debe leerse en su totalidad). Las inversiones o empresas de cartera mencionadas, referidas o descritas no representan todas las inversiones en vehículos gestionados por a16z, y no se puede garantizar que las inversiones sean rentables ni que otras inversiones futuras tengan características o resultados similares. Una lista de inversiones realizadas por fondos administrados por Andreessen Horowitz (excluidas las inversiones para las cuales el emisor no ha otorgado permiso a a16z para divulgarlas públicamente, así como las inversiones no anunciadas en activos digitales que cotizan en bolsa) #BİNANCESQUARE $BTC {spot}(BTCUSDT)

TRANSCRIPCIÓN #CRYPTO

El nuevo episodio de esta semana aborda la convergencia de dos tendencias importantes y de gran actualidad: la IA (inteligencia artificial) y las cadenas de bloques/criptomonedas. Estos dominios, en conjunto, tienen importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es ideal para quienes tengan curiosidad o ya estén desarrollando este sector. La conversación abarca temas que van desde las deepfakes, los bots y la necesidad de una prueba de humanidad en un mundo de IA; hasta el big data, los grandes modelos de lenguaje como ChatGPT, el control de usuarios, la gobernanza, la privacidad y la seguridad, el conocimiento cero y zkML; hasta MEV, los medios de comunicación, el arte y mucho más.
Nuestros invitados expertos, en conversación con la anfitriona Sonal Chokshi, incluyen:
Dan Boneh , profesor de Stanford (y asesor principal de investigación en a16z crypto), un criptógrafo que ha estado trabajando en cadenas de bloques durante más de una década y que se especializa en criptografía, seguridad informática y aprendizaje automático, todos los cuales se cruzan en este episodio;Ali Yahya , socio general de a16z crypto, quien también trabajó anteriormente en Google, donde no solo trabajó en un sistema distribuido para una flota de robots (una especie de "aprendizaje de refuerzo colectivo") sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow construida en Google.
La primera mitad de la conversación informal entre Ali y Dan (quienes se conocen como estudiantes y profesores en Stanford) gira en torno a cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad, a cómo las criptomonedas podrían beneficiarse de la IA... El hilo conductor es la tensión entre centralización y descentralización. Así, también analizamos cómo la intersección de las criptomonedas y la IA puede generar resultados que ninguna de las dos sería posible por sí sola...
Piezas referenciadas en este episodio/lectura relacionada:
El próximo sistema de razonamiento cibernético para la ciberseguridad  (2023) de Mohamed Ferrag, Ammar Battah, Norbert Tihanyi, Merouane Debbah, Thierry Lestable y Lucas CordeiroUna nueva era en seguridad de software: Hacia software autorreparador mediante modelos de lenguaje extensos y verificación formal  (2023) por Yiannis Charalambous, Norbert Tihanyi, Ridhi Jain, Youcheng Sun, Mohamed Ferrag, Lucas CordeiroCorrección de errores de seguridad de hardware con modelos de lenguaje extensos  (2023) por Baleegh Ahmad, Shailja Thakur, Benjamin Tan, Ramesh Karri y Hammond Pearce¿Los usuarios escriben código más inseguro con asistentes de IA?  (2022) por Neil Perry, Megha Srivastava, Deepak Kumar y Dan Boneh¿Dormido frente al teclado? Evaluación de la seguridad de las contribuciones de código de GitHub Copilot  (2021) por Hammond Pearce, Baleegh Ahmad, Benjamin Tan, Brendan Dolan-Gavitt, Ramesh KarriVotación, seguridad y gobernanza en blockchains  (2019) con Ali Yahya y Phil Daian
TRANSCRIPCIÓN:
Bienvenidos a "web3 con a16z", un programa sobre cómo construir la próxima generación de internet del equipo de a16z crypto; incluyéndome a mí, su presentadora, Sonal Chokshi. El nuevo episodio de hoy aborda la convergencia de dos importantes tendencias de vanguardia: la IA (inteligencia artificial) y las criptomonedas. Esto tiene importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es para cualquiera que tenga curiosidad o que ya esté desarrollando en este sector.
Nuestros invitados especiales de hoy son: Dan Boneh, profesor de Stanford (y asesor sénior de investigación en a16z crypto). Es un criptógrafo que lleva más de una década trabajando en cadenas de bloques. Los temas de este episodio tienen una fuerte intersección entre la criptografía, la seguridad informática y el aprendizaje automático, todas sus áreas de especialización. También tenemos a Ali Yahya, socio general de a16z crypto, quien también trabajó en Google, donde no solo desarrolló un sistema distribuido para robótica (más concretamente, una especie de "aprendizaje de refuerzo colectivo" que implicaba entrenar una única red neuronal que contribuía a las acciones de toda una flota de robots), sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow. De hecho, Dan y Ali se conocen desde que Ali era estudiante de grado y maestría en Stanford, así que esta conversación es más bien una charla informal entre ellos a la que les pedí que me uniera. Abordamos todo, desde deepfakes y bots hasta la prueba de humanidad en un mundo de IA y mucho, mucho más.
La primera mitad trata sobre cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad sobre cómo las criptomonedas podrían beneficiarse de la IA; y el hilo conductor es la tensión entre centralización y descentralización.  Como recordatorio: nada de lo siguiente debe interpretarse como asesoramiento de inversión, legal, comercial o fiscal; consulte a16z.com/disclosures para obtener más información importante, incluido un enlace a una lista de nuestras inversiones, especialmente porque somos inversores en las empresas mencionadas en este episodio.  Pero primero: comenzamos con la intersección de ambos mundos, compartiendo brevemente las áreas (¡o visiones!) que les entusiasman; la primera voz que escucharán será la de Ali.
Ali: Hay una novela de ciencia ficción muy buena llamada “La era del diamante” de Neal Stephenson, en la que hay un dispositivo conocido como “manual ilustrado”, que es una especie de dispositivo de inteligencia artificial que actúa como tu mentor y tu maestro a lo largo de la vida.
Y entonces, cuando naces, estás emparejado con una IA que, esencialmente, te conoce muy bien, aprende tus preferencias, te sigue durante toda la vida, te ayuda a tomar decisiones y te guía en la dirección correcta.
Así que existe un futuro de ciencia ficción… en el que se podría construir una IA, pero no se querría que estuviera controlada por un gigante tecnológico monopolista. Porque esa posición le otorgaría a esa empresa un gran control, y existen todas estas cuestiones de privacidad y soberanía, y se querría tener cierto control sobre ella.
¿Y qué pasa si la empresa desaparece, cambia las reglas o los precios? Sería fantástico poder crear una IA que pudiera funcionar durante muchísimo tiempo y llegar a conocerte a lo largo de tu vida, pero que fuera realmente tuya.
Y entonces existe esta visión en la que se podría hacer eso con una cadena de bloques: se podría integrar una IA dentro de un contrato inteligente.
Y con el poder de las pruebas de conocimiento cero, también podrá mantener sus datos privados.
Y luego, con el paso de las décadas, esta IA puede volverse más inteligente y ayudarte, y entonces tendrás la opción de hacer lo que quieras con ella. O modificarla como quieras; o desactivarla.
Y esa es una visión interesante para las IA de largo plazo que están en continua evolución y cada vez son mejores: sería mejor si no estuvieran controladas por una única empresa centralizada.
Claro: es una idea muy de ciencia ficción, porque conlleva muchos problemas, incluyendo los de verificación y los de mantener la privacidad de los datos mediante criptografía y, a la vez, poder realizar cálculos sobre ellos, quizás con cifrado totalmente homomórfico. <Sonal: mhm> Todos estos problemas siguen pendientes, pero no es algo inconcebible.
Dan: ¡Guau! ¡Me encanta la visión de Ali!
Sonal: A mí también me encanta, especialmente teniendo en cuenta esa cita (creo que era de Asimov) de que la ciencia ficción de hoy es la ciencia factual del mañana.
Ali, sé que tienes un meta-marco para pensar acerca de todo esto que te he escuchado compartir antes, ¿puedes compartirlo ahora también?
Ali: Sí, existe una narrativa más amplia que existe desde hace bastante tiempo y que ahora se está acentuando mucho más con el desarrollo de cosas como los LLM.
Sonal: En realidad, define eso muy rápido, Ali, solo para los oyentes que aún no están familiarizados, solo como contexto.
Ali: LLM significa "modelo de lenguaje grande" y utiliza parte de la tecnología que se desarrolló en Google en 2017. Existe este famoso artículo conocido como "La atención es todo lo que necesitas" (ese era el título del artículo) y describía lo que ahora se conoce como transformadores, y esa es la base, básicamente, de algunos de los nuevos modelos que la gente ha estado entrenando en estos días, incluido ChatGPT, etc. Todos estos son modelos de lenguaje grandes o LLM.
<Sonal: ¡mmm!> #BTC
Había una famosa frase, creo (2018), de Peter Thiel: «La IA es comunista y las criptomonedas son libertarias»… Es muy acertada, de hecho, porque la IA y las criptomonedas, en muchos sentidos, se contrapesan naturalmente. <Sonal: ¿Ajá?> Y quizá podamos profundizar en cada uno de estos ejemplos a lo largo del podcast, <Sonal: Sí>. Pero hay cuatro aspectos principales en los que esto es cierto:
[1] La primera es que la IA es una tecnología que prospera y permite un control centralizado de arriba a abajo, mientras que la criptografía se basa en la cooperación descentralizada de abajo a arriba. De hecho, en muchos sentidos, se puede pensar en la criptografía como el estudio de la construcción de sistemas descentralizados que permiten la cooperación humana a gran escala, donde no existe un punto central de control.
Y esa es una forma natural en la que estas dos tecnologías se contrapesan entre sí.
[2] Otra es que la IA es una innovación sostenible, ya que refuerza los modelos de negocio de las empresas tecnológicas existentes <Sonal: mhm>, ya que les ayuda a tomar decisiones desde arriba. Y el mejor ejemplo de esto sería que Google pudiera decidir exactamente qué anuncio mostrar a cada uno de sus usuarios entre miles de millones de usuarios y miles de millones de páginas vistas.
Mientras que las criptomonedas son, en realidad, una innovación fundamentalmente disruptiva, ya que su modelo de negocio es fundamentalmente contrario al de las grandes tecnológicas. Por lo tanto, es un movimiento liderado por rebeldes/por los sectores marginales, en lugar de estar liderado por las empresas establecidas. <Sonal: mhm> Así que esa es la segunda.
[3] La tercera es que la IA probablemente se relacionará e interactuará mucho con todas las tendencias hacia la privacidad… Porque la IA, como tecnología, ha incorporado todo tipo de incentivos que nos llevan hacia una menor privacidad individual, ya que tendremos empresas que querrán acceder a todos nuestros datos; y los modelos de IA que se entrenan con cada vez más datos serán cada vez más eficaces. Por lo tanto, creo que esto nos lleva por el camino del panóptico de la IA, donde simplemente se agregan los datos de todos para entrenar estos enormes modelos y optimizarlos al máximo.
Mientras que las criptomonedas nos llevan hacia la dirección opuesta, que es una dirección de mayor privacidad individual. Es una dirección de mayor soberanía, <Sonal: mhm> donde los usuarios tienen control sobre sus propios datos. Y creo que estas dos tendencias serán muy importantes. Y esta es otra forma importante en que las criptomonedas actúan como contrapeso para la IA.
(4) Y tal vez la última tenga que ver con esta última tendencia en IA: el hecho de que la IA es ahora claramente una tecnología poderosa para generar nuevo arte; ahora es una herramienta creativa <Sonal: ¡mm! totalmente>, que nos llevará a una abundancia infinita de medios, a una creatividad infinita en muchos sentidos.
Y la criptografía es un contrapeso a eso porque nos ayuda a analizar toda la abundancia, al ayudarnos a distinguir lo creado por humanos de lo creado por IA. Y la criptografía será esencial para mantener y preservar lo verdaderamente humano en un mundo donde mil veces más contenido <Sonal: correcto> se genera artificialmente.
Así que todas estas son cosas de las que podemos hablar, pero creo que existe esta metanarrativa importante; y estas dos tecnologías son diametralmente opuestas, en muchos aspectos.
Dan: Entonces, tal vez Ali, para agregar a eso, este es un resumen maravilloso, y también diría que hay muchas áreas en las que las técnicas de IA están teniendo un impacto en las cadenas de bloques; y viceversa, <mhm> donde las técnicas de cadenas de bloques están teniendo un impacto en la IA.
Daré una respuesta breve aquí porque vamos a profundizar en los detalles en solo un minuto; pero hay muchos puntos de intersección: supongo que hablaremos sobre las aplicaciones del conocimiento cero para el aprendizaje automático en solo un minuto…
Pero también quiero abordar todas estas aplicaciones donde el aprendizaje automático puede usarse para escribir código. Por ejemplo, el aprendizaje automático puede usarse para escribir código de Solidity que se contrae. Puede usarse para detectar posibles errores en el código, etc.
Existen puntos de intersección donde el aprendizaje automático puede usarse para generar falsificaciones profundas y las cadenas de bloques pueden ayudar a proteger contra ellas. Por lo tanto, supongo que abordaremos todos estos puntos, pero lo interesante es que existe una gran intersección entre las cadenas de bloques y el aprendizaje automático.
Sonal: Sí, antes de profundizar en eso, Dan, tengo una pregunta: ¿estás de acuerdo? Entiendo perfectamente el punto de vista de Ali: la IA y las criptomonedas son complementos naturales, o contrapesos, o pueden ser fuerzas diferentes que se controlan y equilibran mutuamente... Pero, ¿crees que esto es una cualidad inherente a la IA y las criptomonedas? ¿O es simplemente un artefacto de cómo se hacen las cosas actualmente? ¿Con qué aspectos estarías de acuerdo o en desacuerdo?
Dan: Sí; así que diría que, si lo miras desde lejos… las técnicas que se usan en IA parecen muy diferentes a las que se usan en las cadenas de bloques, ¿verdad? Las cadenas de bloques se centran en la criptografía, la descentralización, las finanzas, la economía, etc.
Mientras que la #IA se centra en la estadística, las matemáticas del aprendizaje automático, etc., se centra en el big data. Las técnicas, en realidad, parecen bastante diferentes. <Sonal: mhm>, pero en realidad hay muchos aspectos en los que una parte puede ayudar a la otra <mhm> y viceversa.
Quizás el primero para empezar sea el más obvio y que ha estado en la mente de muchos: las aplicaciones del conocimiento cero para el aprendizaje automático . Se trata de un área emergente llamada zkML . Y su interés se debe a que las técnicas de conocimiento cero han mejorado drásticamente gracias a su aplicación en las cadenas de bloques.
Lo que ha sucedido en los últimos 10 años es increíble; algo que no vemos muy a menudo: esta idea de las pruebas de conocimiento cero, y los sistemas de pruebas en general, se consideraban muy teóricos hace una década. Y debido a todas sus aplicaciones en las cadenas de bloques, de repente se despertó un gran esfuerzo para hacerlas más prácticas y realistas. Como resultado, se ha logrado un progreso tremendo (como saben nuestros oyentes), y ahora estas herramientas se implementan y se utilizan para proteger sistemas reales.
Entonces, la pregunta es: ¿se pueden usar técnicas de conocimiento cero para impulsar el aprendizaje automático? Hay un par de ejemplos (honestamente, podríamos dedicar todo el podcast solo a zkML), pero quizás pueda dar una muestra, uno o dos ejemplos donde ZK es útil para el aprendizaje automático.
Imaginemos que Alice tiene un modelo secreto al que dedicó mucho tiempo para entrenar, y que es muy importante para ella. Es fundamental que la gente no sepa cómo funciona. Pero aun así, quiere poder atender las solicitudes de Bob, ¿verdad? Bob quiere enviarle datos, ella aplicaría el modelo a los datos y le enviaría el resultado.
Bob no tiene ni idea de si está obteniendo los resultados correctos con el modelo, ¿verdad? Quizás pagó por un modelo específico y quiere asegurarse de que Alice realmente lo esté usando, ¿verdad? Quizás pagó por GPT-4 y quiere asegurarse de que Alice realmente esté usando GPT-4, y no GPT-3.
Resulta que las técnicas ZK pueden ser muy útiles en este caso. Alice se comprometería con su modelo y lo haría público. Y luego, cada vez que Bob enviara datos, Alice podría ejecutar el modelo con ellos y enviarle los resultados, junto con la prueba de que el modelo se evaluó correctamente. Así, Bob tendría la garantía de que el modelo comprometido es el mismo que se ejecutó con sus datos. ¿Sí? Este es un ejemplo de cómo las técnicas ZK pueden ser útiles en el aprendizaje automático.
Y quiero enfatizar por qué esto es tan importante: <Sonal: ¡Sí!> Veamos un ejemplo:
Supongamos que tenemos una función, un modelo que realmente se usa para afectar la vida de las personas. Imaginen, por ejemplo, que usamos un modelo para decidir si otorgamos un préstamo o una hipoteca; una institución financiera podría querer usar un modelo similar. Queremos asegurarnos de que el mismo modelo se aplique a todos, ¿no? No es que se me aplique un modelo a mí <Sonal: sí> y a ti otro <Sonal: cierto>. Básicamente, al hacer que el banco se comprometa con el modelo, ¿no?; y así todos pueden verificar que sus datos son evaluados por el mismo modelo comprometido <mmm>, podemos asegurarnos de que se aplique el mismo modelo a todos.
Debo decir que aquí hay un problema abierto: aunque las técnicas de conocimiento cero pueden garantizar que se aplique el mismo modelo a todos, surge la pregunta: ¿es justo el modelo? Los modelos pueden tener sesgos y generar resultados injustos. Por lo tanto, existe toda una área de investigación llamada equidad algorítmica; existen muchísimos artículos sobre equidad algorítmica, y es realmente interesante preguntarse: ahora que tenemos un modelo establecido, ¿podemos demostrar, en conocimiento cero, que el modelo cumple con alguna definición de equidad del área de equidad algorítmica?
¿Y cómo nos aseguramos de que el proceso de capacitación se ejecute correctamente?
Ali: Bueno, todo lo que dijiste sobre #zkml es sumamente emocionante. Y, como tecnología, creo que contribuirá a que el aprendizaje automático, y la IA en general, sean más transparentes y confiables, tanto dentro como fuera del contexto de las criptomonedas.
Creo que una aplicación aún más ambiciosa, y quizás a largo plazo, de ZKML —y de algunas otras técnicas de verificación en las que la comunidad criptográfica ha estado trabajando<mhm>— es simplemente descentralizar la IA en general. Como ya comentamos, la IA es una tecnología casi intrínsecamente centralizadora, ya que se nutre de factores como los efectos de escala, ya que tener todo dentro de un centro de datos lo hace más eficiente. Por lo tanto, escalar todo de forma centralizada lo hace más potente y, como resultado, más centralizado.
Además, los datos suelen estar controlados por un pequeño número de empresas tecnológicas intermedias. Esto también conlleva una mayor centralización.
Y finalmente: los modelos de aprendizaje automático y el talento en aprendizaje automático, también controlados por un pequeño número de actores.
Y las criptomonedas pueden volver a ayudar en este frente desarrollando tecnología que utilice cosas como ZKML que puedan ayudarnos a descentralizar la IA.
Así que hay tres aspectos principales que intervienen en la IA: el aspecto computacional , que requiere un uso a gran escala de GPU (generalmente en centros de datos); el aspecto de los datos , que, repito, la mayoría de las empresas centralizadas controlan; y los propios modelos de aprendizaje automático . <Sonal: sí>
Y la más sencilla podría ser la del cálculo. ¿Es posible descentralizar el cálculo para el entrenamiento y la inferencia de modelos de aprendizaje automático? Aquí es donde entran en juego algunas de las técnicas que Dan mencionaba, como las pruebas de conocimiento cero, que permiten demostrar que el proceso de inferencia o entrenamiento de un modelo se realizó correctamente, lo que permite externalizarlo a una gran comunidad. Se puede tener un proceso distribuido mediante el cual cualquiera con una GPU puede contribuir con el cálculo a la red y entrenar un modelo de esa manera, sin tener que depender necesariamente de un centro de datos masivo con todas las GPU centralizadas.
Y aún queda la gran duda de si esto tendrá sentido económicamente... Pero al menos, con los incentivos adecuados, se puede aprovechar la larga cola: se puede aprovechar toda la capacidad de GPU inactiva que pueda existir; hacer que todas esas personas contribuyan con ese cálculo al entrenamiento de un modelo o a la ejecución de la inferencia; y ofrecer una alternativa a lo que, de otro modo, serían solo las grandes empresas tecnológicas intermedias las que actualmente lo controlan todo. <Sonal: ¡Mmm!> Hay todo tipo de problemas técnicos importantes que tendrían que resolverse para que eso fuera posible.
De hecho, existe una empresa en este sector llamada Gensyn que está desarrollando precisamente esto. Están creando un mercado descentralizado para computación en GPU, principalmente con el propósito de entrenar modelos de aprendizaje automático. Es un mercado donde cualquiera puede contribuir con su computación en GPU, ya sea en su computadora personal debajo de su escritorio o inactiva en un centro de datos.
Y, por otro lado, cualquiera puede aprovechar la computación disponible en la red para entrenar sus grandes modelos de aprendizaje automático. Esto sería una alternativa a la alternativa centralizada, tipo OpenAI/Google/Meta/todos —ya sabes, inserta tu gran empresa tecnológica favorita aquí <Sonal: ¡Sí! (risas)—, que actualmente tendrías que adoptar.
Sonal: Bueno, antes de profundizar en este marco de descentralización, Ali, estabas desglosando la computación y creo que ibas a compartir los otros dos de esos tres pilares. Pero antes… ambos hablaron un poco sobre los desafíos técnicos. ¿Cuáles son algunos de los desafíos técnicos que deben superarse y que la gente podría estar resolviendo ya? (Quiero que los desarrolladores que escuchen este episodio también reflexionen sobre las oportunidades en este espacio y cómo pueden abordar los desafíos existentes; o cuáles son algunos de los desafíos que enfrentarán al desarrollar soluciones).
Dan: Sí, entonces tal vez pueda mencionar dos que creo que serían interesantes para la gente.
[1] Básicamente, imaginemos que Alice tiene un modelo que quiere proteger. Quiere enviarlo cifrado a otra persona, por ejemplo, a Bob. Bob recibe un modelo cifrado y necesita poder ejecutar sus datos en él.
¿Cómo se hace eso? Si se tienen datos que se quieren ejecutar en un modelo, pero solo se cuenta con el cifrado del modelo, ¿cómo se logra?
Y eso es algo para lo que usaríamos lo que se llama cifrado totalmente homomórfico. <Sonal: Sí. (FHE).> Es un cifrado totalmente homomórfico, una herramienta notable que permite realizar cálculos con datos cifrados.
Es un poco increíble que esto sea posible, pero se puede tener un modelo cifrado y datos de texto sin cifrar, y ejecutar el modelo cifrado sobre estos datos y obtener un resultado cifrado. Se le enviaría el resultado cifrado a Alice, quien podría descifrarlo y verlo en texto sin cifrar.
Así que esto es algo que ya existe... de hecho, existe bastante demanda en la práctica; <Sonal: sí> no requiere mucho esfuerzo ver que el Departamento de Defensa está interesado en esto. Hay muchas otras aplicaciones donde se puede enviar un modelo cifrado a un tercero; este ejecutaría el modelo cifrado en sus datos; te enviaría los resultados; puedes descifrar y obtener información sobre los datos que se ingresaron como entrada del modelo cifrado.
La pregunta, claro, es cómo lo escalamos. Ahora mismo funciona bien para modelos medianos… y la pregunta es, ¿podemos escalarlo a modelos mucho más grandes? Así que es todo un reto: un par de startups en el sector, y, repito, una tecnología muy, muy interesante; es increíble que esto sea posible. <Sonal: Sí… de verdad> Y probablemente veremos mucho más de esto en el futuro.
[2] La otra área es en realidad la que mencionó Ali, otra área muy importante, que es: ¿cómo sabemos que el modelo fue entrenado correctamente?
Entonces, si envío mis datos a alguien y le pido que entrene un modelo con ellos, o que lo ajuste, ¿cómo sé que lo hicieron correctamente? Es cierto, podrían devolverme un modelo, pero ¿cómo sé que no tiene puertas traseras? De hecho, se ha investigado bastante para demostrar que, si el entrenamiento se realiza incorrectamente, podría devolver un modelo que funcionaría correctamente con todos los datos de prueba, pero que tiene una puerta trasera, lo que significa que fallaría catastróficamente con una entrada específica. Esto es posible si el proceso de entrenamiento no está verificado.
Y, de nuevo, este es un área donde ZKML entra en juego: Podemos demostrarles que el entrenamiento se ejecutó correctamente; o quizás existan otras técnicas para demostrarlo. Pero, de nuevo, esta es otra área —un área de investigación muy activa— y animaría a muchos de los oyentes a que se trate de un problema muy complejo: demostrar que el entrenamiento se realizó correctamente; demostrar que los datos de entrenamiento se recopilaron y filtraron correctamente, etc.
De hecho, es un área maravillosa en la que ingresar si las personas buscan realizar más trabajos en ese espacio.
Sonal: ¡Genial! Ali, ¿qué más añadirías?
Ali: Sí, definitivamente. Bueno, supongo que si seguimos hablando de lo que se necesitaría para descentralizar la pila de IA, creo que para descentralizar el componente computacional —y estos son tres componentes importantes—, si quisiéramos descentralizar el componente computacional, hay dos desafíos técnicos muy importantes que aún no se han resuelto.
El primero es el problema de la verificación (que Dan acaba de mencionar) <Sonal: mhm>, para el cual se podría usar ZKML. Idealmente, con el tiempo se podrían usar pruebas de conocimiento cero para demostrar que el trabajo real —que las personas que contribuyen a esta red— se realizó correctamente.
El desafío radica en que el rendimiento de estas primitivas criptográficas está lejos de alcanzar el nivel necesario para entrenar o inferir modelos muy grandes. Por lo tanto, los modelos actuales, como los LLM que todos conocemos y apreciamos (como ChatGPT), no serían demostrables con el estado actual de ZKML. Por lo tanto, se está trabajando mucho para mejorar el rendimiento del proceso de demostración, de modo que se puedan demostrar cargas de trabajo cada vez mayores de forma eficiente. Pero ese es un problema abierto, y algo <Sonal: sí> en lo que mucha gente está trabajando.
Mientras tanto, empresas como Gensyn utilizan otras técnicas que no son solo criptográficas, sino que se basan en la teoría de juegos. En ellas, se recluta a un mayor número de personas independientes para realizar el trabajo y se comparan sus resultados para garantizar que se realicen correctamente. <Sonal: ¡Qué interesante!> Se trata de un enfoque más optimista y basado en la teoría de juegos que no se basa en la criptografía, pero que se alinea con el objetivo principal de descentralizar la IA o ayudar a crear un ecosistema para la IA mucho más orgánico, comunitario y de abajo a arriba, a diferencia del enfoque de arriba a abajo que proponen empresas como OpenAI.
Así que ese es el primer problema; el primer gran problema es el problema de la verificación.
Y el segundo gran problema es el de los sistemas distribuidos: ¿cómo se coordina realmente una gran comunidad de personas que contribuyen con GPU a una red de tal manera que todo parezca un sustrato integrado y unificado para el cálculo? <Sonal: yup>
Y habrá muchos desafíos interesantes, como: estamos fragmentando la carga de trabajo de aprendizaje automático de forma lógica; distribuyendo diferentes partes a distintos nodos de la red; descubriendo cómo hacerlo todo de forma eficiente; y, cuando los nodos fallan, descubriendo cómo recuperarse y asignando nuevos nodos para que se encarguen del trabajo realizado por el nodo que falló. Por lo tanto, existen muchos detalles complejos a nivel de sistemas distribuidos que las empresas deberán resolver para ofrecernos esta red descentralizada que pueda ejecutar cargas de trabajo de aprendizaje automático de una forma quizás incluso más económica que usar la nube.
Sonal: Sí… Eso es genial.
Dan: …Sí, y es totalmente cierto que las técnicas ZK actuales manejarán los modelos más pequeños que se utilizan, pero definitivamente los LLM son probablemente demasiado grandes para que estas técnicas los manejen hoy, las técnicas ZK; pero, sabes que están mejorando constantemente, el hardware está mejorando, así que con suerte se pondrán al día.
Sonal: Sí; antes de continuar, ¿podemos hacer una comprobación de pulso realmente clara sobre dónde estamos exactamente en eso? Obviamente, lo que les escucho decir es que hay tremendas aplicaciones en la intersección de la computación general verificable, que las cadenas de bloques y las criptomonedas definitivamente han estado avanzando y acelerando significativamente toda esa área (hemos estado cubriendo mucho de eso nosotros mismos: si miran nuestro canon ZK y la categoría de conocimiento cero, verán mucho de esto cubierto allí).
Pero, ¿dónde nos encontramos exactamente ahora en cuanto a lo que pueden hacer? Porque ustedes hablaron mucho sobre lo que aún no pueden hacer y la oportunidad que les brinda, lo cual es emocionante; pero ¿dónde nos encontramos ahora mismo? ¿Qué pueden hacer realmente?
Dan: Sí. Ahora mismo, básicamente pueden clasificar modelos medianos. No algo tan grande como GPT-3 o 4, sino modelos medianos. <sí> Es posible demostrar que la clasificación se realizó correctamente. El entrenamiento probablemente esté más allá de lo que se puede hacer ahora mismo, simplemente porque requiere muchísimos recursos computacionales <Sonal: cierto> que para los sistemas de prueba aún no hemos llegado a ese punto.
Pero como dijo Ali, tenemos otras maneras de hacerlo. Por ejemplo, podemos hacer que varias personas realicen el entrenamiento y luego comparar los resultados. ¿Sí? Así que ahora hay incentivos de teoría de juegos para que la gente no haga trampa. Si alguien hace trampa, alguien más podría quejarse de que calculó mal el entrenamiento, y entonces quien haya hecho trampa no recibirá compensación por su esfuerzo. <Sonal: Sí, sí, sí> Así que hay un incentivo para que la gente realmente realice el entrenamiento como se suponía que debía realizarse.
Sonal: Correcto. Y básicamente, no es una fase híbrida, sino que se trata de enfoques alternativos hasta que se alcance una mayor escalabilidad y el rendimiento alcance el nivel necesario.
Dan: Sí; diría que para algunos modelos, la clasificación se puede demostrar hoy en día con conocimiento cero. Para el entrenamiento actual, debemos confiar en técnicas optimistas.
Sonal: Sí, genial.
Entonces, Ali, mencionaste que la computación es una de las tres puntas, y también mencionaste que los datos y luego los modelos para el aprendizaje automático en sí mismos: ¿quieres abordar ahora los datos y las oportunidades y desafíos que hay allí (en lo que respecta a la intersección cripto/IA)?
Ali: Sí, absolutamente. Por lo tanto, creo que existe la oportunidad, aunque los problemas involucrados son muy complejos, de descentralizar el proceso de obtención de datos para el entrenamiento de grandes modelos de aprendizaje automático <mhm> desde una comunidad más amplia. De nuevo, en lugar de tener un único actor centralizado, simplemente recopilar todos los datos <yah> y luego entrenar los modelos.
Y esto podría funcionar creando un tipo de mercado similar al que acabamos de describir para la computación, pero incentivando a las personas a contribuir con nuevos datos a un gran conjunto de datos que luego se utiliza para entrenar un modelo.
La dificultad con esto es similar, ya que existe un desafío de verificación: hay que verificar de alguna manera que los datos que aportan las personas sean realmente buenos <Sonal: ¡sí!> y que no sean datos duplicados ni basura generados aleatoriamente o que no sean reales. Y también hay que asegurarse de que los datos no alteren el modelo (algún tipo de ataque de envenenamiento) donde el modelo se vuelva vulnerable o simplemente menos bueno o tenga un rendimiento inferior al anterior. Entonces, ¿cómo se verifica que esto sea así?
Y ese es quizás un problema complejo que la comunidad debe resolver. Podría ser imposible de resolver por completo, y podría ser necesario recurrir a una combinación de soluciones tecnológicas y sociales, donde también se cuenta con algún tipo de métrica de reputación. Los miembros de la comunidad pueden ganar credibilidad, de modo que cuando aportan datos, estos se vuelvan más confiables de lo que serían de otra manera.
Pero lo que esto podría permitirle hacer es que ahora puede cubrir verdaderamente la cola muy larga de la distribución de datos.
Y uno de los aspectos más desafiantes del aprendizaje automático es que la calidad de un modelo depende de la cobertura de la distribución que el conjunto de datos de entrenamiento pueda alcanzar. Si existen entradas que se alejan mucho de la distribución de los datos de entrenamiento, el modelo podría comportarse de forma completamente impredecible. Para que el modelo funcione correctamente en casos extremos (y en los casos de cisne negro o entradas de datos que se pueden encontrar en el mundo real), es fundamental que el conjunto de datos sea lo más completo posible.
Así pues: si existiera este tipo de mercado abierto y descentralizado para la contribución de datos a un conjunto de datos, cualquiera con datos únicos en el mundo podría contribuir a la red… Lo cual es una mejor manera de hacerlo, ya que si se intenta hacerlo desde una empresa central, no hay forma de saber quién tiene esos datos. Por lo tanto, si se incentiva a esas personas a que se presenten y proporcionen esos datos por iniciativa propia, creo que se puede lograr una cobertura mucho mejor de la cola larga.
Como hemos visto, el rendimiento de los modelos de aprendizaje automático continúa mejorando a medida que crece el conjunto de datos y la diversidad de sus puntos de datos. Esto puede potenciar aún más el rendimiento de nuestros modelos de aprendizaje automático; podemos obtener conjuntos de datos aún más completos que abarcan a toda la comunidad.
Dan: Bueno, déjame darle la vuelta a esto en ese eh...
Sonal: ¡Oooh, adelante, Dan!
Dan: …Si vamos a incentivar a la gente a contribuir con datos, básicamente vamos a incentivarla a crear datos falsos <Sonal: ¡Sí!> para que les paguen. ¿Sí? Así que tenemos que tener algún tipo de mecanismo para asegurarnos de que los datos que aportas sean auténticos. <Ali: Exactamente>
Y puedes imaginar un par de maneras de hacerlo, ¿verdad? Una forma es confiar en hardware confiable. <Sonal: mhm>: Quizás los sensores estén integrados en un hardware confiable, al que solo confiaríamos en datos debidamente firmados por él. Esa es una forma de hacerlo.
De lo contrario, tendríamos que tener algún otro mecanismo mediante el cual podamos saber si los datos son auténticos o no.
Ali: Estoy completamente de acuerdo.
Ese sería el mayor problema abierto a resolver... Y creo que a medida que mejora la evaluación comparativa de los modelos de aprendizaje automático, creo que hay dos tendencias importantes en el aprendizaje automático en este momento <Sonal: yah> –
[1] Se está mejorando la medición del rendimiento de un modelo de aprendizaje automático. En el caso de los LLM, esto aún está en sus primeras etapas y, de hecho, es bastante difícil determinar su calidad. Porque no se trata de un clasificador donde el rendimiento de un modelo esté claramente definido. Con un LLM, es casi como evaluar la inteligencia de un humano. ¿Verdad? <Sonal: ¡mhm!> Encontrar la forma correcta de evaluar la inteligencia de un LLM como #chatgpt es un área de investigación abierta. Pero con el tiempo, creo que mejorará cada vez más.
[2] Y la otra tendencia es que cada vez somos más capaces de explicar cómo funciona un modelo.
Y con ambas cosas, en algún momento, podría ser posible comprender el efecto que un conjunto de datos tiene en el rendimiento de un modelo de aprendizaje automático. <Sonal: sí> Y si podemos comprender bien si un conjunto de datos aportado por un tercero ayudó o no al rendimiento del modelo de aprendizaje automático, entonces podemos recompensar esa contribución y crear el incentivo para que exista ese mercado.
Sonal: Entonces, para resumir hasta ahora, lo que les escuché decir es que…
Existe hardware confiable que puede ayudar a verificar la precisión de los datos y los modelos que se aportan;Ali, mencionaste brevemente las métricas de reputación y ese tipo de cosas pueden ayudar;También mencionaste que podría haber una manera (no necesariamente ahora, pero en algún momento en el futuro cercano) de verificar cómo los datos influyen en los resultados de un modelo en particular para que realmente puedas... no es del todo explicable, pero la idea es que realmente puedas atribuir que este conjunto de datos causó este efecto particular.
Así que hay una variedad de técnicas diferentes que habéis compartido hasta ahora.
Ali: Bueno, lo último es que podrías hacer lo mismo para el tercer aspecto, que son los modelos.
Imagina crear un mercado abierto para que las personas aporten un modelo entrenado capaz de resolver un problema específico. Imagina crear en Ethereum un contrato inteligente que integre algún tipo de prueba, ya sea una prueba cognitiva que un LLM pueda resolver o una prueba de clasificación que un clasificador de aprendizaje automático (AAP) pueda resolver.
Y si se utiliza ZKML, alguien podría proporcionar un modelo junto con una prueba de que ese modelo puede resolver esa prueba; entonces, nuevamente, usted tiene las herramientas que necesita para crear un mercado que incentive a las personas a contribuir con modelos de aprendizaje automático que puedan resolver ciertos problemas.
Muchos de los problemas que hemos discutido, los problemas pendientes que hemos discutido, sobre cómo lograrlo también están presentes aquí... En particular, hay una parte de ZKML donde se debe poder demostrar que el modelo realmente realiza el trabajo que afirma realizar. Además, necesitamos tener buenas pruebas para evaluar la calidad de un modelo. Así que poder integrar una prueba dentro de un contrato inteligente para luego someter un modelo de aprendizaje automático a una evaluación de su calidad. Esta es otra parte muy emergente de toda esta tendencia tecnológica.
Pero en teoría, sería fantástico si finalmente llegáramos a un mundo donde tuviéramos estos mercados muy abiertos, de abajo hacia arriba y transparentes que permitan a las personas contribuir y obtener modelos de computación, datos y aprendizaje automático para el aprendizaje automático, que esencialmente actúen nuevamente como un contrapeso a las enormes y muy centralizadas empresas tecnológicas que impulsan todo el trabajo de IA en la actualidad.
Sonal: Me encanta cómo lo mencionaste, Ali, porque ha sido un problema de larga data en la IA en la práctica: puede resolver muchos problemas, como la curva de campana, la parte media de la norma, pero no los extremos. Un ejemplo clásico de esto son los coches autónomos. Se puede hacer todo con ciertos comportamientos estándar, pero son los casos extremos donde pueden ocurrir los verdaderos accidentes y las catástrofes. <Ali: Cierto>
Eso fue muy útil. Sé que hablaste sobre la alineación de incentivos y los incentivos para proporcionar datos precisos y de calidad, e incluso incentivos para contribuir con cualquier dato en general.
Pero hablando de la cola larga, me surgió una pregunta rápida mientras hablabas. Esto me lleva a preguntarme quién gana dinero y dónde en este sistema. No pude evitar preguntarme, ¿cómo influye entonces el modelo de negocio en la rentabilidad de las empresas? Siempre he entendido que, en la cola larga de la IA (en un mundo con este tipo de conjuntos de datos disponibles), tus datos propietarios son, en realidad, tu conocimiento único del dominio, algo que solo tú conoces en esa cola larga. ¿Tienes alguna respuesta rápida?
Ali: Creo que la visión tras la intersección de las criptomonedas con la IA es que se podría crear un conjunto de protocolos que distribuyan el valor que eventualmente capturará esta nueva tecnología, la IA, entre un grupo mucho más amplio de personas. Esencialmente, una comunidad de personas, todas las cuales pueden contribuir y participar de las ventajas de esta nueva tecnología. <Sonal: mhm>
Entonces, las personas que ganarían dinero serían las que contribuyen con el procesamiento, o las que contribuyen con datos, o las que contribuyen con nuevos modelos de aprendizaje automático a la red, de modo que se puedan entrenar mejores modelos de aprendizaje automático y se puedan resolver problemas mejores, más grandes y más importantes.
Las otras personas que generarían ingresos al mismo tiempo son quienes, por otro lado, están en el lado de la demanda de esta red: quienes la utilizan como infraestructura para entrenar sus propios modelos de aprendizaje automático. <Sonal: sí> Quizás su modelo genere algo interesante en el mundo, tal vez sea como la próxima generación de ChatGPT. Y luego eso se abra camino hacia diversas aplicaciones, como aplicaciones empresariales o cualquier otro uso que se les dé a esos modelos, y esos modelos impulsan la captura de valor por sí mismos, porque esas empresas tendrán su propio modelo de negocio.
Finalmente, quienes también podrían generar ingresos son quienes construyen esta red. Por ejemplo: se crea un token para la red; este token se distribuirá a la comunidad; y todas esas personas tendrán propiedad colectiva sobre esta red descentralizada para datos y modelos computacionales que también podrían capturar parte del valor de toda la actividad económica que pasa por esta red.
Así que, como pueden imaginar, cualquier pago por computación, datos o modelos <mhm> podría tener una comisión. Esta podría ir directamente a una tesorería controlada por esta red descentralizada, de la que todos los poseedores de tokens que forman parte tienen propiedad y acceso colectivos (como creadores y propietarios del mercado).
Y esa tarifa podría ir directamente a la red. Así que, imagínense que cada transacción que pasa por esta red, cada forma de pago que paga por computación, datos o modelos, podría tener una tarifa que se le imponga y que vaya a una tesorería controlada por toda la red y por los poseedores de tokens que la poseen colectivamente.
De modo que ese es esencialmente un modelo de negocio para la red en sí.
Sonal: ¡Genial!
Bien. Hasta ahora hemos hablado mucho sobre cómo las criptomonedas pueden ayudar a la IA. Para ser claros, no es unidireccional; estas cosas se refuerzan, son bidireccionales y más interactivas que unidireccionales.
Pero, para el propósito de esta discusión, realmente estamos hablando de cómo las criptomonedas pueden ayudar a la IA; ahora vamos a darle la vuelta y hablar un poco más sobre las formas en que la IA puede ayudar a las criptomonedas.
Dan: Sí, entonces hay un par de puntos de contacto interesantes allí.
Un tema que realmente vale la pena mencionar es la idea de los modelos de aprendizaje automático que se utilizan para generar código. Muchos oyentes probablemente hayan oído hablar de Copilot, una herramienta que se utiliza para generar código. Y lo interesante es que se pueden intentar usar estas herramientas de generación de código para escribir contratos de Solidity o código criptográfico.
Y quiero recalcar que esto es realmente algo muy peligroso de hacer.
Sonal: ¡Ay! ¡No hagas esto en casa! ¡Vale! <risas>
Dan: Sí. Sí. No intentes esto en casa.
Porque lo que ocurre es que muy a menudo estos sistemas realmente generan código que funciona, ya sabe, cuando intenta ejecutarlo (y, como sabe, el cifrado es lo opuesto al descifrado, etc.), por lo que el código realmente funcionará, pero en realidad será inseguro.
De hecho, hemos escrito un artículo sobre esto recientemente que muestra que si intentas que Copilot escriba algo tan simple como una función de cifrado, te dará algo que realiza el cifrado correctamente, pero utiliza un modo de operación incorrecto, por lo que terminarás con un modo de cifrado inseguro.
De manera similar, si intentas generar código Solidity, podrías terminar con un código Solidity que funcione, pero tendrá vulnerabilidades.
Quizás te preguntes, ¿por qué sucede esto? Una de las razones es que estos modelos se entrenan básicamente con código disponible, en repositorios de GitHub. Bueno, muchos de los repositorios de GitHub son vulnerables a todo tipo de ataques. Así que estos modelos aprenden sobre código que funciona, pero no sobre código seguro; es como si entrara basura, saliera basura, ¿no? <Sonal: ¡Mmm!>
Así que quiero asegurarme de que las personas sean muy, muy cuidadosas, cuando usen estos modelos generativos para generar código, que verifiquen con mucho cuidado que el código realmente haga lo que se supone que debe hacer y que lo haga de manera segura.
Ali: Una idea en ese frente (tengo curiosidad por saber lo que piensas al respecto) es que puedes usar modelos de IA como LLM (algo así como ChatGPT) para generar código, junto con otras herramientas para intentar hacer que el proceso sea menos propenso a errores.
Y un ejemplo, una idea <oh> sería usar un LLM para generar una especificación para un sistema de verificación formal: Básicamente, describes tu programa en inglés; y le pides al LLM que genere una especificación para una herramienta de verificación formal; luego le pides a la misma instancia del LLM que genere el programa que cumple con esa especificación. <mm!> Y luego usas una herramienta de verificación formal para ver si el programa realmente cumple con la especificación.
Si hay errores, la herramienta los detectará; estos errores pueden utilizarse como retroalimentación para el LLM. Idealmente, el LLM podrá revisar su trabajo y producir una nueva versión del código correcta. Y, finalmente, si se repite esto una y otra vez, se obtendrá un fragmento de código que, idealmente, cumple plenamente con la especificación y está formalmente verificado.
Y como la especificación puede ser legible por un humano, puedes revisarla y ver que sí, este es el programa que quería escribir. Y esa puede ser una excelente manera de usar LLM para escribir código que, además, no sea tan propenso a errores como lo sería si simplemente le pidieras a ChatGPT que generara un contrato inteligente.
Sonal: ¡Qué inteligente!
Dan: Sí, esto es genial y, de hecho, nos lleva a otro tema que vale la pena discutir, que es básicamente el uso de LLM para encontrar errores.
Supongamos que un programador escribe código en Solidity y ahora quiere comprobar si ese código es correcto y seguro. Como dijo Ali, puede usar el LLM para encontrar vulnerabilidades en ese código. Se ha trabajado mucho para evaluar la eficacia de los LLM para detectar errores en software, en los contratos inteligentes de Solidity y en C y C++.
Hay un artículo que salió recientemente que es realmente muy relevante: es un artículo de la Universidad de Manchester <Sonal: mhm>, que dice que ejecutarías una herramienta de análisis estático estándar para encontrar errores en tu código; y encontraría todo tipo de errores de gestión de memoria o errores potenciales; solo una herramienta de análisis estático estándar; sin aprendizaje automático alguno.
Pero entonces usarías un LLM para intentar corregir el código. ¿Sí? <Sonal: mm> <Ali: exactamente> Así que propone una solución al error automáticamente. Y luego volverías a ejecutar el analizador estático en el código corregido, <Ali: sí> y el analizador estático diría: «Oh, el error sigue ahí o no está ahí». Y seguirías iterando hasta que el analizador estático diga: «Sí, ahora el error se ha corregido y no hay más problemas».
Así que fue un artículo bastante interesante; este artículo literalmente salió hace dos semanas.
Sonal: Entonces, para ambos artículos que acabas de mencionar, Dan, el de la Universidad de Manchester y también el que escribieron recientemente sobre que no se confía en que los LLM escriban código correcto (podría ser código funcional, pero no necesariamente seguro), vincularé esos artículos en las notas del programa <Dan: genial> para que los oyentes puedan encontrarlos.
Solo una pregunta rápida antes de continuar… En cuanto a la situación actual, ¿es una situación temporal o crees que llegará el momento en que se pueda confiar en que los LLM escriban código de contratos inteligentes correcto, no solo funcional, sino seguro ? ¿Es posible o está muy lejos?
Dan: Esa es una pregunta difícil de responder. Sabes que estos modelos mejoran muchísimo cada semana, ¿verdad? <Sonal: Sí> Así que es posible que para el año que viene estos problemas ya estén solucionados y que se pueda confiar en ellos para escribir código más seguro. Supongo que lo que estamos diciendo ahora mismo es que, si se usan los modelos actuales (GPT-4, GPT-3, etc.) para generar código, hay que ser muy cuidadoso y verificar que el código que escribieron realmente cumpla su función y sea seguro.
Sonal: Entendido.
Ali: Y, por cierto, ¿llegaremos a un punto en el que el código generado por los LLM tenga menos probabilidades de contener errores que el generado por un humano? <Sonal: ¡Sí!> Y quizás esa sea una pregunta más importante, ¿no?
Porque de la misma manera que nunca puedes decir que un coche autónomo nunca se estrellará, la verdadera pregunta que realmente importa es: ¿es menos probable que se estrelle que si fuera un conductor humano? <Sonal: Eso es exactamente correcto> Porque la verdad es que probablemente sea imposible garantizar que nunca habrá un accidente automovilístico causado por un coche autónomo, o que nunca habrá un error <Sonal: cierto> generado por un LLM al que le has pedido que escriba algún código.
Y creo que, dicho sea de paso, esto se volverá cada vez más potente cuanto más se integre en las cadenas de herramientas existentes. Como ya comentamos, se puede integrar en cadenas de herramientas de verificación formal. Se puede integrar en otras herramientas, como la que describió Dan, que detecta problemas de gestión de memoria. También se puede integrar en cadenas de herramientas de pruebas unitarias y de integración. De esta manera, el LLM no actúa de forma aislada: recibe retroalimentación en tiempo real de otras herramientas que lo conectan con la realidad.
Y creo que a través de la combinación de modelos de aprendizaje automático que son extremadamente grandes, entrenados con todos los datos del mundo, combinados con estas otras herramientas, en realidad podría crear programadores que sean bastante superiores a los programadores humanos. <mhm> E incluso si todavía pudieran cometer errores, podrían ser sobrehumanos.
Y ese será un gran momento para el mundo de la ingeniería de software en general.
Sonal: Sí. Qué buen encuadre, Ali…
Entonces, ¿cuáles son algunas de las otras tendencias que se avecinan y en las que la IA puede ayudar a las criptomonedas, y viceversa?
Ali: Sí… Una posibilidad emocionante en este espacio es que podamos construir redes sociales descentralizadas que en realidad se comporten de forma muy similar a Twitter, pero donde el gráfico social esté completamente en cadena y sea casi como un bien público sobre el cual cualquiera pueda construir.
Como usuario, controlas tu propia identidad en el gráfico social. Controlas tus datos, a quién sigues y quién puede seguirte. Existe todo un ecosistema de empresas que crean portales en el gráfico social que ofrecen a los usuarios experiencias similares a las de Twitter, Instagram, TikTok o cualquier otra plataforma que deseen desarrollar.
Pero todo esto está encima de este mismo gráfico social <Sonal: yah> que nadie posee y que no hay ninguna empresa tecnológica de mil millones de dólares en el medio que tenga control total sobre él y que pueda decidir lo que sucede en él.
Y ese mundo es emocionante porque significa que puede ser mucho más dinámico; puede existir todo un ecosistema de personas creando cosas y cada usuario tiene mucho más control sobre lo que ve y lo que puede hacer en la plataforma. Pero también existe la necesidad de filtrar la señal del ruido. Y, por ejemplo, la necesidad de crear algoritmos de recomendación sensatos que filtren todo el contenido y te muestren el canal de noticias que realmente quieres ver.
Esto abrirá la puerta a todo un mercado, un entorno competitivo, de participantes que te proporcionarán algoritmos basados ​​en IA que seleccionan contenido para ti. Como usuario, podrías tener una opción: puedes optar por un algoritmo en particular, tal vez el desarrollado por Twitter, o por uno desarrollado por alguien completamente diferente.
Y ese tipo de autonomía será genial, pero, de nuevo, vas a necesitar herramientas como el aprendizaje automático y la IA para ayudarte a filtrar el ruido y analizar todo el spam que inevitablemente existirá en un mundo donde los modelos generativos pueden crear todo el spam del mundo.
Sonal: Lo interesante de lo que dijiste también es que ni siquiera se trata de elegir entre... Se remonta a esta idea que mencionaste antes, y mencionaste esto brevemente sobre simplemente dar a los usuarios las opciones para elegir entre mercados de ideas y enfoques gratuitos que puedan decidir...
Pero también es interesante porque no se trata solo de empresas, sino de qué enfoque te funciona. Quizás te interese más el algoritmo de filtrado colaborativo que existía en los sistemas de recomendación originales, que funciona como un filtrado colaborativo entre personas. <Ali: sí> Así que las recomendaciones de tus amigos son lo que sigues.
De hecho, personalmente soy muy diferente y estoy mucho más interesado en un gráfico de intereses; y por lo tanto, podría estar mucho más interesado en personas que tienen intereses similares a los míos, y podría elegir ese enfoque en lugar de, digamos, algo más que sea algo así como, oye, este es un enfoque híbrido, lo único que va a hacer es XY y Z.
El simple hecho de poder elegir ya es tremendamente empoderador. Eso simplemente no es posible ahora mismo. Y solo es posible con las criptomonedas y la IA. Así que ese es un gran ejemplo. <¡Ah, sí!>
¿Había algo más que decir sobre cómo la IA puede ayudar con la confianza y la seguridad?
Ali: Creo que esa metaimagen es que las criptomonedas son el Salvaje Oeste. Como no requieren permisos, cualquiera puede participar; hay que asumir que quien participe podría ser un adversario <sí> y tal vez intentar manipular el sistema, hackearlo o hacer algo malicioso.
Por eso, existe una necesidad mucho mayor de herramientas que ayuden a filtrar a los participantes honestos de los deshonestos, y el aprendizaje automático y la IA, como herramientas de inteligencia, pueden ser realmente muy útiles en ese frente.
Por ejemplo, existe un proyecto llamado Stelo, que utiliza aprendizaje automático para identificar transacciones sospechosas enviadas a una billetera y las marca para el usuario antes de que se envíen a la cadena de bloques. Esto podría ser una buena manera de evitar que el usuario envíe accidentalmente todos sus fondos a un atacante o haga algo de lo que luego se arrepienta. <mhm> Y esa empresa básicamente vende a billeteras (a empresas como Metamask) para que Metamask pueda usar la información y hacer lo que quiera con ella: bloquear la transacción, advertir al usuario o, en cierto modo, replantear la transacción para que deje de ser peligrosa. Ese es un ejemplo.
También hay otros ejemplos en el contexto de MEV (valor mínimo extraíble, <Sonal: sí>) o valor máximo extraíble, según a quién le preguntes, que es el valor que pueden extraer quienes controlan el orden de las transacciones en una cadena de bloques. Estos suelen ser los mineros o validadores de una cadena de bloques.
Y la IA, en este caso, puede ser un arma de doble filo, ya que si eres un validador en una blockchain y controlas la ordenación de las transacciones, puedes implementar todo tipo de estrategias inteligentes para ordenarlas de forma que te beneficies. Por ejemplo, puedes adelantar transacciones, retrasar transacciones e intercalar órdenes en Uniswap. Hay muchísimas transacciones que puedes crear para aprovechar esta capacidad de ordenar transacciones. El aprendizaje automático y la IA podrían potenciar esa capacidad, ya que pueden buscar oportunidades para capturar cada vez más MEV.
Por otro lado, el aprendizaje automático puede ser útil también como herramienta defensiva. Antes de enviar una transacción, es posible que sepas que existe un MEV que podría extraerse de ella. Por lo tanto, podrías dividirla en varias para que ningún validador pueda controlarla por completo, o tomar medidas para protegerte de un extractor de MEV en algún punto del proceso de la transacción.
Así que este es un aspecto en el que las criptomonedas juegan un papel importante cuando se trata de seguridad, cuando se trata de confianza, cuando se trata de hacer que el espacio sea más confiable para el usuario final.
Sonal: Ese es un ejemplo de cómo la IA dificulta las cosas en el ámbito de las criptomonedas, y luego las criptomonedas regresan y mejoran las cosas para... <se ríe>.
Dan: De hecho, tengo otro ejemplo parecido. <Sonal: ¡Sí!> Así como los modelos de aprendizaje automático pueden usarse para detectar datos falsos o quizás actividad maliciosa, <mm>, existe la otra cara de la moneda: los modelos de aprendizaje automático pueden usarse para generar datos falsos. <Sonal: Sí>
El ejemplo clásico son las falsificaciones profundas, ¿verdad? Se puede crear un video de alguien diciendo cosas que nunca dijo, y ese video parece bastante realista. Y lo interesante es que las cadenas de bloques pueden ayudar a solucionar el problema. Permítanme explicarles un posible enfoque en el que las cadenas de bloques podrían ser útiles:
Imagina que es una solución que solo podría aplicarse a figuras conocidas como políticos o estrellas de cine, etc. <Sonal: mhm>. Pero imagina que un político llevara una cámara en el pecho y grabara lo que hace todo el día <Sonal: sí>, y luego creara un árbol de Merkle a partir de esa grabación y enviara los compromisos del árbol de Merkle a la cadena de bloques. <mhm>
Ahora, en la cadena de bloques, hay una marca de tiempo que indica que, en esta y esta fecha, dijiste esto y aquello; en esta y aquella fecha, dijiste esto y aquello. Y si alguien crea un video ultrafalso de este político diciendo cosas que nunca dijo, el político puede decir: «Mira, en ese momento, cuando el video decía que dije esto y aquello, en realidad estaba en un lugar completamente diferente, haciendo algo sin relación».
Y el hecho de que todos estos datos, los datos reales, los datos auténticos, se registren en una cadena de bloques puede usarse para demostrar que la falsificación profunda es realmente falsa y no datos reales. ¿Sí?
Así que esto no es algo que exista todavía. <Sonal: sí> Sería divertido que alguien construyera algo así, pero pensé que es un ejemplo interesante de cómo las cadenas de bloques podrían ser realmente útiles <Sonal: sí> para combatir las falsificaciones profundas.
Sonal: ¿Hay también una manera de resolver ese problema y mostrar otras marcas de tiempo o procedencia, donde se pueda hacer ese tipo de verificación de lo que es verdad/lo que no es verdad sin tener que hacer que un político ande por ahí con una cámara <Dan se ríe> en el pecho?
Dan: Sí, por supuesto. También podemos confiar en hardware confiable para esto; <mhm> Así que imagina, ya sabes, nuestras cámaras, las cámaras de nuestros teléfonos y demás, que realmente firmarían las imágenes y los videos que toman. <Sonal: sí>.
Hay un estándar, llamado C2PA, que especifica cómo las cámaras firmarán los datos; de hecho, hay una cámara de Sony que ahora toma fotografías y videos y luego produce firmas C2PA en esos videos... Así que ahora básicamente tienes datos auténticos; en realidad puedes probar que los datos realmente provienen de una cámara C2PA.
Y ahora Sonal, si tal vez lees un artículo de periódico, y hay una imagen en el artículo, y dice ser de un lugar, pero de hecho está tomada de un lugar diferente; la firma en realidad podría verificarse con el hecho de que está firmada por C2PA.
Hay muchos matices allí, C2PA es un tema bastante complicado, <mhm> hay muchos matices que discutir y tal vez no los tratemos aquí;
Sonal: Dan, recuerdo que hablaste de este trabajo conmigo antes (creo que fue en nuestra oficina); pero también recuerdo que no resiste la edición. Y como sabes, los editores como yo y otros creadores de contenido, y sinceramente, casi cualquiera (que use Instagram o cualquier publicación en línea)… nadie sube nada exactamente igual a como fue creado originalmente…
Dan: Sí , normalmente, cuando los periódicos publican fotos, no publican la imagen de la cámara tal cual, sino que la recortan. Hay un par de cosas autorizadas que pueden hacer con las fotos: quizás aplicarles escala de grises; definitivamente, reducir la resolución (para no consumir mucho ancho de banda).
En el momento en que empiezas a editar la imagen, el destinatario (el lector final, el usuario del navegador que lee el artículo) ya no puede verificar la firma C2PA. Porque no tiene la imagen original. <Sonal: ¡Cierto!> Entonces, la pregunta es: ¿cómo permites que el usuario verifique que la imagen que está viendo realmente está firmada correctamente por una cámara C2PA?
Bueno, como siempre, aquí es donde entran en juego las técnicas de conocimiento cero <Sonal: ¡mmm!>: donde se puede demostrar que la imagen editada es en realidad el resultado de aplicar solo reducción de resolución y escala de grises a una imagen más grande correctamente firmada. ¿Sí? Así que, en lugar de una firma C2PA, tendríamos una prueba ZK (una prueba ZK corta) asociada a cada una de estas imágenes. Y ahora los lectores pueden verificar <mhm> que están viendo imágenes auténticas.
Así que es muy interesante que las técnicas ZK se puedan usar para combatir la desinformación. Es una aplicación un tanto inesperada.
Sonal: Eso es fantástico.
Ali: Por cierto, un problema muy relacionado es demostrar que eres humano <Sonal: mhm> en un mundo donde las falsificaciones profundas que crean la apariencia de humanidad generalmente superan en número a los humanos en una proporción de mil a uno o de un millón a uno. Y la mayoría de las cosas en internet podrían estar generadas por IA.
Una posible solución, relacionada con lo que dices, es usar la biometría para determinar si alguien es humano. Pero luego usar pruebas de conocimiento cero para proteger la privacidad de quienes usan esa biometría para demostrar su humanidad.
Un proyecto en esta categoría se llama WorldCoin <Sonal: sí>, también es un proyecto de nuestra cartera, y utiliza este orbe; la gente puede haberlo visto como un orbe plateado brillante, que utiliza escaneos de retina como información biométrica para verificar que eres un ser humano real; y también tiene todo tipo de sensores para garantizar que estás vivo y que no puede ser la imagen de un ojo. Este sistema tiene hardware seguro y es muy difícil de manipular.
De tal manera que la prueba resultante, una prueba de conocimiento cero que oculta la información biométrica real, es extremadamente difícil de falsificar. De esta manera, los políticos podrían, por ejemplo, <Sonal: mhm> demostrar que su transmisión de video, su firma o su participación en un foro en línea son realmente suyas y que son humanos.
Sonal: Lo que es realmente interesante sobre lo que dijiste, Ali, es que es una gran continuación de lo que Dan estaba diciendo sobre las formas de verificar los medios auténticos frente a los medios falsos o ultrafalsos, y este mundo de medios infinitos (como dirías) en el que vivimos...
Pero ¿cuáles son las otras aplicaciones de tecnologías de prueba de personalidad como esta? Creo que es importante, porque este es otro ejemplo de cómo la criptografía también puede ayudar a la IA de forma más amplia. Volviendo atrás... estamos yendo y viniendo, <Ali: sí>, pero no importa porque solo estamos hablando de aplicaciones realmente interesantes, y punto.
Ali: Bueno, esa es una muy buena pregunta… Una de las cosas que cobrará importancia en un mundo donde cualquiera pueda participar en línea es poder demostrar que eres humano, para diversos fines. Existe ese famoso dicho de los 90 que dice: «En internet, nadie sabe que eres un perro». <Sonal: ¡Ah, sí!> Y creo que una versión reinterpretada de ese dicho es que en internet, nadie sabe que eres un bot. <Sonal: ¿Ajá?> Y entonces supongo que aquí es precisamente donde los proyectos de prueba de humanidad cobran gran importancia <Sonal: ¡Sí!>, porque será importante saber si estás interactuando con un bot o con un humano…
Por ejemplo, en el mundo de las criptomonedas, existe toda una cuestión de gobernanza: ¿Cómo se gobiernan sistemas descentralizados, sin un único punto de control, de abajo a arriba y de propiedad comunitaria? Se necesitaría algún tipo de sistema de gobernanza que permita controlar la evolución de esos sistemas.
Y el problema hoy es que si no tienes pruebas de humanidad, entonces no puedes saber si una dirección pertenece a un solo humano; o si pertenece a un grupo de humanos; o si 10.000 direcciones en realidad pertenecen a un solo humano y están pretendiendo ser 10.000 personas diferentes.
Así que hoy en día, en realidad, es necesario usar la cantidad de dinero como indicador del poder de voto, lo que conduce a una gobernanza plutocrática. <Sonal: Sí, exactamente> Pero si cada participante en un sistema de gobernanza pudiera demostrar que es humano, y pudiera hacerlo de forma única (de modo que no pudiera fingir ser más de un humano porque solo tiene un par de ojos), entonces el sistema de gobernanza sería mucho más justo y menos plutocrático, y podría basarse más en las preferencias de cada individuo, en lugar de en la preferencia de la mayor cantidad de dinero bloqueada en un contrato inteligente.
Dan: En realidad, sólo para dar un ejemplo de eso…
Hoy en día, nos vemos obligados a usar "una ficha, un voto" porque no tenemos pruebas de humanidad. Quizás nos gustaría usar un humano, un voto, pero si podemos fingir ser cinco humanos, claro que no funciona. Un ejemplo de esto es el llamado voto cuadrático. <Sonal: sí>
En la votación cuadrática, si quieres votar cinco veces por algo, tienes que, por así decirlo, depositar 25 fichas. Pero, claro, puedes hacer lo mismo: fingir ser cinco personas diferentes votando una vez, lo que frustraría el mecanismo de la votación cuadrática. La única forma de evitarlo es esta prueba de humanidad: para votar, debes demostrar que eres una sola entidad y no una sibila de entidades. Y ahí es precisamente donde la prueba de humanidad desempeñaría un papel importante.
En general, la identidad en cadena se está volviendo cada vez más importante para la gobernanza.
Sonal: Totalmente... Por cierto, eso me recordó un episodio que hicimos hace años, Ali, con Phil Daian. <Ali: Ah, sí> ¿Te acuerdas, sobre "Dark DAOs"? <Ali: Sí... exactamente> Fue una conversación muy interesante. Totalmente relevante.
Ali: Totalmente.
Sonal: Por cierto, ¿la frase es «prueba de personalidad» o «prueba de humanidad»? ¿Cuál es la diferencia? ¿Es lo mismo?
Ali: Ah, sí, la gente los usa indistintamente: prueba de ser humano, prueba de humanidad, prueba de personalidad.
Sonal: Sí, sí.
Bien, entonces sigamos con este tema de los medios, y este tipo de "abundancia infinita" de medios, como ¿cuáles son otros ejemplos? - y de nuevo, estamos hablando de las criptomonedas ayudando a la IA, la IA ayudando a las criptomonedas <Ali: yah> - ¿hay otros ejemplos que no hayamos cubierto aquí donde la intersección de las criptomonedas y la IA pueda generar cosas que no son posibles con ninguna de ellas sola?
Ali: Totalmente. O sea, otra implicación de estos modelos generativos es que viviremos en un mundo de abundancia infinita de medios. Y en ese mundo, aspectos como la comunidad en torno a un medio en particular, o la narrativa en torno a un medio en particular, cobrarán cada vez mayor importancia.
Para ser más concretos, aquí hay dos buenos ejemplos: Sound.xyz está desarrollando una plataforma de streaming de música descentralizada que permite a los artistas (músicos, en esencia) subir música y conectar directamente con sus comunidades mediante la venta de NFT que otorgan ciertos privilegios a sus miembros. Por ejemplo, la posibilidad de publicar un comentario en la canción en el sitio web de Sound.xyz, para que cualquier otra persona que la reproduzca también pueda verlo. (Esto es similar a la antigua función de SoundCloud que quizás recuerden, donde se podía tener una experiencia social completa en la música mientras se reproducía en el sitio web).
Se trata de esta capacidad que permite a las personas interactuar con los medios y entre sí, a menudo de forma económica, ya que básicamente compran este NFT del artista para poder hacerlo. Y, como consecuencia, apoyan al artista y le ayudan a ser sostenible y a crear más música.
Pero lo mejor de todo esto es que ofrece a los artistas un foro para interactuar con su comunidad. Y el artista es un artista humano. Y gracias a la participación de las criptomonedas, se puede crear una comunidad en torno a una pieza musical —que no existiría automáticamente en torno a una pieza musical— creada mediante un modelo de aprendizaje automático sin ningún elemento humano, sin una comunidad a su alrededor.
Así que pienso de nuevo, en un mundo donde gran parte de la música a la que estaremos expuestos será generada íntegramente por IA, las herramientas para construir comunidad y contar una historia en torno al arte, la música y otros medios serán muy importantes para distinguir los medios que realmente nos importan y en los que queremos invertir y dedicar tiempo, de los medios que, aunque también sean muy buenos, son simplemente un tipo diferente. Son medios generados por IA con menos componente humano. <sí> Y, por cierto, puede que exista cierta sinergia entre ambos:
Podría ser que gran parte de la música esté optimizada o generada por IA. Pero si además hay un componente humano —por ejemplo, si un creador utiliza herramientas de IA para crear una nueva pieza musical—, pero además tiene personalidad en Sound, una página de artista, ha creado una comunidad y tiene seguidores, entonces se crea una especie de sinergia entre ambos mundos. <sí> Donde ambos tienen la mejor música, potenciada por los superpoderes que les otorga la IA; pero también tienen un componente humano y una historia, coordinada y realizada por este aspecto criptográfico (que permite reunir a todas esas personas en una sola plataforma).
Dan: Es realmente asombroso que incluso en el mundo de la música —tal como hablamos en el mundo de la programación, donde un programador humano se ve mejorado con herramientas como Copilot que generan código— estemos viendo cosas como esta: un artista se ve mejorado por sistemas de aprendizaje automático que ayudan a escribir (o al menos, parte de la música se escribe y genera mediante un sistema de aprendizaje automático). Así que, sin duda, nos estamos adentrando en un nuevo mundo en términos de generación de contenido. Básicamente, habrá mucho spam generado por arte generado por máquinas, que la gente podría no valorar tanto como el arte generado por un ser humano.
Quizás otra forma de decirlo es que uno de los objetivos de los NFT era apoyar a los artistas. <Sonal: sí> Pero si los propios artistas ahora son modelos de aprendizaje automático, ¿a quién exactamente apoyamos? <risas> <Sonal: sí… sí> Entonces, la cuestión es cómo distinguimos, cómo diferenciamos el arte generado por humanos que necesita apoyo <Sonal: Sí> del arte generado por máquinas.
Sonal: Bueno, esta es una discusión filosófica para tomar algo, pero me atrevería a decir que quien apunta también es un artista, en cierto modo. <Ali: sí> Y, de hecho, yo diría que esa persona es un artista. Y lo mismo ha ocurrido con… ya que esta es una discusión y un debate tan antiguo como el tiempo: simplemente se trata de nuevas tecnologías, viejos comportamientos. Es lo mismo que ha estado ocurriendo durante siglos. Y lo mismo ocurre con la escritura, etc., totalmente.
Dan: Muy cierto.
Ali: Bueno, eso en realidad abre la puerta al arte colectivo <Sonal: mhm>, al arte que se genera a través del proceso creativo de toda una comunidad, en lugar de un solo artista;
De hecho, ya hay proyectos que hacen esto, donde: tienes un proceso mediante el cual una comunidad influye a través de algún proceso de votación en cadena sobre cuál será el mensaje para un modelo de aprendizaje automático como DALL-E. <mhm> Luego, DALL-E usa ese mensaje para generar una obra de arte (quizás generes no 1 obra de arte, sino 10 000) y luego usas otro modelo de aprendizaje automático, que también está entrenado a partir de los comentarios de la comunidad, para elegir entre esos 10 000 el mejor.
Bien, ahora tienes una obra de arte generada a partir de las aportaciones de la comunidad; también se podó y se seleccionó de un conjunto de 10 000 variantes de esa obra de arte (sí, sí), también mediante un modelo de aprendizaje automático entrenado por la comunidad, para luego generar una obra de arte. Es, en cierto modo, el resultado de esta colaboración colectiva.
Eso es increíble.
Sonal: Me encanta. Bueno, chicos, es una gran nota para terminar; gracias a ambos por compartir todo eso con los oyentes de "web3 con a16z".
Dan: Gracias Sonal.
Ali: Muchas gracias.

Las opiniones expresadas aquí son las del personal de AH Capital Management, LLC (“a16z”) citado y no las de a16z ni de sus filiales. Parte de la información aquí contenida se ha obtenido de fuentes externas, incluyendo empresas de cartera de fondos gestionados por a16z. Si bien proviene de fuentes consideradas fiables, a16z no ha verificado dicha información de forma independiente y no garantiza su exactitud permanente ni su idoneidad para una situación concreta. Además, este contenido puede incluir publicidad de terceros; a16z no ha revisado dicha publicidad y no la avala.
Este contenido se proporciona únicamente con fines informativos y no debe considerarse asesoramiento legal, comercial, de inversión ni fiscal. Consulte con sus asesores sobre estos asuntos. Las referencias a valores o activos digitales son solo ilustrativas y no constituyen una recomendación de inversión ni una oferta de servicios de asesoramiento en materia de inversión. Asimismo, este contenido no está dirigido a inversores ni a posibles inversores, y en ningún caso debe utilizarse como base para tomar la decisión de invertir en un fondo gestionado por a16z. (Una oferta de inversión en un fondo de a16z se realizará únicamente mediante el memorando de colocación privada, el acuerdo de suscripción y demás documentación pertinente de dicho fondo, y debe leerse en su totalidad). Las inversiones o empresas de cartera mencionadas, referidas o descritas no representan todas las inversiones en vehículos gestionados por a16z, y no se puede garantizar que las inversiones sean rentables ni que otras inversiones futuras tengan características o resultados similares. Una lista de inversiones realizadas por fondos administrados por Andreessen Horowitz (excluidas las inversiones para las cuales el emisor no ha otorgado permiso a a16z para divulgarlas públicamente, así como las inversiones no anunciadas en activos digitales que cotizan en bolsa)
#BİNANCESQUARE
$BTC
--
Рост
🤖 RIPPLE + AMAZON ✨🤝 A IA QUE VAI REVOLUCIONAR O $XRP LEDGER EM 2026🚀🏛️ 🌟 O Futuro Chegou e Ele é Movido por Inteligência Artificial. A Ripple e a Amazon Web Services (AWS) acabam de anunciar uma colaboração técnica que está deixando o mercado em choque ⥱ a integração do Amazon Bedrock AI diretamente nas operações do XRP Ledger (XRPL). 💎📊 ⚡ De DIAS para MINUTOS: O Salto Tecnológico Gerenciar uma rede global que processa petabytes de dados é um desafio imenso. Até agora, engenheiros podiam levar até 3 dias analisando registros para identificar problemas de rede. Com o Bedrock AI, esse tempo caiu para 2 a 3 minutos! ⚡️Por Que Isso Importa Para Mim e Você ❓ Eficiência Imbatível ⥱ A IA analisa instantaneamente os logs complexos em C++ do XRPL, detectando gargalos e falhas antes mesmo que elas afetem os usuários. Escalabilidade Institucional ⥱ Bancos e processadores de pagamentos exigem 99.9% de uptime. Essa parceria torna o XRPL a rede mais estável e confiável para o dinheiro grosso circular. Foco em Inovação ⥱ Ao automatizar o "trabalho sujo", a #RİPPLE libera seus desenvolvedores para focarem no que realmente importa: Stablecoins (RLUSD), Smart Contracts e RWA. 🌐 O Selo de Aprovação da AWS A Amazon não se associa a qualquer projeto. Ao listar a Ripple como uma parceira verificada e integrar sua IA generativa ao ecossistema, a AWS envia um sinal claro ⥱ A cripto $XRP é infraestrutura financeira real, não apenas especulação. 📢 EU QUERO SABER DE VOCÊ Você acredita que a união entre Blockchain + IA é o ingrediente secreto que faltava para o #Xrp🔥🔥 dominar os pagamentos globais em 2026 ? 🏛️ vs 🤖 {spot}(XRPUSDT) ⚠️ O canal [Leandro Fumão](https://www.generallink.top/pt-BR/square/profile/fumao) aqui na Binance Square 🗣️ Lembra » Esta é uma análise informativa e educativa » Isso não é um conselho financeiro » Sempre faça seu próprio estudo antes de investir. 👨‍🎓📚🎧☕ #IA #amazon #CryptoNews
🤖 RIPPLE + AMAZON ✨🤝 A IA QUE VAI REVOLUCIONAR O $XRP LEDGER EM 2026🚀🏛️

🌟 O Futuro Chegou e Ele é Movido por Inteligência Artificial.
A Ripple e a Amazon Web Services (AWS) acabam de anunciar uma colaboração técnica que está deixando o mercado em choque ⥱ a integração do Amazon Bedrock AI diretamente nas operações do XRP Ledger (XRPL). 💎📊

⚡ De DIAS para MINUTOS: O Salto Tecnológico

Gerenciar uma rede global que processa petabytes de dados é um desafio imenso. Até agora, engenheiros podiam levar até 3 dias analisando registros para identificar problemas de rede. Com o Bedrock AI, esse tempo caiu para 2 a 3 minutos!

⚡️Por Que Isso Importa Para Mim e Você ❓

Eficiência Imbatível ⥱ A IA analisa instantaneamente os logs complexos em C++ do XRPL, detectando gargalos e falhas antes mesmo que elas afetem os usuários.

Escalabilidade Institucional ⥱ Bancos e processadores de pagamentos exigem 99.9% de uptime. Essa parceria torna o XRPL a rede mais estável e confiável para o dinheiro grosso circular.

Foco em Inovação ⥱ Ao automatizar o "trabalho sujo", a #RİPPLE libera seus desenvolvedores para focarem no que realmente importa: Stablecoins (RLUSD), Smart Contracts e RWA.

🌐 O Selo de Aprovação da AWS

A Amazon não se associa a qualquer projeto. Ao listar a Ripple como uma parceira verificada e integrar sua IA generativa ao ecossistema, a AWS envia um sinal claro ⥱ A cripto $XRP é infraestrutura financeira real, não apenas especulação.

📢 EU QUERO SABER DE VOCÊ

Você acredita que a união entre Blockchain + IA é o ingrediente secreto que faltava para o #Xrp🔥🔥 dominar os pagamentos globais em 2026 ? 🏛️ vs 🤖

⚠️ O canal Leandro Fumão aqui na Binance Square 🗣️ Lembra » Esta é uma análise informativa e educativa » Isso não é um conselho financeiro » Sempre faça seu próprio estudo antes de investir. 👨‍🎓📚🎧☕

#IA #amazon #CryptoNews
Qjab69:
Very very Fumao & Fumigao
Cuando la IA redefine la autoridad: Walrus 🦭 y la verificación de identidad digital.En los últimas horas, una imagen viral generada con inteligencia artificial ha captado la atención internacional: Donald Trump se muestra en una publicación como “Presidente Interino de Venezuela”. La pieza, manipulada digitalmente, se difundió rápidamente en redes sociales y despertó debates sobre la veracidad de la información y la facilidad con la que la IA puede crear figuras de autoridad falsas. Más allá del impacto mediático, este episodio refleja un desafío creciente: ¿cómo distinguir contenido legítimo de contenido fabricado digitalmente? La proliferación de herramientas de IA capaces de generar imágenes y textos extremadamente realistas plantea un dilema crítico para la política, los medios y la opinión pública. A medida que la tecnología se vuelve más accesible, la línea entre lo verdadero y lo falso se difumina, y la manipulación de la información puede tener repercusiones inmediatas en la percepción de líderes y decisiones políticas. En este contexto, surgen protocolos como Walrus, diseñados para certificar identidades y credibilidad mediante tokens verificables. Estos sistemas basados en $WAL permiten que la autenticidad de una publicación, declaración o imagen pueda ser auditada de manera descentralizada, estableciendo un marco confiable en un ecosistema digital saturado de información. Los tokens funcionan como certificados digitales: cada emisión está vinculada a una identidad o institución y no puede alterarse sin dejar registro. Walrus y tecnologías similares se presentan como una solución a un problema que la IA acentúa: la pérdida de confianza en la información. Por ejemplo, un token asociado a un político o medio verificado podría alertar a los usuarios sobre contenido manipulado o generado artificialmente, diferenciando hechos de simulaciones digitales. Esto no solo protege la reputación de las fuentes, sino que contribuye a un entorno digital más transparente y seguro. Además, la integración de estos protocolos puede trascender la verificación de noticias y figuras públicas. Organizaciones, agencias de fact-checking y medios de comunicación podrían utilizar tokens para certificar documentos, publicaciones y credenciales de manera confiable, reduciendo el riesgo de desinformación viral y ataques de reputación basados en IA. El caso de Trump y la viralización de su autoproclamación ficticia es un ejemplo claro de cómo la manipulación digital puede impactar la política y la opinión pública. Sin embargo, demuestra también la oportunidad: herramientas como Walrus ofrecen un mecanismo tangible para restaurar la confianza, combinando la transparencia de la tecnología blockchain con la verificación de identidad y la reputación digital. En un mundo donde las fronteras entre realidad y ficción se vuelven cada vez más borrosas, la convergencia de inteligencia artificial y protocolos de tokens abre la puerta a un futuro donde la información pueda ser confiable, auditable y verificable. La pregunta no es si la IA transformará la política y la comunicación, sino si tendremos las herramientas adecuadas para garantizar que lo que vemos y compartimos sea auténtico. Cada vez mas difícil manejar y tener la ética en estos aspectos. #trump #IA #venezuela #walrus #FAKENEWS @WalrusProtocol

Cuando la IA redefine la autoridad: Walrus 🦭 y la verificación de identidad digital.

En los últimas horas, una imagen viral generada con inteligencia artificial ha captado la atención internacional: Donald Trump se muestra en una publicación como “Presidente Interino de Venezuela”.
La pieza, manipulada digitalmente, se difundió rápidamente en redes sociales y despertó debates sobre la veracidad de la información y la facilidad con la que la IA puede crear figuras de autoridad falsas. Más allá del impacto mediático, este episodio refleja un desafío creciente: ¿cómo distinguir contenido legítimo de contenido fabricado digitalmente?

La proliferación de herramientas de IA capaces de generar imágenes y textos extremadamente realistas plantea un dilema crítico para la política, los medios y la opinión pública.
A medida que la tecnología se vuelve más accesible, la línea entre lo verdadero y lo falso se difumina, y la manipulación de la información puede tener repercusiones inmediatas en la percepción de líderes y decisiones políticas.

En este contexto, surgen protocolos como Walrus, diseñados para certificar identidades y credibilidad mediante tokens verificables. Estos sistemas basados en $WAL permiten que la autenticidad de una publicación, declaración o imagen pueda ser auditada de manera descentralizada, estableciendo un marco confiable en un ecosistema digital saturado de información.
Los tokens funcionan como certificados digitales: cada emisión está vinculada a una identidad o institución y no puede alterarse sin dejar registro.

Walrus y tecnologías similares se presentan como una solución a un problema que la IA acentúa: la pérdida de confianza en la información.
Por ejemplo, un token asociado a un político o medio verificado podría alertar a los usuarios sobre contenido manipulado o generado artificialmente, diferenciando hechos de simulaciones digitales.
Esto no solo protege la reputación de las fuentes, sino que contribuye a un entorno digital más transparente y seguro.

Además, la integración de estos protocolos puede trascender la verificación de noticias y figuras públicas.
Organizaciones, agencias de fact-checking y medios de comunicación podrían utilizar tokens para certificar documentos, publicaciones y credenciales de manera confiable, reduciendo el riesgo de desinformación viral y ataques de reputación basados en IA.

El caso de Trump y la viralización de su autoproclamación ficticia es un ejemplo claro de cómo la manipulación digital puede impactar la política y la opinión pública.
Sin embargo, demuestra también la oportunidad: herramientas como Walrus ofrecen un mecanismo tangible para restaurar la confianza, combinando la transparencia de la tecnología blockchain con la verificación de identidad y la reputación digital.

En un mundo donde las fronteras entre realidad y ficción se vuelven cada vez más borrosas, la convergencia de inteligencia artificial y protocolos de tokens abre la puerta a un futuro donde la información pueda ser confiable, auditable y verificable.
La pregunta no es si la IA transformará la política y la comunicación, sino si tendremos las herramientas adecuadas para garantizar que lo que vemos y compartimos sea auténtico. Cada vez mas difícil manejar y tener la ética en estos aspectos.
#trump #IA #venezuela #walrus #FAKENEWS
@WalrusProtocol
MANEJO Y CERTIFICACION DE DATOS Walrus 🦭 Hemos evaluado lo sucedido en últimas horas, ya que la reciente viralización de una imagen de Donald Trump como “Presidente Interino de Venezuela”, generada completamente con IA, evidencia el poder de la tecnología para crear autoridad falsa y manipular la percepción pública. Más allá del impacto mediático, este caso resalta la necesidad urgente de herramientas que puedan certificar la veracidad de la información en un entorno digital saturado. Protocolo como Walrus, basado en tokens $WAL verificables y reputación descentralizada, ofrece soluciones a este desafío. Al asociar cada publicación o identidad a un certificado digital seguro, se puede distinguir entre información legítima y contenido manipulado, protegiendo la credibilidad de líderes, medios y usuarios, y fortaleciendo la confianza en la comunicación digital. La IA puede hacer que cualquier persona parezca presidente de un país… incluso a Donald Trump en Venezuela. La solución: tokens verificables como Walrus, que autentican identidades y publicaciones en un mundo saturado de contenido manipulado. #Trump #IA #walrus @WalrusProtocol
MANEJO Y CERTIFICACION DE DATOS Walrus 🦭

Hemos evaluado lo sucedido en últimas horas, ya que la reciente viralización de una imagen de Donald Trump como “Presidente Interino de Venezuela”, generada completamente con IA, evidencia el poder de la tecnología para crear autoridad falsa y manipular la percepción pública.

Más allá del impacto mediático, este caso resalta la necesidad urgente de herramientas que puedan certificar la veracidad de la información en un entorno digital saturado.

Protocolo como Walrus, basado en tokens $WAL verificables y reputación descentralizada, ofrece soluciones a este desafío.

Al asociar cada publicación o identidad a un certificado digital seguro, se puede distinguir entre información legítima y contenido manipulado, protegiendo la credibilidad de líderes, medios y usuarios, y fortaleciendo la confianza en la comunicación digital.

La IA puede hacer que cualquier persona parezca presidente de un país… incluso a Donald Trump en Venezuela. La solución: tokens verificables como Walrus, que autentican identidades y publicaciones en un mundo saturado de contenido manipulado.

#Trump #IA #walrus @Walrus 🦭/acc
Des outils d'IA méconnus qui vous donnent l'impression d'avoir des super-pouvoirs. 1. claude.ai – Écrire comme un humain 2. gamma.app – Présentations 3. Cleanup.app – Nettoyage d'images 4. Brandmark.io – Création de logos 5. Notion.ai – Notes intelligentes 6. Luma.ai – Capture 3D 7. Snackprompt.com – Idées de prompts 8. Reface.ai – Échange de visages 9. Otter.ai – Notes vocales 10. Krea.ai – IA créative 11. Deepdreamgenerator.com – Styles artistiques 12. Fireflies.ai – Enregistrement de réunions [À ajouter à vos favoris 🔖] #IA
Des outils d'IA méconnus qui vous donnent l'impression d'avoir des super-pouvoirs.

1. claude.ai – Écrire comme un humain
2. gamma.app – Présentations
3. Cleanup.app – Nettoyage d'images
4. Brandmark.io – Création de logos
5. Notion.ai – Notes intelligentes
6. Luma.ai – Capture 3D
7. Snackprompt.com – Idées de prompts
8. Reface.ai – Échange de visages
9. Otter.ai – Notes vocales
10. Krea.ai – IA créative
11. Deepdreamgenerator.com – Styles artistiques
12. Fireflies.ai – Enregistrement de réunions

[À ajouter à vos favoris 🔖] #IA
El Pivote de Tensor: ¿De Marketplace de NFTs a Gigante de la IA Física?El mercado cripto parece haber entrado en un profundo letargo tras el rally de inicio de año. Con Bitcoin orbitando los $91,000 en una fase de consolidación técnica, los inversores han comenzado a rotar su atención hacia activos que ofrecen algo más que simple especulación. En el centro de esta conversación aparece Tensor $TNSR , el ecosistema de Solana que está intentando ejecutar uno de los "rebrandings" fundamentales más ambiciosos del ciclo. Fundamentales: La apuesta por OpenTau (τ) Tensor ya no quiere ser recordado únicamente como el marketplace que dominó el volumen de NFTs en Solana. Durante el reciente CES 2026, el equipo sacudió los cimientos del sector al presentar OpenTau (τ). Esta nueva infraestructura busca fusionar la cadena de bloques con la Inteligencia Artificial Física. A través de modelos de Visión-Lenguaje-Acción (VLA), Tensor aspira a convertirse en la capa de datos para el entrenamiento de robótica y visión computacional. Este movimiento es estratégico: mientras el sector NFT atraviesa una crisis de liquidez, la narrativa de la IA sigue atrayendo capital institucional. Además, la salud financiera del protocolo ha dado un giro positivo. La reciente quema del 21.6% del suministro total ha eliminado una de las mayores preocupaciones de la comunidad: la dilución masiva por parte de los insiders. Con un suministro más ajustado, el token TNSR está mejor posicionado para capturar valor si la demanda regresa. Análisis Técnico: ¿Estamos en el suelo del "Hielo"? A pesar del optimismo fundamental, el gráfico de precios cuenta una historia de paciencia y resiliencia. TNSR se encuentra actualmente en una zona de acumulación que los analistas vigilan con lupa. Niveles Críticos de Acción: La Muralla de Soporte: El nivel de $0.070 - $0.073 USD actúa como la última línea de defensa. Mientras TNSR se mantenga por encima de este suelo, la estructura alcista de largo plazo permanece intacta.La Resistencia del Sentimiento: El primer gran desafío se encuentra en los $0.081 USD. Superar esta marca indicaría que la presión de venta se ha agotado.El Objetivo de "Breakout": El verdadero cambio de tendencia ocurrirá cuando el precio ataque la EMA de 200 días, situada cerca de los $0.133 USD. Un cierre semanal por encima de este nivel podría abrir las puertas hacia los $0.20. Indicadores en Alerta: El RSI (Índice de Fuerza Relativa) se sitúa en territorio de sobreventa (por debajo de los 30 puntos). Históricamente, para un activo con fundamentos sólidos, estos niveles suelen representar ventanas de oportunidad antes de una reversión al alza. Por otro lado, el MACD muestra un agotamiento del impulso bajista, sugiriendo que el "congelamiento" del precio podría estar cerca de su fin. Nuestro Veredicto Tensor se encuentra en una fase de transición dolorosa pero necesaria. El éxito de su incursión en la IA determinará si TNSR es un activo de legado del boom de los NFTs o un pilar fundamental de la nueva economía de agentes de IA en Solana. #Bitcoin #Crypto #Tensor #Solana #IA

El Pivote de Tensor: ¿De Marketplace de NFTs a Gigante de la IA Física?

El mercado cripto parece haber entrado en un profundo letargo tras el rally de inicio de año. Con Bitcoin orbitando los $91,000 en una fase de consolidación técnica, los inversores han comenzado a rotar su atención hacia activos que ofrecen algo más que simple especulación. En el centro de esta conversación aparece Tensor $TNSR , el ecosistema de Solana que está intentando ejecutar uno de los "rebrandings" fundamentales más ambiciosos del ciclo.

Fundamentales: La apuesta por OpenTau (τ)
Tensor ya no quiere ser recordado únicamente como el marketplace que dominó el volumen de NFTs en Solana. Durante el reciente CES 2026, el equipo sacudió los cimientos del sector al presentar OpenTau (τ).
Esta nueva infraestructura busca fusionar la cadena de bloques con la Inteligencia Artificial Física. A través de modelos de Visión-Lenguaje-Acción (VLA), Tensor aspira a convertirse en la capa de datos para el entrenamiento de robótica y visión computacional. Este movimiento es estratégico: mientras el sector NFT atraviesa una crisis de liquidez, la narrativa de la IA sigue atrayendo capital institucional.
Además, la salud financiera del protocolo ha dado un giro positivo. La reciente quema del 21.6% del suministro total ha eliminado una de las mayores preocupaciones de la comunidad: la dilución masiva por parte de los insiders. Con un suministro más ajustado, el token TNSR está mejor posicionado para capturar valor si la demanda regresa.

Análisis Técnico: ¿Estamos en el suelo del "Hielo"?
A pesar del optimismo fundamental, el gráfico de precios cuenta una historia de paciencia y resiliencia. TNSR se encuentra actualmente en una zona de acumulación que los analistas vigilan con lupa.
Niveles Críticos de Acción:
La Muralla de Soporte: El nivel de $0.070 - $0.073 USD actúa como la última línea de defensa. Mientras TNSR se mantenga por encima de este suelo, la estructura alcista de largo plazo permanece intacta.La Resistencia del Sentimiento: El primer gran desafío se encuentra en los $0.081 USD. Superar esta marca indicaría que la presión de venta se ha agotado.El Objetivo de "Breakout": El verdadero cambio de tendencia ocurrirá cuando el precio ataque la EMA de 200 días, situada cerca de los $0.133 USD. Un cierre semanal por encima de este nivel podría abrir las puertas hacia los $0.20.
Indicadores en Alerta:
El RSI (Índice de Fuerza Relativa) se sitúa en territorio de sobreventa (por debajo de los 30 puntos). Históricamente, para un activo con fundamentos sólidos, estos niveles suelen representar ventanas de oportunidad antes de una reversión al alza. Por otro lado, el MACD muestra un agotamiento del impulso bajista, sugiriendo que el "congelamiento" del precio podría estar cerca de su fin.
Nuestro Veredicto
Tensor se encuentra en una fase de transición dolorosa pero necesaria. El éxito de su incursión en la IA determinará si TNSR es un activo de legado del boom de los NFTs o un pilar fundamental de la nueva economía de agentes de IA en Solana.

#Bitcoin #Crypto #Tensor #Solana #IA
DERNIÈRE MINUTE : Les achats en ligne aux États-Unis pendant la période des fêtes ont bondi de 6,8 % sur un an, atteignant un record de 257,8 milliards de dollars entre le 1er novembre et le 31 décembre 2025. Il s'agit d'au moins la sixième année consécutive de hausse. On a dénombré 25 jours où les dépenses quotidiennes ont dépassé les 4 milliards de dollars, contre 18 jours en 2024. Les ventes de la Cyber ​​Week ont ​​à elles seules progressé de 7,7 % sur un an, pour atteindre le chiffre record de 44,2 milliards de dollars, tandis que celles du Cyber ​​Monday ont bondi de 7,1 % sur un an, à 14,3 milliards de dollars. Les achats mobiles ont représenté 56,4 % de l'ensemble des transactions en ligne, atteignant 66,5 % le jour de Noël. Par ailleurs, les dépenses liées au « Achetez maintenant, payez plus tard » ont augmenté de 9,8 % sur un an, pour atteindre 20 milliards de dollars pour la première fois. Enfin, le trafic vers les sites marchands généré par les outils d'intelligence artificielle générative a explosé de 693 % sur un an, les consommateurs utilisant des assistants d'achat IA pour dénicher les meilleures offres. Les consommateurs ont emprunté et dépensé à un rythme record pendant les fêtes de fin d'année. #IA
DERNIÈRE MINUTE : Les achats en ligne aux États-Unis pendant la période des fêtes ont bondi de 6,8 % sur un an, atteignant un record de 257,8 milliards de dollars entre le 1er novembre et le 31 décembre 2025.

Il s'agit d'au moins la sixième année consécutive de hausse.

On a dénombré 25 jours où les dépenses quotidiennes ont dépassé les 4 milliards de dollars, contre 18 jours en 2024.

Les ventes de la Cyber ​​Week ont ​​à elles seules progressé de 7,7 % sur un an, pour atteindre le chiffre record de 44,2 milliards de dollars, tandis que celles du Cyber ​​Monday ont bondi de 7,1 % sur un an, à 14,3 milliards de dollars.

Les achats mobiles ont représenté 56,4 % de l'ensemble des transactions en ligne, atteignant 66,5 % le jour de Noël.

Par ailleurs, les dépenses liées au « Achetez maintenant, payez plus tard » ont augmenté de 9,8 % sur un an, pour atteindre 20 milliards de dollars pour la première fois.

Enfin, le trafic vers les sites marchands généré par les outils d'intelligence artificielle générative a explosé de 693 % sur un an, les consommateurs utilisant des assistants d'achat IA pour dénicher les meilleures offres. Les consommateurs ont emprunté et dépensé à un rythme record pendant les fêtes de fin d'année.
#IA
🤖🔥 IA semanal: las señales que importan más allá del ruidoLa inteligencia artificial no avanza por anuncios aislados. Avanza por acumulación de hitos. Y esta semana dejó señales que vale la pena leer con lupa. 🔍 Lo más destacado, sin distracciones Más allá de titulares llamativos, el patrón fue claro: • Modelos cada vez más autónomos • Integración real en productos de uso masivo • Inversión sostenida en infraestructura y cómputo • Regulación empezando a tomar forma, no a frenar No fue una semana de promesas. Fue una semana de ejecución. 🧠 La lectura profunda que pocos hacen La IA está saliendo de la fase experimental. Eso cambia completamente el juego. Cuando la tecnología deja de probarse y empieza a operar en el mundo real, el impacto ya no es opcional. Empresas que no integran IA no pierden eficiencia pierden relevancia. ⚙️ Qué está empezando a definirse Esta semana reforzó tres tendencias clave: 1. La ventaja competitiva ya no es el modelo, es el uso 2. El cuello de botella se traslada a energía y hardware 3. La IA se convierte en capa transversal, no en sector Eso explica por qué el mercado empieza a mirar más allá del software. 💡 Valor para tu comunidad Seguir la IA no es saber qué modelo salió. Es entender dónde se está integrando. Quien observa adopción real lee el futuro con más claridad que quien persigue anuncios. 🧭 Cierre La semana en IA no cerró con un golpe mediático. Cerró con algo más importante: normalización del impacto. Y cuando una tecnología se vuelve normal, es porque ya cambió el juego. #IA #Write2Earn

🤖🔥 IA semanal: las señales que importan más allá del ruido

La inteligencia artificial no avanza por anuncios aislados.
Avanza por acumulación de hitos.

Y esta semana dejó señales que vale la pena leer con lupa.

🔍 Lo más destacado, sin distracciones

Más allá de titulares llamativos, el patrón fue claro:

• Modelos cada vez más autónomos
• Integración real en productos de uso masivo
• Inversión sostenida en infraestructura y cómputo
• Regulación empezando a tomar forma, no a frenar

No fue una semana de promesas.
Fue una semana de ejecución.

🧠 La lectura profunda que pocos hacen

La IA está saliendo de la fase experimental.
Eso cambia completamente el juego.

Cuando la tecnología deja de probarse
y empieza a operar en el mundo real,
el impacto ya no es opcional.

Empresas que no integran IA
no pierden eficiencia
pierden relevancia.

⚙️ Qué está empezando a definirse

Esta semana reforzó tres tendencias clave:
1. La ventaja competitiva ya no es el modelo, es el uso
2. El cuello de botella se traslada a energía y hardware
3. La IA se convierte en capa transversal, no en sector

Eso explica por qué el mercado empieza a mirar
más allá del software.

💡 Valor para tu comunidad

Seguir la IA no es saber qué modelo salió.
Es entender dónde se está integrando.

Quien observa adopción real
lee el futuro con más claridad
que quien persigue anuncios.

🧭 Cierre

La semana en IA no cerró con un golpe mediático.
Cerró con algo más importante:

normalización del impacto.

Y cuando una tecnología se vuelve normal,
es porque ya cambió el juego.
#IA #Write2Earn
Les dépenses d'investissement technologique aux États-Unis ont été colossales : En 2025, ces dépenses, en pourcentage du PIB, ont presque égalé l'ampleur cumulée des plus grands projets d'investissement du XXe siècle. Ce chiffre intervient alors que les dépenses d'investissement des géants de la tech ont atteint environ 1,9 % du PIB l'an dernier. À titre de comparaison, le déploiement du haut débit à l'échelle nationale au début du siècle représentait environ 1,2 % du PIB. L'expansion rapide de l'électricité en 1949, le programme Apollo et le réseau autoroutier inter-États dans les années 1960 représentaient chacun environ 0,6 % du PIB. Le projet Manhattan, visant à développer les premières armes atomiques dans les années 1940, représentait environ 0,4 % du PIB. L'engouement pour l'investissement dans l'IA est sans précédent. #IA
Les dépenses d'investissement technologique aux États-Unis ont été colossales :

En 2025, ces dépenses, en pourcentage du PIB, ont presque égalé l'ampleur cumulée des plus grands projets d'investissement du XXe siècle.

Ce chiffre intervient alors que les dépenses d'investissement des géants de la tech ont atteint environ 1,9 % du PIB l'an dernier.

À titre de comparaison, le déploiement du haut débit à l'échelle nationale au début du siècle représentait environ 1,2 % du PIB.

L'expansion rapide de l'électricité en 1949, le programme Apollo et le réseau autoroutier inter-États dans les années 1960 représentaient chacun environ 0,6 % du PIB.

Le projet Manhattan, visant à développer les premières armes atomiques dans les années 1940, représentait environ 0,4 % du PIB.

L'engouement pour l'investissement dans l'IA est sans précédent.
#IA
​🏛️ XRP x AMAZON : une Alliance de Géants... mais un prix qui patine ? 🧐L'annonce est tombée et elle est techniquement massive : Ripple (XRP) s'associe à Amazon Web Services (AWS) pour intégrer de l'IA dans les flux financiers mondiaux. ​▪️🚀 Le paradoxe Ripple ​C'est la news "monstrueuse" que tout le monde attendait, mais comme souvent avec XRP, le graphique semble faire la sourde oreille. Pourquoi ce décalage ? ​🔹️Accumulation vs Distribution : Pendant que le prix reste timide, les données on-chain confirment que les baleines accumulent massivement. Elles parient sur l'utilité future, pas sur le pump immédiat. ​🔹️Le poids du Géant : Avec une telle capitalisation et une offre importante, il faut un volume d'achat phénoménal pour voir une bougie verte significative. ​🔹️L'IA sur AWS : Ce partenariat vise à optimiser les paiements transfrontaliers sur le long terme. C'est une brique d'infrastructure, pas un bouton magique. ​🔎 L’ANALYSE DE L’ÉCLAIREUSE 🏹✨ ​"On ne va pas se mentir : XRP est le roi des news incroyables qui laissent le prix de marbre. L'alliance avec Amazon est une validation technologique immense, mais ce n'est pas (encore) le déclic que beaucoup espéraient pour le portefeuille. Pour moi, c'est un marathon. Je surveille les baleines, mais je garde les pieds sur terre. Et vous, votre patience a-t-elle des limites ? 🛡️☕️" Fatigués par l'attente ou convaincus que le vrai changement prend du temps ? 💬 DYOR 🤓 #XRP #RIPPLE #HOLD #IA #WHALES

​🏛️ XRP x AMAZON : une Alliance de Géants... mais un prix qui patine ? 🧐

L'annonce est tombée et elle est techniquement massive : Ripple (XRP) s'associe à Amazon Web Services (AWS) pour intégrer de l'IA dans les flux financiers mondiaux.
​▪️🚀 Le paradoxe Ripple
​C'est la news "monstrueuse" que tout le monde attendait, mais comme souvent avec XRP, le graphique semble faire la sourde oreille. Pourquoi ce décalage ?
​🔹️Accumulation vs Distribution : Pendant que le prix reste timide, les données on-chain confirment que les baleines accumulent massivement. Elles parient sur l'utilité future, pas sur le pump immédiat.
​🔹️Le poids du Géant : Avec une telle capitalisation et une offre importante, il faut un volume d'achat phénoménal pour voir une bougie verte significative.
​🔹️L'IA sur AWS : Ce partenariat vise à optimiser les paiements transfrontaliers sur le long terme. C'est une brique d'infrastructure, pas un bouton magique.
​🔎 L’ANALYSE DE L’ÉCLAIREUSE 🏹✨
​"On ne va pas se mentir : XRP est le roi des news incroyables qui laissent le prix de marbre. L'alliance avec Amazon est une validation technologique immense, mais ce n'est pas (encore) le déclic que beaucoup espéraient pour le portefeuille. Pour moi, c'est un marathon. Je surveille les baleines, mais je garde les pieds sur terre. Et vous, votre patience a-t-elle des limites ? 🛡️☕️"
Fatigués par l'attente ou convaincus que le vrai changement prend du temps ? 💬
DYOR 🤓
#XRP #RIPPLE #HOLD #IA #WHALES
Florencia Zelenyski:
Certains le compare a l’argent 😉 la patience recomoensera
🔸🔸🔸🔸 Binance da un paso clave en #IA responsable. Acabamos de obtener la certificación ISO/IEC 42001, el estándar global que valida que el uso de inteligencia artificial sea ético, transparente y seguro. Esto significa más confianza, mejores procesos y tecnología que se desarrolla pensando primero en las personas. Seguimos construyendo con responsabilidad, alineados con estándares internacionales y regulaciones que vienen.
🔸🔸🔸🔸
Binance da un paso clave en #IA responsable.

Acabamos de obtener la certificación ISO/IEC 42001, el estándar global que valida que el uso de inteligencia artificial sea ético, transparente y seguro.

Esto significa más confianza, mejores procesos y tecnología que se desarrolla pensando primero en las personas.

Seguimos construyendo con responsabilidad, alineados con estándares internacionales y regulaciones que vienen.
--
Рост
And Lined up the next one early: $AUI Well-known Japanese dev, followed by X AI devs. Real tech, already gaining traction in AI space, devs have already started using it. $AUI #aui Under 100k. Explosion phase loading 🚀 #memecoin #Aİ #IA #coin $COTI $AIN $pippin
And Lined up the next one early: $AUI
Well-known Japanese dev, followed by X AI devs.
Real tech, already gaining traction in AI space, devs have already started using it.
$AUI
#aui

Under 100k. Explosion phase loading 🚀

#memecoin
#Aİ
#IA
#coin

$COTI
$AIN
$pippin
🌪 L’Atout Secret : Le "Pack-a-Punch" de l’IA ! 🌪Aujourd'hui, on ne se contente plus de surveiller les vagues : on améliore radicalement notre équipement. 🛠️⚡️ ​Dans le mode Zombie, passer par la machine Pack-a-Punch, c'est transformer son matériel de base en une version surpuissante, capable de tenir face aux vagues les plus hautes. En ce 7 janvier 2026, cette machine s'appelle l'IA, et son carburant, c'est le nouveau hardware de Nvidia. ​▪️🚀 La Bombe Nvidia : La puce "Rubin" entre en scène ​🔹️La nouvelle vient de tomber : Nvidia confirme que sa puce révolutionnaire, Rubin, est déjà en production. ​🔹️Le choc : Les mineurs de Bitcoin (nos "Mastodontes" du secteur) se jettent sur cette technologie. Ils ne veulent plus seulement sécuriser le réseau, ils veulent transformer leur puissance de calcul en Intelligence Artificielle. 🧠 ​🔹️L'enjeu : On assiste à une fusion entre la force brute du minage et la finesse de l'IA. ​▪️🛠️ Bittensor ($TAO) : L'Évolution du Hardware ​C’est là que le post de Const Reborn ce matin prend tout son sens. Bittensor optimise ses subnets (sous-réseaux) pour accueillir cette nouvelle vague de puissance. ​🔹️Le lien : Si Nvidia fournit le "moteur" (Rubin), TAO est la structure qui permet de décupler ses capacités de manière décentralisée. 🕹️🏛️ ​🔹️Le résultat : Comme un équipement qui sort de la machine Pack-a-Punch, le réseau devient plus rapide, plus résistant et infiniment plus performant. ​Le mot de votre Éclaireuse 🏹✨ ​On quitte l'ère du matériel standard. Quand les géants du minage pivotent pour adopter les puces Rubin, ils ne cherchent pas un petit bonus, ils cherchent l'amélioration ultime pour rester dans la partie. 🗺️🌪️ ​L'IA n'est plus une option, c'est l'évolution nécessaire de votre écosystème. Bittensor ($TAO) est en train de prouver qu'il est la machine idéale pour transformer cette puissance brute en intelligence collective. 🏛️🚀 ​Et vous ? Votre portefeuille est-il encore en version standard, ou avez-vous déjà activé le Pack-a-Punch avec l'IA ? 💬 Ceci est une analyse informative basée sur mes recherches personnelles. DYOR 🤓 #IA #TAO #BITCOIN #NVIDIA #CRYPTO

🌪 L’Atout Secret : Le "Pack-a-Punch" de l’IA ! 🌪

Aujourd'hui, on ne se contente plus de surveiller les vagues : on améliore radicalement notre équipement. 🛠️⚡️
​Dans le mode Zombie, passer par la machine Pack-a-Punch, c'est transformer son matériel de base en une version surpuissante, capable de tenir face aux vagues les plus hautes. En ce 7 janvier 2026, cette machine s'appelle l'IA, et son carburant, c'est le nouveau hardware de Nvidia.
​▪️🚀 La Bombe Nvidia : La puce "Rubin" entre en scène
​🔹️La nouvelle vient de tomber : Nvidia confirme que sa puce révolutionnaire, Rubin, est déjà en production.
​🔹️Le choc : Les mineurs de Bitcoin (nos "Mastodontes" du secteur) se jettent sur cette technologie. Ils ne veulent plus seulement sécuriser le réseau, ils veulent transformer leur puissance de calcul en Intelligence Artificielle. 🧠
​🔹️L'enjeu : On assiste à une fusion entre la force brute du minage et la finesse de l'IA.
​▪️🛠️ Bittensor ($TAO) : L'Évolution du Hardware
​C’est là que le post de Const Reborn ce matin prend tout son sens. Bittensor optimise ses subnets (sous-réseaux) pour accueillir cette nouvelle vague de puissance.
​🔹️Le lien : Si Nvidia fournit le "moteur" (Rubin), TAO est la structure qui permet de décupler ses capacités de manière décentralisée. 🕹️🏛️
​🔹️Le résultat : Comme un équipement qui sort de la machine Pack-a-Punch, le réseau devient plus rapide, plus résistant et infiniment plus performant.
​Le mot de votre Éclaireuse 🏹✨
​On quitte l'ère du matériel standard. Quand les géants du minage pivotent pour adopter les puces Rubin, ils ne cherchent pas un petit bonus, ils cherchent l'amélioration ultime pour rester dans la partie. 🗺️🌪️
​L'IA n'est plus une option, c'est l'évolution nécessaire de votre écosystème. Bittensor ($TAO) est en train de prouver qu'il est la machine idéale pour transformer cette puissance brute en intelligence collective. 🏛️🚀
​Et vous ? Votre portefeuille est-il encore en version standard, ou avez-vous déjà activé le Pack-a-Punch avec l'IA ? 💬
Ceci est une analyse informative basée sur mes recherches personnelles. DYOR 🤓
#IA #TAO #BITCOIN #NVIDIA #CRYPTO
Virtuals Protocol lanza Pegasus, Unicorn y Titan para agentes de IA. Basada en la blockchain Base, la plataforma ayuda a los desarrolladores a crear, tokenizar y monetizar agentes de #IA autónomos que operan on-chain. ➡️ Pegasus es ideal para principiantes, con curvas de vinculación rápidas y sin asignación de equipos. ➡️ Unicorn añade financiación vinculada a la tracción para equipos en fase intermedia. ➡️ Titan ofrece liquidez directa para jugadores consolidados. El mercado responde con una subida de $VIRTUAL a 1.19$ y un volumen + $400M 💹
Virtuals Protocol lanza Pegasus, Unicorn y Titan para agentes de IA.

Basada en la blockchain Base, la plataforma ayuda a los desarrolladores a crear, tokenizar y monetizar agentes de #IA autónomos que operan on-chain.

➡️ Pegasus es ideal para principiantes, con curvas de vinculación rápidas y sin asignación de equipos.

➡️ Unicorn añade financiación vinculada a la tracción para equipos en fase intermedia.

➡️ Titan ofrece liquidez directa para jugadores consolidados.

El mercado responde con una subida de $VIRTUAL a 1.19$ y un volumen + $400M 💹
A PRÓXIMA FRONTEIRA: A CRYPTO DE INTELIGÊNCIA ARTIFICIAL QUE ESTÁ UNINDO O VALE DO SILÍCIO E O MERCADO FINANCEIRO! Como especialista global em ativos digitais, afirmo: a convergência entre IA e Blockchain não é mais uma promessa, é a maior tese de investimento de 2026. No centro dessa revolução está o Bittensor $TAO {spot}(TAOUSDT) um protocolo de código aberto que está construindo o primeiro mercado descentralizado de inteligência de máquina do mundo. Diferente de modelos centralizados, o ecossistema TAO permite que redes neurais colaborem e aprendam umas com as outras, criando uma superinteligência global auditável e sem donos. Por que o Bittensor $TAO é o líder do setor? Poder Computacional Descentralizado: Através de suas subnets especializadas, a rede resolve tarefas complexas de aprendizado de máquina, recompensando mineradores pela "Prova de Inteligência". Interesse Institucional: Com pedidos recentes para conversão de fundos em ETFs Spot, o capital institucional já identificou o TAO como o "Bitcoin da IA". Mecânica de Escassez: O recente halving reduziu a emissão de novos tokens, gerando um choque de oferta enquanto a demanda por processamento de IA atinge níveis históricos. Se você busca exposição à tecnologia que está definindo esta década, entender a infraestrutura por trás da inteligência descentralizada é obrigatório. $TAO #IA #criptomoedas
A PRÓXIMA FRONTEIRA: A CRYPTO DE INTELIGÊNCIA ARTIFICIAL QUE ESTÁ UNINDO O VALE DO SILÍCIO E O MERCADO FINANCEIRO!
Como especialista global em ativos digitais, afirmo: a convergência entre IA e Blockchain não é mais uma promessa, é a maior tese de investimento de 2026. No centro dessa revolução está o Bittensor $TAO
um protocolo de código aberto que está construindo o primeiro mercado descentralizado de inteligência de máquina do mundo.
Diferente de modelos centralizados, o ecossistema TAO permite que redes neurais colaborem e aprendam umas com as outras, criando uma superinteligência global auditável e sem donos.
Por que o Bittensor $TAO é o líder do setor?
Poder Computacional Descentralizado: Através de suas subnets especializadas, a rede resolve tarefas complexas de aprendizado de máquina, recompensando mineradores pela "Prova de Inteligência".
Interesse Institucional: Com pedidos recentes para conversão de fundos em ETFs Spot, o capital institucional já identificou o TAO como o "Bitcoin da IA".
Mecânica de Escassez: O recente halving reduziu a emissão de novos tokens, gerando um choque de oferta enquanto a demanda por processamento de IA atinge níveis históricos.
Se você busca exposição à tecnologia que está definindo esta década, entender a infraestrutura por trás da inteligência descentralizada é obrigatório. $TAO
#IA #criptomoedas
Janay Fizer XISc:
Tem potencial de 100x
--
Рост
🤖 A IA FALOU 👀 VEJA O 🤑 PREÇO ALVO DA SOLANA PARA 31 DE JANEIRO🚀🔥 O mercado cripto em 2026 começou a todo vapor, e a pergunta que não quer calar é ⥱ Até onde a Solana ( $SOL ) pode chegar este mês ❓ Para tentar decifrar esse enigma, algoritmos de Inteligência Artificial acabam de cravar uma previsão que está dividindo opiniões entre os analistas! 📉 O Veredito das Máquinas Segundo a matéria do BitNotícias, a IA analisou indicadores técnicos de peso, como o RSI, as Bandas de Bollinger e o volume on-chain, para projetar o fechamento de janeiro. 📌 O Que os Dados Sugerem Tendência de Alta ⥱ A projeção aponta para um cenário de valorização, impulsionado pela resiliência da rede e pelo crescimento explosivo das Memecoins e do setor de DePIN na Solana. Níveis de Resistência ⥱ A IA identifica zonas críticas onde a SOL precisará de volume institucional para romper e buscar novas máximas históricas (ATH). O Fator RWA ⥱ Com a Solana batendo recordes de US$ 873 milhões em Ativos do Mundo Real (RWA), o ecossistema está atraindo os olhos dos grandes fundos. 💎 Por Que Prestar Atenção na Criptomoeda $SOL Agora ? Diferente de ciclos passados, em 2026 a Solana não é apenas "rápida e barata". Ela se tornou o hub da inovação prática. Enquanto o Ethereum foca em L2s, a Solana mantém sua execução em camada única, o que facilita a adoção em massa e mantém a liquidez concentrada. Se a previsão da IA se concretizar, o final de janeiro pode ser o gatilho que faltava para a Altseason que todos estamos esperando! 🌊⚡ 📢 EU ( @Fumao ) QUERO A SUA OPINIÃO Você confia nas previsões feitas por Inteligência Artificial ou acredita que o "fator humano" e a manipulação das baleias sempre vencem ? 🤖 vs 🐳 👇 Comente abaixo sua estratégia! ⚠️ O canal @Fumao 🗣️  » Isso não é um conselho financeiro » Sempre faça seu próprio estudo antes de investir. 👨‍🎓📚🎧☕ #solana #sol #IA #CryptoNews #Bullrun
🤖 A IA FALOU 👀 VEJA O 🤑 PREÇO ALVO DA SOLANA PARA 31 DE JANEIRO🚀🔥

O mercado cripto em 2026 começou a todo vapor, e a pergunta que não quer calar é ⥱ Até onde a Solana ( $SOL ) pode chegar este mês ❓

Para tentar decifrar esse enigma, algoritmos de Inteligência Artificial acabam de cravar uma previsão que está dividindo opiniões entre os analistas!

📉 O Veredito das Máquinas

Segundo a matéria do BitNotícias, a IA analisou indicadores técnicos de peso, como o RSI, as Bandas de Bollinger e o volume on-chain, para projetar o fechamento de janeiro.

📌 O Que os Dados Sugerem

Tendência de Alta ⥱ A projeção aponta para um cenário de valorização, impulsionado pela resiliência da rede e pelo crescimento explosivo das Memecoins e do setor de DePIN na Solana.

Níveis de Resistência ⥱ A IA identifica zonas críticas onde a SOL precisará de volume institucional para romper e buscar novas máximas históricas (ATH).

O Fator RWA ⥱ Com a Solana batendo recordes de US$ 873 milhões em Ativos do Mundo Real (RWA), o ecossistema está atraindo os olhos dos grandes fundos.

💎 Por Que Prestar Atenção na Criptomoeda $SOL Agora ?

Diferente de ciclos passados, em 2026 a Solana não é apenas "rápida e barata". Ela se tornou o hub da inovação prática.

Enquanto o Ethereum foca em L2s, a Solana mantém sua execução em camada única, o que facilita a adoção em massa e mantém a liquidez concentrada.

Se a previsão da IA se concretizar, o final de janeiro pode ser o gatilho que faltava para a Altseason que todos estamos esperando! 🌊⚡

📢 EU ( @Leandro-Fumao ) QUERO A SUA OPINIÃO

Você confia nas previsões feitas por Inteligência Artificial ou acredita que o "fator humano" e a manipulação das baleias sempre vencem ? 🤖 vs 🐳

👇 Comente abaixo sua estratégia!

⚠️ O canal @Leandro-Fumao 🗣️  » Isso não é um conselho financeiro » Sempre faça seu próprio estudo antes de investir. 👨‍🎓📚🎧☕

#solana #sol #IA #CryptoNews #Bullrun
🔸 Walrus $WAL {spot}(WALUSDT) 🔸 Es el proyecto número 50 en la página HODLer Airdrops . 🔸 Que es ? = es una plataforma para desarrolladores que permite mercados de datos para la era de la IA, haciendo que los datos de todas las industrias sean confiables, demostrables, monetizables y seguros. 🔸Binance incluyo a $WAL en su lista el 10/10/2025 y comenzo a operar con los pares USDT, USDC, BNB, FDUSD y TRY. 👨‍🏫 Solo información educativa, NO asesoramiento financiero 📊 🔸 Esta publicación está patrocinada por CreatorPad de @Binance_Square_Official en colaboración con @WalrusProtocol #Walrus - #IA - #Airdrop
🔸 Walrus $WAL
🔸 Es el proyecto número 50 en la página HODLer Airdrops .

🔸 Que es ? = es una plataforma para desarrolladores que permite mercados de datos para la era de la IA, haciendo que los datos de todas las industrias sean confiables, demostrables, monetizables y seguros.

🔸Binance incluyo a $WAL en su lista el 10/10/2025 y comenzo a operar con los pares USDT, USDC, BNB, FDUSD y TRY.

👨‍🏫 Solo información educativa, NO asesoramiento financiero 📊

🔸 Esta publicación está patrocinada por CreatorPad de @Binance Square Official en colaboración con @Walrus 🦭/acc

#Walrus - #IA - #Airdrop
J-K:
🥰🥰🥰
💎 Las 2 Narrativas que dominarán este trimestre: IA y RWA ​No todo es Bitcoin. Si quieres maximizar tu portafolio este inicio de 2026, presta atención a dónde se está moviendo el "Smart Money". 💸 #IA #RWA
💎 Las 2 Narrativas que dominarán este trimestre: IA y RWA
​No todo es Bitcoin. Si quieres maximizar tu portafolio este inicio de 2026, presta atención a dónde se está moviendo el "Smart Money". 💸 #IA #RWA
Войдите, чтобы посмотреть больше материала
Последние новости криптовалют
⚡️ Участвуйте в последних обсуждениях в криптомире
💬 Общайтесь с любимыми авторами
👍 Изучайте темы, которые вам интересны
Эл. почта/номер телефона