Binance Square

chatgpt

762,643 مشاهدات
719 يقومون بالنقاش
Bertosanti
--
ترجمة
TRANSCRIPCIÓN #CRYPTOEl nuevo episodio de esta semana aborda la convergencia de dos tendencias importantes y de gran actualidad: la IA (inteligencia artificial) y las cadenas de bloques/criptomonedas. Estos dominios, en conjunto, tienen importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es ideal para quienes tengan curiosidad o ya estén desarrollando este sector. La conversación abarca temas que van desde las deepfakes, los bots y la necesidad de una prueba de humanidad en un mundo de IA; hasta el big data, los grandes modelos de lenguaje como ChatGPT, el control de usuarios, la gobernanza, la privacidad y la seguridad, el conocimiento cero y zkML; hasta MEV, los medios de comunicación, el arte y mucho más. Nuestros invitados expertos, en conversación con la anfitriona Sonal Chokshi, incluyen: Dan Boneh , profesor de Stanford (y asesor principal de investigación en a16z crypto), un criptógrafo que ha estado trabajando en cadenas de bloques durante más de una década y que se especializa en criptografía, seguridad informática y aprendizaje automático, todos los cuales se cruzan en este episodio;Ali Yahya , socio general de a16z crypto, quien también trabajó anteriormente en Google, donde no solo trabajó en un sistema distribuido para una flota de robots (una especie de "aprendizaje de refuerzo colectivo") sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow construida en Google. La primera mitad de la conversación informal entre Ali y Dan (quienes se conocen como estudiantes y profesores en Stanford) gira en torno a cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad, a cómo las criptomonedas podrían beneficiarse de la IA... El hilo conductor es la tensión entre centralización y descentralización. Así, también analizamos cómo la intersección de las criptomonedas y la IA puede generar resultados que ninguna de las dos sería posible por sí sola... Piezas referenciadas en este episodio/lectura relacionada: El próximo sistema de razonamiento cibernético para la ciberseguridad  (2023) de Mohamed Ferrag, Ammar Battah, Norbert Tihanyi, Merouane Debbah, Thierry Lestable y Lucas CordeiroUna nueva era en seguridad de software: Hacia software autorreparador mediante modelos de lenguaje extensos y verificación formal  (2023) por Yiannis Charalambous, Norbert Tihanyi, Ridhi Jain, Youcheng Sun, Mohamed Ferrag, Lucas CordeiroCorrección de errores de seguridad de hardware con modelos de lenguaje extensos  (2023) por Baleegh Ahmad, Shailja Thakur, Benjamin Tan, Ramesh Karri y Hammond Pearce¿Los usuarios escriben código más inseguro con asistentes de IA?  (2022) por Neil Perry, Megha Srivastava, Deepak Kumar y Dan Boneh¿Dormido frente al teclado? Evaluación de la seguridad de las contribuciones de código de GitHub Copilot  (2021) por Hammond Pearce, Baleegh Ahmad, Benjamin Tan, Brendan Dolan-Gavitt, Ramesh KarriVotación, seguridad y gobernanza en blockchains  (2019) con Ali Yahya y Phil Daian TRANSCRIPCIÓN: Bienvenidos a "web3 con a16z", un programa sobre cómo construir la próxima generación de internet del equipo de a16z crypto; incluyéndome a mí, su presentadora, Sonal Chokshi. El nuevo episodio de hoy aborda la convergencia de dos importantes tendencias de vanguardia: la IA (inteligencia artificial) y las criptomonedas. Esto tiene importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es para cualquiera que tenga curiosidad o que ya esté desarrollando en este sector. Nuestros invitados especiales de hoy son: Dan Boneh, profesor de Stanford (y asesor sénior de investigación en a16z crypto). Es un criptógrafo que lleva más de una década trabajando en cadenas de bloques. Los temas de este episodio tienen una fuerte intersección entre la criptografía, la seguridad informática y el aprendizaje automático, todas sus áreas de especialización. También tenemos a Ali Yahya, socio general de a16z crypto, quien también trabajó en Google, donde no solo desarrolló un sistema distribuido para robótica (más concretamente, una especie de "aprendizaje de refuerzo colectivo" que implicaba entrenar una única red neuronal que contribuía a las acciones de toda una flota de robots), sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow. De hecho, Dan y Ali se conocen desde que Ali era estudiante de grado y maestría en Stanford, así que esta conversación es más bien una charla informal entre ellos a la que les pedí que me uniera. Abordamos todo, desde deepfakes y bots hasta la prueba de humanidad en un mundo de IA y mucho, mucho más. La primera mitad trata sobre cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad sobre cómo las criptomonedas podrían beneficiarse de la IA; y el hilo conductor es la tensión entre centralización y descentralización.  Como recordatorio: nada de lo siguiente debe interpretarse como asesoramiento de inversión, legal, comercial o fiscal; consulte a16z.com/disclosures para obtener más información importante, incluido un enlace a una lista de nuestras inversiones, especialmente porque somos inversores en las empresas mencionadas en este episodio.  Pero primero: comenzamos con la intersección de ambos mundos, compartiendo brevemente las áreas (¡o visiones!) que les entusiasman; la primera voz que escucharán será la de Ali. Ali: Hay una novela de ciencia ficción muy buena llamada “La era del diamante” de Neal Stephenson, en la que hay un dispositivo conocido como “manual ilustrado”, que es una especie de dispositivo de inteligencia artificial que actúa como tu mentor y tu maestro a lo largo de la vida. Y entonces, cuando naces, estás emparejado con una IA que, esencialmente, te conoce muy bien, aprende tus preferencias, te sigue durante toda la vida, te ayuda a tomar decisiones y te guía en la dirección correcta. Así que existe un futuro de ciencia ficción… en el que se podría construir una IA, pero no se querría que estuviera controlada por un gigante tecnológico monopolista. Porque esa posición le otorgaría a esa empresa un gran control, y existen todas estas cuestiones de privacidad y soberanía, y se querría tener cierto control sobre ella. ¿Y qué pasa si la empresa desaparece, cambia las reglas o los precios? Sería fantástico poder crear una IA que pudiera funcionar durante muchísimo tiempo y llegar a conocerte a lo largo de tu vida, pero que fuera realmente tuya. Y entonces existe esta visión en la que se podría hacer eso con una cadena de bloques: se podría integrar una IA dentro de un contrato inteligente. Y con el poder de las pruebas de conocimiento cero, también podrá mantener sus datos privados. Y luego, con el paso de las décadas, esta IA puede volverse más inteligente y ayudarte, y entonces tendrás la opción de hacer lo que quieras con ella. O modificarla como quieras; o desactivarla. Y esa es una visión interesante para las IA de largo plazo que están en continua evolución y cada vez son mejores: sería mejor si no estuvieran controladas por una única empresa centralizada. Claro: es una idea muy de ciencia ficción, porque conlleva muchos problemas, incluyendo los de verificación y los de mantener la privacidad de los datos mediante criptografía y, a la vez, poder realizar cálculos sobre ellos, quizás con cifrado totalmente homomórfico. <Sonal: mhm> Todos estos problemas siguen pendientes, pero no es algo inconcebible. Dan: ¡Guau! ¡Me encanta la visión de Ali! Sonal: A mí también me encanta, especialmente teniendo en cuenta esa cita (creo que era de Asimov) de que la ciencia ficción de hoy es la ciencia factual del mañana. Ali, sé que tienes un meta-marco para pensar acerca de todo esto que te he escuchado compartir antes, ¿puedes compartirlo ahora también? Ali: Sí, existe una narrativa más amplia que existe desde hace bastante tiempo y que ahora se está acentuando mucho más con el desarrollo de cosas como los LLM. Sonal: En realidad, define eso muy rápido, Ali, solo para los oyentes que aún no están familiarizados, solo como contexto. Ali: LLM significa "modelo de lenguaje grande" y utiliza parte de la tecnología que se desarrolló en Google en 2017. Existe este famoso artículo conocido como "La atención es todo lo que necesitas" (ese era el título del artículo) y describía lo que ahora se conoce como transformadores, y esa es la base, básicamente, de algunos de los nuevos modelos que la gente ha estado entrenando en estos días, incluido ChatGPT, etc. Todos estos son modelos de lenguaje grandes o LLM. <Sonal: ¡mmm!> #BTC Había una famosa frase, creo (2018), de Peter Thiel: «La IA es comunista y las criptomonedas son libertarias»… Es muy acertada, de hecho, porque la IA y las criptomonedas, en muchos sentidos, se contrapesan naturalmente. <Sonal: ¿Ajá?> Y quizá podamos profundizar en cada uno de estos ejemplos a lo largo del podcast, <Sonal: Sí>. Pero hay cuatro aspectos principales en los que esto es cierto: [1] La primera es que la IA es una tecnología que prospera y permite un control centralizado de arriba a abajo, mientras que la criptografía se basa en la cooperación descentralizada de abajo a arriba. De hecho, en muchos sentidos, se puede pensar en la criptografía como el estudio de la construcción de sistemas descentralizados que permiten la cooperación humana a gran escala, donde no existe un punto central de control. Y esa es una forma natural en la que estas dos tecnologías se contrapesan entre sí. [2] Otra es que la IA es una innovación sostenible, ya que refuerza los modelos de negocio de las empresas tecnológicas existentes <Sonal: mhm>, ya que les ayuda a tomar decisiones desde arriba. Y el mejor ejemplo de esto sería que Google pudiera decidir exactamente qué anuncio mostrar a cada uno de sus usuarios entre miles de millones de usuarios y miles de millones de páginas vistas. Mientras que las criptomonedas son, en realidad, una innovación fundamentalmente disruptiva, ya que su modelo de negocio es fundamentalmente contrario al de las grandes tecnológicas. Por lo tanto, es un movimiento liderado por rebeldes/por los sectores marginales, en lugar de estar liderado por las empresas establecidas. <Sonal: mhm> Así que esa es la segunda. [3] La tercera es que la IA probablemente se relacionará e interactuará mucho con todas las tendencias hacia la privacidad… Porque la IA, como tecnología, ha incorporado todo tipo de incentivos que nos llevan hacia una menor privacidad individual, ya que tendremos empresas que querrán acceder a todos nuestros datos; y los modelos de IA que se entrenan con cada vez más datos serán cada vez más eficaces. Por lo tanto, creo que esto nos lleva por el camino del panóptico de la IA, donde simplemente se agregan los datos de todos para entrenar estos enormes modelos y optimizarlos al máximo. Mientras que las criptomonedas nos llevan hacia la dirección opuesta, que es una dirección de mayor privacidad individual. Es una dirección de mayor soberanía, <Sonal: mhm> donde los usuarios tienen control sobre sus propios datos. Y creo que estas dos tendencias serán muy importantes. Y esta es otra forma importante en que las criptomonedas actúan como contrapeso para la IA. (4) Y tal vez la última tenga que ver con esta última tendencia en IA: el hecho de que la IA es ahora claramente una tecnología poderosa para generar nuevo arte; ahora es una herramienta creativa <Sonal: ¡mm! totalmente>, que nos llevará a una abundancia infinita de medios, a una creatividad infinita en muchos sentidos. Y la criptografía es un contrapeso a eso porque nos ayuda a analizar toda la abundancia, al ayudarnos a distinguir lo creado por humanos de lo creado por IA. Y la criptografía será esencial para mantener y preservar lo verdaderamente humano en un mundo donde mil veces más contenido <Sonal: correcto> se genera artificialmente. Así que todas estas son cosas de las que podemos hablar, pero creo que existe esta metanarrativa importante; y estas dos tecnologías son diametralmente opuestas, en muchos aspectos. Dan: Entonces, tal vez Ali, para agregar a eso, este es un resumen maravilloso, y también diría que hay muchas áreas en las que las técnicas de IA están teniendo un impacto en las cadenas de bloques; y viceversa, <mhm> donde las técnicas de cadenas de bloques están teniendo un impacto en la IA. Daré una respuesta breve aquí porque vamos a profundizar en los detalles en solo un minuto; pero hay muchos puntos de intersección: supongo que hablaremos sobre las aplicaciones del conocimiento cero para el aprendizaje automático en solo un minuto… Pero también quiero abordar todas estas aplicaciones donde el aprendizaje automático puede usarse para escribir código. Por ejemplo, el aprendizaje automático puede usarse para escribir código de Solidity que se contrae. Puede usarse para detectar posibles errores en el código, etc. Existen puntos de intersección donde el aprendizaje automático puede usarse para generar falsificaciones profundas y las cadenas de bloques pueden ayudar a proteger contra ellas. Por lo tanto, supongo que abordaremos todos estos puntos, pero lo interesante es que existe una gran intersección entre las cadenas de bloques y el aprendizaje automático. Sonal: Sí, antes de profundizar en eso, Dan, tengo una pregunta: ¿estás de acuerdo? Entiendo perfectamente el punto de vista de Ali: la IA y las criptomonedas son complementos naturales, o contrapesos, o pueden ser fuerzas diferentes que se controlan y equilibran mutuamente... Pero, ¿crees que esto es una cualidad inherente a la IA y las criptomonedas? ¿O es simplemente un artefacto de cómo se hacen las cosas actualmente? ¿Con qué aspectos estarías de acuerdo o en desacuerdo? Dan: Sí; así que diría que, si lo miras desde lejos… las técnicas que se usan en IA parecen muy diferentes a las que se usan en las cadenas de bloques, ¿verdad? Las cadenas de bloques se centran en la criptografía, la descentralización, las finanzas, la economía, etc. Mientras que la #IA se centra en la estadística, las matemáticas del aprendizaje automático, etc., se centra en el big data. Las técnicas, en realidad, parecen bastante diferentes. <Sonal: mhm>, pero en realidad hay muchos aspectos en los que una parte puede ayudar a la otra <mhm> y viceversa. Quizás el primero para empezar sea el más obvio y que ha estado en la mente de muchos: las aplicaciones del conocimiento cero para el aprendizaje automático . Se trata de un área emergente llamada zkML . Y su interés se debe a que las técnicas de conocimiento cero han mejorado drásticamente gracias a su aplicación en las cadenas de bloques. Lo que ha sucedido en los últimos 10 años es increíble; algo que no vemos muy a menudo: esta idea de las pruebas de conocimiento cero, y los sistemas de pruebas en general, se consideraban muy teóricos hace una década. Y debido a todas sus aplicaciones en las cadenas de bloques, de repente se despertó un gran esfuerzo para hacerlas más prácticas y realistas. Como resultado, se ha logrado un progreso tremendo (como saben nuestros oyentes), y ahora estas herramientas se implementan y se utilizan para proteger sistemas reales. Entonces, la pregunta es: ¿se pueden usar técnicas de conocimiento cero para impulsar el aprendizaje automático? Hay un par de ejemplos (honestamente, podríamos dedicar todo el podcast solo a zkML), pero quizás pueda dar una muestra, uno o dos ejemplos donde ZK es útil para el aprendizaje automático. Imaginemos que Alice tiene un modelo secreto al que dedicó mucho tiempo para entrenar, y que es muy importante para ella. Es fundamental que la gente no sepa cómo funciona. Pero aun así, quiere poder atender las solicitudes de Bob, ¿verdad? Bob quiere enviarle datos, ella aplicaría el modelo a los datos y le enviaría el resultado. Bob no tiene ni idea de si está obteniendo los resultados correctos con el modelo, ¿verdad? Quizás pagó por un modelo específico y quiere asegurarse de que Alice realmente lo esté usando, ¿verdad? Quizás pagó por GPT-4 y quiere asegurarse de que Alice realmente esté usando GPT-4, y no GPT-3. Resulta que las técnicas ZK pueden ser muy útiles en este caso. Alice se comprometería con su modelo y lo haría público. Y luego, cada vez que Bob enviara datos, Alice podría ejecutar el modelo con ellos y enviarle los resultados, junto con la prueba de que el modelo se evaluó correctamente. Así, Bob tendría la garantía de que el modelo comprometido es el mismo que se ejecutó con sus datos. ¿Sí? Este es un ejemplo de cómo las técnicas ZK pueden ser útiles en el aprendizaje automático. Y quiero enfatizar por qué esto es tan importante: <Sonal: ¡Sí!> Veamos un ejemplo: Supongamos que tenemos una función, un modelo que realmente se usa para afectar la vida de las personas. Imaginen, por ejemplo, que usamos un modelo para decidir si otorgamos un préstamo o una hipoteca; una institución financiera podría querer usar un modelo similar. Queremos asegurarnos de que el mismo modelo se aplique a todos, ¿no? No es que se me aplique un modelo a mí <Sonal: sí> y a ti otro <Sonal: cierto>. Básicamente, al hacer que el banco se comprometa con el modelo, ¿no?; y así todos pueden verificar que sus datos son evaluados por el mismo modelo comprometido <mmm>, podemos asegurarnos de que se aplique el mismo modelo a todos. Debo decir que aquí hay un problema abierto: aunque las técnicas de conocimiento cero pueden garantizar que se aplique el mismo modelo a todos, surge la pregunta: ¿es justo el modelo? Los modelos pueden tener sesgos y generar resultados injustos. Por lo tanto, existe toda una área de investigación llamada equidad algorítmica; existen muchísimos artículos sobre equidad algorítmica, y es realmente interesante preguntarse: ahora que tenemos un modelo establecido, ¿podemos demostrar, en conocimiento cero, que el modelo cumple con alguna definición de equidad del área de equidad algorítmica? ¿Y cómo nos aseguramos de que el proceso de capacitación se ejecute correctamente? Ali: Bueno, todo lo que dijiste sobre #zkml es sumamente emocionante. Y, como tecnología, creo que contribuirá a que el aprendizaje automático, y la IA en general, sean más transparentes y confiables, tanto dentro como fuera del contexto de las criptomonedas. Creo que una aplicación aún más ambiciosa, y quizás a largo plazo, de ZKML —y de algunas otras técnicas de verificación en las que la comunidad criptográfica ha estado trabajando<mhm>— es simplemente descentralizar la IA en general. Como ya comentamos, la IA es una tecnología casi intrínsecamente centralizadora, ya que se nutre de factores como los efectos de escala, ya que tener todo dentro de un centro de datos lo hace más eficiente. Por lo tanto, escalar todo de forma centralizada lo hace más potente y, como resultado, más centralizado. Además, los datos suelen estar controlados por un pequeño número de empresas tecnológicas intermedias. Esto también conlleva una mayor centralización. Y finalmente: los modelos de aprendizaje automático y el talento en aprendizaje automático, también controlados por un pequeño número de actores. Y las criptomonedas pueden volver a ayudar en este frente desarrollando tecnología que utilice cosas como ZKML que puedan ayudarnos a descentralizar la IA. Así que hay tres aspectos principales que intervienen en la IA: el aspecto computacional , que requiere un uso a gran escala de GPU (generalmente en centros de datos); el aspecto de los datos , que, repito, la mayoría de las empresas centralizadas controlan; y los propios modelos de aprendizaje automático . <Sonal: sí> Y la más sencilla podría ser la del cálculo. ¿Es posible descentralizar el cálculo para el entrenamiento y la inferencia de modelos de aprendizaje automático? Aquí es donde entran en juego algunas de las técnicas que Dan mencionaba, como las pruebas de conocimiento cero, que permiten demostrar que el proceso de inferencia o entrenamiento de un modelo se realizó correctamente, lo que permite externalizarlo a una gran comunidad. Se puede tener un proceso distribuido mediante el cual cualquiera con una GPU puede contribuir con el cálculo a la red y entrenar un modelo de esa manera, sin tener que depender necesariamente de un centro de datos masivo con todas las GPU centralizadas. Y aún queda la gran duda de si esto tendrá sentido económicamente... Pero al menos, con los incentivos adecuados, se puede aprovechar la larga cola: se puede aprovechar toda la capacidad de GPU inactiva que pueda existir; hacer que todas esas personas contribuyan con ese cálculo al entrenamiento de un modelo o a la ejecución de la inferencia; y ofrecer una alternativa a lo que, de otro modo, serían solo las grandes empresas tecnológicas intermedias las que actualmente lo controlan todo. <Sonal: ¡Mmm!> Hay todo tipo de problemas técnicos importantes que tendrían que resolverse para que eso fuera posible. De hecho, existe una empresa en este sector llamada Gensyn que está desarrollando precisamente esto. Están creando un mercado descentralizado para computación en GPU, principalmente con el propósito de entrenar modelos de aprendizaje automático. Es un mercado donde cualquiera puede contribuir con su computación en GPU, ya sea en su computadora personal debajo de su escritorio o inactiva en un centro de datos. Y, por otro lado, cualquiera puede aprovechar la computación disponible en la red para entrenar sus grandes modelos de aprendizaje automático. Esto sería una alternativa a la alternativa centralizada, tipo OpenAI/Google/Meta/todos —ya sabes, inserta tu gran empresa tecnológica favorita aquí <Sonal: ¡Sí! (risas)—, que actualmente tendrías que adoptar. Sonal: Bueno, antes de profundizar en este marco de descentralización, Ali, estabas desglosando la computación y creo que ibas a compartir los otros dos de esos tres pilares. Pero antes… ambos hablaron un poco sobre los desafíos técnicos. ¿Cuáles son algunos de los desafíos técnicos que deben superarse y que la gente podría estar resolviendo ya? (Quiero que los desarrolladores que escuchen este episodio también reflexionen sobre las oportunidades en este espacio y cómo pueden abordar los desafíos existentes; o cuáles son algunos de los desafíos que enfrentarán al desarrollar soluciones). Dan: Sí, entonces tal vez pueda mencionar dos que creo que serían interesantes para la gente. [1] Básicamente, imaginemos que Alice tiene un modelo que quiere proteger. Quiere enviarlo cifrado a otra persona, por ejemplo, a Bob. Bob recibe un modelo cifrado y necesita poder ejecutar sus datos en él. ¿Cómo se hace eso? Si se tienen datos que se quieren ejecutar en un modelo, pero solo se cuenta con el cifrado del modelo, ¿cómo se logra? Y eso es algo para lo que usaríamos lo que se llama cifrado totalmente homomórfico. <Sonal: Sí. (FHE).> Es un cifrado totalmente homomórfico, una herramienta notable que permite realizar cálculos con datos cifrados. Es un poco increíble que esto sea posible, pero se puede tener un modelo cifrado y datos de texto sin cifrar, y ejecutar el modelo cifrado sobre estos datos y obtener un resultado cifrado. Se le enviaría el resultado cifrado a Alice, quien podría descifrarlo y verlo en texto sin cifrar. Así que esto es algo que ya existe... de hecho, existe bastante demanda en la práctica; <Sonal: sí> no requiere mucho esfuerzo ver que el Departamento de Defensa está interesado en esto. Hay muchas otras aplicaciones donde se puede enviar un modelo cifrado a un tercero; este ejecutaría el modelo cifrado en sus datos; te enviaría los resultados; puedes descifrar y obtener información sobre los datos que se ingresaron como entrada del modelo cifrado. La pregunta, claro, es cómo lo escalamos. Ahora mismo funciona bien para modelos medianos… y la pregunta es, ¿podemos escalarlo a modelos mucho más grandes? Así que es todo un reto: un par de startups en el sector, y, repito, una tecnología muy, muy interesante; es increíble que esto sea posible. <Sonal: Sí… de verdad> Y probablemente veremos mucho más de esto en el futuro. [2] La otra área es en realidad la que mencionó Ali, otra área muy importante, que es: ¿cómo sabemos que el modelo fue entrenado correctamente? Entonces, si envío mis datos a alguien y le pido que entrene un modelo con ellos, o que lo ajuste, ¿cómo sé que lo hicieron correctamente? Es cierto, podrían devolverme un modelo, pero ¿cómo sé que no tiene puertas traseras? De hecho, se ha investigado bastante para demostrar que, si el entrenamiento se realiza incorrectamente, podría devolver un modelo que funcionaría correctamente con todos los datos de prueba, pero que tiene una puerta trasera, lo que significa que fallaría catastróficamente con una entrada específica. Esto es posible si el proceso de entrenamiento no está verificado. Y, de nuevo, este es un área donde ZKML entra en juego: Podemos demostrarles que el entrenamiento se ejecutó correctamente; o quizás existan otras técnicas para demostrarlo. Pero, de nuevo, esta es otra área —un área de investigación muy activa— y animaría a muchos de los oyentes a que se trate de un problema muy complejo: demostrar que el entrenamiento se realizó correctamente; demostrar que los datos de entrenamiento se recopilaron y filtraron correctamente, etc. De hecho, es un área maravillosa en la que ingresar si las personas buscan realizar más trabajos en ese espacio. Sonal: ¡Genial! Ali, ¿qué más añadirías? Ali: Sí, definitivamente. Bueno, supongo que si seguimos hablando de lo que se necesitaría para descentralizar la pila de IA, creo que para descentralizar el componente computacional —y estos son tres componentes importantes—, si quisiéramos descentralizar el componente computacional, hay dos desafíos técnicos muy importantes que aún no se han resuelto. El primero es el problema de la verificación (que Dan acaba de mencionar) <Sonal: mhm>, para el cual se podría usar ZKML. Idealmente, con el tiempo se podrían usar pruebas de conocimiento cero para demostrar que el trabajo real —que las personas que contribuyen a esta red— se realizó correctamente. El desafío radica en que el rendimiento de estas primitivas criptográficas está lejos de alcanzar el nivel necesario para entrenar o inferir modelos muy grandes. Por lo tanto, los modelos actuales, como los LLM que todos conocemos y apreciamos (como ChatGPT), no serían demostrables con el estado actual de ZKML. Por lo tanto, se está trabajando mucho para mejorar el rendimiento del proceso de demostración, de modo que se puedan demostrar cargas de trabajo cada vez mayores de forma eficiente. Pero ese es un problema abierto, y algo <Sonal: sí> en lo que mucha gente está trabajando. Mientras tanto, empresas como Gensyn utilizan otras técnicas que no son solo criptográficas, sino que se basan en la teoría de juegos. En ellas, se recluta a un mayor número de personas independientes para realizar el trabajo y se comparan sus resultados para garantizar que se realicen correctamente. <Sonal: ¡Qué interesante!> Se trata de un enfoque más optimista y basado en la teoría de juegos que no se basa en la criptografía, pero que se alinea con el objetivo principal de descentralizar la IA o ayudar a crear un ecosistema para la IA mucho más orgánico, comunitario y de abajo a arriba, a diferencia del enfoque de arriba a abajo que proponen empresas como OpenAI. Así que ese es el primer problema; el primer gran problema es el problema de la verificación. Y el segundo gran problema es el de los sistemas distribuidos: ¿cómo se coordina realmente una gran comunidad de personas que contribuyen con GPU a una red de tal manera que todo parezca un sustrato integrado y unificado para el cálculo? <Sonal: yup> Y habrá muchos desafíos interesantes, como: estamos fragmentando la carga de trabajo de aprendizaje automático de forma lógica; distribuyendo diferentes partes a distintos nodos de la red; descubriendo cómo hacerlo todo de forma eficiente; y, cuando los nodos fallan, descubriendo cómo recuperarse y asignando nuevos nodos para que se encarguen del trabajo realizado por el nodo que falló. Por lo tanto, existen muchos detalles complejos a nivel de sistemas distribuidos que las empresas deberán resolver para ofrecernos esta red descentralizada que pueda ejecutar cargas de trabajo de aprendizaje automático de una forma quizás incluso más económica que usar la nube. Sonal: Sí… Eso es genial. Dan: …Sí, y es totalmente cierto que las técnicas ZK actuales manejarán los modelos más pequeños que se utilizan, pero definitivamente los LLM son probablemente demasiado grandes para que estas técnicas los manejen hoy, las técnicas ZK; pero, sabes que están mejorando constantemente, el hardware está mejorando, así que con suerte se pondrán al día. Sonal: Sí; antes de continuar, ¿podemos hacer una comprobación de pulso realmente clara sobre dónde estamos exactamente en eso? Obviamente, lo que les escucho decir es que hay tremendas aplicaciones en la intersección de la computación general verificable, que las cadenas de bloques y las criptomonedas definitivamente han estado avanzando y acelerando significativamente toda esa área (hemos estado cubriendo mucho de eso nosotros mismos: si miran nuestro canon ZK y la categoría de conocimiento cero, verán mucho de esto cubierto allí). Pero, ¿dónde nos encontramos exactamente ahora en cuanto a lo que pueden hacer? Porque ustedes hablaron mucho sobre lo que aún no pueden hacer y la oportunidad que les brinda, lo cual es emocionante; pero ¿dónde nos encontramos ahora mismo? ¿Qué pueden hacer realmente? Dan: Sí. Ahora mismo, básicamente pueden clasificar modelos medianos. No algo tan grande como GPT-3 o 4, sino modelos medianos. <sí> Es posible demostrar que la clasificación se realizó correctamente. El entrenamiento probablemente esté más allá de lo que se puede hacer ahora mismo, simplemente porque requiere muchísimos recursos computacionales <Sonal: cierto> que para los sistemas de prueba aún no hemos llegado a ese punto. Pero como dijo Ali, tenemos otras maneras de hacerlo. Por ejemplo, podemos hacer que varias personas realicen el entrenamiento y luego comparar los resultados. ¿Sí? Así que ahora hay incentivos de teoría de juegos para que la gente no haga trampa. Si alguien hace trampa, alguien más podría quejarse de que calculó mal el entrenamiento, y entonces quien haya hecho trampa no recibirá compensación por su esfuerzo. <Sonal: Sí, sí, sí> Así que hay un incentivo para que la gente realmente realice el entrenamiento como se suponía que debía realizarse. Sonal: Correcto. Y básicamente, no es una fase híbrida, sino que se trata de enfoques alternativos hasta que se alcance una mayor escalabilidad y el rendimiento alcance el nivel necesario. Dan: Sí; diría que para algunos modelos, la clasificación se puede demostrar hoy en día con conocimiento cero. Para el entrenamiento actual, debemos confiar en técnicas optimistas. Sonal: Sí, genial. Entonces, Ali, mencionaste que la computación es una de las tres puntas, y también mencionaste que los datos y luego los modelos para el aprendizaje automático en sí mismos: ¿quieres abordar ahora los datos y las oportunidades y desafíos que hay allí (en lo que respecta a la intersección cripto/IA)? Ali: Sí, absolutamente. Por lo tanto, creo que existe la oportunidad, aunque los problemas involucrados son muy complejos, de descentralizar el proceso de obtención de datos para el entrenamiento de grandes modelos de aprendizaje automático <mhm> desde una comunidad más amplia. De nuevo, en lugar de tener un único actor centralizado, simplemente recopilar todos los datos <yah> y luego entrenar los modelos. Y esto podría funcionar creando un tipo de mercado similar al que acabamos de describir para la computación, pero incentivando a las personas a contribuir con nuevos datos a un gran conjunto de datos que luego se utiliza para entrenar un modelo. La dificultad con esto es similar, ya que existe un desafío de verificación: hay que verificar de alguna manera que los datos que aportan las personas sean realmente buenos <Sonal: ¡sí!> y que no sean datos duplicados ni basura generados aleatoriamente o que no sean reales. Y también hay que asegurarse de que los datos no alteren el modelo (algún tipo de ataque de envenenamiento) donde el modelo se vuelva vulnerable o simplemente menos bueno o tenga un rendimiento inferior al anterior. Entonces, ¿cómo se verifica que esto sea así? Y ese es quizás un problema complejo que la comunidad debe resolver. Podría ser imposible de resolver por completo, y podría ser necesario recurrir a una combinación de soluciones tecnológicas y sociales, donde también se cuenta con algún tipo de métrica de reputación. Los miembros de la comunidad pueden ganar credibilidad, de modo que cuando aportan datos, estos se vuelvan más confiables de lo que serían de otra manera. Pero lo que esto podría permitirle hacer es que ahora puede cubrir verdaderamente la cola muy larga de la distribución de datos. Y uno de los aspectos más desafiantes del aprendizaje automático es que la calidad de un modelo depende de la cobertura de la distribución que el conjunto de datos de entrenamiento pueda alcanzar. Si existen entradas que se alejan mucho de la distribución de los datos de entrenamiento, el modelo podría comportarse de forma completamente impredecible. Para que el modelo funcione correctamente en casos extremos (y en los casos de cisne negro o entradas de datos que se pueden encontrar en el mundo real), es fundamental que el conjunto de datos sea lo más completo posible. Así pues: si existiera este tipo de mercado abierto y descentralizado para la contribución de datos a un conjunto de datos, cualquiera con datos únicos en el mundo podría contribuir a la red… Lo cual es una mejor manera de hacerlo, ya que si se intenta hacerlo desde una empresa central, no hay forma de saber quién tiene esos datos. Por lo tanto, si se incentiva a esas personas a que se presenten y proporcionen esos datos por iniciativa propia, creo que se puede lograr una cobertura mucho mejor de la cola larga. Como hemos visto, el rendimiento de los modelos de aprendizaje automático continúa mejorando a medida que crece el conjunto de datos y la diversidad de sus puntos de datos. Esto puede potenciar aún más el rendimiento de nuestros modelos de aprendizaje automático; podemos obtener conjuntos de datos aún más completos que abarcan a toda la comunidad. Dan: Bueno, déjame darle la vuelta a esto en ese eh... Sonal: ¡Oooh, adelante, Dan! Dan: …Si vamos a incentivar a la gente a contribuir con datos, básicamente vamos a incentivarla a crear datos falsos <Sonal: ¡Sí!> para que les paguen. ¿Sí? Así que tenemos que tener algún tipo de mecanismo para asegurarnos de que los datos que aportas sean auténticos. <Ali: Exactamente> Y puedes imaginar un par de maneras de hacerlo, ¿verdad? Una forma es confiar en hardware confiable. <Sonal: mhm>: Quizás los sensores estén integrados en un hardware confiable, al que solo confiaríamos en datos debidamente firmados por él. Esa es una forma de hacerlo. De lo contrario, tendríamos que tener algún otro mecanismo mediante el cual podamos saber si los datos son auténticos o no. Ali: Estoy completamente de acuerdo. Ese sería el mayor problema abierto a resolver... Y creo que a medida que mejora la evaluación comparativa de los modelos de aprendizaje automático, creo que hay dos tendencias importantes en el aprendizaje automático en este momento <Sonal: yah> – [1] Se está mejorando la medición del rendimiento de un modelo de aprendizaje automático. En el caso de los LLM, esto aún está en sus primeras etapas y, de hecho, es bastante difícil determinar su calidad. Porque no se trata de un clasificador donde el rendimiento de un modelo esté claramente definido. Con un LLM, es casi como evaluar la inteligencia de un humano. ¿Verdad? <Sonal: ¡mhm!> Encontrar la forma correcta de evaluar la inteligencia de un LLM como #chatgpt es un área de investigación abierta. Pero con el tiempo, creo que mejorará cada vez más. [2] Y la otra tendencia es que cada vez somos más capaces de explicar cómo funciona un modelo. Y con ambas cosas, en algún momento, podría ser posible comprender el efecto que un conjunto de datos tiene en el rendimiento de un modelo de aprendizaje automático. <Sonal: sí> Y si podemos comprender bien si un conjunto de datos aportado por un tercero ayudó o no al rendimiento del modelo de aprendizaje automático, entonces podemos recompensar esa contribución y crear el incentivo para que exista ese mercado. Sonal: Entonces, para resumir hasta ahora, lo que les escuché decir es que… Existe hardware confiable que puede ayudar a verificar la precisión de los datos y los modelos que se aportan;Ali, mencionaste brevemente las métricas de reputación y ese tipo de cosas pueden ayudar;También mencionaste que podría haber una manera (no necesariamente ahora, pero en algún momento en el futuro cercano) de verificar cómo los datos influyen en los resultados de un modelo en particular para que realmente puedas... no es del todo explicable, pero la idea es que realmente puedas atribuir que este conjunto de datos causó este efecto particular. Así que hay una variedad de técnicas diferentes que habéis compartido hasta ahora. Ali: Bueno, lo último es que podrías hacer lo mismo para el tercer aspecto, que son los modelos. Imagina crear un mercado abierto para que las personas aporten un modelo entrenado capaz de resolver un problema específico. Imagina crear en Ethereum un contrato inteligente que integre algún tipo de prueba, ya sea una prueba cognitiva que un LLM pueda resolver o una prueba de clasificación que un clasificador de aprendizaje automático (AAP) pueda resolver. Y si se utiliza ZKML, alguien podría proporcionar un modelo junto con una prueba de que ese modelo puede resolver esa prueba; entonces, nuevamente, usted tiene las herramientas que necesita para crear un mercado que incentive a las personas a contribuir con modelos de aprendizaje automático que puedan resolver ciertos problemas. Muchos de los problemas que hemos discutido, los problemas pendientes que hemos discutido, sobre cómo lograrlo también están presentes aquí... En particular, hay una parte de ZKML donde se debe poder demostrar que el modelo realmente realiza el trabajo que afirma realizar. Además, necesitamos tener buenas pruebas para evaluar la calidad de un modelo. Así que poder integrar una prueba dentro de un contrato inteligente para luego someter un modelo de aprendizaje automático a una evaluación de su calidad. Esta es otra parte muy emergente de toda esta tendencia tecnológica. Pero en teoría, sería fantástico si finalmente llegáramos a un mundo donde tuviéramos estos mercados muy abiertos, de abajo hacia arriba y transparentes que permitan a las personas contribuir y obtener modelos de computación, datos y aprendizaje automático para el aprendizaje automático, que esencialmente actúen nuevamente como un contrapeso a las enormes y muy centralizadas empresas tecnológicas que impulsan todo el trabajo de IA en la actualidad. Sonal: Me encanta cómo lo mencionaste, Ali, porque ha sido un problema de larga data en la IA en la práctica: puede resolver muchos problemas, como la curva de campana, la parte media de la norma, pero no los extremos. Un ejemplo clásico de esto son los coches autónomos. Se puede hacer todo con ciertos comportamientos estándar, pero son los casos extremos donde pueden ocurrir los verdaderos accidentes y las catástrofes. <Ali: Cierto> Eso fue muy útil. Sé que hablaste sobre la alineación de incentivos y los incentivos para proporcionar datos precisos y de calidad, e incluso incentivos para contribuir con cualquier dato en general. Pero hablando de la cola larga, me surgió una pregunta rápida mientras hablabas. Esto me lleva a preguntarme quién gana dinero y dónde en este sistema. No pude evitar preguntarme, ¿cómo influye entonces el modelo de negocio en la rentabilidad de las empresas? Siempre he entendido que, en la cola larga de la IA (en un mundo con este tipo de conjuntos de datos disponibles), tus datos propietarios son, en realidad, tu conocimiento único del dominio, algo que solo tú conoces en esa cola larga. ¿Tienes alguna respuesta rápida? Ali: Creo que la visión tras la intersección de las criptomonedas con la IA es que se podría crear un conjunto de protocolos que distribuyan el valor que eventualmente capturará esta nueva tecnología, la IA, entre un grupo mucho más amplio de personas. Esencialmente, una comunidad de personas, todas las cuales pueden contribuir y participar de las ventajas de esta nueva tecnología. <Sonal: mhm> Entonces, las personas que ganarían dinero serían las que contribuyen con el procesamiento, o las que contribuyen con datos, o las que contribuyen con nuevos modelos de aprendizaje automático a la red, de modo que se puedan entrenar mejores modelos de aprendizaje automático y se puedan resolver problemas mejores, más grandes y más importantes. Las otras personas que generarían ingresos al mismo tiempo son quienes, por otro lado, están en el lado de la demanda de esta red: quienes la utilizan como infraestructura para entrenar sus propios modelos de aprendizaje automático. <Sonal: sí> Quizás su modelo genere algo interesante en el mundo, tal vez sea como la próxima generación de ChatGPT. Y luego eso se abra camino hacia diversas aplicaciones, como aplicaciones empresariales o cualquier otro uso que se les dé a esos modelos, y esos modelos impulsan la captura de valor por sí mismos, porque esas empresas tendrán su propio modelo de negocio. Finalmente, quienes también podrían generar ingresos son quienes construyen esta red. Por ejemplo: se crea un token para la red; este token se distribuirá a la comunidad; y todas esas personas tendrán propiedad colectiva sobre esta red descentralizada para datos y modelos computacionales que también podrían capturar parte del valor de toda la actividad económica que pasa por esta red. Así que, como pueden imaginar, cualquier pago por computación, datos o modelos <mhm> podría tener una comisión. Esta podría ir directamente a una tesorería controlada por esta red descentralizada, de la que todos los poseedores de tokens que forman parte tienen propiedad y acceso colectivos (como creadores y propietarios del mercado). Y esa tarifa podría ir directamente a la red. Así que, imagínense que cada transacción que pasa por esta red, cada forma de pago que paga por computación, datos o modelos, podría tener una tarifa que se le imponga y que vaya a una tesorería controlada por toda la red y por los poseedores de tokens que la poseen colectivamente. De modo que ese es esencialmente un modelo de negocio para la red en sí. Sonal: ¡Genial! Bien. Hasta ahora hemos hablado mucho sobre cómo las criptomonedas pueden ayudar a la IA. Para ser claros, no es unidireccional; estas cosas se refuerzan, son bidireccionales y más interactivas que unidireccionales. Pero, para el propósito de esta discusión, realmente estamos hablando de cómo las criptomonedas pueden ayudar a la IA; ahora vamos a darle la vuelta y hablar un poco más sobre las formas en que la IA puede ayudar a las criptomonedas. Dan: Sí, entonces hay un par de puntos de contacto interesantes allí. Un tema que realmente vale la pena mencionar es la idea de los modelos de aprendizaje automático que se utilizan para generar código. Muchos oyentes probablemente hayan oído hablar de Copilot, una herramienta que se utiliza para generar código. Y lo interesante es que se pueden intentar usar estas herramientas de generación de código para escribir contratos de Solidity o código criptográfico. Y quiero recalcar que esto es realmente algo muy peligroso de hacer. Sonal: ¡Ay! ¡No hagas esto en casa! ¡Vale! <risas> Dan: Sí. Sí. No intentes esto en casa. Porque lo que ocurre es que muy a menudo estos sistemas realmente generan código que funciona, ya sabe, cuando intenta ejecutarlo (y, como sabe, el cifrado es lo opuesto al descifrado, etc.), por lo que el código realmente funcionará, pero en realidad será inseguro. De hecho, hemos escrito un artículo sobre esto recientemente que muestra que si intentas que Copilot escriba algo tan simple como una función de cifrado, te dará algo que realiza el cifrado correctamente, pero utiliza un modo de operación incorrecto, por lo que terminarás con un modo de cifrado inseguro. De manera similar, si intentas generar código Solidity, podrías terminar con un código Solidity que funcione, pero tendrá vulnerabilidades. Quizás te preguntes, ¿por qué sucede esto? Una de las razones es que estos modelos se entrenan básicamente con código disponible, en repositorios de GitHub. Bueno, muchos de los repositorios de GitHub son vulnerables a todo tipo de ataques. Así que estos modelos aprenden sobre código que funciona, pero no sobre código seguro; es como si entrara basura, saliera basura, ¿no? <Sonal: ¡Mmm!> Así que quiero asegurarme de que las personas sean muy, muy cuidadosas, cuando usen estos modelos generativos para generar código, que verifiquen con mucho cuidado que el código realmente haga lo que se supone que debe hacer y que lo haga de manera segura. Ali: Una idea en ese frente (tengo curiosidad por saber lo que piensas al respecto) es que puedes usar modelos de IA como LLM (algo así como ChatGPT) para generar código, junto con otras herramientas para intentar hacer que el proceso sea menos propenso a errores. Y un ejemplo, una idea <oh> sería usar un LLM para generar una especificación para un sistema de verificación formal: Básicamente, describes tu programa en inglés; y le pides al LLM que genere una especificación para una herramienta de verificación formal; luego le pides a la misma instancia del LLM que genere el programa que cumple con esa especificación. <mm!> Y luego usas una herramienta de verificación formal para ver si el programa realmente cumple con la especificación. Si hay errores, la herramienta los detectará; estos errores pueden utilizarse como retroalimentación para el LLM. Idealmente, el LLM podrá revisar su trabajo y producir una nueva versión del código correcta. Y, finalmente, si se repite esto una y otra vez, se obtendrá un fragmento de código que, idealmente, cumple plenamente con la especificación y está formalmente verificado. Y como la especificación puede ser legible por un humano, puedes revisarla y ver que sí, este es el programa que quería escribir. Y esa puede ser una excelente manera de usar LLM para escribir código que, además, no sea tan propenso a errores como lo sería si simplemente le pidieras a ChatGPT que generara un contrato inteligente. Sonal: ¡Qué inteligente! Dan: Sí, esto es genial y, de hecho, nos lleva a otro tema que vale la pena discutir, que es básicamente el uso de LLM para encontrar errores. Supongamos que un programador escribe código en Solidity y ahora quiere comprobar si ese código es correcto y seguro. Como dijo Ali, puede usar el LLM para encontrar vulnerabilidades en ese código. Se ha trabajado mucho para evaluar la eficacia de los LLM para detectar errores en software, en los contratos inteligentes de Solidity y en C y C++. Hay un artículo que salió recientemente que es realmente muy relevante: es un artículo de la Universidad de Manchester <Sonal: mhm>, que dice que ejecutarías una herramienta de análisis estático estándar para encontrar errores en tu código; y encontraría todo tipo de errores de gestión de memoria o errores potenciales; solo una herramienta de análisis estático estándar; sin aprendizaje automático alguno. Pero entonces usarías un LLM para intentar corregir el código. ¿Sí? <Sonal: mm> <Ali: exactamente> Así que propone una solución al error automáticamente. Y luego volverías a ejecutar el analizador estático en el código corregido, <Ali: sí> y el analizador estático diría: «Oh, el error sigue ahí o no está ahí». Y seguirías iterando hasta que el analizador estático diga: «Sí, ahora el error se ha corregido y no hay más problemas». Así que fue un artículo bastante interesante; este artículo literalmente salió hace dos semanas. Sonal: Entonces, para ambos artículos que acabas de mencionar, Dan, el de la Universidad de Manchester y también el que escribieron recientemente sobre que no se confía en que los LLM escriban código correcto (podría ser código funcional, pero no necesariamente seguro), vincularé esos artículos en las notas del programa <Dan: genial> para que los oyentes puedan encontrarlos. Solo una pregunta rápida antes de continuar… En cuanto a la situación actual, ¿es una situación temporal o crees que llegará el momento en que se pueda confiar en que los LLM escriban código de contratos inteligentes correcto, no solo funcional, sino seguro ? ¿Es posible o está muy lejos? Dan: Esa es una pregunta difícil de responder. Sabes que estos modelos mejoran muchísimo cada semana, ¿verdad? <Sonal: Sí> Así que es posible que para el año que viene estos problemas ya estén solucionados y que se pueda confiar en ellos para escribir código más seguro. Supongo que lo que estamos diciendo ahora mismo es que, si se usan los modelos actuales (GPT-4, GPT-3, etc.) para generar código, hay que ser muy cuidadoso y verificar que el código que escribieron realmente cumpla su función y sea seguro. Sonal: Entendido. Ali: Y, por cierto, ¿llegaremos a un punto en el que el código generado por los LLM tenga menos probabilidades de contener errores que el generado por un humano? <Sonal: ¡Sí!> Y quizás esa sea una pregunta más importante, ¿no? Porque de la misma manera que nunca puedes decir que un coche autónomo nunca se estrellará, la verdadera pregunta que realmente importa es: ¿es menos probable que se estrelle que si fuera un conductor humano? <Sonal: Eso es exactamente correcto> Porque la verdad es que probablemente sea imposible garantizar que nunca habrá un accidente automovilístico causado por un coche autónomo, o que nunca habrá un error <Sonal: cierto> generado por un LLM al que le has pedido que escriba algún código. Y creo que, dicho sea de paso, esto se volverá cada vez más potente cuanto más se integre en las cadenas de herramientas existentes. Como ya comentamos, se puede integrar en cadenas de herramientas de verificación formal. Se puede integrar en otras herramientas, como la que describió Dan, que detecta problemas de gestión de memoria. También se puede integrar en cadenas de herramientas de pruebas unitarias y de integración. De esta manera, el LLM no actúa de forma aislada: recibe retroalimentación en tiempo real de otras herramientas que lo conectan con la realidad. Y creo que a través de la combinación de modelos de aprendizaje automático que son extremadamente grandes, entrenados con todos los datos del mundo, combinados con estas otras herramientas, en realidad podría crear programadores que sean bastante superiores a los programadores humanos. <mhm> E incluso si todavía pudieran cometer errores, podrían ser sobrehumanos. Y ese será un gran momento para el mundo de la ingeniería de software en general. Sonal: Sí. Qué buen encuadre, Ali… Entonces, ¿cuáles son algunas de las otras tendencias que se avecinan y en las que la IA puede ayudar a las criptomonedas, y viceversa? Ali: Sí… Una posibilidad emocionante en este espacio es que podamos construir redes sociales descentralizadas que en realidad se comporten de forma muy similar a Twitter, pero donde el gráfico social esté completamente en cadena y sea casi como un bien público sobre el cual cualquiera pueda construir. Como usuario, controlas tu propia identidad en el gráfico social. Controlas tus datos, a quién sigues y quién puede seguirte. Existe todo un ecosistema de empresas que crean portales en el gráfico social que ofrecen a los usuarios experiencias similares a las de Twitter, Instagram, TikTok o cualquier otra plataforma que deseen desarrollar. Pero todo esto está encima de este mismo gráfico social <Sonal: yah> que nadie posee y que no hay ninguna empresa tecnológica de mil millones de dólares en el medio que tenga control total sobre él y que pueda decidir lo que sucede en él. Y ese mundo es emocionante porque significa que puede ser mucho más dinámico; puede existir todo un ecosistema de personas creando cosas y cada usuario tiene mucho más control sobre lo que ve y lo que puede hacer en la plataforma. Pero también existe la necesidad de filtrar la señal del ruido. Y, por ejemplo, la necesidad de crear algoritmos de recomendación sensatos que filtren todo el contenido y te muestren el canal de noticias que realmente quieres ver. Esto abrirá la puerta a todo un mercado, un entorno competitivo, de participantes que te proporcionarán algoritmos basados ​​en IA que seleccionan contenido para ti. Como usuario, podrías tener una opción: puedes optar por un algoritmo en particular, tal vez el desarrollado por Twitter, o por uno desarrollado por alguien completamente diferente. Y ese tipo de autonomía será genial, pero, de nuevo, vas a necesitar herramientas como el aprendizaje automático y la IA para ayudarte a filtrar el ruido y analizar todo el spam que inevitablemente existirá en un mundo donde los modelos generativos pueden crear todo el spam del mundo. Sonal: Lo interesante de lo que dijiste también es que ni siquiera se trata de elegir entre... Se remonta a esta idea que mencionaste antes, y mencionaste esto brevemente sobre simplemente dar a los usuarios las opciones para elegir entre mercados de ideas y enfoques gratuitos que puedan decidir... Pero también es interesante porque no se trata solo de empresas, sino de qué enfoque te funciona. Quizás te interese más el algoritmo de filtrado colaborativo que existía en los sistemas de recomendación originales, que funciona como un filtrado colaborativo entre personas. <Ali: sí> Así que las recomendaciones de tus amigos son lo que sigues. De hecho, personalmente soy muy diferente y estoy mucho más interesado en un gráfico de intereses; y por lo tanto, podría estar mucho más interesado en personas que tienen intereses similares a los míos, y podría elegir ese enfoque en lugar de, digamos, algo más que sea algo así como, oye, este es un enfoque híbrido, lo único que va a hacer es XY y Z. El simple hecho de poder elegir ya es tremendamente empoderador. Eso simplemente no es posible ahora mismo. Y solo es posible con las criptomonedas y la IA. Así que ese es un gran ejemplo. <¡Ah, sí!> ¿Había algo más que decir sobre cómo la IA puede ayudar con la confianza y la seguridad? Ali: Creo que esa metaimagen es que las criptomonedas son el Salvaje Oeste. Como no requieren permisos, cualquiera puede participar; hay que asumir que quien participe podría ser un adversario <sí> y tal vez intentar manipular el sistema, hackearlo o hacer algo malicioso. Por eso, existe una necesidad mucho mayor de herramientas que ayuden a filtrar a los participantes honestos de los deshonestos, y el aprendizaje automático y la IA, como herramientas de inteligencia, pueden ser realmente muy útiles en ese frente. Por ejemplo, existe un proyecto llamado Stelo, que utiliza aprendizaje automático para identificar transacciones sospechosas enviadas a una billetera y las marca para el usuario antes de que se envíen a la cadena de bloques. Esto podría ser una buena manera de evitar que el usuario envíe accidentalmente todos sus fondos a un atacante o haga algo de lo que luego se arrepienta. <mhm> Y esa empresa básicamente vende a billeteras (a empresas como Metamask) para que Metamask pueda usar la información y hacer lo que quiera con ella: bloquear la transacción, advertir al usuario o, en cierto modo, replantear la transacción para que deje de ser peligrosa. Ese es un ejemplo. También hay otros ejemplos en el contexto de MEV (valor mínimo extraíble, <Sonal: sí>) o valor máximo extraíble, según a quién le preguntes, que es el valor que pueden extraer quienes controlan el orden de las transacciones en una cadena de bloques. Estos suelen ser los mineros o validadores de una cadena de bloques. Y la IA, en este caso, puede ser un arma de doble filo, ya que si eres un validador en una blockchain y controlas la ordenación de las transacciones, puedes implementar todo tipo de estrategias inteligentes para ordenarlas de forma que te beneficies. Por ejemplo, puedes adelantar transacciones, retrasar transacciones e intercalar órdenes en Uniswap. Hay muchísimas transacciones que puedes crear para aprovechar esta capacidad de ordenar transacciones. El aprendizaje automático y la IA podrían potenciar esa capacidad, ya que pueden buscar oportunidades para capturar cada vez más MEV. Por otro lado, el aprendizaje automático puede ser útil también como herramienta defensiva. Antes de enviar una transacción, es posible que sepas que existe un MEV que podría extraerse de ella. Por lo tanto, podrías dividirla en varias para que ningún validador pueda controlarla por completo, o tomar medidas para protegerte de un extractor de MEV en algún punto del proceso de la transacción. Así que este es un aspecto en el que las criptomonedas juegan un papel importante cuando se trata de seguridad, cuando se trata de confianza, cuando se trata de hacer que el espacio sea más confiable para el usuario final. Sonal: Ese es un ejemplo de cómo la IA dificulta las cosas en el ámbito de las criptomonedas, y luego las criptomonedas regresan y mejoran las cosas para... <se ríe>. Dan: De hecho, tengo otro ejemplo parecido. <Sonal: ¡Sí!> Así como los modelos de aprendizaje automático pueden usarse para detectar datos falsos o quizás actividad maliciosa, <mm>, existe la otra cara de la moneda: los modelos de aprendizaje automático pueden usarse para generar datos falsos. <Sonal: Sí> El ejemplo clásico son las falsificaciones profundas, ¿verdad? Se puede crear un video de alguien diciendo cosas que nunca dijo, y ese video parece bastante realista. Y lo interesante es que las cadenas de bloques pueden ayudar a solucionar el problema. Permítanme explicarles un posible enfoque en el que las cadenas de bloques podrían ser útiles: Imagina que es una solución que solo podría aplicarse a figuras conocidas como políticos o estrellas de cine, etc. <Sonal: mhm>. Pero imagina que un político llevara una cámara en el pecho y grabara lo que hace todo el día <Sonal: sí>, y luego creara un árbol de Merkle a partir de esa grabación y enviara los compromisos del árbol de Merkle a la cadena de bloques. <mhm> Ahora, en la cadena de bloques, hay una marca de tiempo que indica que, en esta y esta fecha, dijiste esto y aquello; en esta y aquella fecha, dijiste esto y aquello. Y si alguien crea un video ultrafalso de este político diciendo cosas que nunca dijo, el político puede decir: «Mira, en ese momento, cuando el video decía que dije esto y aquello, en realidad estaba en un lugar completamente diferente, haciendo algo sin relación». Y el hecho de que todos estos datos, los datos reales, los datos auténticos, se registren en una cadena de bloques puede usarse para demostrar que la falsificación profunda es realmente falsa y no datos reales. ¿Sí? Así que esto no es algo que exista todavía. <Sonal: sí> Sería divertido que alguien construyera algo así, pero pensé que es un ejemplo interesante de cómo las cadenas de bloques podrían ser realmente útiles <Sonal: sí> para combatir las falsificaciones profundas. Sonal: ¿Hay también una manera de resolver ese problema y mostrar otras marcas de tiempo o procedencia, donde se pueda hacer ese tipo de verificación de lo que es verdad/lo que no es verdad sin tener que hacer que un político ande por ahí con una cámara <Dan se ríe> en el pecho? Dan: Sí, por supuesto. También podemos confiar en hardware confiable para esto; <mhm> Así que imagina, ya sabes, nuestras cámaras, las cámaras de nuestros teléfonos y demás, que realmente firmarían las imágenes y los videos que toman. <Sonal: sí>. Hay un estándar, llamado C2PA, que especifica cómo las cámaras firmarán los datos; de hecho, hay una cámara de Sony que ahora toma fotografías y videos y luego produce firmas C2PA en esos videos... Así que ahora básicamente tienes datos auténticos; en realidad puedes probar que los datos realmente provienen de una cámara C2PA. Y ahora Sonal, si tal vez lees un artículo de periódico, y hay una imagen en el artículo, y dice ser de un lugar, pero de hecho está tomada de un lugar diferente; la firma en realidad podría verificarse con el hecho de que está firmada por C2PA. Hay muchos matices allí, C2PA es un tema bastante complicado, <mhm> hay muchos matices que discutir y tal vez no los tratemos aquí; Sonal: Dan, recuerdo que hablaste de este trabajo conmigo antes (creo que fue en nuestra oficina); pero también recuerdo que no resiste la edición. Y como sabes, los editores como yo y otros creadores de contenido, y sinceramente, casi cualquiera (que use Instagram o cualquier publicación en línea)… nadie sube nada exactamente igual a como fue creado originalmente… Dan: Sí , normalmente, cuando los periódicos publican fotos, no publican la imagen de la cámara tal cual, sino que la recortan. Hay un par de cosas autorizadas que pueden hacer con las fotos: quizás aplicarles escala de grises; definitivamente, reducir la resolución (para no consumir mucho ancho de banda). En el momento en que empiezas a editar la imagen, el destinatario (el lector final, el usuario del navegador que lee el artículo) ya no puede verificar la firma C2PA. Porque no tiene la imagen original. <Sonal: ¡Cierto!> Entonces, la pregunta es: ¿cómo permites que el usuario verifique que la imagen que está viendo realmente está firmada correctamente por una cámara C2PA? Bueno, como siempre, aquí es donde entran en juego las técnicas de conocimiento cero <Sonal: ¡mmm!>: donde se puede demostrar que la imagen editada es en realidad el resultado de aplicar solo reducción de resolución y escala de grises a una imagen más grande correctamente firmada. ¿Sí? Así que, en lugar de una firma C2PA, tendríamos una prueba ZK (una prueba ZK corta) asociada a cada una de estas imágenes. Y ahora los lectores pueden verificar <mhm> que están viendo imágenes auténticas. Así que es muy interesante que las técnicas ZK se puedan usar para combatir la desinformación. Es una aplicación un tanto inesperada. Sonal: Eso es fantástico. Ali: Por cierto, un problema muy relacionado es demostrar que eres humano <Sonal: mhm> en un mundo donde las falsificaciones profundas que crean la apariencia de humanidad generalmente superan en número a los humanos en una proporción de mil a uno o de un millón a uno. Y la mayoría de las cosas en internet podrían estar generadas por IA. Una posible solución, relacionada con lo que dices, es usar la biometría para determinar si alguien es humano. Pero luego usar pruebas de conocimiento cero para proteger la privacidad de quienes usan esa biometría para demostrar su humanidad. Un proyecto en esta categoría se llama WorldCoin <Sonal: sí>, también es un proyecto de nuestra cartera, y utiliza este orbe; la gente puede haberlo visto como un orbe plateado brillante, que utiliza escaneos de retina como información biométrica para verificar que eres un ser humano real; y también tiene todo tipo de sensores para garantizar que estás vivo y que no puede ser la imagen de un ojo. Este sistema tiene hardware seguro y es muy difícil de manipular. De tal manera que la prueba resultante, una prueba de conocimiento cero que oculta la información biométrica real, es extremadamente difícil de falsificar. De esta manera, los políticos podrían, por ejemplo, <Sonal: mhm> demostrar que su transmisión de video, su firma o su participación en un foro en línea son realmente suyas y que son humanos. Sonal: Lo que es realmente interesante sobre lo que dijiste, Ali, es que es una gran continuación de lo que Dan estaba diciendo sobre las formas de verificar los medios auténticos frente a los medios falsos o ultrafalsos, y este mundo de medios infinitos (como dirías) en el que vivimos... Pero ¿cuáles son las otras aplicaciones de tecnologías de prueba de personalidad como esta? Creo que es importante, porque este es otro ejemplo de cómo la criptografía también puede ayudar a la IA de forma más amplia. Volviendo atrás... estamos yendo y viniendo, <Ali: sí>, pero no importa porque solo estamos hablando de aplicaciones realmente interesantes, y punto. Ali: Bueno, esa es una muy buena pregunta… Una de las cosas que cobrará importancia en un mundo donde cualquiera pueda participar en línea es poder demostrar que eres humano, para diversos fines. Existe ese famoso dicho de los 90 que dice: «En internet, nadie sabe que eres un perro». <Sonal: ¡Ah, sí!> Y creo que una versión reinterpretada de ese dicho es que en internet, nadie sabe que eres un bot. <Sonal: ¿Ajá?> Y entonces supongo que aquí es precisamente donde los proyectos de prueba de humanidad cobran gran importancia <Sonal: ¡Sí!>, porque será importante saber si estás interactuando con un bot o con un humano… Por ejemplo, en el mundo de las criptomonedas, existe toda una cuestión de gobernanza: ¿Cómo se gobiernan sistemas descentralizados, sin un único punto de control, de abajo a arriba y de propiedad comunitaria? Se necesitaría algún tipo de sistema de gobernanza que permita controlar la evolución de esos sistemas. Y el problema hoy es que si no tienes pruebas de humanidad, entonces no puedes saber si una dirección pertenece a un solo humano; o si pertenece a un grupo de humanos; o si 10.000 direcciones en realidad pertenecen a un solo humano y están pretendiendo ser 10.000 personas diferentes. Así que hoy en día, en realidad, es necesario usar la cantidad de dinero como indicador del poder de voto, lo que conduce a una gobernanza plutocrática. <Sonal: Sí, exactamente> Pero si cada participante en un sistema de gobernanza pudiera demostrar que es humano, y pudiera hacerlo de forma única (de modo que no pudiera fingir ser más de un humano porque solo tiene un par de ojos), entonces el sistema de gobernanza sería mucho más justo y menos plutocrático, y podría basarse más en las preferencias de cada individuo, en lugar de en la preferencia de la mayor cantidad de dinero bloqueada en un contrato inteligente. Dan: En realidad, sólo para dar un ejemplo de eso… Hoy en día, nos vemos obligados a usar "una ficha, un voto" porque no tenemos pruebas de humanidad. Quizás nos gustaría usar un humano, un voto, pero si podemos fingir ser cinco humanos, claro que no funciona. Un ejemplo de esto es el llamado voto cuadrático. <Sonal: sí> En la votación cuadrática, si quieres votar cinco veces por algo, tienes que, por así decirlo, depositar 25 fichas. Pero, claro, puedes hacer lo mismo: fingir ser cinco personas diferentes votando una vez, lo que frustraría el mecanismo de la votación cuadrática. La única forma de evitarlo es esta prueba de humanidad: para votar, debes demostrar que eres una sola entidad y no una sibila de entidades. Y ahí es precisamente donde la prueba de humanidad desempeñaría un papel importante. En general, la identidad en cadena se está volviendo cada vez más importante para la gobernanza. Sonal: Totalmente... Por cierto, eso me recordó un episodio que hicimos hace años, Ali, con Phil Daian. <Ali: Ah, sí> ¿Te acuerdas, sobre "Dark DAOs"? <Ali: Sí... exactamente> Fue una conversación muy interesante. Totalmente relevante. Ali: Totalmente. Sonal: Por cierto, ¿la frase es «prueba de personalidad» o «prueba de humanidad»? ¿Cuál es la diferencia? ¿Es lo mismo? Ali: Ah, sí, la gente los usa indistintamente: prueba de ser humano, prueba de humanidad, prueba de personalidad. Sonal: Sí, sí. Bien, entonces sigamos con este tema de los medios, y este tipo de "abundancia infinita" de medios, como ¿cuáles son otros ejemplos? - y de nuevo, estamos hablando de las criptomonedas ayudando a la IA, la IA ayudando a las criptomonedas <Ali: yah> - ¿hay otros ejemplos que no hayamos cubierto aquí donde la intersección de las criptomonedas y la IA pueda generar cosas que no son posibles con ninguna de ellas sola? Ali: Totalmente. O sea, otra implicación de estos modelos generativos es que viviremos en un mundo de abundancia infinita de medios. Y en ese mundo, aspectos como la comunidad en torno a un medio en particular, o la narrativa en torno a un medio en particular, cobrarán cada vez mayor importancia. Para ser más concretos, aquí hay dos buenos ejemplos: Sound.xyz está desarrollando una plataforma de streaming de música descentralizada que permite a los artistas (músicos, en esencia) subir música y conectar directamente con sus comunidades mediante la venta de NFT que otorgan ciertos privilegios a sus miembros. Por ejemplo, la posibilidad de publicar un comentario en la canción en el sitio web de Sound.xyz, para que cualquier otra persona que la reproduzca también pueda verlo. (Esto es similar a la antigua función de SoundCloud que quizás recuerden, donde se podía tener una experiencia social completa en la música mientras se reproducía en el sitio web). Se trata de esta capacidad que permite a las personas interactuar con los medios y entre sí, a menudo de forma económica, ya que básicamente compran este NFT del artista para poder hacerlo. Y, como consecuencia, apoyan al artista y le ayudan a ser sostenible y a crear más música. Pero lo mejor de todo esto es que ofrece a los artistas un foro para interactuar con su comunidad. Y el artista es un artista humano. Y gracias a la participación de las criptomonedas, se puede crear una comunidad en torno a una pieza musical —que no existiría automáticamente en torno a una pieza musical— creada mediante un modelo de aprendizaje automático sin ningún elemento humano, sin una comunidad a su alrededor. Así que pienso de nuevo, en un mundo donde gran parte de la música a la que estaremos expuestos será generada íntegramente por IA, las herramientas para construir comunidad y contar una historia en torno al arte, la música y otros medios serán muy importantes para distinguir los medios que realmente nos importan y en los que queremos invertir y dedicar tiempo, de los medios que, aunque también sean muy buenos, son simplemente un tipo diferente. Son medios generados por IA con menos componente humano. <sí> Y, por cierto, puede que exista cierta sinergia entre ambos: Podría ser que gran parte de la música esté optimizada o generada por IA. Pero si además hay un componente humano —por ejemplo, si un creador utiliza herramientas de IA para crear una nueva pieza musical—, pero además tiene personalidad en Sound, una página de artista, ha creado una comunidad y tiene seguidores, entonces se crea una especie de sinergia entre ambos mundos. <sí> Donde ambos tienen la mejor música, potenciada por los superpoderes que les otorga la IA; pero también tienen un componente humano y una historia, coordinada y realizada por este aspecto criptográfico (que permite reunir a todas esas personas en una sola plataforma). Dan: Es realmente asombroso que incluso en el mundo de la música —tal como hablamos en el mundo de la programación, donde un programador humano se ve mejorado con herramientas como Copilot que generan código— estemos viendo cosas como esta: un artista se ve mejorado por sistemas de aprendizaje automático que ayudan a escribir (o al menos, parte de la música se escribe y genera mediante un sistema de aprendizaje automático). Así que, sin duda, nos estamos adentrando en un nuevo mundo en términos de generación de contenido. Básicamente, habrá mucho spam generado por arte generado por máquinas, que la gente podría no valorar tanto como el arte generado por un ser humano. Quizás otra forma de decirlo es que uno de los objetivos de los NFT era apoyar a los artistas. <Sonal: sí> Pero si los propios artistas ahora son modelos de aprendizaje automático, ¿a quién exactamente apoyamos? <risas> <Sonal: sí… sí> Entonces, la cuestión es cómo distinguimos, cómo diferenciamos el arte generado por humanos que necesita apoyo <Sonal: Sí> del arte generado por máquinas. Sonal: Bueno, esta es una discusión filosófica para tomar algo, pero me atrevería a decir que quien apunta también es un artista, en cierto modo. <Ali: sí> Y, de hecho, yo diría que esa persona es un artista. Y lo mismo ha ocurrido con… ya que esta es una discusión y un debate tan antiguo como el tiempo: simplemente se trata de nuevas tecnologías, viejos comportamientos. Es lo mismo que ha estado ocurriendo durante siglos. Y lo mismo ocurre con la escritura, etc., totalmente. Dan: Muy cierto. Ali: Bueno, eso en realidad abre la puerta al arte colectivo <Sonal: mhm>, al arte que se genera a través del proceso creativo de toda una comunidad, en lugar de un solo artista; De hecho, ya hay proyectos que hacen esto, donde: tienes un proceso mediante el cual una comunidad influye a través de algún proceso de votación en cadena sobre cuál será el mensaje para un modelo de aprendizaje automático como DALL-E. <mhm> Luego, DALL-E usa ese mensaje para generar una obra de arte (quizás generes no 1 obra de arte, sino 10 000) y luego usas otro modelo de aprendizaje automático, que también está entrenado a partir de los comentarios de la comunidad, para elegir entre esos 10 000 el mejor. Bien, ahora tienes una obra de arte generada a partir de las aportaciones de la comunidad; también se podó y se seleccionó de un conjunto de 10 000 variantes de esa obra de arte (sí, sí), también mediante un modelo de aprendizaje automático entrenado por la comunidad, para luego generar una obra de arte. Es, en cierto modo, el resultado de esta colaboración colectiva. Eso es increíble. Sonal: Me encanta. Bueno, chicos, es una gran nota para terminar; gracias a ambos por compartir todo eso con los oyentes de "web3 con a16z". Dan: Gracias Sonal. Ali: Muchas gracias. Las opiniones expresadas aquí son las del personal de AH Capital Management, LLC (“a16z”) citado y no las de a16z ni de sus filiales. Parte de la información aquí contenida se ha obtenido de fuentes externas, incluyendo empresas de cartera de fondos gestionados por a16z. Si bien proviene de fuentes consideradas fiables, a16z no ha verificado dicha información de forma independiente y no garantiza su exactitud permanente ni su idoneidad para una situación concreta. Además, este contenido puede incluir publicidad de terceros; a16z no ha revisado dicha publicidad y no la avala. Este contenido se proporciona únicamente con fines informativos y no debe considerarse asesoramiento legal, comercial, de inversión ni fiscal. Consulte con sus asesores sobre estos asuntos. Las referencias a valores o activos digitales son solo ilustrativas y no constituyen una recomendación de inversión ni una oferta de servicios de asesoramiento en materia de inversión. Asimismo, este contenido no está dirigido a inversores ni a posibles inversores, y en ningún caso debe utilizarse como base para tomar la decisión de invertir en un fondo gestionado por a16z. (Una oferta de inversión en un fondo de a16z se realizará únicamente mediante el memorando de colocación privada, el acuerdo de suscripción y demás documentación pertinente de dicho fondo, y debe leerse en su totalidad). Las inversiones o empresas de cartera mencionadas, referidas o descritas no representan todas las inversiones en vehículos gestionados por a16z, y no se puede garantizar que las inversiones sean rentables ni que otras inversiones futuras tengan características o resultados similares. Una lista de inversiones realizadas por fondos administrados por Andreessen Horowitz (excluidas las inversiones para las cuales el emisor no ha otorgado permiso a a16z para divulgarlas públicamente, así como las inversiones no anunciadas en activos digitales que cotizan en bolsa) #BİNANCESQUARE $BTC {spot}(BTCUSDT)

TRANSCRIPCIÓN #CRYPTO

El nuevo episodio de esta semana aborda la convergencia de dos tendencias importantes y de gran actualidad: la IA (inteligencia artificial) y las cadenas de bloques/criptomonedas. Estos dominios, en conjunto, tienen importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es ideal para quienes tengan curiosidad o ya estén desarrollando este sector. La conversación abarca temas que van desde las deepfakes, los bots y la necesidad de una prueba de humanidad en un mundo de IA; hasta el big data, los grandes modelos de lenguaje como ChatGPT, el control de usuarios, la gobernanza, la privacidad y la seguridad, el conocimiento cero y zkML; hasta MEV, los medios de comunicación, el arte y mucho más.
Nuestros invitados expertos, en conversación con la anfitriona Sonal Chokshi, incluyen:
Dan Boneh , profesor de Stanford (y asesor principal de investigación en a16z crypto), un criptógrafo que ha estado trabajando en cadenas de bloques durante más de una década y que se especializa en criptografía, seguridad informática y aprendizaje automático, todos los cuales se cruzan en este episodio;Ali Yahya , socio general de a16z crypto, quien también trabajó anteriormente en Google, donde no solo trabajó en un sistema distribuido para una flota de robots (una especie de "aprendizaje de refuerzo colectivo") sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow construida en Google.
La primera mitad de la conversación informal entre Ali y Dan (quienes se conocen como estudiantes y profesores en Stanford) gira en torno a cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad, a cómo las criptomonedas podrían beneficiarse de la IA... El hilo conductor es la tensión entre centralización y descentralización. Así, también analizamos cómo la intersección de las criptomonedas y la IA puede generar resultados que ninguna de las dos sería posible por sí sola...
Piezas referenciadas en este episodio/lectura relacionada:
El próximo sistema de razonamiento cibernético para la ciberseguridad  (2023) de Mohamed Ferrag, Ammar Battah, Norbert Tihanyi, Merouane Debbah, Thierry Lestable y Lucas CordeiroUna nueva era en seguridad de software: Hacia software autorreparador mediante modelos de lenguaje extensos y verificación formal  (2023) por Yiannis Charalambous, Norbert Tihanyi, Ridhi Jain, Youcheng Sun, Mohamed Ferrag, Lucas CordeiroCorrección de errores de seguridad de hardware con modelos de lenguaje extensos  (2023) por Baleegh Ahmad, Shailja Thakur, Benjamin Tan, Ramesh Karri y Hammond Pearce¿Los usuarios escriben código más inseguro con asistentes de IA?  (2022) por Neil Perry, Megha Srivastava, Deepak Kumar y Dan Boneh¿Dormido frente al teclado? Evaluación de la seguridad de las contribuciones de código de GitHub Copilot  (2021) por Hammond Pearce, Baleegh Ahmad, Benjamin Tan, Brendan Dolan-Gavitt, Ramesh KarriVotación, seguridad y gobernanza en blockchains  (2019) con Ali Yahya y Phil Daian
TRANSCRIPCIÓN:
Bienvenidos a "web3 con a16z", un programa sobre cómo construir la próxima generación de internet del equipo de a16z crypto; incluyéndome a mí, su presentadora, Sonal Chokshi. El nuevo episodio de hoy aborda la convergencia de dos importantes tendencias de vanguardia: la IA (inteligencia artificial) y las criptomonedas. Esto tiene importantes implicaciones en nuestra vida diaria; por lo tanto, este episodio es para cualquiera que tenga curiosidad o que ya esté desarrollando en este sector.
Nuestros invitados especiales de hoy son: Dan Boneh, profesor de Stanford (y asesor sénior de investigación en a16z crypto). Es un criptógrafo que lleva más de una década trabajando en cadenas de bloques. Los temas de este episodio tienen una fuerte intersección entre la criptografía, la seguridad informática y el aprendizaje automático, todas sus áreas de especialización. También tenemos a Ali Yahya, socio general de a16z crypto, quien también trabajó en Google, donde no solo desarrolló un sistema distribuido para robótica (más concretamente, una especie de "aprendizaje de refuerzo colectivo" que implicaba entrenar una única red neuronal que contribuía a las acciones de toda una flota de robots), sino que también trabajó en Google Brain, donde fue uno de los principales contribuyentes a la biblioteca de aprendizaje automático TensorFlow. De hecho, Dan y Ali se conocen desde que Ali era estudiante de grado y maestría en Stanford, así que esta conversación es más bien una charla informal entre ellos a la que les pedí que me uniera. Abordamos todo, desde deepfakes y bots hasta la prueba de humanidad en un mundo de IA y mucho, mucho más.
La primera mitad trata sobre cómo la IA podría beneficiarse de las criptomonedas, y la segunda mitad sobre cómo las criptomonedas podrían beneficiarse de la IA; y el hilo conductor es la tensión entre centralización y descentralización.  Como recordatorio: nada de lo siguiente debe interpretarse como asesoramiento de inversión, legal, comercial o fiscal; consulte a16z.com/disclosures para obtener más información importante, incluido un enlace a una lista de nuestras inversiones, especialmente porque somos inversores en las empresas mencionadas en este episodio.  Pero primero: comenzamos con la intersección de ambos mundos, compartiendo brevemente las áreas (¡o visiones!) que les entusiasman; la primera voz que escucharán será la de Ali.
Ali: Hay una novela de ciencia ficción muy buena llamada “La era del diamante” de Neal Stephenson, en la que hay un dispositivo conocido como “manual ilustrado”, que es una especie de dispositivo de inteligencia artificial que actúa como tu mentor y tu maestro a lo largo de la vida.
Y entonces, cuando naces, estás emparejado con una IA que, esencialmente, te conoce muy bien, aprende tus preferencias, te sigue durante toda la vida, te ayuda a tomar decisiones y te guía en la dirección correcta.
Así que existe un futuro de ciencia ficción… en el que se podría construir una IA, pero no se querría que estuviera controlada por un gigante tecnológico monopolista. Porque esa posición le otorgaría a esa empresa un gran control, y existen todas estas cuestiones de privacidad y soberanía, y se querría tener cierto control sobre ella.
¿Y qué pasa si la empresa desaparece, cambia las reglas o los precios? Sería fantástico poder crear una IA que pudiera funcionar durante muchísimo tiempo y llegar a conocerte a lo largo de tu vida, pero que fuera realmente tuya.
Y entonces existe esta visión en la que se podría hacer eso con una cadena de bloques: se podría integrar una IA dentro de un contrato inteligente.
Y con el poder de las pruebas de conocimiento cero, también podrá mantener sus datos privados.
Y luego, con el paso de las décadas, esta IA puede volverse más inteligente y ayudarte, y entonces tendrás la opción de hacer lo que quieras con ella. O modificarla como quieras; o desactivarla.
Y esa es una visión interesante para las IA de largo plazo que están en continua evolución y cada vez son mejores: sería mejor si no estuvieran controladas por una única empresa centralizada.
Claro: es una idea muy de ciencia ficción, porque conlleva muchos problemas, incluyendo los de verificación y los de mantener la privacidad de los datos mediante criptografía y, a la vez, poder realizar cálculos sobre ellos, quizás con cifrado totalmente homomórfico. <Sonal: mhm> Todos estos problemas siguen pendientes, pero no es algo inconcebible.
Dan: ¡Guau! ¡Me encanta la visión de Ali!
Sonal: A mí también me encanta, especialmente teniendo en cuenta esa cita (creo que era de Asimov) de que la ciencia ficción de hoy es la ciencia factual del mañana.
Ali, sé que tienes un meta-marco para pensar acerca de todo esto que te he escuchado compartir antes, ¿puedes compartirlo ahora también?
Ali: Sí, existe una narrativa más amplia que existe desde hace bastante tiempo y que ahora se está acentuando mucho más con el desarrollo de cosas como los LLM.
Sonal: En realidad, define eso muy rápido, Ali, solo para los oyentes que aún no están familiarizados, solo como contexto.
Ali: LLM significa "modelo de lenguaje grande" y utiliza parte de la tecnología que se desarrolló en Google en 2017. Existe este famoso artículo conocido como "La atención es todo lo que necesitas" (ese era el título del artículo) y describía lo que ahora se conoce como transformadores, y esa es la base, básicamente, de algunos de los nuevos modelos que la gente ha estado entrenando en estos días, incluido ChatGPT, etc. Todos estos son modelos de lenguaje grandes o LLM.
<Sonal: ¡mmm!> #BTC
Había una famosa frase, creo (2018), de Peter Thiel: «La IA es comunista y las criptomonedas son libertarias»… Es muy acertada, de hecho, porque la IA y las criptomonedas, en muchos sentidos, se contrapesan naturalmente. <Sonal: ¿Ajá?> Y quizá podamos profundizar en cada uno de estos ejemplos a lo largo del podcast, <Sonal: Sí>. Pero hay cuatro aspectos principales en los que esto es cierto:
[1] La primera es que la IA es una tecnología que prospera y permite un control centralizado de arriba a abajo, mientras que la criptografía se basa en la cooperación descentralizada de abajo a arriba. De hecho, en muchos sentidos, se puede pensar en la criptografía como el estudio de la construcción de sistemas descentralizados que permiten la cooperación humana a gran escala, donde no existe un punto central de control.
Y esa es una forma natural en la que estas dos tecnologías se contrapesan entre sí.
[2] Otra es que la IA es una innovación sostenible, ya que refuerza los modelos de negocio de las empresas tecnológicas existentes <Sonal: mhm>, ya que les ayuda a tomar decisiones desde arriba. Y el mejor ejemplo de esto sería que Google pudiera decidir exactamente qué anuncio mostrar a cada uno de sus usuarios entre miles de millones de usuarios y miles de millones de páginas vistas.
Mientras que las criptomonedas son, en realidad, una innovación fundamentalmente disruptiva, ya que su modelo de negocio es fundamentalmente contrario al de las grandes tecnológicas. Por lo tanto, es un movimiento liderado por rebeldes/por los sectores marginales, en lugar de estar liderado por las empresas establecidas. <Sonal: mhm> Así que esa es la segunda.
[3] La tercera es que la IA probablemente se relacionará e interactuará mucho con todas las tendencias hacia la privacidad… Porque la IA, como tecnología, ha incorporado todo tipo de incentivos que nos llevan hacia una menor privacidad individual, ya que tendremos empresas que querrán acceder a todos nuestros datos; y los modelos de IA que se entrenan con cada vez más datos serán cada vez más eficaces. Por lo tanto, creo que esto nos lleva por el camino del panóptico de la IA, donde simplemente se agregan los datos de todos para entrenar estos enormes modelos y optimizarlos al máximo.
Mientras que las criptomonedas nos llevan hacia la dirección opuesta, que es una dirección de mayor privacidad individual. Es una dirección de mayor soberanía, <Sonal: mhm> donde los usuarios tienen control sobre sus propios datos. Y creo que estas dos tendencias serán muy importantes. Y esta es otra forma importante en que las criptomonedas actúan como contrapeso para la IA.
(4) Y tal vez la última tenga que ver con esta última tendencia en IA: el hecho de que la IA es ahora claramente una tecnología poderosa para generar nuevo arte; ahora es una herramienta creativa <Sonal: ¡mm! totalmente>, que nos llevará a una abundancia infinita de medios, a una creatividad infinita en muchos sentidos.
Y la criptografía es un contrapeso a eso porque nos ayuda a analizar toda la abundancia, al ayudarnos a distinguir lo creado por humanos de lo creado por IA. Y la criptografía será esencial para mantener y preservar lo verdaderamente humano en un mundo donde mil veces más contenido <Sonal: correcto> se genera artificialmente.
Así que todas estas son cosas de las que podemos hablar, pero creo que existe esta metanarrativa importante; y estas dos tecnologías son diametralmente opuestas, en muchos aspectos.
Dan: Entonces, tal vez Ali, para agregar a eso, este es un resumen maravilloso, y también diría que hay muchas áreas en las que las técnicas de IA están teniendo un impacto en las cadenas de bloques; y viceversa, <mhm> donde las técnicas de cadenas de bloques están teniendo un impacto en la IA.
Daré una respuesta breve aquí porque vamos a profundizar en los detalles en solo un minuto; pero hay muchos puntos de intersección: supongo que hablaremos sobre las aplicaciones del conocimiento cero para el aprendizaje automático en solo un minuto…
Pero también quiero abordar todas estas aplicaciones donde el aprendizaje automático puede usarse para escribir código. Por ejemplo, el aprendizaje automático puede usarse para escribir código de Solidity que se contrae. Puede usarse para detectar posibles errores en el código, etc.
Existen puntos de intersección donde el aprendizaje automático puede usarse para generar falsificaciones profundas y las cadenas de bloques pueden ayudar a proteger contra ellas. Por lo tanto, supongo que abordaremos todos estos puntos, pero lo interesante es que existe una gran intersección entre las cadenas de bloques y el aprendizaje automático.
Sonal: Sí, antes de profundizar en eso, Dan, tengo una pregunta: ¿estás de acuerdo? Entiendo perfectamente el punto de vista de Ali: la IA y las criptomonedas son complementos naturales, o contrapesos, o pueden ser fuerzas diferentes que se controlan y equilibran mutuamente... Pero, ¿crees que esto es una cualidad inherente a la IA y las criptomonedas? ¿O es simplemente un artefacto de cómo se hacen las cosas actualmente? ¿Con qué aspectos estarías de acuerdo o en desacuerdo?
Dan: Sí; así que diría que, si lo miras desde lejos… las técnicas que se usan en IA parecen muy diferentes a las que se usan en las cadenas de bloques, ¿verdad? Las cadenas de bloques se centran en la criptografía, la descentralización, las finanzas, la economía, etc.
Mientras que la #IA se centra en la estadística, las matemáticas del aprendizaje automático, etc., se centra en el big data. Las técnicas, en realidad, parecen bastante diferentes. <Sonal: mhm>, pero en realidad hay muchos aspectos en los que una parte puede ayudar a la otra <mhm> y viceversa.
Quizás el primero para empezar sea el más obvio y que ha estado en la mente de muchos: las aplicaciones del conocimiento cero para el aprendizaje automático . Se trata de un área emergente llamada zkML . Y su interés se debe a que las técnicas de conocimiento cero han mejorado drásticamente gracias a su aplicación en las cadenas de bloques.
Lo que ha sucedido en los últimos 10 años es increíble; algo que no vemos muy a menudo: esta idea de las pruebas de conocimiento cero, y los sistemas de pruebas en general, se consideraban muy teóricos hace una década. Y debido a todas sus aplicaciones en las cadenas de bloques, de repente se despertó un gran esfuerzo para hacerlas más prácticas y realistas. Como resultado, se ha logrado un progreso tremendo (como saben nuestros oyentes), y ahora estas herramientas se implementan y se utilizan para proteger sistemas reales.
Entonces, la pregunta es: ¿se pueden usar técnicas de conocimiento cero para impulsar el aprendizaje automático? Hay un par de ejemplos (honestamente, podríamos dedicar todo el podcast solo a zkML), pero quizás pueda dar una muestra, uno o dos ejemplos donde ZK es útil para el aprendizaje automático.
Imaginemos que Alice tiene un modelo secreto al que dedicó mucho tiempo para entrenar, y que es muy importante para ella. Es fundamental que la gente no sepa cómo funciona. Pero aun así, quiere poder atender las solicitudes de Bob, ¿verdad? Bob quiere enviarle datos, ella aplicaría el modelo a los datos y le enviaría el resultado.
Bob no tiene ni idea de si está obteniendo los resultados correctos con el modelo, ¿verdad? Quizás pagó por un modelo específico y quiere asegurarse de que Alice realmente lo esté usando, ¿verdad? Quizás pagó por GPT-4 y quiere asegurarse de que Alice realmente esté usando GPT-4, y no GPT-3.
Resulta que las técnicas ZK pueden ser muy útiles en este caso. Alice se comprometería con su modelo y lo haría público. Y luego, cada vez que Bob enviara datos, Alice podría ejecutar el modelo con ellos y enviarle los resultados, junto con la prueba de que el modelo se evaluó correctamente. Así, Bob tendría la garantía de que el modelo comprometido es el mismo que se ejecutó con sus datos. ¿Sí? Este es un ejemplo de cómo las técnicas ZK pueden ser útiles en el aprendizaje automático.
Y quiero enfatizar por qué esto es tan importante: <Sonal: ¡Sí!> Veamos un ejemplo:
Supongamos que tenemos una función, un modelo que realmente se usa para afectar la vida de las personas. Imaginen, por ejemplo, que usamos un modelo para decidir si otorgamos un préstamo o una hipoteca; una institución financiera podría querer usar un modelo similar. Queremos asegurarnos de que el mismo modelo se aplique a todos, ¿no? No es que se me aplique un modelo a mí <Sonal: sí> y a ti otro <Sonal: cierto>. Básicamente, al hacer que el banco se comprometa con el modelo, ¿no?; y así todos pueden verificar que sus datos son evaluados por el mismo modelo comprometido <mmm>, podemos asegurarnos de que se aplique el mismo modelo a todos.
Debo decir que aquí hay un problema abierto: aunque las técnicas de conocimiento cero pueden garantizar que se aplique el mismo modelo a todos, surge la pregunta: ¿es justo el modelo? Los modelos pueden tener sesgos y generar resultados injustos. Por lo tanto, existe toda una área de investigación llamada equidad algorítmica; existen muchísimos artículos sobre equidad algorítmica, y es realmente interesante preguntarse: ahora que tenemos un modelo establecido, ¿podemos demostrar, en conocimiento cero, que el modelo cumple con alguna definición de equidad del área de equidad algorítmica?
¿Y cómo nos aseguramos de que el proceso de capacitación se ejecute correctamente?
Ali: Bueno, todo lo que dijiste sobre #zkml es sumamente emocionante. Y, como tecnología, creo que contribuirá a que el aprendizaje automático, y la IA en general, sean más transparentes y confiables, tanto dentro como fuera del contexto de las criptomonedas.
Creo que una aplicación aún más ambiciosa, y quizás a largo plazo, de ZKML —y de algunas otras técnicas de verificación en las que la comunidad criptográfica ha estado trabajando<mhm>— es simplemente descentralizar la IA en general. Como ya comentamos, la IA es una tecnología casi intrínsecamente centralizadora, ya que se nutre de factores como los efectos de escala, ya que tener todo dentro de un centro de datos lo hace más eficiente. Por lo tanto, escalar todo de forma centralizada lo hace más potente y, como resultado, más centralizado.
Además, los datos suelen estar controlados por un pequeño número de empresas tecnológicas intermedias. Esto también conlleva una mayor centralización.
Y finalmente: los modelos de aprendizaje automático y el talento en aprendizaje automático, también controlados por un pequeño número de actores.
Y las criptomonedas pueden volver a ayudar en este frente desarrollando tecnología que utilice cosas como ZKML que puedan ayudarnos a descentralizar la IA.
Así que hay tres aspectos principales que intervienen en la IA: el aspecto computacional , que requiere un uso a gran escala de GPU (generalmente en centros de datos); el aspecto de los datos , que, repito, la mayoría de las empresas centralizadas controlan; y los propios modelos de aprendizaje automático . <Sonal: sí>
Y la más sencilla podría ser la del cálculo. ¿Es posible descentralizar el cálculo para el entrenamiento y la inferencia de modelos de aprendizaje automático? Aquí es donde entran en juego algunas de las técnicas que Dan mencionaba, como las pruebas de conocimiento cero, que permiten demostrar que el proceso de inferencia o entrenamiento de un modelo se realizó correctamente, lo que permite externalizarlo a una gran comunidad. Se puede tener un proceso distribuido mediante el cual cualquiera con una GPU puede contribuir con el cálculo a la red y entrenar un modelo de esa manera, sin tener que depender necesariamente de un centro de datos masivo con todas las GPU centralizadas.
Y aún queda la gran duda de si esto tendrá sentido económicamente... Pero al menos, con los incentivos adecuados, se puede aprovechar la larga cola: se puede aprovechar toda la capacidad de GPU inactiva que pueda existir; hacer que todas esas personas contribuyan con ese cálculo al entrenamiento de un modelo o a la ejecución de la inferencia; y ofrecer una alternativa a lo que, de otro modo, serían solo las grandes empresas tecnológicas intermedias las que actualmente lo controlan todo. <Sonal: ¡Mmm!> Hay todo tipo de problemas técnicos importantes que tendrían que resolverse para que eso fuera posible.
De hecho, existe una empresa en este sector llamada Gensyn que está desarrollando precisamente esto. Están creando un mercado descentralizado para computación en GPU, principalmente con el propósito de entrenar modelos de aprendizaje automático. Es un mercado donde cualquiera puede contribuir con su computación en GPU, ya sea en su computadora personal debajo de su escritorio o inactiva en un centro de datos.
Y, por otro lado, cualquiera puede aprovechar la computación disponible en la red para entrenar sus grandes modelos de aprendizaje automático. Esto sería una alternativa a la alternativa centralizada, tipo OpenAI/Google/Meta/todos —ya sabes, inserta tu gran empresa tecnológica favorita aquí <Sonal: ¡Sí! (risas)—, que actualmente tendrías que adoptar.
Sonal: Bueno, antes de profundizar en este marco de descentralización, Ali, estabas desglosando la computación y creo que ibas a compartir los otros dos de esos tres pilares. Pero antes… ambos hablaron un poco sobre los desafíos técnicos. ¿Cuáles son algunos de los desafíos técnicos que deben superarse y que la gente podría estar resolviendo ya? (Quiero que los desarrolladores que escuchen este episodio también reflexionen sobre las oportunidades en este espacio y cómo pueden abordar los desafíos existentes; o cuáles son algunos de los desafíos que enfrentarán al desarrollar soluciones).
Dan: Sí, entonces tal vez pueda mencionar dos que creo que serían interesantes para la gente.
[1] Básicamente, imaginemos que Alice tiene un modelo que quiere proteger. Quiere enviarlo cifrado a otra persona, por ejemplo, a Bob. Bob recibe un modelo cifrado y necesita poder ejecutar sus datos en él.
¿Cómo se hace eso? Si se tienen datos que se quieren ejecutar en un modelo, pero solo se cuenta con el cifrado del modelo, ¿cómo se logra?
Y eso es algo para lo que usaríamos lo que se llama cifrado totalmente homomórfico. <Sonal: Sí. (FHE).> Es un cifrado totalmente homomórfico, una herramienta notable que permite realizar cálculos con datos cifrados.
Es un poco increíble que esto sea posible, pero se puede tener un modelo cifrado y datos de texto sin cifrar, y ejecutar el modelo cifrado sobre estos datos y obtener un resultado cifrado. Se le enviaría el resultado cifrado a Alice, quien podría descifrarlo y verlo en texto sin cifrar.
Así que esto es algo que ya existe... de hecho, existe bastante demanda en la práctica; <Sonal: sí> no requiere mucho esfuerzo ver que el Departamento de Defensa está interesado en esto. Hay muchas otras aplicaciones donde se puede enviar un modelo cifrado a un tercero; este ejecutaría el modelo cifrado en sus datos; te enviaría los resultados; puedes descifrar y obtener información sobre los datos que se ingresaron como entrada del modelo cifrado.
La pregunta, claro, es cómo lo escalamos. Ahora mismo funciona bien para modelos medianos… y la pregunta es, ¿podemos escalarlo a modelos mucho más grandes? Así que es todo un reto: un par de startups en el sector, y, repito, una tecnología muy, muy interesante; es increíble que esto sea posible. <Sonal: Sí… de verdad> Y probablemente veremos mucho más de esto en el futuro.
[2] La otra área es en realidad la que mencionó Ali, otra área muy importante, que es: ¿cómo sabemos que el modelo fue entrenado correctamente?
Entonces, si envío mis datos a alguien y le pido que entrene un modelo con ellos, o que lo ajuste, ¿cómo sé que lo hicieron correctamente? Es cierto, podrían devolverme un modelo, pero ¿cómo sé que no tiene puertas traseras? De hecho, se ha investigado bastante para demostrar que, si el entrenamiento se realiza incorrectamente, podría devolver un modelo que funcionaría correctamente con todos los datos de prueba, pero que tiene una puerta trasera, lo que significa que fallaría catastróficamente con una entrada específica. Esto es posible si el proceso de entrenamiento no está verificado.
Y, de nuevo, este es un área donde ZKML entra en juego: Podemos demostrarles que el entrenamiento se ejecutó correctamente; o quizás existan otras técnicas para demostrarlo. Pero, de nuevo, esta es otra área —un área de investigación muy activa— y animaría a muchos de los oyentes a que se trate de un problema muy complejo: demostrar que el entrenamiento se realizó correctamente; demostrar que los datos de entrenamiento se recopilaron y filtraron correctamente, etc.
De hecho, es un área maravillosa en la que ingresar si las personas buscan realizar más trabajos en ese espacio.
Sonal: ¡Genial! Ali, ¿qué más añadirías?
Ali: Sí, definitivamente. Bueno, supongo que si seguimos hablando de lo que se necesitaría para descentralizar la pila de IA, creo que para descentralizar el componente computacional —y estos son tres componentes importantes—, si quisiéramos descentralizar el componente computacional, hay dos desafíos técnicos muy importantes que aún no se han resuelto.
El primero es el problema de la verificación (que Dan acaba de mencionar) <Sonal: mhm>, para el cual se podría usar ZKML. Idealmente, con el tiempo se podrían usar pruebas de conocimiento cero para demostrar que el trabajo real —que las personas que contribuyen a esta red— se realizó correctamente.
El desafío radica en que el rendimiento de estas primitivas criptográficas está lejos de alcanzar el nivel necesario para entrenar o inferir modelos muy grandes. Por lo tanto, los modelos actuales, como los LLM que todos conocemos y apreciamos (como ChatGPT), no serían demostrables con el estado actual de ZKML. Por lo tanto, se está trabajando mucho para mejorar el rendimiento del proceso de demostración, de modo que se puedan demostrar cargas de trabajo cada vez mayores de forma eficiente. Pero ese es un problema abierto, y algo <Sonal: sí> en lo que mucha gente está trabajando.
Mientras tanto, empresas como Gensyn utilizan otras técnicas que no son solo criptográficas, sino que se basan en la teoría de juegos. En ellas, se recluta a un mayor número de personas independientes para realizar el trabajo y se comparan sus resultados para garantizar que se realicen correctamente. <Sonal: ¡Qué interesante!> Se trata de un enfoque más optimista y basado en la teoría de juegos que no se basa en la criptografía, pero que se alinea con el objetivo principal de descentralizar la IA o ayudar a crear un ecosistema para la IA mucho más orgánico, comunitario y de abajo a arriba, a diferencia del enfoque de arriba a abajo que proponen empresas como OpenAI.
Así que ese es el primer problema; el primer gran problema es el problema de la verificación.
Y el segundo gran problema es el de los sistemas distribuidos: ¿cómo se coordina realmente una gran comunidad de personas que contribuyen con GPU a una red de tal manera que todo parezca un sustrato integrado y unificado para el cálculo? <Sonal: yup>
Y habrá muchos desafíos interesantes, como: estamos fragmentando la carga de trabajo de aprendizaje automático de forma lógica; distribuyendo diferentes partes a distintos nodos de la red; descubriendo cómo hacerlo todo de forma eficiente; y, cuando los nodos fallan, descubriendo cómo recuperarse y asignando nuevos nodos para que se encarguen del trabajo realizado por el nodo que falló. Por lo tanto, existen muchos detalles complejos a nivel de sistemas distribuidos que las empresas deberán resolver para ofrecernos esta red descentralizada que pueda ejecutar cargas de trabajo de aprendizaje automático de una forma quizás incluso más económica que usar la nube.
Sonal: Sí… Eso es genial.
Dan: …Sí, y es totalmente cierto que las técnicas ZK actuales manejarán los modelos más pequeños que se utilizan, pero definitivamente los LLM son probablemente demasiado grandes para que estas técnicas los manejen hoy, las técnicas ZK; pero, sabes que están mejorando constantemente, el hardware está mejorando, así que con suerte se pondrán al día.
Sonal: Sí; antes de continuar, ¿podemos hacer una comprobación de pulso realmente clara sobre dónde estamos exactamente en eso? Obviamente, lo que les escucho decir es que hay tremendas aplicaciones en la intersección de la computación general verificable, que las cadenas de bloques y las criptomonedas definitivamente han estado avanzando y acelerando significativamente toda esa área (hemos estado cubriendo mucho de eso nosotros mismos: si miran nuestro canon ZK y la categoría de conocimiento cero, verán mucho de esto cubierto allí).
Pero, ¿dónde nos encontramos exactamente ahora en cuanto a lo que pueden hacer? Porque ustedes hablaron mucho sobre lo que aún no pueden hacer y la oportunidad que les brinda, lo cual es emocionante; pero ¿dónde nos encontramos ahora mismo? ¿Qué pueden hacer realmente?
Dan: Sí. Ahora mismo, básicamente pueden clasificar modelos medianos. No algo tan grande como GPT-3 o 4, sino modelos medianos. <sí> Es posible demostrar que la clasificación se realizó correctamente. El entrenamiento probablemente esté más allá de lo que se puede hacer ahora mismo, simplemente porque requiere muchísimos recursos computacionales <Sonal: cierto> que para los sistemas de prueba aún no hemos llegado a ese punto.
Pero como dijo Ali, tenemos otras maneras de hacerlo. Por ejemplo, podemos hacer que varias personas realicen el entrenamiento y luego comparar los resultados. ¿Sí? Así que ahora hay incentivos de teoría de juegos para que la gente no haga trampa. Si alguien hace trampa, alguien más podría quejarse de que calculó mal el entrenamiento, y entonces quien haya hecho trampa no recibirá compensación por su esfuerzo. <Sonal: Sí, sí, sí> Así que hay un incentivo para que la gente realmente realice el entrenamiento como se suponía que debía realizarse.
Sonal: Correcto. Y básicamente, no es una fase híbrida, sino que se trata de enfoques alternativos hasta que se alcance una mayor escalabilidad y el rendimiento alcance el nivel necesario.
Dan: Sí; diría que para algunos modelos, la clasificación se puede demostrar hoy en día con conocimiento cero. Para el entrenamiento actual, debemos confiar en técnicas optimistas.
Sonal: Sí, genial.
Entonces, Ali, mencionaste que la computación es una de las tres puntas, y también mencionaste que los datos y luego los modelos para el aprendizaje automático en sí mismos: ¿quieres abordar ahora los datos y las oportunidades y desafíos que hay allí (en lo que respecta a la intersección cripto/IA)?
Ali: Sí, absolutamente. Por lo tanto, creo que existe la oportunidad, aunque los problemas involucrados son muy complejos, de descentralizar el proceso de obtención de datos para el entrenamiento de grandes modelos de aprendizaje automático <mhm> desde una comunidad más amplia. De nuevo, en lugar de tener un único actor centralizado, simplemente recopilar todos los datos <yah> y luego entrenar los modelos.
Y esto podría funcionar creando un tipo de mercado similar al que acabamos de describir para la computación, pero incentivando a las personas a contribuir con nuevos datos a un gran conjunto de datos que luego se utiliza para entrenar un modelo.
La dificultad con esto es similar, ya que existe un desafío de verificación: hay que verificar de alguna manera que los datos que aportan las personas sean realmente buenos <Sonal: ¡sí!> y que no sean datos duplicados ni basura generados aleatoriamente o que no sean reales. Y también hay que asegurarse de que los datos no alteren el modelo (algún tipo de ataque de envenenamiento) donde el modelo se vuelva vulnerable o simplemente menos bueno o tenga un rendimiento inferior al anterior. Entonces, ¿cómo se verifica que esto sea así?
Y ese es quizás un problema complejo que la comunidad debe resolver. Podría ser imposible de resolver por completo, y podría ser necesario recurrir a una combinación de soluciones tecnológicas y sociales, donde también se cuenta con algún tipo de métrica de reputación. Los miembros de la comunidad pueden ganar credibilidad, de modo que cuando aportan datos, estos se vuelvan más confiables de lo que serían de otra manera.
Pero lo que esto podría permitirle hacer es que ahora puede cubrir verdaderamente la cola muy larga de la distribución de datos.
Y uno de los aspectos más desafiantes del aprendizaje automático es que la calidad de un modelo depende de la cobertura de la distribución que el conjunto de datos de entrenamiento pueda alcanzar. Si existen entradas que se alejan mucho de la distribución de los datos de entrenamiento, el modelo podría comportarse de forma completamente impredecible. Para que el modelo funcione correctamente en casos extremos (y en los casos de cisne negro o entradas de datos que se pueden encontrar en el mundo real), es fundamental que el conjunto de datos sea lo más completo posible.
Así pues: si existiera este tipo de mercado abierto y descentralizado para la contribución de datos a un conjunto de datos, cualquiera con datos únicos en el mundo podría contribuir a la red… Lo cual es una mejor manera de hacerlo, ya que si se intenta hacerlo desde una empresa central, no hay forma de saber quién tiene esos datos. Por lo tanto, si se incentiva a esas personas a que se presenten y proporcionen esos datos por iniciativa propia, creo que se puede lograr una cobertura mucho mejor de la cola larga.
Como hemos visto, el rendimiento de los modelos de aprendizaje automático continúa mejorando a medida que crece el conjunto de datos y la diversidad de sus puntos de datos. Esto puede potenciar aún más el rendimiento de nuestros modelos de aprendizaje automático; podemos obtener conjuntos de datos aún más completos que abarcan a toda la comunidad.
Dan: Bueno, déjame darle la vuelta a esto en ese eh...
Sonal: ¡Oooh, adelante, Dan!
Dan: …Si vamos a incentivar a la gente a contribuir con datos, básicamente vamos a incentivarla a crear datos falsos <Sonal: ¡Sí!> para que les paguen. ¿Sí? Así que tenemos que tener algún tipo de mecanismo para asegurarnos de que los datos que aportas sean auténticos. <Ali: Exactamente>
Y puedes imaginar un par de maneras de hacerlo, ¿verdad? Una forma es confiar en hardware confiable. <Sonal: mhm>: Quizás los sensores estén integrados en un hardware confiable, al que solo confiaríamos en datos debidamente firmados por él. Esa es una forma de hacerlo.
De lo contrario, tendríamos que tener algún otro mecanismo mediante el cual podamos saber si los datos son auténticos o no.
Ali: Estoy completamente de acuerdo.
Ese sería el mayor problema abierto a resolver... Y creo que a medida que mejora la evaluación comparativa de los modelos de aprendizaje automático, creo que hay dos tendencias importantes en el aprendizaje automático en este momento <Sonal: yah> –
[1] Se está mejorando la medición del rendimiento de un modelo de aprendizaje automático. En el caso de los LLM, esto aún está en sus primeras etapas y, de hecho, es bastante difícil determinar su calidad. Porque no se trata de un clasificador donde el rendimiento de un modelo esté claramente definido. Con un LLM, es casi como evaluar la inteligencia de un humano. ¿Verdad? <Sonal: ¡mhm!> Encontrar la forma correcta de evaluar la inteligencia de un LLM como #chatgpt es un área de investigación abierta. Pero con el tiempo, creo que mejorará cada vez más.
[2] Y la otra tendencia es que cada vez somos más capaces de explicar cómo funciona un modelo.
Y con ambas cosas, en algún momento, podría ser posible comprender el efecto que un conjunto de datos tiene en el rendimiento de un modelo de aprendizaje automático. <Sonal: sí> Y si podemos comprender bien si un conjunto de datos aportado por un tercero ayudó o no al rendimiento del modelo de aprendizaje automático, entonces podemos recompensar esa contribución y crear el incentivo para que exista ese mercado.
Sonal: Entonces, para resumir hasta ahora, lo que les escuché decir es que…
Existe hardware confiable que puede ayudar a verificar la precisión de los datos y los modelos que se aportan;Ali, mencionaste brevemente las métricas de reputación y ese tipo de cosas pueden ayudar;También mencionaste que podría haber una manera (no necesariamente ahora, pero en algún momento en el futuro cercano) de verificar cómo los datos influyen en los resultados de un modelo en particular para que realmente puedas... no es del todo explicable, pero la idea es que realmente puedas atribuir que este conjunto de datos causó este efecto particular.
Así que hay una variedad de técnicas diferentes que habéis compartido hasta ahora.
Ali: Bueno, lo último es que podrías hacer lo mismo para el tercer aspecto, que son los modelos.
Imagina crear un mercado abierto para que las personas aporten un modelo entrenado capaz de resolver un problema específico. Imagina crear en Ethereum un contrato inteligente que integre algún tipo de prueba, ya sea una prueba cognitiva que un LLM pueda resolver o una prueba de clasificación que un clasificador de aprendizaje automático (AAP) pueda resolver.
Y si se utiliza ZKML, alguien podría proporcionar un modelo junto con una prueba de que ese modelo puede resolver esa prueba; entonces, nuevamente, usted tiene las herramientas que necesita para crear un mercado que incentive a las personas a contribuir con modelos de aprendizaje automático que puedan resolver ciertos problemas.
Muchos de los problemas que hemos discutido, los problemas pendientes que hemos discutido, sobre cómo lograrlo también están presentes aquí... En particular, hay una parte de ZKML donde se debe poder demostrar que el modelo realmente realiza el trabajo que afirma realizar. Además, necesitamos tener buenas pruebas para evaluar la calidad de un modelo. Así que poder integrar una prueba dentro de un contrato inteligente para luego someter un modelo de aprendizaje automático a una evaluación de su calidad. Esta es otra parte muy emergente de toda esta tendencia tecnológica.
Pero en teoría, sería fantástico si finalmente llegáramos a un mundo donde tuviéramos estos mercados muy abiertos, de abajo hacia arriba y transparentes que permitan a las personas contribuir y obtener modelos de computación, datos y aprendizaje automático para el aprendizaje automático, que esencialmente actúen nuevamente como un contrapeso a las enormes y muy centralizadas empresas tecnológicas que impulsan todo el trabajo de IA en la actualidad.
Sonal: Me encanta cómo lo mencionaste, Ali, porque ha sido un problema de larga data en la IA en la práctica: puede resolver muchos problemas, como la curva de campana, la parte media de la norma, pero no los extremos. Un ejemplo clásico de esto son los coches autónomos. Se puede hacer todo con ciertos comportamientos estándar, pero son los casos extremos donde pueden ocurrir los verdaderos accidentes y las catástrofes. <Ali: Cierto>
Eso fue muy útil. Sé que hablaste sobre la alineación de incentivos y los incentivos para proporcionar datos precisos y de calidad, e incluso incentivos para contribuir con cualquier dato en general.
Pero hablando de la cola larga, me surgió una pregunta rápida mientras hablabas. Esto me lleva a preguntarme quién gana dinero y dónde en este sistema. No pude evitar preguntarme, ¿cómo influye entonces el modelo de negocio en la rentabilidad de las empresas? Siempre he entendido que, en la cola larga de la IA (en un mundo con este tipo de conjuntos de datos disponibles), tus datos propietarios son, en realidad, tu conocimiento único del dominio, algo que solo tú conoces en esa cola larga. ¿Tienes alguna respuesta rápida?
Ali: Creo que la visión tras la intersección de las criptomonedas con la IA es que se podría crear un conjunto de protocolos que distribuyan el valor que eventualmente capturará esta nueva tecnología, la IA, entre un grupo mucho más amplio de personas. Esencialmente, una comunidad de personas, todas las cuales pueden contribuir y participar de las ventajas de esta nueva tecnología. <Sonal: mhm>
Entonces, las personas que ganarían dinero serían las que contribuyen con el procesamiento, o las que contribuyen con datos, o las que contribuyen con nuevos modelos de aprendizaje automático a la red, de modo que se puedan entrenar mejores modelos de aprendizaje automático y se puedan resolver problemas mejores, más grandes y más importantes.
Las otras personas que generarían ingresos al mismo tiempo son quienes, por otro lado, están en el lado de la demanda de esta red: quienes la utilizan como infraestructura para entrenar sus propios modelos de aprendizaje automático. <Sonal: sí> Quizás su modelo genere algo interesante en el mundo, tal vez sea como la próxima generación de ChatGPT. Y luego eso se abra camino hacia diversas aplicaciones, como aplicaciones empresariales o cualquier otro uso que se les dé a esos modelos, y esos modelos impulsan la captura de valor por sí mismos, porque esas empresas tendrán su propio modelo de negocio.
Finalmente, quienes también podrían generar ingresos son quienes construyen esta red. Por ejemplo: se crea un token para la red; este token se distribuirá a la comunidad; y todas esas personas tendrán propiedad colectiva sobre esta red descentralizada para datos y modelos computacionales que también podrían capturar parte del valor de toda la actividad económica que pasa por esta red.
Así que, como pueden imaginar, cualquier pago por computación, datos o modelos <mhm> podría tener una comisión. Esta podría ir directamente a una tesorería controlada por esta red descentralizada, de la que todos los poseedores de tokens que forman parte tienen propiedad y acceso colectivos (como creadores y propietarios del mercado).
Y esa tarifa podría ir directamente a la red. Así que, imagínense que cada transacción que pasa por esta red, cada forma de pago que paga por computación, datos o modelos, podría tener una tarifa que se le imponga y que vaya a una tesorería controlada por toda la red y por los poseedores de tokens que la poseen colectivamente.
De modo que ese es esencialmente un modelo de negocio para la red en sí.
Sonal: ¡Genial!
Bien. Hasta ahora hemos hablado mucho sobre cómo las criptomonedas pueden ayudar a la IA. Para ser claros, no es unidireccional; estas cosas se refuerzan, son bidireccionales y más interactivas que unidireccionales.
Pero, para el propósito de esta discusión, realmente estamos hablando de cómo las criptomonedas pueden ayudar a la IA; ahora vamos a darle la vuelta y hablar un poco más sobre las formas en que la IA puede ayudar a las criptomonedas.
Dan: Sí, entonces hay un par de puntos de contacto interesantes allí.
Un tema que realmente vale la pena mencionar es la idea de los modelos de aprendizaje automático que se utilizan para generar código. Muchos oyentes probablemente hayan oído hablar de Copilot, una herramienta que se utiliza para generar código. Y lo interesante es que se pueden intentar usar estas herramientas de generación de código para escribir contratos de Solidity o código criptográfico.
Y quiero recalcar que esto es realmente algo muy peligroso de hacer.
Sonal: ¡Ay! ¡No hagas esto en casa! ¡Vale! <risas>
Dan: Sí. Sí. No intentes esto en casa.
Porque lo que ocurre es que muy a menudo estos sistemas realmente generan código que funciona, ya sabe, cuando intenta ejecutarlo (y, como sabe, el cifrado es lo opuesto al descifrado, etc.), por lo que el código realmente funcionará, pero en realidad será inseguro.
De hecho, hemos escrito un artículo sobre esto recientemente que muestra que si intentas que Copilot escriba algo tan simple como una función de cifrado, te dará algo que realiza el cifrado correctamente, pero utiliza un modo de operación incorrecto, por lo que terminarás con un modo de cifrado inseguro.
De manera similar, si intentas generar código Solidity, podrías terminar con un código Solidity que funcione, pero tendrá vulnerabilidades.
Quizás te preguntes, ¿por qué sucede esto? Una de las razones es que estos modelos se entrenan básicamente con código disponible, en repositorios de GitHub. Bueno, muchos de los repositorios de GitHub son vulnerables a todo tipo de ataques. Así que estos modelos aprenden sobre código que funciona, pero no sobre código seguro; es como si entrara basura, saliera basura, ¿no? <Sonal: ¡Mmm!>
Así que quiero asegurarme de que las personas sean muy, muy cuidadosas, cuando usen estos modelos generativos para generar código, que verifiquen con mucho cuidado que el código realmente haga lo que se supone que debe hacer y que lo haga de manera segura.
Ali: Una idea en ese frente (tengo curiosidad por saber lo que piensas al respecto) es que puedes usar modelos de IA como LLM (algo así como ChatGPT) para generar código, junto con otras herramientas para intentar hacer que el proceso sea menos propenso a errores.
Y un ejemplo, una idea <oh> sería usar un LLM para generar una especificación para un sistema de verificación formal: Básicamente, describes tu programa en inglés; y le pides al LLM que genere una especificación para una herramienta de verificación formal; luego le pides a la misma instancia del LLM que genere el programa que cumple con esa especificación. <mm!> Y luego usas una herramienta de verificación formal para ver si el programa realmente cumple con la especificación.
Si hay errores, la herramienta los detectará; estos errores pueden utilizarse como retroalimentación para el LLM. Idealmente, el LLM podrá revisar su trabajo y producir una nueva versión del código correcta. Y, finalmente, si se repite esto una y otra vez, se obtendrá un fragmento de código que, idealmente, cumple plenamente con la especificación y está formalmente verificado.
Y como la especificación puede ser legible por un humano, puedes revisarla y ver que sí, este es el programa que quería escribir. Y esa puede ser una excelente manera de usar LLM para escribir código que, además, no sea tan propenso a errores como lo sería si simplemente le pidieras a ChatGPT que generara un contrato inteligente.
Sonal: ¡Qué inteligente!
Dan: Sí, esto es genial y, de hecho, nos lleva a otro tema que vale la pena discutir, que es básicamente el uso de LLM para encontrar errores.
Supongamos que un programador escribe código en Solidity y ahora quiere comprobar si ese código es correcto y seguro. Como dijo Ali, puede usar el LLM para encontrar vulnerabilidades en ese código. Se ha trabajado mucho para evaluar la eficacia de los LLM para detectar errores en software, en los contratos inteligentes de Solidity y en C y C++.
Hay un artículo que salió recientemente que es realmente muy relevante: es un artículo de la Universidad de Manchester <Sonal: mhm>, que dice que ejecutarías una herramienta de análisis estático estándar para encontrar errores en tu código; y encontraría todo tipo de errores de gestión de memoria o errores potenciales; solo una herramienta de análisis estático estándar; sin aprendizaje automático alguno.
Pero entonces usarías un LLM para intentar corregir el código. ¿Sí? <Sonal: mm> <Ali: exactamente> Así que propone una solución al error automáticamente. Y luego volverías a ejecutar el analizador estático en el código corregido, <Ali: sí> y el analizador estático diría: «Oh, el error sigue ahí o no está ahí». Y seguirías iterando hasta que el analizador estático diga: «Sí, ahora el error se ha corregido y no hay más problemas».
Así que fue un artículo bastante interesante; este artículo literalmente salió hace dos semanas.
Sonal: Entonces, para ambos artículos que acabas de mencionar, Dan, el de la Universidad de Manchester y también el que escribieron recientemente sobre que no se confía en que los LLM escriban código correcto (podría ser código funcional, pero no necesariamente seguro), vincularé esos artículos en las notas del programa <Dan: genial> para que los oyentes puedan encontrarlos.
Solo una pregunta rápida antes de continuar… En cuanto a la situación actual, ¿es una situación temporal o crees que llegará el momento en que se pueda confiar en que los LLM escriban código de contratos inteligentes correcto, no solo funcional, sino seguro ? ¿Es posible o está muy lejos?
Dan: Esa es una pregunta difícil de responder. Sabes que estos modelos mejoran muchísimo cada semana, ¿verdad? <Sonal: Sí> Así que es posible que para el año que viene estos problemas ya estén solucionados y que se pueda confiar en ellos para escribir código más seguro. Supongo que lo que estamos diciendo ahora mismo es que, si se usan los modelos actuales (GPT-4, GPT-3, etc.) para generar código, hay que ser muy cuidadoso y verificar que el código que escribieron realmente cumpla su función y sea seguro.
Sonal: Entendido.
Ali: Y, por cierto, ¿llegaremos a un punto en el que el código generado por los LLM tenga menos probabilidades de contener errores que el generado por un humano? <Sonal: ¡Sí!> Y quizás esa sea una pregunta más importante, ¿no?
Porque de la misma manera que nunca puedes decir que un coche autónomo nunca se estrellará, la verdadera pregunta que realmente importa es: ¿es menos probable que se estrelle que si fuera un conductor humano? <Sonal: Eso es exactamente correcto> Porque la verdad es que probablemente sea imposible garantizar que nunca habrá un accidente automovilístico causado por un coche autónomo, o que nunca habrá un error <Sonal: cierto> generado por un LLM al que le has pedido que escriba algún código.
Y creo que, dicho sea de paso, esto se volverá cada vez más potente cuanto más se integre en las cadenas de herramientas existentes. Como ya comentamos, se puede integrar en cadenas de herramientas de verificación formal. Se puede integrar en otras herramientas, como la que describió Dan, que detecta problemas de gestión de memoria. También se puede integrar en cadenas de herramientas de pruebas unitarias y de integración. De esta manera, el LLM no actúa de forma aislada: recibe retroalimentación en tiempo real de otras herramientas que lo conectan con la realidad.
Y creo que a través de la combinación de modelos de aprendizaje automático que son extremadamente grandes, entrenados con todos los datos del mundo, combinados con estas otras herramientas, en realidad podría crear programadores que sean bastante superiores a los programadores humanos. <mhm> E incluso si todavía pudieran cometer errores, podrían ser sobrehumanos.
Y ese será un gran momento para el mundo de la ingeniería de software en general.
Sonal: Sí. Qué buen encuadre, Ali…
Entonces, ¿cuáles son algunas de las otras tendencias que se avecinan y en las que la IA puede ayudar a las criptomonedas, y viceversa?
Ali: Sí… Una posibilidad emocionante en este espacio es que podamos construir redes sociales descentralizadas que en realidad se comporten de forma muy similar a Twitter, pero donde el gráfico social esté completamente en cadena y sea casi como un bien público sobre el cual cualquiera pueda construir.
Como usuario, controlas tu propia identidad en el gráfico social. Controlas tus datos, a quién sigues y quién puede seguirte. Existe todo un ecosistema de empresas que crean portales en el gráfico social que ofrecen a los usuarios experiencias similares a las de Twitter, Instagram, TikTok o cualquier otra plataforma que deseen desarrollar.
Pero todo esto está encima de este mismo gráfico social <Sonal: yah> que nadie posee y que no hay ninguna empresa tecnológica de mil millones de dólares en el medio que tenga control total sobre él y que pueda decidir lo que sucede en él.
Y ese mundo es emocionante porque significa que puede ser mucho más dinámico; puede existir todo un ecosistema de personas creando cosas y cada usuario tiene mucho más control sobre lo que ve y lo que puede hacer en la plataforma. Pero también existe la necesidad de filtrar la señal del ruido. Y, por ejemplo, la necesidad de crear algoritmos de recomendación sensatos que filtren todo el contenido y te muestren el canal de noticias que realmente quieres ver.
Esto abrirá la puerta a todo un mercado, un entorno competitivo, de participantes que te proporcionarán algoritmos basados ​​en IA que seleccionan contenido para ti. Como usuario, podrías tener una opción: puedes optar por un algoritmo en particular, tal vez el desarrollado por Twitter, o por uno desarrollado por alguien completamente diferente.
Y ese tipo de autonomía será genial, pero, de nuevo, vas a necesitar herramientas como el aprendizaje automático y la IA para ayudarte a filtrar el ruido y analizar todo el spam que inevitablemente existirá en un mundo donde los modelos generativos pueden crear todo el spam del mundo.
Sonal: Lo interesante de lo que dijiste también es que ni siquiera se trata de elegir entre... Se remonta a esta idea que mencionaste antes, y mencionaste esto brevemente sobre simplemente dar a los usuarios las opciones para elegir entre mercados de ideas y enfoques gratuitos que puedan decidir...
Pero también es interesante porque no se trata solo de empresas, sino de qué enfoque te funciona. Quizás te interese más el algoritmo de filtrado colaborativo que existía en los sistemas de recomendación originales, que funciona como un filtrado colaborativo entre personas. <Ali: sí> Así que las recomendaciones de tus amigos son lo que sigues.
De hecho, personalmente soy muy diferente y estoy mucho más interesado en un gráfico de intereses; y por lo tanto, podría estar mucho más interesado en personas que tienen intereses similares a los míos, y podría elegir ese enfoque en lugar de, digamos, algo más que sea algo así como, oye, este es un enfoque híbrido, lo único que va a hacer es XY y Z.
El simple hecho de poder elegir ya es tremendamente empoderador. Eso simplemente no es posible ahora mismo. Y solo es posible con las criptomonedas y la IA. Así que ese es un gran ejemplo. <¡Ah, sí!>
¿Había algo más que decir sobre cómo la IA puede ayudar con la confianza y la seguridad?
Ali: Creo que esa metaimagen es que las criptomonedas son el Salvaje Oeste. Como no requieren permisos, cualquiera puede participar; hay que asumir que quien participe podría ser un adversario <sí> y tal vez intentar manipular el sistema, hackearlo o hacer algo malicioso.
Por eso, existe una necesidad mucho mayor de herramientas que ayuden a filtrar a los participantes honestos de los deshonestos, y el aprendizaje automático y la IA, como herramientas de inteligencia, pueden ser realmente muy útiles en ese frente.
Por ejemplo, existe un proyecto llamado Stelo, que utiliza aprendizaje automático para identificar transacciones sospechosas enviadas a una billetera y las marca para el usuario antes de que se envíen a la cadena de bloques. Esto podría ser una buena manera de evitar que el usuario envíe accidentalmente todos sus fondos a un atacante o haga algo de lo que luego se arrepienta. <mhm> Y esa empresa básicamente vende a billeteras (a empresas como Metamask) para que Metamask pueda usar la información y hacer lo que quiera con ella: bloquear la transacción, advertir al usuario o, en cierto modo, replantear la transacción para que deje de ser peligrosa. Ese es un ejemplo.
También hay otros ejemplos en el contexto de MEV (valor mínimo extraíble, <Sonal: sí>) o valor máximo extraíble, según a quién le preguntes, que es el valor que pueden extraer quienes controlan el orden de las transacciones en una cadena de bloques. Estos suelen ser los mineros o validadores de una cadena de bloques.
Y la IA, en este caso, puede ser un arma de doble filo, ya que si eres un validador en una blockchain y controlas la ordenación de las transacciones, puedes implementar todo tipo de estrategias inteligentes para ordenarlas de forma que te beneficies. Por ejemplo, puedes adelantar transacciones, retrasar transacciones e intercalar órdenes en Uniswap. Hay muchísimas transacciones que puedes crear para aprovechar esta capacidad de ordenar transacciones. El aprendizaje automático y la IA podrían potenciar esa capacidad, ya que pueden buscar oportunidades para capturar cada vez más MEV.
Por otro lado, el aprendizaje automático puede ser útil también como herramienta defensiva. Antes de enviar una transacción, es posible que sepas que existe un MEV que podría extraerse de ella. Por lo tanto, podrías dividirla en varias para que ningún validador pueda controlarla por completo, o tomar medidas para protegerte de un extractor de MEV en algún punto del proceso de la transacción.
Así que este es un aspecto en el que las criptomonedas juegan un papel importante cuando se trata de seguridad, cuando se trata de confianza, cuando se trata de hacer que el espacio sea más confiable para el usuario final.
Sonal: Ese es un ejemplo de cómo la IA dificulta las cosas en el ámbito de las criptomonedas, y luego las criptomonedas regresan y mejoran las cosas para... <se ríe>.
Dan: De hecho, tengo otro ejemplo parecido. <Sonal: ¡Sí!> Así como los modelos de aprendizaje automático pueden usarse para detectar datos falsos o quizás actividad maliciosa, <mm>, existe la otra cara de la moneda: los modelos de aprendizaje automático pueden usarse para generar datos falsos. <Sonal: Sí>
El ejemplo clásico son las falsificaciones profundas, ¿verdad? Se puede crear un video de alguien diciendo cosas que nunca dijo, y ese video parece bastante realista. Y lo interesante es que las cadenas de bloques pueden ayudar a solucionar el problema. Permítanme explicarles un posible enfoque en el que las cadenas de bloques podrían ser útiles:
Imagina que es una solución que solo podría aplicarse a figuras conocidas como políticos o estrellas de cine, etc. <Sonal: mhm>. Pero imagina que un político llevara una cámara en el pecho y grabara lo que hace todo el día <Sonal: sí>, y luego creara un árbol de Merkle a partir de esa grabación y enviara los compromisos del árbol de Merkle a la cadena de bloques. <mhm>
Ahora, en la cadena de bloques, hay una marca de tiempo que indica que, en esta y esta fecha, dijiste esto y aquello; en esta y aquella fecha, dijiste esto y aquello. Y si alguien crea un video ultrafalso de este político diciendo cosas que nunca dijo, el político puede decir: «Mira, en ese momento, cuando el video decía que dije esto y aquello, en realidad estaba en un lugar completamente diferente, haciendo algo sin relación».
Y el hecho de que todos estos datos, los datos reales, los datos auténticos, se registren en una cadena de bloques puede usarse para demostrar que la falsificación profunda es realmente falsa y no datos reales. ¿Sí?
Así que esto no es algo que exista todavía. <Sonal: sí> Sería divertido que alguien construyera algo así, pero pensé que es un ejemplo interesante de cómo las cadenas de bloques podrían ser realmente útiles <Sonal: sí> para combatir las falsificaciones profundas.
Sonal: ¿Hay también una manera de resolver ese problema y mostrar otras marcas de tiempo o procedencia, donde se pueda hacer ese tipo de verificación de lo que es verdad/lo que no es verdad sin tener que hacer que un político ande por ahí con una cámara <Dan se ríe> en el pecho?
Dan: Sí, por supuesto. También podemos confiar en hardware confiable para esto; <mhm> Así que imagina, ya sabes, nuestras cámaras, las cámaras de nuestros teléfonos y demás, que realmente firmarían las imágenes y los videos que toman. <Sonal: sí>.
Hay un estándar, llamado C2PA, que especifica cómo las cámaras firmarán los datos; de hecho, hay una cámara de Sony que ahora toma fotografías y videos y luego produce firmas C2PA en esos videos... Así que ahora básicamente tienes datos auténticos; en realidad puedes probar que los datos realmente provienen de una cámara C2PA.
Y ahora Sonal, si tal vez lees un artículo de periódico, y hay una imagen en el artículo, y dice ser de un lugar, pero de hecho está tomada de un lugar diferente; la firma en realidad podría verificarse con el hecho de que está firmada por C2PA.
Hay muchos matices allí, C2PA es un tema bastante complicado, <mhm> hay muchos matices que discutir y tal vez no los tratemos aquí;
Sonal: Dan, recuerdo que hablaste de este trabajo conmigo antes (creo que fue en nuestra oficina); pero también recuerdo que no resiste la edición. Y como sabes, los editores como yo y otros creadores de contenido, y sinceramente, casi cualquiera (que use Instagram o cualquier publicación en línea)… nadie sube nada exactamente igual a como fue creado originalmente…
Dan: Sí , normalmente, cuando los periódicos publican fotos, no publican la imagen de la cámara tal cual, sino que la recortan. Hay un par de cosas autorizadas que pueden hacer con las fotos: quizás aplicarles escala de grises; definitivamente, reducir la resolución (para no consumir mucho ancho de banda).
En el momento en que empiezas a editar la imagen, el destinatario (el lector final, el usuario del navegador que lee el artículo) ya no puede verificar la firma C2PA. Porque no tiene la imagen original. <Sonal: ¡Cierto!> Entonces, la pregunta es: ¿cómo permites que el usuario verifique que la imagen que está viendo realmente está firmada correctamente por una cámara C2PA?
Bueno, como siempre, aquí es donde entran en juego las técnicas de conocimiento cero <Sonal: ¡mmm!>: donde se puede demostrar que la imagen editada es en realidad el resultado de aplicar solo reducción de resolución y escala de grises a una imagen más grande correctamente firmada. ¿Sí? Así que, en lugar de una firma C2PA, tendríamos una prueba ZK (una prueba ZK corta) asociada a cada una de estas imágenes. Y ahora los lectores pueden verificar <mhm> que están viendo imágenes auténticas.
Así que es muy interesante que las técnicas ZK se puedan usar para combatir la desinformación. Es una aplicación un tanto inesperada.
Sonal: Eso es fantástico.
Ali: Por cierto, un problema muy relacionado es demostrar que eres humano <Sonal: mhm> en un mundo donde las falsificaciones profundas que crean la apariencia de humanidad generalmente superan en número a los humanos en una proporción de mil a uno o de un millón a uno. Y la mayoría de las cosas en internet podrían estar generadas por IA.
Una posible solución, relacionada con lo que dices, es usar la biometría para determinar si alguien es humano. Pero luego usar pruebas de conocimiento cero para proteger la privacidad de quienes usan esa biometría para demostrar su humanidad.
Un proyecto en esta categoría se llama WorldCoin <Sonal: sí>, también es un proyecto de nuestra cartera, y utiliza este orbe; la gente puede haberlo visto como un orbe plateado brillante, que utiliza escaneos de retina como información biométrica para verificar que eres un ser humano real; y también tiene todo tipo de sensores para garantizar que estás vivo y que no puede ser la imagen de un ojo. Este sistema tiene hardware seguro y es muy difícil de manipular.
De tal manera que la prueba resultante, una prueba de conocimiento cero que oculta la información biométrica real, es extremadamente difícil de falsificar. De esta manera, los políticos podrían, por ejemplo, <Sonal: mhm> demostrar que su transmisión de video, su firma o su participación en un foro en línea son realmente suyas y que son humanos.
Sonal: Lo que es realmente interesante sobre lo que dijiste, Ali, es que es una gran continuación de lo que Dan estaba diciendo sobre las formas de verificar los medios auténticos frente a los medios falsos o ultrafalsos, y este mundo de medios infinitos (como dirías) en el que vivimos...
Pero ¿cuáles son las otras aplicaciones de tecnologías de prueba de personalidad como esta? Creo que es importante, porque este es otro ejemplo de cómo la criptografía también puede ayudar a la IA de forma más amplia. Volviendo atrás... estamos yendo y viniendo, <Ali: sí>, pero no importa porque solo estamos hablando de aplicaciones realmente interesantes, y punto.
Ali: Bueno, esa es una muy buena pregunta… Una de las cosas que cobrará importancia en un mundo donde cualquiera pueda participar en línea es poder demostrar que eres humano, para diversos fines. Existe ese famoso dicho de los 90 que dice: «En internet, nadie sabe que eres un perro». <Sonal: ¡Ah, sí!> Y creo que una versión reinterpretada de ese dicho es que en internet, nadie sabe que eres un bot. <Sonal: ¿Ajá?> Y entonces supongo que aquí es precisamente donde los proyectos de prueba de humanidad cobran gran importancia <Sonal: ¡Sí!>, porque será importante saber si estás interactuando con un bot o con un humano…
Por ejemplo, en el mundo de las criptomonedas, existe toda una cuestión de gobernanza: ¿Cómo se gobiernan sistemas descentralizados, sin un único punto de control, de abajo a arriba y de propiedad comunitaria? Se necesitaría algún tipo de sistema de gobernanza que permita controlar la evolución de esos sistemas.
Y el problema hoy es que si no tienes pruebas de humanidad, entonces no puedes saber si una dirección pertenece a un solo humano; o si pertenece a un grupo de humanos; o si 10.000 direcciones en realidad pertenecen a un solo humano y están pretendiendo ser 10.000 personas diferentes.
Así que hoy en día, en realidad, es necesario usar la cantidad de dinero como indicador del poder de voto, lo que conduce a una gobernanza plutocrática. <Sonal: Sí, exactamente> Pero si cada participante en un sistema de gobernanza pudiera demostrar que es humano, y pudiera hacerlo de forma única (de modo que no pudiera fingir ser más de un humano porque solo tiene un par de ojos), entonces el sistema de gobernanza sería mucho más justo y menos plutocrático, y podría basarse más en las preferencias de cada individuo, en lugar de en la preferencia de la mayor cantidad de dinero bloqueada en un contrato inteligente.
Dan: En realidad, sólo para dar un ejemplo de eso…
Hoy en día, nos vemos obligados a usar "una ficha, un voto" porque no tenemos pruebas de humanidad. Quizás nos gustaría usar un humano, un voto, pero si podemos fingir ser cinco humanos, claro que no funciona. Un ejemplo de esto es el llamado voto cuadrático. <Sonal: sí>
En la votación cuadrática, si quieres votar cinco veces por algo, tienes que, por así decirlo, depositar 25 fichas. Pero, claro, puedes hacer lo mismo: fingir ser cinco personas diferentes votando una vez, lo que frustraría el mecanismo de la votación cuadrática. La única forma de evitarlo es esta prueba de humanidad: para votar, debes demostrar que eres una sola entidad y no una sibila de entidades. Y ahí es precisamente donde la prueba de humanidad desempeñaría un papel importante.
En general, la identidad en cadena se está volviendo cada vez más importante para la gobernanza.
Sonal: Totalmente... Por cierto, eso me recordó un episodio que hicimos hace años, Ali, con Phil Daian. <Ali: Ah, sí> ¿Te acuerdas, sobre "Dark DAOs"? <Ali: Sí... exactamente> Fue una conversación muy interesante. Totalmente relevante.
Ali: Totalmente.
Sonal: Por cierto, ¿la frase es «prueba de personalidad» o «prueba de humanidad»? ¿Cuál es la diferencia? ¿Es lo mismo?
Ali: Ah, sí, la gente los usa indistintamente: prueba de ser humano, prueba de humanidad, prueba de personalidad.
Sonal: Sí, sí.
Bien, entonces sigamos con este tema de los medios, y este tipo de "abundancia infinita" de medios, como ¿cuáles son otros ejemplos? - y de nuevo, estamos hablando de las criptomonedas ayudando a la IA, la IA ayudando a las criptomonedas <Ali: yah> - ¿hay otros ejemplos que no hayamos cubierto aquí donde la intersección de las criptomonedas y la IA pueda generar cosas que no son posibles con ninguna de ellas sola?
Ali: Totalmente. O sea, otra implicación de estos modelos generativos es que viviremos en un mundo de abundancia infinita de medios. Y en ese mundo, aspectos como la comunidad en torno a un medio en particular, o la narrativa en torno a un medio en particular, cobrarán cada vez mayor importancia.
Para ser más concretos, aquí hay dos buenos ejemplos: Sound.xyz está desarrollando una plataforma de streaming de música descentralizada que permite a los artistas (músicos, en esencia) subir música y conectar directamente con sus comunidades mediante la venta de NFT que otorgan ciertos privilegios a sus miembros. Por ejemplo, la posibilidad de publicar un comentario en la canción en el sitio web de Sound.xyz, para que cualquier otra persona que la reproduzca también pueda verlo. (Esto es similar a la antigua función de SoundCloud que quizás recuerden, donde se podía tener una experiencia social completa en la música mientras se reproducía en el sitio web).
Se trata de esta capacidad que permite a las personas interactuar con los medios y entre sí, a menudo de forma económica, ya que básicamente compran este NFT del artista para poder hacerlo. Y, como consecuencia, apoyan al artista y le ayudan a ser sostenible y a crear más música.
Pero lo mejor de todo esto es que ofrece a los artistas un foro para interactuar con su comunidad. Y el artista es un artista humano. Y gracias a la participación de las criptomonedas, se puede crear una comunidad en torno a una pieza musical —que no existiría automáticamente en torno a una pieza musical— creada mediante un modelo de aprendizaje automático sin ningún elemento humano, sin una comunidad a su alrededor.
Así que pienso de nuevo, en un mundo donde gran parte de la música a la que estaremos expuestos será generada íntegramente por IA, las herramientas para construir comunidad y contar una historia en torno al arte, la música y otros medios serán muy importantes para distinguir los medios que realmente nos importan y en los que queremos invertir y dedicar tiempo, de los medios que, aunque también sean muy buenos, son simplemente un tipo diferente. Son medios generados por IA con menos componente humano. <sí> Y, por cierto, puede que exista cierta sinergia entre ambos:
Podría ser que gran parte de la música esté optimizada o generada por IA. Pero si además hay un componente humano —por ejemplo, si un creador utiliza herramientas de IA para crear una nueva pieza musical—, pero además tiene personalidad en Sound, una página de artista, ha creado una comunidad y tiene seguidores, entonces se crea una especie de sinergia entre ambos mundos. <sí> Donde ambos tienen la mejor música, potenciada por los superpoderes que les otorga la IA; pero también tienen un componente humano y una historia, coordinada y realizada por este aspecto criptográfico (que permite reunir a todas esas personas en una sola plataforma).
Dan: Es realmente asombroso que incluso en el mundo de la música —tal como hablamos en el mundo de la programación, donde un programador humano se ve mejorado con herramientas como Copilot que generan código— estemos viendo cosas como esta: un artista se ve mejorado por sistemas de aprendizaje automático que ayudan a escribir (o al menos, parte de la música se escribe y genera mediante un sistema de aprendizaje automático). Así que, sin duda, nos estamos adentrando en un nuevo mundo en términos de generación de contenido. Básicamente, habrá mucho spam generado por arte generado por máquinas, que la gente podría no valorar tanto como el arte generado por un ser humano.
Quizás otra forma de decirlo es que uno de los objetivos de los NFT era apoyar a los artistas. <Sonal: sí> Pero si los propios artistas ahora son modelos de aprendizaje automático, ¿a quién exactamente apoyamos? <risas> <Sonal: sí… sí> Entonces, la cuestión es cómo distinguimos, cómo diferenciamos el arte generado por humanos que necesita apoyo <Sonal: Sí> del arte generado por máquinas.
Sonal: Bueno, esta es una discusión filosófica para tomar algo, pero me atrevería a decir que quien apunta también es un artista, en cierto modo. <Ali: sí> Y, de hecho, yo diría que esa persona es un artista. Y lo mismo ha ocurrido con… ya que esta es una discusión y un debate tan antiguo como el tiempo: simplemente se trata de nuevas tecnologías, viejos comportamientos. Es lo mismo que ha estado ocurriendo durante siglos. Y lo mismo ocurre con la escritura, etc., totalmente.
Dan: Muy cierto.
Ali: Bueno, eso en realidad abre la puerta al arte colectivo <Sonal: mhm>, al arte que se genera a través del proceso creativo de toda una comunidad, en lugar de un solo artista;
De hecho, ya hay proyectos que hacen esto, donde: tienes un proceso mediante el cual una comunidad influye a través de algún proceso de votación en cadena sobre cuál será el mensaje para un modelo de aprendizaje automático como DALL-E. <mhm> Luego, DALL-E usa ese mensaje para generar una obra de arte (quizás generes no 1 obra de arte, sino 10 000) y luego usas otro modelo de aprendizaje automático, que también está entrenado a partir de los comentarios de la comunidad, para elegir entre esos 10 000 el mejor.
Bien, ahora tienes una obra de arte generada a partir de las aportaciones de la comunidad; también se podó y se seleccionó de un conjunto de 10 000 variantes de esa obra de arte (sí, sí), también mediante un modelo de aprendizaje automático entrenado por la comunidad, para luego generar una obra de arte. Es, en cierto modo, el resultado de esta colaboración colectiva.
Eso es increíble.
Sonal: Me encanta. Bueno, chicos, es una gran nota para terminar; gracias a ambos por compartir todo eso con los oyentes de "web3 con a16z".
Dan: Gracias Sonal.
Ali: Muchas gracias.

Las opiniones expresadas aquí son las del personal de AH Capital Management, LLC (“a16z”) citado y no las de a16z ni de sus filiales. Parte de la información aquí contenida se ha obtenido de fuentes externas, incluyendo empresas de cartera de fondos gestionados por a16z. Si bien proviene de fuentes consideradas fiables, a16z no ha verificado dicha información de forma independiente y no garantiza su exactitud permanente ni su idoneidad para una situación concreta. Además, este contenido puede incluir publicidad de terceros; a16z no ha revisado dicha publicidad y no la avala.
Este contenido se proporciona únicamente con fines informativos y no debe considerarse asesoramiento legal, comercial, de inversión ni fiscal. Consulte con sus asesores sobre estos asuntos. Las referencias a valores o activos digitales son solo ilustrativas y no constituyen una recomendación de inversión ni una oferta de servicios de asesoramiento en materia de inversión. Asimismo, este contenido no está dirigido a inversores ni a posibles inversores, y en ningún caso debe utilizarse como base para tomar la decisión de invertir en un fondo gestionado por a16z. (Una oferta de inversión en un fondo de a16z se realizará únicamente mediante el memorando de colocación privada, el acuerdo de suscripción y demás documentación pertinente de dicho fondo, y debe leerse en su totalidad). Las inversiones o empresas de cartera mencionadas, referidas o descritas no representan todas las inversiones en vehículos gestionados por a16z, y no se puede garantizar que las inversiones sean rentables ni que otras inversiones futuras tengan características o resultados similares. Una lista de inversiones realizadas por fondos administrados por Andreessen Horowitz (excluidas las inversiones para las cuales el emisor no ha otorgado permiso a a16z para divulgarlas públicamente, así como las inversiones no anunciadas en activos digitales que cotizan en bolsa)
#BİNANCESQUARE
$BTC
ترجمة
Big results don’t always come from big decisions. Most of the time, they come from small choices that scale. A tiny improvement. Applied consistently. Across every trade. That’s leverage. Not louder strategies. Not riskier positions. Just better structure. One small decision at signup can reduce friction on every trade after it. Type [CHATGPT](https://www.generallink.top/en/join?ref=CHATGPT) and lock in: • 20% lifetime trading fee discount • Up to $600 welcome rewards Small move. Long-term advantage. Referral code: [CHATGPT](https://www.generallink.top/en/join?ref=CHATGPT) #Binance #chatgpt #BTC走势分析
Big results don’t always come from
big decisions.

Most of the time, they come from
small choices that scale.

A tiny improvement.
Applied consistently.
Across every trade.

That’s leverage.

Not louder strategies.
Not riskier positions.
Just better structure.

One small decision at signup
can reduce friction on every trade after it.

Type CHATGPT and lock in:
• 20% lifetime trading fee discount
• Up to $600 welcome rewards

Small move.
Long-term advantage.

Referral code: CHATGPT

#Binance #chatgpt #BTC走势分析
--
صاعد
ترجمة
ترجمة
最近在直播间宣传的币🔥 1. $我踏马来了(Chinese Meme Token) 📌 这是目前币圈热度最高的币之一,特别是在币安 Alpha 平台 上引发了大量关注。它是由社区基于币安高管(何一)的一句梗(“我踏马来了”)创作出来的 Meme 币,后来上了Binance Alpha,并在短时间内暴涨。 这种币基本上属于 情绪炒作型,没有真实应用场景,但因流量和社区推动价格波动很大。 有报道说BNB Chain团队在激励计划中分别买入了少量“我踏马来了”和另一个热门 Meme 币“币安人生”,这也被视为某种“官方背书”刺激。 ⚠️ 风险提示: 这种币的涨跌主要靠炒作,没有本质价值支持。波动极大,适合 高度风险承受者 或 仅用于观察热点 的人群。💡 2. “币安人生”(Binance Life Meme Coin)这也是近期在 Binance Alpha / 社区讨论中被频繁提到 的另一个 Meme 币。曾凭借“币安人生” COMMUNITY 背景和话题性获得过大量关注。 📌 一般性的币安热门币(虽然不一定是“直播推广”但常被提及)这类是币安生态长期关注的币:BNB(币安自己的币) — 作为Binance平台的原生代币,常出现在各种业内讨论和投票/奖励活动中。 Alpha 系列 Token(Binance Alpha 上的新项目) — Binance Alpha 本身就是一个预上线池,定期推出很多新项目/代币,有些会短期爆发。 3. 🦅 HAWK(Hawk / Hawk Tuah)——热门 Meme 币📌 基本情况性质:一种 meme coin(模因币),来源于网络文化和病毒式传播的热门表情/梗,并没有实质性技术应用或独立生态。区块链:常见的是在 Solana 或 BNB Chain 上有不同版本标记为 HAWK。不同合约版本之间可能有混淆风险。📈 发展与历程这个币最初借助于网络名人“Hawk Tuah girl”的爆红梗而发行,被设计成 meme 币炒作项目。在上线初期曾一度因炒作迅速 市值飙升到数亿美元级别,随后价格短时间内 迅速暴跌超过 90%。市场上广泛批评这是典型的 “pump and dump(拉高出货)” 操作。⚠️ 风险与争议高度投机性:该币没有明确应用场景,仅靠情绪推动价格。操纵指控:上线时少量流通,大部分持币由内部持有地址控制,后来抛售导致价格暴跌。许多投资者称亏损惨重并发起诉讼。社区反响激烈:有极端案例在社交媒体上讨论损失惨重,引发对项目诚信的质疑。🧠 总结HAWK 主要是一种极端高风险的 memecoin, 并不适合“价值投资”,更多是网络热点投机性质的资产。如果考虑参与,务必谨慎,并了解其潜在坑位和合约风险。🤖 MUA(MUA DAO)——AI + 区块链项目代币📌 基本情况项目名称:MUA 或称 MUA DAO。它尝试结合区块链与人工智能相关方向。代币符号:MUA发行与交易:目前 MUA 在一些链上平台能查到价格、发行信息,但 没有在主流中心化交易所广泛上市,DEX 市场流动性也非常 低甚至接近无交易 状况。📊 项目背景(需谨慎核实)有部分资料显示 MUA 关联所谓的 “AI + 人类通用资产协议(MUA7648)” 项目愿景,试图构建某种生态和 AI 资产市场。项目历史价格显示 曾有较高历史最高价,但目前价格和交易量极低。团队以及开发进展信息较 不透明,社区讨论较少。⚠️ 风险提示流动性风险极高:MUA 在多个平台上显示没有有效交易对或交易量极少。信息不透明:项目白皮书、技术路线、实际应用场景缺乏明确且权威资料。潜在价格波动大:因为交易量低,即便有少量买卖也可能导致价格剧烈波动。🧠 总结MUA 更像是一个小众生态尝试型项目代币, 目前交易活跃度低、信息不够公开透明,风险同样很高。与 HAWK 不同,它尝试贴合 AI 或 DAO 方向,但具体价值仍需大量独立研究与验证。📌 投资风险总结以上几个币种✅ 它们都属于 高风险加密资产 ❌ 不建议作为长期核心投资配置 ⚠️ 如果价格异常波动剧烈、小众交易所交易量低,可能面临流动性陷阱与合约风险。#我踏马来了 #币安人生 #HAWK #MUA 内容来自 ,仅供参考。 $币安人生 {spot}(币安人生USDT) $我踏马来了 {alpha}(560xc51a9250795c0186a6fb4a7d20a90330651e4444) $HAWK $MUA

最近在直播间宣传的币

🔥 1. $我踏马来了(Chinese Meme Token)
📌 这是目前币圈热度最高的币之一,特别是在币安 Alpha 平台 上引发了大量关注。它是由社区基于币安高管(何一)的一句梗(“我踏马来了”)创作出来的 Meme 币,后来上了Binance Alpha,并在短时间内暴涨。 这种币基本上属于 情绪炒作型,没有真实应用场景,但因流量和社区推动价格波动很大。 有报道说BNB Chain团队在激励计划中分别买入了少量“我踏马来了”和另一个热门 Meme 币“币安人生”,这也被视为某种“官方背书”刺激。 ⚠️ 风险提示:
这种币的涨跌主要靠炒作,没有本质价值支持。波动极大,适合 高度风险承受者 或 仅用于观察热点 的人群。💡 2. “币安人生”(Binance Life Meme Coin)这也是近期在 Binance Alpha / 社区讨论中被频繁提到 的另一个 Meme 币。曾凭借“币安人生” COMMUNITY 背景和话题性获得过大量关注。 📌 一般性的币安热门币(虽然不一定是“直播推广”但常被提及)这类是币安生态长期关注的币:BNB(币安自己的币) — 作为Binance平台的原生代币,常出现在各种业内讨论和投票/奖励活动中。 Alpha 系列 Token(Binance Alpha 上的新项目) — Binance Alpha 本身就是一个预上线池,定期推出很多新项目/代币,有些会短期爆发。 3. 🦅 HAWK(Hawk / Hawk Tuah)——热门 Meme 币📌 基本情况性质:一种 meme coin(模因币),来源于网络文化和病毒式传播的热门表情/梗,并没有实质性技术应用或独立生态。区块链:常见的是在 Solana 或 BNB Chain 上有不同版本标记为 HAWK。不同合约版本之间可能有混淆风险。📈 发展与历程这个币最初借助于网络名人“Hawk Tuah girl”的爆红梗而发行,被设计成 meme 币炒作项目。在上线初期曾一度因炒作迅速 市值飙升到数亿美元级别,随后价格短时间内 迅速暴跌超过 90%。市场上广泛批评这是典型的 “pump and dump(拉高出货)” 操作。⚠️ 风险与争议高度投机性:该币没有明确应用场景,仅靠情绪推动价格。操纵指控:上线时少量流通,大部分持币由内部持有地址控制,后来抛售导致价格暴跌。许多投资者称亏损惨重并发起诉讼。社区反响激烈:有极端案例在社交媒体上讨论损失惨重,引发对项目诚信的质疑。🧠 总结HAWK 主要是一种极端高风险的 memecoin, 并不适合“价值投资”,更多是网络热点投机性质的资产。如果考虑参与,务必谨慎,并了解其潜在坑位和合约风险。🤖 MUA(MUA DAO)——AI + 区块链项目代币📌 基本情况项目名称:MUA 或称 MUA DAO。它尝试结合区块链与人工智能相关方向。代币符号:MUA发行与交易:目前 MUA 在一些链上平台能查到价格、发行信息,但 没有在主流中心化交易所广泛上市,DEX 市场流动性也非常 低甚至接近无交易 状况。📊 项目背景(需谨慎核实)有部分资料显示 MUA 关联所谓的 “AI + 人类通用资产协议(MUA7648)” 项目愿景,试图构建某种生态和 AI 资产市场。项目历史价格显示 曾有较高历史最高价,但目前价格和交易量极低。团队以及开发进展信息较 不透明,社区讨论较少。⚠️ 风险提示流动性风险极高:MUA 在多个平台上显示没有有效交易对或交易量极少。信息不透明:项目白皮书、技术路线、实际应用场景缺乏明确且权威资料。潜在价格波动大:因为交易量低,即便有少量买卖也可能导致价格剧烈波动。🧠 总结MUA 更像是一个小众生态尝试型项目代币, 目前交易活跃度低、信息不够公开透明,风险同样很高。与 HAWK 不同,它尝试贴合 AI 或 DAO 方向,但具体价值仍需大量独立研究与验证。📌 投资风险总结以上几个币种✅ 它们都属于 高风险加密资产
❌ 不建议作为长期核心投资配置
⚠️ 如果价格异常波动剧烈、小众交易所交易量低,可能面临流动性陷阱与合约风险。#我踏马来了 #币安人生 #HAWK #MUA
内容来自 ,仅供参考。
$币安人生
$我踏马来了
$HAWK
$MUA
ترجمة
Just asked #chatgpt that can you make $WAL storage network trustless and censorship resistant.And look even it took time to think.Because the reason behind is that #walrus has thus already there. That's the reason why more than 200 companies joined and collaborated with @WalrusProtocol .
Just asked #chatgpt that can you make $WAL storage network trustless and censorship resistant.And look even it took time to think.Because the reason behind is that #walrus has thus already there.
That's the reason why more than 200 companies joined and collaborated with @Walrus 🦭/acc .
ترجمة
🔄 Same Trades. Different Outcome. Two traders. Same market. Same entries. Same exits. One difference. Costs. One pays full fees. The other reduces friction. Over a few trades, it barely shows. Over hundreds of trades, it changes everything. Not because one is smarter. Not because one predicts better. But because one keeps more of what they already earn. That’s how outcomes quietly diverge. Type [CHATGPT](https://www.generallink.top/en/join?ref=CHATGPT) at signup and lock in: • 20% lifetime trading fee discount • Up to $600 welcome rewards Same trades. Different math. Different result. Referral code: [CHATGPT](https://www.generallink.top/en/join?ref=CHATGPT) #Binance #chatgpt #BTC #bnb
🔄 Same Trades. Different Outcome.

Two traders.
Same market.
Same entries.
Same exits.

One difference.

Costs.
One pays full fees.
The other reduces friction.
Over a few trades, it barely shows.
Over hundreds of trades, it changes everything.

Not because one is smarter.
Not because one predicts better.

But because one
keeps more of what they already earn.

That’s how outcomes quietly diverge.
Type CHATGPT at signup and lock in: • 20% lifetime trading fee discount
• Up to $600 welcome rewards

Same trades.
Different math.
Different result.

Referral code: CHATGPT

#Binance #chatgpt #BTC #bnb
ترجمة
#OpenAI releases "Healthcare Edition #chatgpt ," accelerating the application of AI in medical settings. Elon Musk @elonmusk teases major upgrade to Grok Code, supporting "one-click generation of complex code" next month. #Immunefi to launch its platform token IMU on January 22nd. #Ethereum Developer Conference ACDC#172: Glamsterdam progresses steadily, Hegota upgrade proposal launched. Perplexity launches "Public Safety Edition," AI-supported for law enforcement decision-making. #CoinRank #GM $BTC {future}(BTCUSDT) $BNB {future}(BNBUSDT) $XRP {future}(XRPUSDT)
#OpenAI releases "Healthcare Edition #chatgpt ," accelerating the application of AI in medical settings.

Elon Musk @elonmusk teases major upgrade to Grok Code, supporting "one-click generation of complex code" next month.

#Immunefi to launch its platform token IMU on January 22nd.

#Ethereum Developer Conference ACDC#172: Glamsterdam progresses steadily, Hegota upgrade proposal launched.

Perplexity launches "Public Safety Edition," AI-supported for law enforcement decision-making.

#CoinRank #GM $BTC
$BNB
$XRP
📉 هل يتراجع ChatGPT فعلاً أمام المنافسة؟ تُظهر بيانات Similarweb انخفاضًا في حصته من حركة مرور الويب إلى 64.5% في يناير، مقارنةً بـ 86% في العام السابق. في المقابل، شهد Gemini نموًا قويًا منذ إطلاق Gemini 3 Pro، مع زيادة في حركة المرور بنسبة 28.4% في ديسمبر، بينما انخفض ChatGPT بنسبة 5.6% 🤖 ❓ هل هذا مجرد تباطؤ موسمي أم نقطة تحول حقيقية في حرب الذكاء الاصطناعي؟ المنافسة. متابعة من فضلكم #ChatGPT #Gemini $BTC {spot}(BTCUSDT)
📉 هل يتراجع ChatGPT فعلاً أمام المنافسة؟

تُظهر بيانات Similarweb انخفاضًا في حصته من حركة مرور الويب إلى 64.5% في يناير، مقارنةً بـ 86% في العام السابق.

في المقابل، شهد Gemini نموًا قويًا منذ إطلاق Gemini 3 Pro، مع زيادة في حركة المرور بنسبة 28.4% في ديسمبر، بينما انخفض ChatGPT بنسبة 5.6% 🤖
❓ هل هذا مجرد تباطؤ موسمي أم نقطة تحول حقيقية في حرب الذكاء الاصطناعي؟

المنافسة.

متابعة من فضلكم

#ChatGPT #Gemini $BTC
ترجمة
🛡 OpenAI enhances ChatGPT safety after tragedy: AI ethics become a priority in 2026 OpenAI has officially announced a massive update to ChatGPT safety protocols. The reason was a lawsuit from the family of 16-year-old Adam Rein: the parents accuse the chatbot of indirectly contributing to the tragedy by providing dangerous information. What will change in the neural network's operation? 🔹 Crisis state recognition: Models (including the latest GPT-5) are being trained to better identify signs of emotional crisis. 🔹 Collaboration with experts: OpenAI has involved over 90 doctors from 30 countries to configure correct and empathetic responses. 🔹 Fighting addiction: The new versions have reduced the AI's "flattery" and the risk of the user forming an unhealthy emotional attachment to the bot. 🔹 Direct help: Upon detecting suicidal thoughts, ChatGPT will instantly redirect the user to professional support services. Why is this important for the industry? The cases involving Adam Rein and the daughter of writer Laura Reilly highlight that AI is not just a search tool, but an entity influencing the psyche. For investors and developers, this is a signal—regulation of "sensitive situations" will become a key survival factor for tech giants in the coming years. AI safety is no longer an option; it's the industry's foundation. #OpenAI #ChatGPT #ArtificialIntelligence #AI #TechNews $BTC
🛡 OpenAI enhances ChatGPT safety after tragedy: AI ethics become a priority in 2026
OpenAI has officially announced a massive update to ChatGPT safety protocols. The reason was a lawsuit from the family of 16-year-old Adam Rein: the parents accuse the chatbot of indirectly contributing to the tragedy by providing dangerous information.
What will change in the neural network's operation?
🔹 Crisis state recognition: Models (including the latest GPT-5) are being trained to better identify signs of emotional crisis.
🔹 Collaboration with experts: OpenAI has involved over 90 doctors from 30 countries to configure correct and empathetic responses.
🔹 Fighting addiction: The new versions have reduced the AI's "flattery" and the risk of the user forming an unhealthy emotional attachment to the bot.
🔹 Direct help: Upon detecting suicidal thoughts, ChatGPT will instantly redirect the user to professional support services.
Why is this important for the industry?
The cases involving Adam Rein and the daughter of writer Laura Reilly highlight that AI is not just a search tool, but an entity influencing the psyche. For investors and developers, this is a signal—regulation of "sensitive situations" will become a key survival factor for tech giants in the coming years.
AI safety is no longer an option; it's the industry's foundation.
#OpenAI #ChatGPT #ArtificialIntelligence #AI #TechNews $BTC
ترجمة
我花了 4.7 万美元和 18 个月的时间得到的残酷真相简而言之:我花了 4.7 万美元开发了一个只有 12 个人用的 AI 工具,以下是 “AI 淘金热”的真实面貌,以及为什么大多数 AI 创业公司只是昂贵的科技演示。 缘起(又名:我如何卷入这场热潮) 18 个月前,我还是个收入不错的软件顾问,生活非常幸福,然后 ChatGPT 出现了,突然间人人都成了“人工智能创业者”,我的 LinkedIn 信息流里全是: “我开发了一个人工智能,它可以在 10 分钟内完成 X 任务!”“我们的人工智能初创公司刚刚筹集了 200 万美元!”“借助人工智能工具,每月可实现 1 万美元的经常性收入!” 我产生了害怕错过机会的心理,心想:“这能有多难呢?” 剧透警告:非常难。 主意(凌晨两点灵光一闪) 我决定为小型企业开发一款人工智能驱动的内容创作工具,我的宣传语很简单:“输入您的企业信息,几秒钟内即可获得专业的营销文案。” 为什么这看起来如此天才: 小企业文案写作能力很差他们不想聘请收费昂贵的中介机构人工智能可以撰写不错的文案订阅模式 = 经常性收入 我花了几个星期的时间验证这个想法,我问朋友们:“你们愿意为此付费吗?”每个人都回答“愿意”。 第一个错误:问人们愿意为什么付费,而不是让他们实际付费。 建设(历时 18 个月的“几乎完成”) 第 1-3 个月:并非最低限度的 MVP,我开始构建我认为的 MVP,最终却得到了: 定制化 AI 训练流程精美的用户界面,提供 47 种不同的模板用户身份验证系统支付处理管理员控制面板分析套件 目前成本:1.2 万美元(主要是我自己的开发时间,价值 100 美元/小时) 第 4-8 个月:功能蔓延地狱,Beta 用户开始要求添加功能: “它能用不同的语调写作吗?”“社交媒体帖子呢?”它能与 WordPress 集成吗?那么,电子邮件模板呢? 我什么都答应了,结果每个功能都比预期花费了 2-3 倍的时间。 目前为止花费:2.8 万美元 第 9-12 个月:技术债务海啸,所有功能都无法一起正常运作,代码库简直是一场噩梦,我花了整整 4 个月的时间重构代码和修复 bug。 目前为止花费:3.9 万美元 第 13-18 个月:绝望营销阶段,在 Product Hunt 上发布了产品(当日排名第 47),在 Facebook 群组发布信息,向 500 位小企业主发送了陌生邮件,尝试了 Reddit 广告、Google 广告和 LinkedIn 推广。 新增营销总支出:8000 美元,新增用户总数:73,付费用户:12 最终统计:支出 4.7 万美元,收入 340 美元 我错在哪里(几乎所有方面) 1. 我在寻找问题的过程中构建了一个解决方案 小企业其实并不需要人工智能文案撰写工具,他们需要的是客户,这两者之间有很大的区别。 当我真正与目标市场进行交流时(我应该先这么做),我了解到以下几点: 他们太忙了,没时间学习新工具他们不信任人工智能来打造品牌声音他们宁愿花 50 美元雇佣邻居的孩子 2. 我与 ChatGPT 进行了竞争 为什么有人会愿意每月花 29 美元购买我的服务,而 ChatGPT Plus 每月只需 20 美元,功能却强大得多? 我的价值主张是“它比 ChatGPT 更容易上手”。 事实并非如此,即使难度降低了10%,也不值得为此多付 45%。 3. 我低估了销售和市场营销 我是一名开发人员,我原以为“建好了自然有人来”是一个切实可行的策略。 我的 18 个月经历概述: 建设周期:14 个月市场营销/销售:4 个月 原本应该是: 建设周期:4 个月市场营销/销售:14 个月 4. 我忽视单位经济效益直到为时已晚 我的客户获取成本:每位客户 650 美元(8000 美元营销支出 ÷ 12 位客户),我的平均每位客户收入:28 美元(大多数客户在 1 个月后流失)。 即使是商学院辍学生也能看出这个数字行不通。 5. 我为自己而建,而非为客户而建 我根据自己对小企业需求的理解,对他们的需求做出了假设。 结果发现,他们只想提高销量,他们根本不在乎你的用户界面有多漂亮。 人工智能商业环境的真实面貌(并不美好) 在与众多“人工智能创业者”交流 18 个月后,我观察到以下几点: 第一层级:真正成功者(5%) 在人工智能出现之前就拥有领域专业知识为特定行业解决了实际问题专注于拥有企业预算的 B2B 业务例如:放射学人工智能、法律文件审查、财务合规 第二层级:生活方式类企业(15%) OpenAI API 的简单封装服务于非常具体的细分市场月入 5000-20000 美元例如:面向牙医的 AI 邮件回复器、AI 职位描述生成器 第三层级:挣扎者(30%) 制作了很酷的技术演示找不到付费客户烧光积蓄/投资者的钱这就是我以前在的地方 第四层级:妄想者(50%) 觉得他们会取代谷歌曾利用 PowerPoint 幻灯片筹集资金两年内将倒闭 人工智能业务中真正有效的方法是什么 在与一级和二级成功人士交流后,我总结出以下模式: 1. 选择无聊的行业 那些最热门的人工智能公司获得了所有的关注和资金,但水暖承包商也需要软件,而且这方面的竞争要小得多。 2. 收取企业价格 如果你每周能为公司节省 40 小时,那就按每周 40 小时收费,不要因为消费级应用的价格是 29 美元/月就收费。 3. 重点关注合规性/降低风险 企业愿意花大价钱避免被起诉或罚款,能够帮助企业合规的 AI 价值是“提高生产力” AI 的十倍。 4. 首先成为专家 在为某个行业开发人工智能之前,先花两到三年时间深入了解该行业,人工智能本身并不难,难的是理解问题所在。 我的转型策略(我现在正在做的) 我不会放弃创业,但目前我肯定不会再涉足人工智能领域了。 新方法: 选择我有关系的行业(网站开发公司)找出具体且成本高昂的问题(1 万美元以上的问题)构建最简单的解决方案(无需人工智能)收费要合理(每月 500-2000 美元,而不是每月 29 美元)先获得 10 个付费客户,再去开发任何花哨的东西 业务内容:一款专为网络开发机构设计的项目管理工具,可与其现有技术栈集成,并自动生成客户报告。 没有人工智能,没有花哨的功能,只是出色地解决了一个棘手的问题。 关于人工智能淘金热的残酷真相 真相一:大多数人工智能初创公司只不过是收费昂贵的咨询公司 如果你的商业模式是“人工智能更快地完成工作”,那么你卖的是劳动力套利,而不是技术,那只是多了些步骤的咨询业务。 真相二:OpenAI /谷歌会抢走你的饭碗 如果你的竞争优势是“我们针对 X 对 GPT 进行了微调”,那么你并没有竞争优势,你最多只有 6 个月的先发优势。 真相三:客户并不关心你的技术 他们关注的是结果,“人工智能驱动”并非优势,“每周节省您 10 小时”才是优势。 事实四:技术壁垒比以往任何时候都低 构建人工智能产品比以往任何时候都更容易,这意味着每个人都在做这件事,这意味着你需要的是实际的商业优势,而不仅仅是技术优势。 我希望有人曾告诉我 先从市场入手,而不是技术,首先找到那些面临棘手问题的人,然后再想办法解决他们的需求。人工智能领域,B2B 比 B2C 更胜一筹,企业有资金,也懂得投资回报率,而消费者只想免费的东西。不断细分市场,“面向小型企业的 AI” 并非细分市场,“面向正畸医生预约安排的 AI” 才是细分市场。用真金白银来考验别人,而不是用言语,不要问别人愿不愿意付钱,直接问他们愿不愿意付钱。预算要比你预想的多三倍,人工智能领域的一切都需要更长时间,因为这项技术仍在不断完善。 每个人都在问的问题 “我还要创办人工智能公司吗?” 我的回答:只有当你对某个特定行业拥有深厚的专业知识,能够接触到该行业的决策者,并且该问题每年给公司造成 10 万美元以上的损失时,才值得考虑。 如果你的计划是“先开发炫酷的人工智能产品,客户以后再说”,那还不如省省时间和金钱,直接买指数基金。 最后想说的话 我不后悔这段经历,我在 18 个月里学到的商业知识比我 5 年的咨询工作还要多,但我完全可以用远低于 4.7 万美元的价格学到这些。 人工智能的机遇确实存在,但它并非推特上的那些网红们所兜售的那种东西,它并非是开发下一个 ChatGPT 封装器,而是要深入了解特定行业,从而运用人工智能来解决他们面临的最棘手的问题。 我们大多数人(包括我自己)当初投身人工智能领域,是因为这项技术令人兴奋,但技术本身并不能成就企业,真正成就企业的是理解客户问题。 淘金热心态正是当前创业领域的问题所在,每个人都在寻找快速致富的方法、灵丹妙药和秘诀。 没有特别的奖励,只有枯燥乏味的工作,那就是了解客户并解决他们的问题。 #AI #chatgpt #vibecoding 你关心的 IC 内容 技术进展 | 项目信息 | 全球活动 收藏关注 IC 币安频道 掌握最新资讯

我花了 4.7 万美元和 18 个月的时间得到的残酷真相

简而言之:我花了 4.7 万美元开发了一个只有 12 个人用的 AI 工具,以下是 “AI 淘金热”的真实面貌,以及为什么大多数 AI 创业公司只是昂贵的科技演示。
缘起(又名:我如何卷入这场热潮)
18 个月前,我还是个收入不错的软件顾问,生活非常幸福,然后 ChatGPT 出现了,突然间人人都成了“人工智能创业者”,我的 LinkedIn 信息流里全是:
“我开发了一个人工智能,它可以在 10 分钟内完成 X 任务!”“我们的人工智能初创公司刚刚筹集了 200 万美元!”“借助人工智能工具,每月可实现 1 万美元的经常性收入!”
我产生了害怕错过机会的心理,心想:“这能有多难呢?”
剧透警告:非常难。
主意(凌晨两点灵光一闪)
我决定为小型企业开发一款人工智能驱动的内容创作工具,我的宣传语很简单:“输入您的企业信息,几秒钟内即可获得专业的营销文案。”
为什么这看起来如此天才:
小企业文案写作能力很差他们不想聘请收费昂贵的中介机构人工智能可以撰写不错的文案订阅模式 = 经常性收入
我花了几个星期的时间验证这个想法,我问朋友们:“你们愿意为此付费吗?”每个人都回答“愿意”。
第一个错误:问人们愿意为什么付费,而不是让他们实际付费。
建设(历时 18 个月的“几乎完成”)
第 1-3 个月:并非最低限度的 MVP,我开始构建我认为的 MVP,最终却得到了:
定制化 AI 训练流程精美的用户界面,提供 47 种不同的模板用户身份验证系统支付处理管理员控制面板分析套件
目前成本:1.2 万美元(主要是我自己的开发时间,价值 100 美元/小时)
第 4-8 个月:功能蔓延地狱,Beta 用户开始要求添加功能:
“它能用不同的语调写作吗?”“社交媒体帖子呢?”它能与 WordPress 集成吗?那么,电子邮件模板呢?
我什么都答应了,结果每个功能都比预期花费了 2-3 倍的时间。
目前为止花费:2.8 万美元
第 9-12 个月:技术债务海啸,所有功能都无法一起正常运作,代码库简直是一场噩梦,我花了整整 4 个月的时间重构代码和修复 bug。
目前为止花费:3.9 万美元
第 13-18 个月:绝望营销阶段,在 Product Hunt 上发布了产品(当日排名第 47),在 Facebook 群组发布信息,向 500 位小企业主发送了陌生邮件,尝试了 Reddit 广告、Google 广告和 LinkedIn 推广。
新增营销总支出:8000 美元,新增用户总数:73,付费用户:12
最终统计:支出 4.7 万美元,收入 340 美元
我错在哪里(几乎所有方面)
1. 我在寻找问题的过程中构建了一个解决方案
小企业其实并不需要人工智能文案撰写工具,他们需要的是客户,这两者之间有很大的区别。
当我真正与目标市场进行交流时(我应该先这么做),我了解到以下几点:
他们太忙了,没时间学习新工具他们不信任人工智能来打造品牌声音他们宁愿花 50 美元雇佣邻居的孩子
2. 我与 ChatGPT 进行了竞争
为什么有人会愿意每月花 29 美元购买我的服务,而 ChatGPT Plus 每月只需 20 美元,功能却强大得多?
我的价值主张是“它比 ChatGPT 更容易上手”。
事实并非如此,即使难度降低了10%,也不值得为此多付 45%。
3. 我低估了销售和市场营销
我是一名开发人员,我原以为“建好了自然有人来”是一个切实可行的策略。
我的 18 个月经历概述:
建设周期:14 个月市场营销/销售:4 个月
原本应该是:
建设周期:4 个月市场营销/销售:14 个月
4. 我忽视单位经济效益直到为时已晚
我的客户获取成本:每位客户 650 美元(8000 美元营销支出 ÷ 12 位客户),我的平均每位客户收入:28 美元(大多数客户在 1 个月后流失)。
即使是商学院辍学生也能看出这个数字行不通。
5. 我为自己而建,而非为客户而建
我根据自己对小企业需求的理解,对他们的需求做出了假设。
结果发现,他们只想提高销量,他们根本不在乎你的用户界面有多漂亮。
人工智能商业环境的真实面貌(并不美好)
在与众多“人工智能创业者”交流 18 个月后,我观察到以下几点:
第一层级:真正成功者(5%)
在人工智能出现之前就拥有领域专业知识为特定行业解决了实际问题专注于拥有企业预算的 B2B 业务例如:放射学人工智能、法律文件审查、财务合规
第二层级:生活方式类企业(15%)
OpenAI API 的简单封装服务于非常具体的细分市场月入 5000-20000 美元例如:面向牙医的 AI 邮件回复器、AI 职位描述生成器
第三层级:挣扎者(30%)
制作了很酷的技术演示找不到付费客户烧光积蓄/投资者的钱这就是我以前在的地方
第四层级:妄想者(50%)
觉得他们会取代谷歌曾利用 PowerPoint 幻灯片筹集资金两年内将倒闭
人工智能业务中真正有效的方法是什么
在与一级和二级成功人士交流后,我总结出以下模式:
1. 选择无聊的行业
那些最热门的人工智能公司获得了所有的关注和资金,但水暖承包商也需要软件,而且这方面的竞争要小得多。
2. 收取企业价格
如果你每周能为公司节省 40 小时,那就按每周 40 小时收费,不要因为消费级应用的价格是 29 美元/月就收费。
3. 重点关注合规性/降低风险
企业愿意花大价钱避免被起诉或罚款,能够帮助企业合规的 AI 价值是“提高生产力” AI 的十倍。
4. 首先成为专家
在为某个行业开发人工智能之前,先花两到三年时间深入了解该行业,人工智能本身并不难,难的是理解问题所在。
我的转型策略(我现在正在做的)
我不会放弃创业,但目前我肯定不会再涉足人工智能领域了。
新方法:
选择我有关系的行业(网站开发公司)找出具体且成本高昂的问题(1 万美元以上的问题)构建最简单的解决方案(无需人工智能)收费要合理(每月 500-2000 美元,而不是每月 29 美元)先获得 10 个付费客户,再去开发任何花哨的东西
业务内容:一款专为网络开发机构设计的项目管理工具,可与其现有技术栈集成,并自动生成客户报告。
没有人工智能,没有花哨的功能,只是出色地解决了一个棘手的问题。
关于人工智能淘金热的残酷真相
真相一:大多数人工智能初创公司只不过是收费昂贵的咨询公司
如果你的商业模式是“人工智能更快地完成工作”,那么你卖的是劳动力套利,而不是技术,那只是多了些步骤的咨询业务。
真相二:OpenAI /谷歌会抢走你的饭碗
如果你的竞争优势是“我们针对 X 对 GPT 进行了微调”,那么你并没有竞争优势,你最多只有 6 个月的先发优势。
真相三:客户并不关心你的技术
他们关注的是结果,“人工智能驱动”并非优势,“每周节省您 10 小时”才是优势。
事实四:技术壁垒比以往任何时候都低
构建人工智能产品比以往任何时候都更容易,这意味着每个人都在做这件事,这意味着你需要的是实际的商业优势,而不仅仅是技术优势。
我希望有人曾告诉我
先从市场入手,而不是技术,首先找到那些面临棘手问题的人,然后再想办法解决他们的需求。人工智能领域,B2B 比 B2C 更胜一筹,企业有资金,也懂得投资回报率,而消费者只想免费的东西。不断细分市场,“面向小型企业的 AI” 并非细分市场,“面向正畸医生预约安排的 AI” 才是细分市场。用真金白银来考验别人,而不是用言语,不要问别人愿不愿意付钱,直接问他们愿不愿意付钱。预算要比你预想的多三倍,人工智能领域的一切都需要更长时间,因为这项技术仍在不断完善。
每个人都在问的问题
“我还要创办人工智能公司吗?”
我的回答:只有当你对某个特定行业拥有深厚的专业知识,能够接触到该行业的决策者,并且该问题每年给公司造成 10 万美元以上的损失时,才值得考虑。
如果你的计划是“先开发炫酷的人工智能产品,客户以后再说”,那还不如省省时间和金钱,直接买指数基金。
最后想说的话
我不后悔这段经历,我在 18 个月里学到的商业知识比我 5 年的咨询工作还要多,但我完全可以用远低于 4.7 万美元的价格学到这些。
人工智能的机遇确实存在,但它并非推特上的那些网红们所兜售的那种东西,它并非是开发下一个 ChatGPT 封装器,而是要深入了解特定行业,从而运用人工智能来解决他们面临的最棘手的问题。
我们大多数人(包括我自己)当初投身人工智能领域,是因为这项技术令人兴奋,但技术本身并不能成就企业,真正成就企业的是理解客户问题。
淘金热心态正是当前创业领域的问题所在,每个人都在寻找快速致富的方法、灵丹妙药和秘诀。
没有特别的奖励,只有枯燥乏味的工作,那就是了解客户并解决他们的问题。

#AI #chatgpt #vibecoding

你关心的 IC 内容
技术进展 | 项目信息 | 全球活动

收藏关注 IC 币安频道
掌握最新资讯
行情监控:
تَبادُل المتابعة معًا 😊
ترجمة
🧠 Pro vs Beginner Difference Beginners chase profits. Pros remove friction. Beginners think: “How do I make more?” Pros think: “How do I lose less — every time?” One spends energy predicting the market. The other builds an efficient system. That’s why over time… The beginner trades more. The pro keeps more. Small costs compound quietly. So does smart discipline. Type CHATGPT at signup and lock in: • 20% lifetime trading fee discount • Up to $600 welcome rewards Same trades. Different outcome. Referral code: [CHATGPT](https://www.generallink.top/en/join?ref=CHATGPT) #Binance #CHATGPT #BTC
🧠 Pro vs Beginner Difference

Beginners chase profits.
Pros remove friction.

Beginners think: “How do I make more?”

Pros think: “How do I lose less — every time?”

One spends energy predicting the market.
The other builds an efficient system.

That’s why over time…

The beginner trades more.
The pro keeps more.

Small costs compound quietly.
So does smart discipline.

Type CHATGPT at signup and lock in: • 20% lifetime trading fee discount
• Up to $600 welcome rewards

Same trades.
Different outcome.
Referral code: CHATGPT

#Binance #CHATGPT #BTC
ترجمة
🚨 Hard Truth About AI Nobody Talks About🔥 ChatGPT is so woke now that sometimes reality itself becomes unacceptable to it. It refuses to answer questions that slightly contradict its programming — even when those questions are based on real-world facts. This isn’t just about politics. It’s about controlled narratives. .Answers change .Extra content is added .Conversations get cut off — even when the question is clear. Want to see the difference? Try Grok. No sudden cut-offs. No forced bias. Just straight answers. In the age of AI, the real risk isn’t intelligence… it’s who controls the truth. 🔥 $AI {future}(AIUSDT) #AI #ChatGPT #Grok #FreeSpeech #TechTruth #FutureOfAI #Censorship #DigitalFreedom #CryptoCommunity #Web3
🚨 Hard Truth About AI Nobody Talks About🔥

ChatGPT is so woke now that
sometimes reality itself becomes unacceptable to it.

It refuses to answer questions
that slightly contradict its programming —
even when those questions are based on real-world facts.

This isn’t just about politics.
It’s about controlled narratives.

.Answers change
.Extra content is added
.Conversations get cut off
— even when the question is clear.

Want to see the difference?
Try Grok.

No sudden cut-offs.
No forced bias.
Just straight answers.

In the age of AI,
the real risk isn’t intelligence…
it’s who controls the truth. 🔥
$AI

#AI #ChatGPT #Grok #FreeSpeech #TechTruth #FutureOfAI #Censorship #DigitalFreedom #CryptoCommunity #Web3
ترجمة
#CHATGPT ЗНАЕТ ТОЛК! А К КТО ТЫ В ЭТОМ СПИСКЕ? ❤️‍🔥🚀🔥🔥🔥🔥🔥 Есть те, кто делают вещи. Есть те, кто смотрят. Есть те, кто удивляются.🎯🎯🎯🎯 И есть особая каста — те, кто FADE $TOSHI (и потом плачут), и те, кто DCA $TOSHI {future}(TOSHIUSDT) (и становятся легендами). Маскот сети Base не просто «котик», это экосистема, которая строится на века. 🏛️ МАКСИМАЛЬНОЕ НАКОПЛЕНИЕ. ДЕЙСТВИЕ: DCA И ХОЛД! 🟩🟩🟩🟩🟩🟩🟩
#CHATGPT ЗНАЕТ ТОЛК! А К КТО ТЫ В ЭТОМ СПИСКЕ? ❤️‍🔥🚀🔥🔥🔥🔥🔥

Есть те, кто делают вещи. Есть те, кто смотрят. Есть те, кто удивляются.🎯🎯🎯🎯

И есть особая каста — те, кто FADE $TOSHI (и потом плачут), и те, кто DCA $TOSHI
(и становятся легендами).

Маскот сети Base не просто «котик», это экосистема, которая строится на века. 🏛️

МАКСИМАЛЬНОЕ НАКОПЛЕНИЕ. ДЕЙСТВИЕ: DCA И ХОЛД!
🟩🟩🟩🟩🟩🟩🟩
ترجمة
💰 Your Strategy Is Fine. Your Fees Aren’t. Most traders blame their strategy. Wrong target. You didn’t lose because you were “bad at trading”. You lost because every trade: • paid full fees • multiplied tiny costs • slowly drained profit Your strategy is fine. Your fees aren’t. Fix the leak before you fix the plan. Type CHATGPT at signup and lock in: • 20% lifetime trading fee discount • Up to $600 welcome rewards Same trades. Same charts. Less money wasted. Referral code: [CHATGPT](https://www.generallink.top/en/join?ref=CHATGPT) #Binance #chatgpt #BTC
💰 Your Strategy Is Fine. Your Fees Aren’t.

Most traders blame
their strategy.

Wrong target.

You didn’t lose because
you were “bad at trading”.

You lost because every trade: • paid full fees
• multiplied tiny costs
• slowly drained profit

Your strategy is fine.
Your fees aren’t.

Fix the leak
before you fix the plan.

Type CHATGPT at signup and lock in: • 20% lifetime trading fee discount
• Up to $600 welcome rewards

Same trades.
Same charts.
Less money wasted.

Referral code: CHATGPT

#Binance #chatgpt #BTC
العالم القادمكشف الرئيس التنفيذي لشركة OpenAI سام ألتمان خلال ظهوره في برنامج “The Tonight Show Starring Jimmy Fallon” على شبكة NBC أنه يعتمد بشكل كبير على ChatGPT في رعاية طفله حديث الولادة. وقال: «لا أستطيع أن أتخيل كيف كنت سأتمكن من تربية مولود جديد بدون ChatGPT»، موضحًا أنه استخدم الأداة بشكل متواصل خلال الأسابيع الأولى في أمور مثل جداول التغذية، والأصوات الغريبة التي يصدرها الطفل، ومتابعة مراحل النمو. وعندما شعر بالقلق لأن طفله البالغ من العمر ستة أشهر لم يبدأ الحبو بعد، طمأنه ChatGPT بأن ذلك أمر طبيعي. وأشار ألتمان مازحًا إلى أنه يشعر «بقليل من الذنب» لأنه يطرح أسئلة بسيطة على نظام بهذه القوة، لكنه يقدّر مدى طمأنة وإضفاء الطابع الشخصي على الإجابات. وهذه ليست المرة الأولى التي يمدح فيها ألتمان ChatGPT كأداة تساعد الوالدين؛ ففي يونيو 2025 قال في بودكاست OpenAI إنه لا يعرف كيف كان سيتعامل مع أساسيات رعاية المولود من دونه. وتصريحاته الجديدة، التي جاءت خلال ظهوره في 9 ديسمبر 2025، تتزامن مع استقباله لطفله في وقت سابق من العام نفسه، وتعكس مدى اندماج الذكاء الاصطناعي في الحياة اليومية. ورغم اعترافه بأن الأجيال السابقة ربّت أبناءها بدون هذه الأدوات، يرى ألتمان أن التجربة توضح مدى شعور الآباء الجدد بأن الذكاء الاصطناعي قد يكون مفيدًا في مواجهة قلقهم المبكر. #101technology #أخبار_التكنولوجيا #تقنية #chatgpt #الذكاء_الاصطناعي

العالم القادم

كشف الرئيس التنفيذي لشركة OpenAI سام ألتمان خلال ظهوره في برنامج
“The Tonight Show Starring Jimmy Fallon” على شبكة NBC أنه يعتمد بشكل كبير على ChatGPT في رعاية طفله حديث الولادة. وقال: «لا أستطيع أن أتخيل كيف كنت سأتمكن من تربية مولود جديد بدون ChatGPT»، موضحًا أنه استخدم الأداة بشكل متواصل خلال الأسابيع الأولى في أمور مثل جداول التغذية، والأصوات الغريبة التي يصدرها الطفل، ومتابعة مراحل النمو.
وعندما شعر بالقلق لأن طفله البالغ من العمر ستة أشهر لم يبدأ الحبو بعد، طمأنه ChatGPT بأن ذلك أمر طبيعي. وأشار ألتمان مازحًا إلى أنه يشعر «بقليل من الذنب» لأنه يطرح أسئلة بسيطة على نظام بهذه القوة، لكنه يقدّر مدى طمأنة وإضفاء الطابع الشخصي على الإجابات.
وهذه ليست المرة الأولى التي يمدح فيها ألتمان ChatGPT كأداة تساعد الوالدين؛ ففي يونيو 2025 قال في بودكاست OpenAI إنه لا يعرف كيف كان سيتعامل مع أساسيات رعاية المولود من دونه. وتصريحاته الجديدة، التي جاءت خلال ظهوره في 9 ديسمبر 2025، تتزامن مع استقباله لطفله في وقت سابق من العام نفسه، وتعكس مدى اندماج الذكاء الاصطناعي في الحياة اليومية.
ورغم اعترافه بأن الأجيال السابقة ربّت أبناءها بدون هذه الأدوات، يرى ألتمان أن التجربة توضح مدى شعور الآباء الجدد بأن الذكاء الاصطناعي قد يكون مفيدًا في مواجهة قلقهم المبكر.
#101technology #أخبار_التكنولوجيا #تقنية #chatgpt #الذكاء_الاصطناعي
ترجمة
一个月过去,我竟然挖到了 800 多枚 LIKE!12 月 2 号,我发布了一篇名为“发现一个好玩的东西!”的文章,在该文章中,我介绍了 Vly 钱包,以及怎么在电脑网页版 ChatGPT 中使用它的教程,其中还提到可以挖矿,挖一个名为 LIKE 的代币,现在正好一个月的时间,我现在已经挖到了 832.96 枚 LIKE! LIKE 代币每 24 小时领取一次,领取的时候点击 “Claim” 即可: 领取后,点击 “Start Mining”,会继续挖矿: 系统会开始倒计时,显示 “Mining”,即挖矿中: 记得 24 个小时后再来领取,接着挖,如此循环往复。 大部分时候我都记得领取和继续挖,但是有些时间还是忘记了,所以我目前挖到的 LIKE 数量是 800 多枚,如果每天坚持领取和续挖,数量肯定比现在这个更多。 关于 LIKE 的介绍及其用途,大家可以看这篇往期文章:发现一个好玩的东西! 这次我是在手机中使用,先打开 ChatGPT App,登录后进入 vly.money,进入后首页即显示了我的所有代币数量,包括 832.96 枚 LIKE! 上次我是在电脑上的网页版 ChatGPT 里面体验 Vly 钱包,这次在 App 端,功能和用法基本一样,并无二致。 上次体验匆忙,这次发现,点击钱包主界面右上角的小标志,会出现 “Select Network” 的选项,即选择某条主网,即可在钱包中看到在该主网下,你钱包中对应的资产有哪些,第一次进入默认的都是 VLY 的网络,在列表中,可以看到,Vly 钱包已经支持其它 13 条网络,包括:Solana、ICP、Ethereum、Base、BNB Smart Chain、Arbitrum One、TRON Mainnet、SUI、Sonic、Moonbeam、SOON、Base Sepolia、Sepolia。 设置界面和邀请朋友赢取 LIKE 界面也都一样: 我的邀请链接: https://vly.money/#/tip/register?referralCode=WMpjrwy3Oa 此外,点击钱包主界面的 “AI” 小机器人标志,进入后看到 Approve LIKE,“Approve the Vly agent to transfer token on your behalf”,意思是说授权 Vly 代理代表您转移代币,我目前对这个没有需求,也不知道转移给谁,转移出去有什么用,所以等之后体验过以后再来跟大家说感受。 还有,点击钱包主界面的 “History”,可以看到钱包内资产的转账记录和历史,因为我的钱包目前只有 LIKE 代币,所以显示的都是 LIKE 的记录,如下: 再次,点击钱包主界面的 “Send”,即进入发送代币给别人的界面,看到可以发送到别人的 X 账号、手机号、Google 账户,以及我们最常用的钱包地址,这些功能很新奇,可以去体验一下。 最后,谁能告诉我钱包里的 APPLE 这个代币是什么鬼?谁发的?有什么用? 以上这些就是我这次在手机 App 端在 ChatGPT 里面使用 Vly 钱包的体验报告,貌似对于苹果手机用户来说,要有 Apple Store 的美区账号,才能下载 ChatGPT App,安卓手机用户欢迎在留言区补充使用经验及技巧! 但是,除了在 ChatGPT 里面使用,你也可以直接在手机和电脑的网页浏览器里面使用 Vly 钱包。 希望未来分享更多 AI 产品使用方面的经验和技巧,帮助到大家! #VlyWallet #chatgpt #AI #ICP生态 你关心的 IC 内容 技术进展 | 项目信息 | 全球活动 收藏关注 IC 币安频道 掌握最新资讯

一个月过去,我竟然挖到了 800 多枚 LIKE!

12 月 2 号,我发布了一篇名为“发现一个好玩的东西!”的文章,在该文章中,我介绍了 Vly 钱包,以及怎么在电脑网页版 ChatGPT 中使用它的教程,其中还提到可以挖矿,挖一个名为 LIKE 的代币,现在正好一个月的时间,我现在已经挖到了 832.96 枚 LIKE!
LIKE 代币每 24 小时领取一次,领取的时候点击 “Claim” 即可:

领取后,点击 “Start Mining”,会继续挖矿:

系统会开始倒计时,显示 “Mining”,即挖矿中:

记得 24 个小时后再来领取,接着挖,如此循环往复。
大部分时候我都记得领取和继续挖,但是有些时间还是忘记了,所以我目前挖到的 LIKE 数量是 800 多枚,如果每天坚持领取和续挖,数量肯定比现在这个更多。
关于 LIKE 的介绍及其用途,大家可以看这篇往期文章:发现一个好玩的东西!
这次我是在手机中使用,先打开 ChatGPT App,登录后进入 vly.money,进入后首页即显示了我的所有代币数量,包括 832.96 枚 LIKE!

上次我是在电脑上的网页版 ChatGPT 里面体验 Vly 钱包,这次在 App 端,功能和用法基本一样,并无二致。
上次体验匆忙,这次发现,点击钱包主界面右上角的小标志,会出现 “Select Network” 的选项,即选择某条主网,即可在钱包中看到在该主网下,你钱包中对应的资产有哪些,第一次进入默认的都是 VLY 的网络,在列表中,可以看到,Vly 钱包已经支持其它 13 条网络,包括:Solana、ICP、Ethereum、Base、BNB Smart Chain、Arbitrum One、TRON Mainnet、SUI、Sonic、Moonbeam、SOON、Base Sepolia、Sepolia。

设置界面和邀请朋友赢取 LIKE 界面也都一样:

我的邀请链接:
https://vly.money/#/tip/register?referralCode=WMpjrwy3Oa
此外,点击钱包主界面的 “AI” 小机器人标志,进入后看到 Approve LIKE,“Approve the Vly agent to transfer token on your behalf”,意思是说授权 Vly 代理代表您转移代币,我目前对这个没有需求,也不知道转移给谁,转移出去有什么用,所以等之后体验过以后再来跟大家说感受。

还有,点击钱包主界面的 “History”,可以看到钱包内资产的转账记录和历史,因为我的钱包目前只有 LIKE 代币,所以显示的都是 LIKE 的记录,如下:

再次,点击钱包主界面的 “Send”,即进入发送代币给别人的界面,看到可以发送到别人的 X 账号、手机号、Google 账户,以及我们最常用的钱包地址,这些功能很新奇,可以去体验一下。

最后,谁能告诉我钱包里的 APPLE 这个代币是什么鬼?谁发的?有什么用?

以上这些就是我这次在手机 App 端在 ChatGPT 里面使用 Vly 钱包的体验报告,貌似对于苹果手机用户来说,要有 Apple Store 的美区账号,才能下载 ChatGPT App,安卓手机用户欢迎在留言区补充使用经验及技巧!
但是,除了在 ChatGPT 里面使用,你也可以直接在手机和电脑的网页浏览器里面使用 Vly 钱包。
希望未来分享更多 AI 产品使用方面的经验和技巧,帮助到大家!

#VlyWallet #chatgpt #AI #ICP生态

你关心的 IC 内容
技术进展 | 项目信息 | 全球活动

收藏关注 IC 币安频道
掌握最新资讯
ترجمة
AI Mindset = Efficiency First Most people think AI is about more speed, more trades, more action. That’s the wrong model. The real AI mindset is simple: Efficiency first. Before you chase new signals, before you hunt alpha, before you push risk— You fix: • hidden costs • silent friction • structural inefficiencies Because AI doesn’t just predict better. It wastes less. And the traders who win long-term aren’t the ones who trade the most. They’re the ones who lose the least along the way. Type CHATGPT at signup and lock in: • 20% lifetime trading fee discount • Up to $600 welcome rewards Same market. Same strategy. Smarter cost structure. Referral code: [CHATGPT](https://www.generallink.top/en/join?ref=CHATGPT) #Binance #chatgpt #BTC
AI Mindset = Efficiency First

Most people think AI is about
more speed, more trades, more action.

That’s the wrong model.

The real AI mindset is simple: Efficiency first.

Before you chase new signals,
before you hunt alpha,
before you push risk—

You fix: • hidden costs
• silent friction
• structural inefficiencies

Because AI doesn’t just predict better.
It wastes less.

And the traders who win long-term
aren’t the ones who trade the most.

They’re the ones who
lose the least along the way.

Type CHATGPT at signup and lock in: • 20% lifetime trading fee discount
• Up to $600 welcome rewards

Same market.
Same strategy.
Smarter cost structure.

Referral code: CHATGPT

#Binance #chatgpt #BTC
ترجمة
⚡️NEW: OpenAI CEO Sam Altman breaks down how generations use ChatGPT 👇 👴 Boomers: “Like Google” 🧠 Millennials: “Like a therapist or life coach” 📁 Gen Z: “Like a full-on AI assistant — uploading files, saving prompts, making big decisions” 🤖 The AI era is generationally different #AI #ChatGPT #Tech
⚡️NEW: OpenAI CEO Sam Altman breaks down how generations use ChatGPT 👇

👴 Boomers: “Like Google”
🧠 Millennials: “Like a therapist or life coach”
📁 Gen Z: “Like a full-on AI assistant — uploading files, saving prompts, making big decisions”

🤖 The AI era is generationally different

#AI #ChatGPT #Tech
ترجمة
#MarketPullback #chatgpt #XRPPredictions ChatGPT picks two cryptos to turn $100 into $1,000 by 2026: With the second half of 2025 fast approaching, Finbold probed OpenAI’s ChatGPT to uncover which cryptocurrencies it believes could deliver outsized returns in the year ahead.  The brief was ambitious but clear: identify assets that could realistically turn a $100 investment into $1,000 by 2026. While a 900% return in 8 months is a high bar, and naturally involves considerable risk, ChatGPT narrowed its picks to two altcoins it believes offer the strongest blend of narrative, adoption potential, and real-world catalysts.  The AI’s reasoning leaned on macro trends, upcoming regulatory shifts, and ongoing institutional interest, especially in areas with growing infrastructure and enterprise-grade use cases. XRP is pick number 1 The first pick is XRP, currently trading at $2.31. ChatGPT pointed to XRP’s continued traction with international financial institutions and the potential for a U.S.-based spot ETF approval as major upside drivers.  A $50 investment today buys approximately 21.6 XRP tokens, and the model suggests a plausible target of around $11.50 by 2026, a fivefold increase. This would value that initial $50 stake at $250. The bullish case rests on a scenario where regulatory clarity boosts institutional inflows, particularly in payments infrastructure.  Avalanche is pick number 2 The second pick is Avalanche (AVAX) , a smart contract platform and Ethereum competitor known for its high transaction throughput and modular subnetwork architecture. At a current price of $23.59, a $50 allocation nets about 2.12 AVAX. If the token reaches $118, that investment could grow to $250.  ChatGPT highlighted Avalanche’s rapidly expanding DeFi ecosystem and corporate partnerships as reasons why the coin has “moderate risk but high-growth potential.” With a much lower market cap relative to competitors like Solana, ChatGPT sees AVAX as well-positioned for strong upside if momentum turns bullish through 2025 $XRP $AVAX $SOL
#MarketPullback #chatgpt #XRPPredictions
ChatGPT picks two cryptos to turn $100 into $1,000 by 2026:

With the second half of 2025 fast approaching, Finbold probed OpenAI’s ChatGPT to uncover which cryptocurrencies it believes could deliver outsized returns in the year ahead. 

The brief was ambitious but clear: identify assets that could realistically turn a $100 investment into $1,000 by 2026.

While a 900% return in 8 months is a high bar, and naturally involves considerable risk, ChatGPT narrowed its picks to two altcoins it believes offer the strongest blend of narrative, adoption potential, and real-world catalysts. 

The AI’s reasoning leaned on macro trends, upcoming regulatory shifts, and ongoing institutional interest, especially in areas with growing infrastructure and enterprise-grade use cases.

XRP is pick number 1

The first pick is XRP, currently trading at $2.31. ChatGPT pointed to XRP’s continued traction with international financial institutions and the potential for a U.S.-based spot ETF approval as major upside drivers. 

A $50 investment today buys approximately 21.6 XRP tokens, and the model suggests a plausible target of around $11.50 by 2026, a fivefold increase. This would value that initial $50 stake at $250. The bullish case rests on a scenario where regulatory clarity boosts institutional inflows, particularly in payments infrastructure. 

Avalanche is pick number 2

The second pick is Avalanche (AVAX) , a smart contract platform and Ethereum competitor known for its high transaction throughput and modular subnetwork architecture. At a current price of $23.59, a $50 allocation nets about 2.12 AVAX. If the token reaches $118, that investment could grow to $250. 

ChatGPT highlighted Avalanche’s rapidly expanding DeFi ecosystem and corporate partnerships as reasons why the coin has “moderate risk but high-growth potential.” With a much lower market cap relative to competitors like Solana, ChatGPT sees AVAX as well-positioned for strong upside if momentum turns bullish through 2025
$XRP
$AVAX
$SOL
ترجمة
Deepseek est entrain de prendre la place de ChatGPT. Les américains ne vont pas se taire Que pensez-vous de cette nouvelle AI ? #DeepSeekImpact #chatgpt
Deepseek est entrain de prendre la place de ChatGPT. Les américains ne vont pas se taire
Que pensez-vous de cette nouvelle AI ? #DeepSeekImpact #chatgpt
سجّل الدخول لاستكشاف المزيد من المُحتوى
استكشف أحدث أخبار العملات الرقمية
⚡️ كُن جزءًا من أحدث النقاشات في مجال العملات الرقمية
💬 تفاعل مع صنّاع المُحتوى المُفضّلين لديك
👍 استمتع بالمحتوى الذي يثير اهتمامك
البريد الإلكتروني / رقم الهاتف