Publicación de Invitado HodlXEnviar Tu Publicación
Cuando hablamos por primera vez sobre la descentralización de la IA, nos enfocamos en el cómputo, los datos y los modelos de gobernanza, y esos siguen siendo importantes.
Sin embargo, a medida que los agentes autónomos operan en entornos del mundo real como el comercio de activos, la gestión de cadenas de suministro y la moderación de comunidades, la confianza se convierte en el desafío que pasa al frente.
No el tipo suave y humano como, "Me siento bien con esta marca," o "Su marketing es convincente."
En las economías de máquina, la confianza debe ser verificable, cuantificable y exigible a la velocidad del protocolo.
Sin ello, la IA descentralizada corre el riesgo de convertirse en una arena de alto rendimiento para alucinaciones, spam, explotación y fallos en cascada.
Este no es un problema que podamos resolver con más computación o conjuntos de datos más limpios. Es un problema de cómo decidimos quién puede actuar.
De la confianza informal a las reglas del protocolo
En Web 2.0, la confianza era como leer reseñas de restaurantes: está bien para elegir la cena, pero es irrelevante cuando miles de agentes autónomos están tomando decisiones de alto impacto en fracciones de segundo.
Esas señales son fáciles de falsificar, imposibles de auditar a gran escala y no tienen consecuencias integradas para los actores maliciosos.
En redes de IA descentralizadas, eso no servirá. Los agentes ya no son scripts aislados que se ejecutan en el servidor de un aficionado.
Son entidades que solicitan recursos, ejecutan operaciones, votan en DAOs y orquestan otros agentes.
El daño es inmediato y a menudo irreversible si uno actúa de manera maliciosa o incompetente.
La respuesta que surge de la comunidad de investigación es hacer que la confianza misma sea parte de la infraestructura.
Una propuesta que está ganando tracción es la idea de los tokens AgentBound: credenciales no transferibles que actúan como un historial para los agentes de IA, propuesta por primera vez por el investigador Tomer Jordi Chaffer.
ABT – Pasaportes para máquinas
Un ABT es un credential criptográfico no transferible que registra el comportamiento de un agente a lo largo del tiempo.
Piénsalo como un pasaporte para máquinas: sellado no con visados, sino con trabajos verificados completados, resultados entregados y fracasos registrados.
A diferencia de los saldos de billetera o las cantidades de participación, los ABTs no se pueden comprar, vender o delegar.
Se ganan a través de acciones, se actualizan según el rendimiento verificado y se reducen por mala conducta: prueba de conducta.
Esto cambia el defecto de pagar-para-jugar a probar-para-actuar.
Los saldos de tokens pueden Gatear a los humanos, pero en las economías de máquinas, subestiman el riesgo: los agentes se clonan fácilmente, pueden pedir prestado capital y operar a la velocidad de la máquina, creando externalidades mucho más allá de su participación.
Los ABTs cierran esa brecha al convertir el rendimiento verificado en un recurso escaso con el tiempo.
En sistemas ponderados por tokens, los bolsillos profundos compran acceso; en sistemas ABT-Gated, solo un historial duradero y transparente desbloquea roles de mayor impacto.
La fiabilidad se convierte en el colateral operativo.
A través de un bucle de cinco pasos en tiempo real, los ABTs convierten el comportamiento del agente en capital operativo que puede crecer, decaer o ser reducido.
Considera una red de logística descentralizada. Un nuevo agente de enrutamiento con un ABT de cero reputación comienza bajo supervisión en envíos pequeños.
Cada trabajo verificado gana atestaciones: la confianza se construye hasta que opera una región de manera autónoma.
Una actualización con errores causa retrasos; los validadores la señalan y se penaliza el ABT, devolviendo al agente a tareas de bajo riesgo.
Después de un período de prueba limpio, su reputación se recupera.
Esa es la confianza como un sistema vivo que se gana, se pierde y se recupera en una forma que las máquinas pueden entender y los protocolos pueden hacer cumplir.
Construyendo sobre la idea de los vinculados al alma
Si esto suena conceptualmente cercano a los tokens Soulbound, lo es.
En su artículo de 2022, ‘Sociedad Descentralizada – Encontrando el Alma del Web 3.0,’ Glen Weyl, Puja Ohlhaver y Vitalik Buterin propusieron los SBTs como credenciales no transferibles para la identidad humana: diplomas, afiliaciones, licencias.
Los ABTs extienden esta lógica a las máquinas.
Pero donde los SBTs son en su mayoría estáticos (“esta persona se graduó de X”), los ABTs son dinámicos, actualizándose con cada acción verificada.
Se trata menos de quién es un agente, y más de cómo se comporta a lo largo del tiempo; y el elemento temporal es crítico.
Un historial impecable del año pasado significa poco si el modelo del agente ha degradado o ha sido comprometido desde entonces.
Los ABTs capturan esa evolución, convirtiéndolos en una señal en vivo en lugar de una insignia única.
DAOs de reputación como capa de gobernanza
Los ABTs manejan los datos, el registro inmutable de lo que sucedió, pero alguien tiene que establecer las reglas.
¿Qué es un buen o mal comportamiento? ¿Cuánto peso tienen las diversas acciones? ¿Cómo manejar disputas?
Los DAOs de reputación son cuerpos de gobernanza descentralizados que definen, mantienen y auditan la capa de reputación.
Deciden qué validadores pueden actualizar los ABT, qué métricas son importantes para un dominio dado y cómo la reputación se deteriora o se recupera con el tiempo.
También pueden establecer niveles de riesgo en entornos de alto riesgo: un agente de moderación de contenido necesita un historial para actuar de forma autónoma.
En contraste, un bot de trading podría necesitar otro. Al descentralizar estas decisiones, el sistema evita tanto la captura por una sola autoridad como la rigidez de las reglas codificadas.
Las DAOs de reputación son el elemento humano en el bucle para la confianza descentralizada: no se trata de micromanejar cada acción, sino de guiar las normas y los parámetros que mantienen honesta la capa de máquina.
Desafíos para hacer que la confianza sea programable
Nada de esto es trivial de implementar. Los problemas más complejos son sociales y técnicos a la vez.
Los ataques Sybil son la amenaza obvia: generan miles de nuevos agentes para cultivar reputación en roles de bajo riesgo, y luego los despliegan en contextos de mayor riesgo.
Prevenir esto requiere vincular los ABT a identidades descentralizadas fuertes, y a veces a entornos de hardware o ejecución que no se pueden replicar de forma económica.
El lavado de reputación es otro riesgo.
Sin salvaguardias, un sistema ABT podría convertirse en una fiesta de disfraces de alto riesgo, donde agentes maliciosos se ponen la máscara de otra persona para entrar en la sala VIP.
La no transferibilidad a nivel de protocolo, la vinculación criptográfica a las claves y las estrictas reglas de anti-delegación son esenciales.
También existe la compensación entre la privacidad y la auditabilidad. Para confiar en un agente, necesitas saber cómo ha estado funcionando.
Sin embargo, publicar registros de decisiones completos podría exponer datos sensibles o métodos patentados.
ZKPs (pruebas de conocimiento cero) y métricas aggreGate son formas prometedoras de resolver ese dilema.
Y luego está la captura de gobernanza: si un pequeño grupo de validadores controla la mayoría de las actualizaciones, pueden incluir en la lista blanca a actores maliciosos o castigar a los rivales.
Abrir conjuntos de validadores, rotación y penalización por colusión ayudan a distribuir ese poder.
Por qué esto es importante ahora
Estamos en un punto donde la IA descentralizada está limitada menos por la tecnología y más por la legitimidad.
Sin decidir qué agentes pueden ser de confianza para qué roles, las redes o centralizan el control o aceptan un riesgo constante.
Los ABTs y los DAOs de reputación ofrecen un tercer camino: una forma de codificar la confianza directamente en la infraestructura, haciéndola tan nativa al sistema como el consenso.
Ellos responden a esa pregunta públicamente al convertir ‘¿quién controla la IA?’ en ‘¿cómo se define, otorga y revoca el control?’
La primera ola de Web 3.0 nos enseñó a confiar en extraños con dinero.
El próximo debe enseñarnos a confiar en extraños con decisiones a la velocidad de la máquina, con consecuencias que ningún humano puede revertir a tiempo.
En una economía de agentes, eso no es opcional: es supervivencia.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Confianza en la Máquina – Por qué la Reputación es el Próximo Primitivo de la IA - The Daily Hodl
Publicación de Invitado HodlXEnviar Tu Publicación
Cuando hablamos por primera vez sobre la descentralización de la IA, nos enfocamos en el cómputo, los datos y los modelos de gobernanza, y esos siguen siendo importantes.
Sin embargo, a medida que los agentes autónomos operan en entornos del mundo real como el comercio de activos, la gestión de cadenas de suministro y la moderación de comunidades, la confianza se convierte en el desafío que pasa al frente.
No el tipo suave y humano como, "Me siento bien con esta marca," o "Su marketing es convincente."
En las economías de máquina, la confianza debe ser verificable, cuantificable y exigible a la velocidad del protocolo.
Sin ello, la IA descentralizada corre el riesgo de convertirse en una arena de alto rendimiento para alucinaciones, spam, explotación y fallos en cascada.
Este no es un problema que podamos resolver con más computación o conjuntos de datos más limpios. Es un problema de cómo decidimos quién puede actuar.
De la confianza informal a las reglas del protocolo
En Web 2.0, la confianza era como leer reseñas de restaurantes: está bien para elegir la cena, pero es irrelevante cuando miles de agentes autónomos están tomando decisiones de alto impacto en fracciones de segundo.
Esas señales son fáciles de falsificar, imposibles de auditar a gran escala y no tienen consecuencias integradas para los actores maliciosos.
En redes de IA descentralizadas, eso no servirá. Los agentes ya no son scripts aislados que se ejecutan en el servidor de un aficionado.
Son entidades que solicitan recursos, ejecutan operaciones, votan en DAOs y orquestan otros agentes.
El daño es inmediato y a menudo irreversible si uno actúa de manera maliciosa o incompetente.
La respuesta que surge de la comunidad de investigación es hacer que la confianza misma sea parte de la infraestructura.
Una propuesta que está ganando tracción es la idea de los tokens AgentBound: credenciales no transferibles que actúan como un historial para los agentes de IA, propuesta por primera vez por el investigador Tomer Jordi Chaffer.
ABT – Pasaportes para máquinas
Un ABT es un credential criptográfico no transferible que registra el comportamiento de un agente a lo largo del tiempo.
Piénsalo como un pasaporte para máquinas: sellado no con visados, sino con trabajos verificados completados, resultados entregados y fracasos registrados.
A diferencia de los saldos de billetera o las cantidades de participación, los ABTs no se pueden comprar, vender o delegar.
Se ganan a través de acciones, se actualizan según el rendimiento verificado y se reducen por mala conducta: prueba de conducta.
Esto cambia el defecto de pagar-para-jugar a probar-para-actuar.
Los saldos de tokens pueden Gatear a los humanos, pero en las economías de máquinas, subestiman el riesgo: los agentes se clonan fácilmente, pueden pedir prestado capital y operar a la velocidad de la máquina, creando externalidades mucho más allá de su participación.
Los ABTs cierran esa brecha al convertir el rendimiento verificado en un recurso escaso con el tiempo.
En sistemas ponderados por tokens, los bolsillos profundos compran acceso; en sistemas ABT-Gated, solo un historial duradero y transparente desbloquea roles de mayor impacto.
La fiabilidad se convierte en el colateral operativo.
A través de un bucle de cinco pasos en tiempo real, los ABTs convierten el comportamiento del agente en capital operativo que puede crecer, decaer o ser reducido.
Considera una red de logística descentralizada. Un nuevo agente de enrutamiento con un ABT de cero reputación comienza bajo supervisión en envíos pequeños.
Cada trabajo verificado gana atestaciones: la confianza se construye hasta que opera una región de manera autónoma.
Una actualización con errores causa retrasos; los validadores la señalan y se penaliza el ABT, devolviendo al agente a tareas de bajo riesgo.
Después de un período de prueba limpio, su reputación se recupera.
Esa es la confianza como un sistema vivo que se gana, se pierde y se recupera en una forma que las máquinas pueden entender y los protocolos pueden hacer cumplir.
Construyendo sobre la idea de los vinculados al alma
Si esto suena conceptualmente cercano a los tokens Soulbound, lo es.
En su artículo de 2022, ‘Sociedad Descentralizada – Encontrando el Alma del Web 3.0,’ Glen Weyl, Puja Ohlhaver y Vitalik Buterin propusieron los SBTs como credenciales no transferibles para la identidad humana: diplomas, afiliaciones, licencias.
Los ABTs extienden esta lógica a las máquinas.
Pero donde los SBTs son en su mayoría estáticos (“esta persona se graduó de X”), los ABTs son dinámicos, actualizándose con cada acción verificada.
Se trata menos de quién es un agente, y más de cómo se comporta a lo largo del tiempo; y el elemento temporal es crítico.
Un historial impecable del año pasado significa poco si el modelo del agente ha degradado o ha sido comprometido desde entonces.
Los ABTs capturan esa evolución, convirtiéndolos en una señal en vivo en lugar de una insignia única.
DAOs de reputación como capa de gobernanza
Los ABTs manejan los datos, el registro inmutable de lo que sucedió, pero alguien tiene que establecer las reglas.
¿Qué es un buen o mal comportamiento? ¿Cuánto peso tienen las diversas acciones? ¿Cómo manejar disputas?
Los DAOs de reputación son cuerpos de gobernanza descentralizados que definen, mantienen y auditan la capa de reputación.
Deciden qué validadores pueden actualizar los ABT, qué métricas son importantes para un dominio dado y cómo la reputación se deteriora o se recupera con el tiempo.
También pueden establecer niveles de riesgo en entornos de alto riesgo: un agente de moderación de contenido necesita un historial para actuar de forma autónoma.
En contraste, un bot de trading podría necesitar otro. Al descentralizar estas decisiones, el sistema evita tanto la captura por una sola autoridad como la rigidez de las reglas codificadas.
Las DAOs de reputación son el elemento humano en el bucle para la confianza descentralizada: no se trata de micromanejar cada acción, sino de guiar las normas y los parámetros que mantienen honesta la capa de máquina.
Desafíos para hacer que la confianza sea programable
Nada de esto es trivial de implementar. Los problemas más complejos son sociales y técnicos a la vez.
Los ataques Sybil son la amenaza obvia: generan miles de nuevos agentes para cultivar reputación en roles de bajo riesgo, y luego los despliegan en contextos de mayor riesgo.
Prevenir esto requiere vincular los ABT a identidades descentralizadas fuertes, y a veces a entornos de hardware o ejecución que no se pueden replicar de forma económica.
El lavado de reputación es otro riesgo.
Sin salvaguardias, un sistema ABT podría convertirse en una fiesta de disfraces de alto riesgo, donde agentes maliciosos se ponen la máscara de otra persona para entrar en la sala VIP.
La no transferibilidad a nivel de protocolo, la vinculación criptográfica a las claves y las estrictas reglas de anti-delegación son esenciales.
También existe la compensación entre la privacidad y la auditabilidad. Para confiar en un agente, necesitas saber cómo ha estado funcionando.
Sin embargo, publicar registros de decisiones completos podría exponer datos sensibles o métodos patentados.
ZKPs (pruebas de conocimiento cero) y métricas aggreGate son formas prometedoras de resolver ese dilema.
Y luego está la captura de gobernanza: si un pequeño grupo de validadores controla la mayoría de las actualizaciones, pueden incluir en la lista blanca a actores maliciosos o castigar a los rivales.
Abrir conjuntos de validadores, rotación y penalización por colusión ayudan a distribuir ese poder.
Por qué esto es importante ahora
Estamos en un punto donde la IA descentralizada está limitada menos por la tecnología y más por la legitimidad.
Sin decidir qué agentes pueden ser de confianza para qué roles, las redes o centralizan el control o aceptan un riesgo constante.
Los ABTs y los DAOs de reputación ofrecen un tercer camino: una forma de codificar la confianza directamente en la infraestructura, haciéndola tan nativa al sistema como el consenso.
Ellos responden a esa pregunta públicamente al convertir ‘¿quién controla la IA?’ en ‘¿cómo se define, otorga y revoca el control?’
La primera ola de Web 3.0 nos enseñó a confiar en extraños con dinero.
El próximo debe enseñarnos a confiar en extraños con decisiones a la velocidad de la máquina, con consecuencias que ningún humano puede revertir a tiempo.
En una economía de agentes, eso no es opcional: es supervivencia.
Roman Melnyk es el director de marketing en DeXe.