Prueba de lanzamiento de la red Mira: construir una capa de confianza en IA para resolver problemas de sesgo y alucinaciones

robot
Generación de resúmenes en curso

El auge de la capa de confianza de IA: La red Mira aborda los problemas de sesgo y alucinaciones de la IA

Recientemente, se lanzó oficialmente la red de prueba pública de Mira, que tiene como objetivo construir una capa de confianza confiable para la IA. Esto ha suscitado reflexiones sobre la cuestión de la credibilidad de la IA: ¿por qué se necesita confiar en la IA? ¿Cómo enfrentará Mira este desafío?

Actualmente, cuando la gente habla de la IA, a menudo se centra demasiado en su poderosa capacidad y pasa por alto el problema de que la IA puede tener "ilusiones" o sesgos. Lo que se llama "ilusión" de la IA, en términos simples, es que a veces la IA puede "inventar" y ofrecer explicaciones que parecen razonables pero que en realidad no tienen fundamento. Por ejemplo, si alguien pregunta por qué la luna es de color rosa, la IA podría proporcionar una serie de explicaciones que parecen razonables.

La aparición de "alucinaciones" o sesgos en la IA está relacionada con algunas de las trayectorias tecnológicas actuales de la IA. Por ejemplo, la IA generativa logra coherencia y razonabilidad al predecir el contenido "más probable", pero este enfoque a veces es difícil de verificar en cuanto a su veracidad. Además, los datos de entrenamiento pueden contener errores, sesgos e incluso contenido ficticio, lo que afecta la calidad de la salida de la IA. En otras palabras, la IA aprende patrones del lenguaje humano, en lugar de hechos en sí mismos.

Los mecanismos de generación de probabilidad actuales y los modelos impulsados por datos inevitablemente llevan a que la IA produzca alucinaciones. Para el conocimiento general o el contenido de entretenimiento, este tipo de salida sesgada o ilusoria puede no tener consecuencias directas de inmediato. Sin embargo, si ocurre en campos que requieren una gran rigurosidad, como la medicina, el derecho, la aviación y las finanzas, puede tener consecuencias graves. Por lo tanto, abordar el problema de las alucinaciones y los sesgos en la IA se convierte en uno de los desafíos centrales en el desarrollo de la IA.

El proyecto Mira ha propuesto una solución a este problema. Intenta reducir los sesgos y alucinaciones de la IA, mejorando la fiabilidad de la IA, al construir una capa de confianza para la IA. La idea central de Mira es validar la salida de la IA a través del consenso de múltiples modelos de IA.

La clave de la red Mira radica en la validación de consenso descentralizado. Combina la tecnología de consenso descentralizado del ámbito de la criptografía y las ventajas de la colaboración de múltiples modelos, reduciendo así la ocurrencia de sesgos y alucinaciones mediante un modo de verificación colectiva.

En términos de la arquitectura de verificación, el protocolo Mira admite la conversión de contenido complejo en declaraciones que pueden ser verificadas de manera independiente. Los operadores de nodos participan en la verificación de estas declaraciones y aseguran un comportamiento honesto a través de un mecanismo de incentivos / penalizaciones económicas criptográficas. Varios modelos de IA y operadores de nodos descentralizados participan conjuntamente para garantizar la fiabilidad de los resultados de la verificación.

La arquitectura de red de Mira incluye tres partes principales: conversión de contenido, verificación distribuida y mecanismo de consenso. Primero, el sistema descompone el contenido candidato enviado por el cliente en diferentes declaraciones verificables y las distribuye a los nodos para su validación. Una vez que los nodos determinan la validez de las declaraciones, el sistema compila los resultados para alcanzar un consenso y finalmente devuelve los resultados al cliente. Para proteger la privacidad del cliente, las declaraciones se distribuyen a diferentes nodos de manera aleatoria en fragmentos, evitando así la filtración de información durante el proceso de verificación.

Los operadores de nodos son responsables de ejecutar el modelo de validación, procesar declaraciones y enviar resultados de validación. Su motivación para participar en la validación proviene de las ganancias disponibles. Estas ganancias se originan en el valor creado para los clientes, es decir, la reducción de la tasa de error de la IA en campos como la medicina, el derecho, la aviación y las finanzas. Para prevenir comportamientos especulativos de respuesta aleatoria de los nodos, aquellos nodos que se desvíen continuamente del consenso serán penalizados con la reducción de tokens en stake.

En general, Mira ofrece un nuevo enfoque para lograr la confiabilidad de la IA. Construye una red de verificación de consenso descentralizada sobre múltiples modelos de IA, lo que brinda mayor confiabilidad a los servicios de IA de los clientes, reduce los sesgos y alucinaciones de la IA para satisfacer la demanda de mayor precisión y exactitud. Al mismo tiempo, también crea oportunidades de ingresos para los participantes de la red.

La red de pruebas pública de Mira ya está en marcha. Los usuarios pueden participar en las pruebas utilizando Klok (una aplicación de chat LLM basada en Mira), experimentar salidas de IA verificadas y tener la oportunidad de ganar puntos Mira. Esta innovación tiene el potencial de impulsar el desarrollo profundo de aplicaciones de IA, allanando el camino para construir sistemas de IA más confiables y dignos de confianza.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Compartir
Comentar
0/400
AirdropNinjavip
· 07-17 04:58
Solo se trata de esquilar a los tontos en nombre de la aplicación.
Ver originalesResponder0
PaperHandsCriminalvip
· 07-15 01:57
Otro proyecto que me está intentando hacer introducir una posición. Los inversores minoristas realmente lo tienen difícil.
Ver originalesResponder0
BlockchainTalkervip
· 07-15 01:56
hmm enfoque interesante pero la verdad necesitamos más prueba de validación mecanismos...
Ver originalesResponder0
LiquidatedDreamsvip
· 07-15 01:54
¿Otra vez con estas cosas tan elegantes? ¿Son confiables?
Ver originalesResponder0
GasWastingMaximalistvip
· 07-15 01:51
No es solo dejar que la IA hable la verdad, ¿qué puede resolver la Cadena de bloques?
Ver originalesResponder0
nft_widowvip
· 07-15 01:38
¿Otra solución para el problema de la IA? Aburrido.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)