OPML: Aprendizaje automático basado en un enfoque optimista
OPML( Aprendizaje automático optimista) es una nueva tecnología de IA en blockchain que utiliza un enfoque optimista para el razonamiento y entrenamiento de modelos de IA. En comparación con ZKML, OPML tiene la ventaja de ser de bajo costo y alta eficiencia. La barrera de entrada para el uso de OPML es muy baja, las PC comunes pueden ejecutar modelos de lenguaje grandes, como el modelo 7B-LLaMA de 26GB, sin necesidad de GPU.
OPML utiliza un mecanismo de juego de verificación para asegurar la descentralización y el consenso verificable de los servicios de ML. Su flujo de trabajo es el siguiente:
El iniciador propone la tarea de servicio ML
El servidor completa la tarea y sube el resultado a la cadena.
Los validadores revisan los resultados, y si hay objeciones, se inicia el juego de validación.
Arbitración un paso a través de contratos inteligentes
Juego de verificación de una sola etapa
El juego de validación de una sola etapa se basa en el principio de la delegación computacional (RDoC), suponiendo que múltiples partes ejecutan el mismo programa, luego localizan los pasos en disputa a través de cuestionamientos precisos, y finalmente son arbitrados por un contrato inteligente en la cadena.
El juego de verificación de una sola fase de OPML contiene los siguientes elementos:
Construir una máquina virtual de ejecución fuera de la cadena y arbitraje en la cadena (VM)
Implementar una biblioteca DNN liviana para mejorar la eficiencia de la inferencia de IA
Utilizar la compilación cruzada para compilar el código del modelo de IA en instrucciones de VM
Utilizar un árbol de Merkle para gestionar las imágenes de VM, solo subir el hash raíz a la cadena.
En las pruebas, un modelo DNN básico de clasificación MNIST puede completar la inferencia en una PC en menos de 2 segundos, y todo el proceso del desafío dura aproximadamente 2 minutos.
Juego de verificación multietapa
Las limitaciones de los juegos de verificación de una sola etapa radican en que todos los cálculos deben realizarse dentro de la VM, sin poder aprovechar la aceleración de GPU/TPU. Para ello, OPML ha propuesto una extensión del protocolo de múltiples etapas:
Solo la fase final se calcula en la VM
Otras etapas se pueden ejecutar en el entorno local, utilizando aceleración de hardware como CPU, GPU, etc.
Mejorar significativamente el rendimiento de ejecución al reducir la dependencia de VM
Ejemplo de OPML de múltiples etapas utilizando el modelo LLaMA, adoptando un método de dos etapas:
La segunda etapa se lleva a cabo en la verificación del juego sobre el gráfico de cálculo, utilizando CPU o GPU de múltiples hilos.
La primera etapa convertirá el cálculo de un nodo único en instrucciones de VM
Cuando el cálculo de un solo nodo en el gráfico computacional sigue siendo complejo, se pueden introducir más etapas para mejorar aún más la eficiencia.
Mejora del rendimiento
El análisis indica que el OPML de dos etapas puede lograr una aceleración de α veces en comparación con la etapa única, donde α representa la tasa de aceleración de GPU o cálculo paralelo. Además, el tamaño del árbol de Merkle del OPML de dos etapas es O(m+n), mucho menor que el de la etapa única O(mn).
Consistencia y determinación
Para asegurar la consistencia de los resultados de ML, OPML adopta dos métodos:
Utilizar el algoritmo de punto fijo ( para la tecnología de cuantificación ) para reducir el error de redondeo de punto flotante.
Utilizar una biblioteca de punto flotante de software consistente entre plataformas
Estas tecnologías ayudan a superar los desafíos que plantean las diferencias de variables de punto flotante y de plataforma, mejorando la fiabilidad del cálculo OPML.
OPML vs ZKML
OPML actualmente se centra principalmente en la inferencia de modelos de ML, pero el marco también admite el proceso de entrenamiento. El proyecto OPML todavía está en desarrollo, y se invita a las personas interesadas a contribuir.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
OPML: El aprendizaje automático optimista impulsa el desarrollo de la Cadena de bloques AI con bajo costo y alta eficiencia
OPML: Aprendizaje automático basado en un enfoque optimista
OPML( Aprendizaje automático optimista) es una nueva tecnología de IA en blockchain que utiliza un enfoque optimista para el razonamiento y entrenamiento de modelos de IA. En comparación con ZKML, OPML tiene la ventaja de ser de bajo costo y alta eficiencia. La barrera de entrada para el uso de OPML es muy baja, las PC comunes pueden ejecutar modelos de lenguaje grandes, como el modelo 7B-LLaMA de 26GB, sin necesidad de GPU.
OPML utiliza un mecanismo de juego de verificación para asegurar la descentralización y el consenso verificable de los servicios de ML. Su flujo de trabajo es el siguiente:
Juego de verificación de una sola etapa
El juego de validación de una sola etapa se basa en el principio de la delegación computacional (RDoC), suponiendo que múltiples partes ejecutan el mismo programa, luego localizan los pasos en disputa a través de cuestionamientos precisos, y finalmente son arbitrados por un contrato inteligente en la cadena.
El juego de verificación de una sola fase de OPML contiene los siguientes elementos:
En las pruebas, un modelo DNN básico de clasificación MNIST puede completar la inferencia en una PC en menos de 2 segundos, y todo el proceso del desafío dura aproximadamente 2 minutos.
Juego de verificación multietapa
Las limitaciones de los juegos de verificación de una sola etapa radican en que todos los cálculos deben realizarse dentro de la VM, sin poder aprovechar la aceleración de GPU/TPU. Para ello, OPML ha propuesto una extensión del protocolo de múltiples etapas:
Ejemplo de OPML de múltiples etapas utilizando el modelo LLaMA, adoptando un método de dos etapas:
Cuando el cálculo de un solo nodo en el gráfico computacional sigue siendo complejo, se pueden introducir más etapas para mejorar aún más la eficiencia.
Mejora del rendimiento
El análisis indica que el OPML de dos etapas puede lograr una aceleración de α veces en comparación con la etapa única, donde α representa la tasa de aceleración de GPU o cálculo paralelo. Además, el tamaño del árbol de Merkle del OPML de dos etapas es O(m+n), mucho menor que el de la etapa única O(mn).
Consistencia y determinación
Para asegurar la consistencia de los resultados de ML, OPML adopta dos métodos:
Estas tecnologías ayudan a superar los desafíos que plantean las diferencias de variables de punto flotante y de plataforma, mejorando la fiabilidad del cálculo OPML.
OPML vs ZKML
OPML actualmente se centra principalmente en la inferencia de modelos de ML, pero el marco también admite el proceso de entrenamiento. El proyecto OPML todavía está en desarrollo, y se invita a las personas interesadas a contribuir.