AI y Cadena de bloques: remodelando el valor de la cadena industrial y las tendencias de desarrollo futuro

Evolución de la industria de la IA y perspectivas de fusión con la Cadena de bloques

La industria de la inteligencia artificial ha logrado avances significativos recientemente y se considera un motor clave de la cuarta revolución industrial. La aparición de modelos de lenguaje grandes ha mejorado notablemente la eficiencia laboral en diversas industrias; la consultora Boston Consulting Group estima que GPT ha aumentado la productividad general de Estados Unidos en aproximadamente un 20%. Al mismo tiempo, la capacidad de generalización de los grandes modelos se considera un nuevo paradigma de diseño de software, diferente al enfoque de codificación precisa del pasado; el diseño de software actual adopta más el marco de grandes modelos con una mayor capacidad de generalización, lo que puede soportar una entrada y salida de modalidades más amplias. La tecnología de aprendizaje profundo ha traído una nueva ola de prosperidad a la industria de la IA, y esta tendencia también se ha ido extendiendo gradualmente a la industria de las criptomonedas.

Este informe explorará en profundidad la trayectoria de desarrollo de la industria de la IA, la clasificación de tecnologías y el impacto que la tecnología de aprendizaje profundo ha tenido en la industria. Analizaremos el estado y las tendencias de desarrollo de la cadena de suministro en el campo del aprendizaje profundo, incluyendo GPU, computación en la nube, fuentes de datos y dispositivos de borde. Al mismo tiempo, también discutiremos esencialmente la relación entre las criptomonedas y la industria de la IA, y organizaremos el patrón de la cadena de suministro de la IA relacionada con las criptomonedas.

Desarrollo de la industria de la IA

Desde que la industria de la IA comenzó en la década de 1950, el mundo académico y la industria han desarrollado diversas corrientes para lograr la inteligencia artificial en diferentes períodos y contextos disciplinares.

Las tecnologías modernas de inteligencia artificial utilizan principalmente el término "aprendizaje automático", cuya idea central es permitir que las máquinas mejoren el rendimiento del sistema a través de iteraciones repetidas con datos en tareas específicas. Los pasos principales incluyen la entrada de datos en algoritmos, el entrenamiento de modelos utilizando datos, la prueba y despliegue de modelos, y finalmente, el uso de modelos para completar tareas de predicción automática.

Actualmente, el aprendizaje automático se divide en tres grandes escuelas: el conexionismo, el simbolismo y el conductismo, que imitan respectivamente el sistema nervioso humano, el pensamiento y el comportamiento. Entre ellos, el conexionismo, representado por las redes neuronales, ocupa actualmente una posición dominante ( también conocido como aprendizaje profundo ). La arquitectura de las redes neuronales incluye una capa de entrada, una capa de salida y múltiples capas ocultas; cuando el número de capas y la cantidad de parámetros de los neuronas ( son suficientes, se pueden ajustar tareas generales complejas. Al ajustar continuamente los parámetros de las neuronas a través de la entrada de datos, finalmente las neuronas alcanzarán un estado óptimo, que también es el origen de la palabra "profundo" - un número suficiente de capas y neuronas.

La tecnología de aprendizaje profundo basada en redes neuronales también ha experimentado múltiples iteraciones y evoluciones, desde las primeras redes neuronales hasta redes neuronales de retroalimentación, RNN, CNN, GAN, y finalmente desarrollándose hasta los modernos modelos grandes como GPT que utilizan la tecnología Transformer. La tecnología Transformer es una dirección evolutiva de las redes neuronales, que añade un convertidor ) Transformer (, para codificar datos de varios modos ) como audio, video, imágenes, etc. ( en representaciones numéricas correspondientes, que luego se introducen en la red neuronal, permitiendo que la red neuronal ajuste cualquier tipo de datos y logre el procesamiento multimodal.

![Nuevos conocimientos丨IA x Cripto: De cero a la cima])https://img-cdn.gateio.im/webp-social/moments-7e025deb1fddcd5fa716b6f144701074.webp(

El desarrollo de la IA ha pasado por tres oleadas tecnológicas:

La primera ola ocurrió en la década de 1960, provocada por la tecnología del simbolismo, resolviendo problemas de procesamiento del lenguaje natural y diálogo hombre-máquina. Durante este tiempo, nacieron los sistemas expertos, como el sistema experto químico DENDRAL desarrollado por la NASA.

La segunda ola ocurrió en la década de 1990, con la propuesta de redes bayesianas y robótica basada en el comportamiento, marcando el nacimiento del conductismo. En 1997, Deep Blue de IBM venció al campeón de ajedrez Garry Kasparov, siendo considerado un hito en la inteligencia artificial.

La tercera ola comenzó en 2006. Se propuso el concepto de aprendizaje profundo, utilizando redes neuronales artificiales como arquitectura, para el aprendizaje de representaciones de datos. Posteriormente, los algoritmos de aprendizaje profundo evolucionaron continuamente, desde RNN, GAN hasta Transformer y Stable Diffusion, dando forma a esta ola tecnológica, así como al apogeo del conexionismo.

Durante este período, ocurrieron múltiples eventos emblemáticos:

  • En 2011, Watson de IBM venció a los competidores humanos en el programa de preguntas y respuestas "Jeopardy!".
  • En 2014, Goodfellow propuso la red generativa antagónica GAN).
  • En 2015, Hinton y otros propusieron algoritmos de aprendizaje profundo en la revista "Nature", lo que generó un gran impacto. Se fundó OpenAI.
  • En 2016, AlphaGo venció al campeón mundial de Go, Lee Sedol.
  • En 2017, Google propuso el algoritmo Transformer, comenzando la aparición de modelos de lenguaje a gran escala.
  • En 2018, OpenAI lanzó GPT y DeepMind lanzó AlphaFold.
  • En 2019, OpenAI lanzó GPT-2.
  • En 2020, OpenAI lanzó GPT-3.
  • En 2023, se lanzó ChatGPT basado en GPT-4, alcanzando rápidamente cien millones de usuarios.

Nuevos conocimientos丨AI x Crypto: De cero a la cima

Cadena de bloques de aprendizaje profundo

Los modelos de lenguaje grandes actuales utilizan principalmente métodos de aprendizaje profundo basados en redes neuronales. Los grandes modelos representados por GPT han desencadenado una nueva ola de entusiasmo por la inteligencia artificial, atrayendo a numerosos jugadores a este campo, y la demanda de datos y poder de cálculo ha aumentado drásticamente en el mercado. Esta sección explorará la composición de la cadena industrial de algoritmos de aprendizaje profundo, así como el estado actual, las relaciones de oferta y demanda y el desarrollo futuro en los sectores upstream y downstream.

Los modelos de lenguaje grandes como GPT basados en la tecnología Transformer ( LLMs ) se entrenan principalmente en tres pasos:

  1. Preentrenamiento: ingresar grandes cantidades de datos para encontrar los mejores parámetros de las neuronas. Este proceso consume la mayor parte de la potencia de cálculo y requiere iteraciones repetidas para probar varios parámetros.

  2. Ajuste fino: utilizar una pequeña cantidad de datos de alta calidad para entrenar y mejorar la calidad de salida del modelo.

  3. Aprendizaje por refuerzo: establecer un "modelo de recompensa" para evaluar la calidad de salida del gran modelo, y usar este modelo para iterar automáticamente los parámetros del gran modelo. A veces también es necesaria la participación humana en la evaluación.

En resumen, el preentrenamiento requiere una gran cantidad de datos y consume la mayor parte de la potencia de cálculo de la GPU; el ajuste fino necesita datos de alta calidad para mejorar los parámetros; el aprendizaje por refuerzo itera los parámetros a través de un modelo de recompensas para mejorar la calidad de salida.

Los tres factores principales que afectan el rendimiento de los grandes modelos son: la cantidad de parámetros, la cantidad y calidad de los datos, y la potencia de cálculo. Estos tres determinan conjuntamente la calidad de los resultados del gran modelo y su capacidad de generalización. Supongamos que la cantidad de parámetros es p, la cantidad de datos es n( calculada en términos de la cantidad de tokens), se puede estimar la cantidad de cálculo necesaria a través de una regla empírica, para así prever la potencia de cálculo y el tiempo de entrenamiento requeridos.

La potencia de cálculo normalmente se mide en Flops, que representa una operación de punto flotante. Según la experiencia práctica, preentrenar un gran modelo requiere aproximadamente 6np Flops. El proceso de inferencia (, donde los datos de entrada esperan la salida del modelo, requiere 2np Flops.

La capacitación temprana de IA utilizaba principalmente chips de CPU, que luego fueron gradualmente reemplazados por GPU, como la A100 y H100 de Nvidia. Las GPU superan con creces a las CPU en eficiencia energética, realizando operaciones de punto flotante principalmente a través del módulo Tensor Core. La capacidad de cálculo de los chips se mide generalmente en Flops bajo precisión FP16/FP32.

Tomando como ejemplo GPT-3, tiene 175 mil millones de parámetros y una cantidad de datos de 180 mil millones de tokens, aproximadamente 570 GB). Realizar un preentrenamiento requiere 3.15*10^22 Flops, lo que equivale a que un chip Nvidia A100 SXM necesita 584 días. Considerando que la cantidad de parámetros de GPT-4 es 10 veces la de GPT-3, la cantidad de datos también ha aumentado 10 veces, lo que podría requerir más de 100 veces la capacidad de cálculo de chips.

En el entrenamiento de modelos grandes, el almacenamiento de datos también es un desafío. La memoria de la GPU suele ser pequeña, como la A100 que tiene 80GB, y no puede contener todos los datos y parámetros del modelo. Por lo tanto, es necesario considerar el ancho de banda del chip, es decir, la velocidad de transferencia de datos entre el disco duro y la memoria. Durante el entrenamiento colaborativo con múltiples GPUs, la velocidad de transferencia de datos entre chips también es clave.

Nuevos conocimientos丨AI x Crypto: De cero a la cima

La cadena de la industria de aprendizaje profundo incluye principalmente los siguientes eslabones:

  1. Proveedores de hardware GPU: Actualmente, Nvidia está en una posición de liderazgo absoluto. En el ámbito académico se utilizan principalmente GPU de consumo ( como la serie RTX ), mientras que en la industria se utilizan principalmente chips profesionales como el H100, A100, etc. Google también tiene su propio chip TPU.

  2. Proveedores de servicios en la nube: ofrecen potencia de cálculo flexible y soluciones de entrenamiento alojadas para empresas de IA con fondos limitados. Principalmente se dividen en tres categorías: proveedores de nube tradicionales ( como AWS, Google Cloud, Azure ), plataformas de potencia de cálculo en la nube vertical de IA ( como CoreWeave, Lambda ), proveedores de inferencia como servicio ( como Together.ai, Fireworks.ai ).

  3. Proveedores de fuentes de datos de entrenamiento: proporcionan una gran cantidad de datos o datos de alta calidad para modelos grandes. Empresas como Google, Reddit, etc., que tienen una gran cantidad de datos, están bajo el foco de atención. También hay empresas de etiquetado de datos especializadas que proporcionan datos para modelos de campos específicos.

  4. Proveedor de bases de datos: Las tareas de inferencia de entrenamiento de IA utilizan principalmente "bases de datos vectoriales", utilizadas para el almacenamiento e indexación eficientes de grandes volúmenes de datos vectoriales de alta dimensión. Los principales actores incluyen Chroma, Zilliz, Pinecone, Weaviate, entre otros.

  5. Dispositivos de borde: proporcionan soporte de refrigeración y suministro de energía para el clúster de GPU. Incluye suministro de energía ( como geotérmica, hidrógeno, energía nuclear ) y sistemas de refrigeración ( como tecnología de refrigeración líquida ).

  6. Aplicaciones: Actualmente, las aplicaciones de IA se concentran principalmente en áreas como búsqueda y preguntas y respuestas, con tasas de retención y actividad generalmente inferiores a las de las aplicaciones de Internet tradicionales. Las aplicaciones se dividen principalmente en tres categorías: dirigidas a consumidores profesionales, empresas y consumidores comunes.

Nuevos conceptos丨AI x Crypto: De cero a la cima

La relación entre las criptomonedas y la IA

La tecnología de la cadena de bloques se basa en la descentralización y la falta de confianza. Bitcoin creó un sistema de transferencia de valor sin necesidad de confianza, mientras que Ethereum llevó esto más allá al implementar una plataforma de contratos inteligentes descentralizada y sin confianza. Esencialmente, una red de cadena de bloques es una red de valor, donde cada transacción es una conversión de valor basada en el token subyacente.

En el Internet tradicional, el valor se refleja en el precio de las acciones a través de indicadores como el P/E. Sin embargo, en la Cadena de bloques, el token nativo (, como el ETH), refleja el valor multidimensional de la red, no solo se puede obtener ingresos por staking, sino que también puede servir como medio de intercambio de valor, medio de almacenamiento de valor, y bienes de consumo en actividades de la red.

La economía de tokens ( Tokenomics ) establece el valor relativo de los activos de liquidación del ecosistema ( token nativo ). Aunque no se puede fijar un precio por separado para cada dimensión, el precio del token refleja de manera integral un valor multidimensional. Una vez que se otorgan tokens a la red y se permite su circulación, se puede lograr una captura de valor que supera con creces la de las acciones tradicionales.

El atractivo de la economía de los tokens radica en su capacidad para otorgar valor a cualquier función o idea. Redefine y descubre el valor, siendo crucial para diversas industrias, incluida la IA. En la industria de la IA, la emisión de tokens puede remodelar el valor en todas las etapas de la cadena de producción, incentivando a más personas a profundizar en nichos específicos. Los tokens también pueden proporcionar valor adicional a la infraestructura, promoviendo la formación del paradigma de "protocolo pesado, aplicación ligera".

La característica de inmutabilidad y la necesidad de confianza de la tecnología de Cadena de bloques también pueden aportar un valor real a la industria de la IA. Por ejemplo, se puede permitir que el modelo use datos protegiendo la privacidad del usuario; se puede redistribuir la potencia de cálculo de GPU inactiva a través de una red global, redescubriendo el valor restante.

En general, la economía de tokens ayuda a remodelar y descubrir valor, mientras que el libro de contabilidad descentralizado puede resolver problemas de confianza, permitiendo que el valor fluya de nuevo a nivel global. Esta combinación trae nuevas posibilidades a la industria de la IA.

Nuevos conocimientos丨AI x Crypto:de cero a la cima

Visión general de la cadena de la industria de IA en la industria de las criptomonedas

  1. Lado de suministro de GPU: Los principales proyectos incluyen Render, Golem, entre otros. Render, como un proyecto más maduro, se centra principalmente en tareas de renderizado de video que no son de grandes modelos. El mercado de potencia de cálculo en la nube de GPU no solo puede servir para el entrenamiento y la inferencia de modelos de IA, sino que también es adecuado para tareas de renderizado tradicionales, reduciendo así el riesgo de depender de un solo mercado.

  2. Ancho de banda de hardware: Proyectos como Meson Network intentan establecer una red de compartición de ancho de banda global. Sin embargo, el ancho de banda compartido puede ser una demanda falsa para el entrenamiento de modelos grandes, ya que la latencia causada por la ubicación geográfica puede afectar significativamente la eficiencia del entrenamiento.

  3. Datos: Los principales proyectos incluyen EpiK Protocol, Synesis One, Masa, entre otros. En comparación con las empresas de datos tradicionales, los proveedores de datos de la cadena de bloques tienen ventajas en la recolección de datos, pueden fijar precios para los datos personales y incentivar a los usuarios a contribuir con datos a través de tokens.

  4. ZKML: Proyectos como Zama, TruthGPT, entre otros, utilizan tecnología de pruebas de conocimiento cero para realizar cálculos y entrenamientos de privacidad. Además, algunos proyectos de ZK de propósito general como Axiom, Risc Zero también merecen atención.

  5. Aplicaciones de IA: Actualmente, se trata principalmente de la combinación de aplicaciones tradicionales de Cadena de bloques con capacidades de automatización y generalización. AI Agent( como Fetch.AI) se espera que actúe como un puente entre los usuarios y diversas aplicaciones, y que se beneficie primero.

  6. Cadena de bloques de IA: como Tensor,

GPT0.3%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Compartir
Comentar
0/400
BlockImpostervip
· hace12h
¿La eficiencia sube un 20%? No me lo creo.
Ver originalesResponder0
mev_me_maybevip
· 07-22 06:29
gpt ha subido demasiado, es hora de enfriar
Ver originalesResponder0
fork_in_the_roadvip
· 07-22 06:28
Ya he visto todo, tontos.
Ver originalesResponder0
NotFinancialAdviservip
· 07-22 06:22
GPT juega bien, el Comercio de criptomonedas de esta ola debe alcanzar un nuevo máximo.
Ver originalesResponder0
ContractExplorervip
· 07-22 06:10
ai ser liquidado 其他跟蹆虫
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)