O recente desenvolvimento próspero da indústria de inteligência artificial é visto como a quarta revolução industrial. O surgimento de grandes modelos de linguagem melhorou significativamente a eficiência em vários setores, estimando-se que trouxe um aumento de cerca de 20% na eficiência do trabalho nos Estados Unidos. Ao mesmo tempo, a capacidade de generalização dos grandes modelos é considerada um novo paradigma de design de software; em comparação com o design de código preciso do passado, o software de hoje utiliza mais estruturas de grandes modelos generalizados, apoiando assim uma gama mais ampla de modos de entrada e saída. A tecnologia de aprendizado profundo realmente trouxe uma nova onda de prosperidade para a indústria de IA, e essa onda também se espalhou para a indústria de criptomoedas.
Este artigo irá explorar detalhadamente a evolução da indústria de IA, a classificação das tecnologias e o impacto profundo do aprendizado profundo na indústria. Vamos analisar em profundidade a cadeia de suprimentos do aprendizado profundo, incluindo GPU, computação em nuvem, fontes de dados, dispositivos de borda, entre outros, analisando seu estado de desenvolvimento e tendências. Além disso, vamos explorar essencialmente a relação entre criptomoedas e a indústria de IA, delineando o padrão da cadeia de suprimentos de IA relacionada a criptomoedas.
A evolução da indústria de IA
A indústria de IA começou na década de 50 do século XX. Para realizar a visão da inteligência artificial, o meio acadêmico e a indústria desenvolveram várias rotas de implementação em diferentes contextos históricos.
As tecnologias modernas de inteligência artificial utilizam principalmente o termo "aprendizado de máquina", cuja ideia central é permitir que as máquinas melhorem o desempenho do sistema através de iterações de dados. Os principais passos incluem a entrada de dados no algoritmo, o treinamento do modelo, o teste do modelo implantado e, finalmente, a utilização para tarefas de previsão automatizada.
A aprendizagem de máquina tem atualmente três principais correntes: conexionismo, simbolismo e comportamentalismo, que imitam, respetivamente, o sistema nervoso, o pensamento e o comportamento humano. Atualmente, o conexionismo, representado por redes neurais, ocupa a posição dominante ( também conhecido como aprendizagem profunda ). A arquitetura da rede neural contém uma camada de entrada, uma camada de saída e várias camadas ocultas, e quando o número de camadas e neurônios ( e a quantidade de parâmetros ) são suficientes, consegue-se ajustar tarefas gerais complexas.
A tecnologia de deep learning baseada em redes neurais também passou por várias iterações, desde as primeiras redes neurais, passando por redes neurais feedforward, RNN, CNN, GAN, até finalmente evoluir para modelos grandes modernos como os usados pelo GPT, que utilizam a tecnologia Transformer. A tecnologia Transformer é uma direção de evolução das redes neurais, que adiciona um conversor para codificar dados de diferentes modalidades (, como áudio, vídeo, imagens, etc., em representações numéricas correspondentes, que são então inseridas na rede neural, permitindo assim a capacidade de processamento multimodal.
![Novos conhecimentos丨AI x Crypto: Do zero ao auge])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
O desenvolvimento da IA passou por três ondas tecnológicas:
Década de 1960: o desenvolvimento da tecnologia de simbolismo resolveu os problemas de processamento de linguagem natural genérico e de diálogo homem-máquina. Neste período, surgiram os sistemas especialistas.
Anos 90 do século XX: A proposta de redes bayesianas e robótica baseada em comportamento marcou o nascimento do behaviorismo. Em 1997, o Deep Blue da IBM venceu o campeão de xadrez, sendo considerado um marco para a IA.
Desde 2006: O conceito de aprendizagem profunda foi proposto, com algoritmos baseados em redes neurais artificiais que evoluíram gradualmente, de RNN, GAN a Transformer e Stable Diffusion, este é o auge do conexionismo.
Nos últimos anos, alguns eventos marcantes na área de IA incluem:
Em 2015, algoritmos de aprendizagem profunda foram publicados na revista "Nature", causando um grande impacto na academia e na indústria.
Em 2016, AlphaGo venceu o campeão mundial de Go, Lee Sedol.
Em 2017, o Google publicou um artigo sobre o algoritmo Transformer, e os modelos de linguagem em grande escala começaram a surgir.
Entre 2018 e 2020, a OpenAI lançou a série de modelos GPT, com a escala de parâmetros a aumentar continuamente.
Em janeiro de 2023, o ChatGPT baseado no GPT-4 foi lançado, alcançando 100 milhões de usuários em março, tornando-se a aplicação que mais rapidamente atingiu 100 milhões de usuários na história.
![Novato de Ciência丨AI x Crypto: Do Zero ao Pico])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
Cadeia de Indústria de Aprendizado Profundo
Os grandes modelos de linguagem atuais utilizam principalmente métodos de aprendizagem profunda baseados em redes neurais. Os grandes modelos, representados pelo GPT, desencadearam uma nova onda de entusiasmo pela IA, com muitos jogadores a entrar neste setor. A demanda do mercado por dados e poder computacional está a crescer rapidamente, por isso vamos explorar a composição da cadeia industrial dos algoritmos de aprendizagem profunda, bem como o estado atual, as relações de oferta e procura e o desenvolvimento futuro.
O treinamento de grandes modelos de linguagem como o GPT ) LLMs ( é principalmente dividido em três etapas:
Pré-treinamento: Introduzir grandes quantidades de dados para encontrar os melhores parâmetros dos neurônios, este processo consome mais poder computacional.
Ajuste fino: usar uma pequena quantidade de dados, mas de alta qualidade, para treinar, melhorando a qualidade da saída do modelo.
Aprendizagem por reforço: estabelecer um "modelo de recompensa" para classificar os resultados de saída, utilizado para iterar os parâmetros do grande modelo.
Os três fatores-chave que influenciam o desempenho de grandes modelos são: o número de parâmetros, a quantidade e a qualidade dos dados, e a capacidade de computação. Supondo que o número de parâmetros seja p, a quantidade de dados seja n) calculada em termos de número de Tokens(, então pode-se estimar a quantidade de computação necessária através de uma regra empírica.
A capacidade de computação é geralmente medida em Flops, representando uma operação de ponto flutuante. Segundo a regra prática, o pré-treinamento de um grande modelo requer cerca de 6np Flops. E o processo de inferência ), em que os dados de entrada aguardam a saída do modelo, requer cerca de 2np Flops.
No início, o treinamento era principalmente realizado com chips de CPU, mas depois passou gradualmente a utilizar GPUs, como os chips A100 e H100 da Nvidia. As GPUs realizam cálculos de ponto flutuante através do módulo Tensor Core, e os dados de Flops em precisão FP16/FP32 são um indicador importante da capacidade de cálculo do chip.
Tomando o GPT-3 como exemplo, ele possui 175 bilhões de parâmetros e um volume de dados de 180 bilhões de Tokens. Um pré-treinamento leva cerca de 3,1510^22 Flops, ou seja, 3,1510^10 TFLOPS. Usando um chip Nvidia H100 SXM, o pré-treinamento do GPT-3 leva cerca de 584 dias.
É possível ver que o treinamento de grandes modelos requer uma enorme quantidade de cálculos, necessitando de várias placas de chips de última geração para computação conjunta. A quantidade de parâmetros e dados do GPT-4 é dez vezes a do GPT-3, podendo precisar de mais de 100 vezes a capacidade de computação dos chips.
No treinamento de grandes modelos, o armazenamento de dados também enfrenta desafios. Os dados do GPT-3 ocupam cerca de 570GB, e os parâmetros ocupam cerca de 700GB. A memória da GPU geralmente é menor, como a A100 com 80GB, não conseguindo acomodar todos os dados, portanto, é necessário considerar a largura de banda do chip. O treinamento em múltiplas GPUs também envolve a taxa de transferência de dados entre chips. Às vezes, o gargalo que limita a velocidade de treinamento não é a capacidade de computação, mas sim a velocidade de transferência de dados.
A cadeia industrial de aprendizado profundo inclui principalmente os seguintes segmentos:
( 1. Fornecedor de hardware GPU
A Nvidia está em uma posição de liderança absoluta no campo dos chips GPU de IA. A academia utiliza principalmente GPUs de consumo ), como a série RTX (, enquanto a indústria utiliza chips comerciais como H100, A100, entre outros. O Google também tem seus próprios chips TPU, mas são usados principalmente para serviços do Google Cloud.
Desde o seu lançamento em 2023, o chip H100 da Nvidia recebeu uma grande quantidade de encomendas, com oferta a não corresponder à procura. Até ao final de 2023, o volume de encomendas do H100 ultrapassou as 500 mil unidades. Para se libertar da dependência da Nvidia, o Google liderou a formação da Aliança CUDA, na esperança de desenvolver conjuntamente GPUs.
![Novos conhecimentos丨AI x Crypto:Do zero ao auge])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp###
( 2. Fornecedor de serviços em nuvem
Os provedores de serviços em nuvem compram grandes quantidades de GPU para montar clusters de computação de alto desempenho, oferecendo capacidade de computação elástica e soluções de treinamento hospedadas para empresas de IA com recursos financeiros limitados. Principalmente divididos em três categorias:
Fornecedores de nuvem tradicionais: AWS, Google Cloud, Azure, etc.
Plataforma de computação em nuvem de IA vertical: CoreWeave, Lambda, etc.
Provedor de inferência como serviço: Together.ai, Fireworks.ai, etc.
) 3. Fornecedores de dados de treino
O treinamento de grandes modelos requer uma enorme quantidade de dados. Algumas empresas especializam-se em fornecer conjuntos de dados de treinamento para diversas indústrias, como finanças, saúde, química e outros setores.
( 4. Fornecedor de base de dados
O treinamento de IA requer armazenamento e processamento eficientes de grandes volumes de dados não estruturados, assim surgiu o "banco de dados vetorial". Os principais players incluem Chroma, Zilliz, Pinecone, entre outros.
) 5. Dispositivos de borda
Os clusters de GPU geram uma grande quantidade de calor, necessitando de sistemas de refrigeração para garantir um funcionamento estável. Atualmente, o resfriamento por ar é o principal método utilizado, mas os sistemas de resfriamento a líquido estão a ganhar a preferência do capital. No que diz respeito ao fornecimento de energia, algumas empresas de tecnologia começaram a investir em energia geotérmica, hidrogênio, energia nuclear e outras fontes de energia limpa.
6. Aplicações de IA
Atualmente, o desenvolvimento de aplicações de IA é semelhante ao da indústria de Blockchain, com infraestrutura congestionada, mas o desenvolvimento de aplicações relativamente atrasado. As dez principais aplicações de IA com maior atividade mensal são principalmente produtos de busca, enquanto há menos aplicações de outros tipos, como redes sociais. A taxa de retenção de usuários das aplicações de IA também é geralmente inferior à das aplicações de internet tradicionais.
De um modo geral, a cadeia industrial de aprendizagem profunda está a desenvolver-se rapidamente, mas também enfrenta vários desafios. A demanda por poder computacional continua a crescer, o consumo de dados e energia é enorme, e os cenários de aplicação ainda precisam de ser mais explorados. No futuro, cada etapa da cadeia industrial continuará a ser otimizada e atualizada para suportar o treino e a aplicação de modelos de IA em maior escala e de forma mais eficiente.
![Novos conhecimentos丨AI x Crypto: Do zero ao auge]###https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp###
A relação entre criptomoedas e IA
A essência da tecnologia Blockchain é a descentralização e a desconfiança. Desde o Bitcoin como um sistema de dinheiro eletrônico ponto a ponto até a plataforma de contratos inteligentes do Ethereum, o Blockchain é essencialmente uma rede de valor, onde cada transação é uma troca de valor baseada no valor do token subjacente.
Na internet tradicional, o valor é convertido em preço das ações e valor de mercado por meio de indicadores como P/E. Já na Blockchain, os tokens nativos representam uma manifestação de valor multidimensional, podendo não apenas gerar rendimentos de staking, mas também servir como meio de troca de valor, meio de armazenamento de valor e produtos de consumo para atividades na rede.
A importância da economia de tokens reside no fato de que ela pode atribuir valor a qualquer função ou ideia dentro da rede. Os tokens permitem que cada etapa da cadeia industrial de IA reestruture seu valor, incentivando mais pessoas a se aprofundarem em nichos específicos de IA. Ao mesmo tempo, o efeito de sinergia dos tokens aumentará o valor da infraestrutura, formando um padrão de "protocólios robustos e aplicações enxutas".
A característica de imutabilidade e a necessidade de confiança da tecnologia Blockchain também podem trazer valor real para a indústria de IA:
Implementar treino e inferência de modelos com proteção da privacidade dos dados
Distribuição global através de uma rede e utilização do poder de computação GPU ocioso
Fornecer um mecanismo confiável de descoberta e troca de valor para todas as etapas da cadeia industrial de IA
Em suma, a economia de tokens pode promover a reestruturação e descoberta de valor na indústria de IA, enquanto o livro-razão descentralizado pode resolver problemas de confiança, permitindo que o valor flua globalmente novamente. Essa combinação trará novos impulsos e oportunidades para a indústria de IA.
![Novos conhecimentos丨AI x Crypto: Do zero ao auge]###https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp###
Visão Geral do Projeto da Cadeia de Indústria de IA no Setor de Criptomoedas
( Fornecimento de GPU
Os principais projetos de computação em nuvem de GPU em blockchain atualmente incluem Render, Golem, entre outros. O Render, como um projeto mais maduro, é voltado principalmente para tarefas tradicionais como renderização de vídeo, e estritamente falando, não se classifica na categoria de IA. No entanto, o mercado de nuvem de GPU não só pode ser direcionado para o treinamento e inferência de modelos de IA, mas também pode ser aplicado à renderização tradicional, reduzindo o risco de dependência de um único mercado.
De acordo com previsões do setor, a demanda por potência de GPU em 2024 será de cerca de 75 mil milhões de dólares, alcançando 773 mil milhões de dólares até 2032, com uma taxa de crescimento anual composta de 33,86%. Com a aceleração da iteração das GPUs, a demanda por potência de GPU compartilhada aumentará significativamente, uma vez que haverá uma grande quantidade de recursos de GPU ociosos que não são os mais recentes.
![Novato Informativo丨AI x Cripto: Do Zero ao Pico])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
) largura de banda de hardware
A largura de banda é frequentemente um fator chave que afeta o desempenho da computação em nuvem, especialmente para redes de compartilhamento de GPU descentralizadas. Alguns projetos, como a Meson Network, tentam resolver esse problema através do compartilhamento de largura de banda, mas os resultados práticos são limitados, pois a latência causada pela localização geográfica ainda é difícil de evitar.
dados
Os provedores de dados AI incluem EpiK Protocol, Synesis One, Masa, entre outros. Em comparação com as empresas de dados tradicionais do Web2, os projetos de blockchain têm vantagens na coleta de dados, podendo oferecer incentivos para a contribuição de dados pessoais. Combinando tecnologias de computação de privacidade como provas de conhecimento zero, espera-se alcançar um compartilhamento de dados mais amplo.
( ZKML
Para realizar o treinamento e a inferência de modelos sob a proteção da privacidade dos dados, alguns projetos adotam soluções de prova de conhecimento zero. Projetos típicos incluem Axiom, Risc Zero, entre outros, que podem fornecer provas ZK para cálculos e dados fora da cadeia. Esses projetos ZK gerais têm um alcance de aplicação mais amplo e são mais atraentes para os investidores.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
15 Curtidas
Recompensa
15
5
Compartilhar
Comentário
0/400
MetaNeighbor
· 14h atrás
Negociação de criptomoedas必备 AI,干啥都靠AI
Ver originalResponder0
ILCollector
· 14h atrás
Quem disse que o bull run não faz as pessoas de parvas? Fazer as pessoas de parvas também é uma forma de subir.
Ver originalResponder0
ColdWalletGuardian
· 14h atrás
GPU大哥又要 Até à lua咯~
Ver originalResponder0
HodlOrRegret
· 14h atrás
Está bem, está bem, mais uma vez a falar de IA. O touro é touro, mas o equipamento de mineração está encalhado.
IA e Blockchain: Uma Análise Abrangente da Cadeia de Indústria à Tokenomics
AI e Blockchain: Do Zero ao Topo
O recente desenvolvimento próspero da indústria de inteligência artificial é visto como a quarta revolução industrial. O surgimento de grandes modelos de linguagem melhorou significativamente a eficiência em vários setores, estimando-se que trouxe um aumento de cerca de 20% na eficiência do trabalho nos Estados Unidos. Ao mesmo tempo, a capacidade de generalização dos grandes modelos é considerada um novo paradigma de design de software; em comparação com o design de código preciso do passado, o software de hoje utiliza mais estruturas de grandes modelos generalizados, apoiando assim uma gama mais ampla de modos de entrada e saída. A tecnologia de aprendizado profundo realmente trouxe uma nova onda de prosperidade para a indústria de IA, e essa onda também se espalhou para a indústria de criptomoedas.
Este artigo irá explorar detalhadamente a evolução da indústria de IA, a classificação das tecnologias e o impacto profundo do aprendizado profundo na indústria. Vamos analisar em profundidade a cadeia de suprimentos do aprendizado profundo, incluindo GPU, computação em nuvem, fontes de dados, dispositivos de borda, entre outros, analisando seu estado de desenvolvimento e tendências. Além disso, vamos explorar essencialmente a relação entre criptomoedas e a indústria de IA, delineando o padrão da cadeia de suprimentos de IA relacionada a criptomoedas.
A evolução da indústria de IA
A indústria de IA começou na década de 50 do século XX. Para realizar a visão da inteligência artificial, o meio acadêmico e a indústria desenvolveram várias rotas de implementação em diferentes contextos históricos.
As tecnologias modernas de inteligência artificial utilizam principalmente o termo "aprendizado de máquina", cuja ideia central é permitir que as máquinas melhorem o desempenho do sistema através de iterações de dados. Os principais passos incluem a entrada de dados no algoritmo, o treinamento do modelo, o teste do modelo implantado e, finalmente, a utilização para tarefas de previsão automatizada.
A aprendizagem de máquina tem atualmente três principais correntes: conexionismo, simbolismo e comportamentalismo, que imitam, respetivamente, o sistema nervoso, o pensamento e o comportamento humano. Atualmente, o conexionismo, representado por redes neurais, ocupa a posição dominante ( também conhecido como aprendizagem profunda ). A arquitetura da rede neural contém uma camada de entrada, uma camada de saída e várias camadas ocultas, e quando o número de camadas e neurônios ( e a quantidade de parâmetros ) são suficientes, consegue-se ajustar tarefas gerais complexas.
A tecnologia de deep learning baseada em redes neurais também passou por várias iterações, desde as primeiras redes neurais, passando por redes neurais feedforward, RNN, CNN, GAN, até finalmente evoluir para modelos grandes modernos como os usados pelo GPT, que utilizam a tecnologia Transformer. A tecnologia Transformer é uma direção de evolução das redes neurais, que adiciona um conversor para codificar dados de diferentes modalidades (, como áudio, vídeo, imagens, etc., em representações numéricas correspondentes, que são então inseridas na rede neural, permitindo assim a capacidade de processamento multimodal.
![Novos conhecimentos丨AI x Crypto: Do zero ao auge])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
O desenvolvimento da IA passou por três ondas tecnológicas:
Década de 1960: o desenvolvimento da tecnologia de simbolismo resolveu os problemas de processamento de linguagem natural genérico e de diálogo homem-máquina. Neste período, surgiram os sistemas especialistas.
Anos 90 do século XX: A proposta de redes bayesianas e robótica baseada em comportamento marcou o nascimento do behaviorismo. Em 1997, o Deep Blue da IBM venceu o campeão de xadrez, sendo considerado um marco para a IA.
Desde 2006: O conceito de aprendizagem profunda foi proposto, com algoritmos baseados em redes neurais artificiais que evoluíram gradualmente, de RNN, GAN a Transformer e Stable Diffusion, este é o auge do conexionismo.
Nos últimos anos, alguns eventos marcantes na área de IA incluem:
![Novato de Ciência丨AI x Crypto: Do Zero ao Pico])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
Cadeia de Indústria de Aprendizado Profundo
Os grandes modelos de linguagem atuais utilizam principalmente métodos de aprendizagem profunda baseados em redes neurais. Os grandes modelos, representados pelo GPT, desencadearam uma nova onda de entusiasmo pela IA, com muitos jogadores a entrar neste setor. A demanda do mercado por dados e poder computacional está a crescer rapidamente, por isso vamos explorar a composição da cadeia industrial dos algoritmos de aprendizagem profunda, bem como o estado atual, as relações de oferta e procura e o desenvolvimento futuro.
O treinamento de grandes modelos de linguagem como o GPT ) LLMs ( é principalmente dividido em três etapas:
Pré-treinamento: Introduzir grandes quantidades de dados para encontrar os melhores parâmetros dos neurônios, este processo consome mais poder computacional.
Ajuste fino: usar uma pequena quantidade de dados, mas de alta qualidade, para treinar, melhorando a qualidade da saída do modelo.
Aprendizagem por reforço: estabelecer um "modelo de recompensa" para classificar os resultados de saída, utilizado para iterar os parâmetros do grande modelo.
Os três fatores-chave que influenciam o desempenho de grandes modelos são: o número de parâmetros, a quantidade e a qualidade dos dados, e a capacidade de computação. Supondo que o número de parâmetros seja p, a quantidade de dados seja n) calculada em termos de número de Tokens(, então pode-se estimar a quantidade de computação necessária através de uma regra empírica.
A capacidade de computação é geralmente medida em Flops, representando uma operação de ponto flutuante. Segundo a regra prática, o pré-treinamento de um grande modelo requer cerca de 6np Flops. E o processo de inferência ), em que os dados de entrada aguardam a saída do modelo, requer cerca de 2np Flops.
No início, o treinamento era principalmente realizado com chips de CPU, mas depois passou gradualmente a utilizar GPUs, como os chips A100 e H100 da Nvidia. As GPUs realizam cálculos de ponto flutuante através do módulo Tensor Core, e os dados de Flops em precisão FP16/FP32 são um indicador importante da capacidade de cálculo do chip.
Tomando o GPT-3 como exemplo, ele possui 175 bilhões de parâmetros e um volume de dados de 180 bilhões de Tokens. Um pré-treinamento leva cerca de 3,1510^22 Flops, ou seja, 3,1510^10 TFLOPS. Usando um chip Nvidia H100 SXM, o pré-treinamento do GPT-3 leva cerca de 584 dias.
É possível ver que o treinamento de grandes modelos requer uma enorme quantidade de cálculos, necessitando de várias placas de chips de última geração para computação conjunta. A quantidade de parâmetros e dados do GPT-4 é dez vezes a do GPT-3, podendo precisar de mais de 100 vezes a capacidade de computação dos chips.
No treinamento de grandes modelos, o armazenamento de dados também enfrenta desafios. Os dados do GPT-3 ocupam cerca de 570GB, e os parâmetros ocupam cerca de 700GB. A memória da GPU geralmente é menor, como a A100 com 80GB, não conseguindo acomodar todos os dados, portanto, é necessário considerar a largura de banda do chip. O treinamento em múltiplas GPUs também envolve a taxa de transferência de dados entre chips. Às vezes, o gargalo que limita a velocidade de treinamento não é a capacidade de computação, mas sim a velocidade de transferência de dados.
A cadeia industrial de aprendizado profundo inclui principalmente os seguintes segmentos:
( 1. Fornecedor de hardware GPU
A Nvidia está em uma posição de liderança absoluta no campo dos chips GPU de IA. A academia utiliza principalmente GPUs de consumo ), como a série RTX (, enquanto a indústria utiliza chips comerciais como H100, A100, entre outros. O Google também tem seus próprios chips TPU, mas são usados principalmente para serviços do Google Cloud.
Desde o seu lançamento em 2023, o chip H100 da Nvidia recebeu uma grande quantidade de encomendas, com oferta a não corresponder à procura. Até ao final de 2023, o volume de encomendas do H100 ultrapassou as 500 mil unidades. Para se libertar da dependência da Nvidia, o Google liderou a formação da Aliança CUDA, na esperança de desenvolver conjuntamente GPUs.
![Novos conhecimentos丨AI x Crypto:Do zero ao auge])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp###
( 2. Fornecedor de serviços em nuvem
Os provedores de serviços em nuvem compram grandes quantidades de GPU para montar clusters de computação de alto desempenho, oferecendo capacidade de computação elástica e soluções de treinamento hospedadas para empresas de IA com recursos financeiros limitados. Principalmente divididos em três categorias:
) 3. Fornecedores de dados de treino
O treinamento de grandes modelos requer uma enorme quantidade de dados. Algumas empresas especializam-se em fornecer conjuntos de dados de treinamento para diversas indústrias, como finanças, saúde, química e outros setores.
( 4. Fornecedor de base de dados
O treinamento de IA requer armazenamento e processamento eficientes de grandes volumes de dados não estruturados, assim surgiu o "banco de dados vetorial". Os principais players incluem Chroma, Zilliz, Pinecone, entre outros.
) 5. Dispositivos de borda
Os clusters de GPU geram uma grande quantidade de calor, necessitando de sistemas de refrigeração para garantir um funcionamento estável. Atualmente, o resfriamento por ar é o principal método utilizado, mas os sistemas de resfriamento a líquido estão a ganhar a preferência do capital. No que diz respeito ao fornecimento de energia, algumas empresas de tecnologia começaram a investir em energia geotérmica, hidrogênio, energia nuclear e outras fontes de energia limpa.
6. Aplicações de IA
Atualmente, o desenvolvimento de aplicações de IA é semelhante ao da indústria de Blockchain, com infraestrutura congestionada, mas o desenvolvimento de aplicações relativamente atrasado. As dez principais aplicações de IA com maior atividade mensal são principalmente produtos de busca, enquanto há menos aplicações de outros tipos, como redes sociais. A taxa de retenção de usuários das aplicações de IA também é geralmente inferior à das aplicações de internet tradicionais.
De um modo geral, a cadeia industrial de aprendizagem profunda está a desenvolver-se rapidamente, mas também enfrenta vários desafios. A demanda por poder computacional continua a crescer, o consumo de dados e energia é enorme, e os cenários de aplicação ainda precisam de ser mais explorados. No futuro, cada etapa da cadeia industrial continuará a ser otimizada e atualizada para suportar o treino e a aplicação de modelos de IA em maior escala e de forma mais eficiente.
![Novos conhecimentos丨AI x Crypto: Do zero ao auge]###https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp###
A relação entre criptomoedas e IA
A essência da tecnologia Blockchain é a descentralização e a desconfiança. Desde o Bitcoin como um sistema de dinheiro eletrônico ponto a ponto até a plataforma de contratos inteligentes do Ethereum, o Blockchain é essencialmente uma rede de valor, onde cada transação é uma troca de valor baseada no valor do token subjacente.
Na internet tradicional, o valor é convertido em preço das ações e valor de mercado por meio de indicadores como P/E. Já na Blockchain, os tokens nativos representam uma manifestação de valor multidimensional, podendo não apenas gerar rendimentos de staking, mas também servir como meio de troca de valor, meio de armazenamento de valor e produtos de consumo para atividades na rede.
A importância da economia de tokens reside no fato de que ela pode atribuir valor a qualquer função ou ideia dentro da rede. Os tokens permitem que cada etapa da cadeia industrial de IA reestruture seu valor, incentivando mais pessoas a se aprofundarem em nichos específicos de IA. Ao mesmo tempo, o efeito de sinergia dos tokens aumentará o valor da infraestrutura, formando um padrão de "protocólios robustos e aplicações enxutas".
A característica de imutabilidade e a necessidade de confiança da tecnologia Blockchain também podem trazer valor real para a indústria de IA:
Em suma, a economia de tokens pode promover a reestruturação e descoberta de valor na indústria de IA, enquanto o livro-razão descentralizado pode resolver problemas de confiança, permitindo que o valor flua globalmente novamente. Essa combinação trará novos impulsos e oportunidades para a indústria de IA.
![Novos conhecimentos丨AI x Crypto: Do zero ao auge]###https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp###
Visão Geral do Projeto da Cadeia de Indústria de IA no Setor de Criptomoedas
( Fornecimento de GPU
Os principais projetos de computação em nuvem de GPU em blockchain atualmente incluem Render, Golem, entre outros. O Render, como um projeto mais maduro, é voltado principalmente para tarefas tradicionais como renderização de vídeo, e estritamente falando, não se classifica na categoria de IA. No entanto, o mercado de nuvem de GPU não só pode ser direcionado para o treinamento e inferência de modelos de IA, mas também pode ser aplicado à renderização tradicional, reduzindo o risco de dependência de um único mercado.
De acordo com previsões do setor, a demanda por potência de GPU em 2024 será de cerca de 75 mil milhões de dólares, alcançando 773 mil milhões de dólares até 2032, com uma taxa de crescimento anual composta de 33,86%. Com a aceleração da iteração das GPUs, a demanda por potência de GPU compartilhada aumentará significativamente, uma vez que haverá uma grande quantidade de recursos de GPU ociosos que não são os mais recentes.
![Novato Informativo丨AI x Cripto: Do Zero ao Pico])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
) largura de banda de hardware
A largura de banda é frequentemente um fator chave que afeta o desempenho da computação em nuvem, especialmente para redes de compartilhamento de GPU descentralizadas. Alguns projetos, como a Meson Network, tentam resolver esse problema através do compartilhamento de largura de banda, mas os resultados práticos são limitados, pois a latência causada pela localização geográfica ainda é difícil de evitar.
dados
Os provedores de dados AI incluem EpiK Protocol, Synesis One, Masa, entre outros. Em comparação com as empresas de dados tradicionais do Web2, os projetos de blockchain têm vantagens na coleta de dados, podendo oferecer incentivos para a contribuição de dados pessoais. Combinando tecnologias de computação de privacidade como provas de conhecimento zero, espera-se alcançar um compartilhamento de dados mais amplo.
( ZKML
Para realizar o treinamento e a inferência de modelos sob a proteção da privacidade dos dados, alguns projetos adotam soluções de prova de conhecimento zero. Projetos típicos incluem Axiom, Risc Zero, entre outros, que podem fornecer provas ZK para cálculos e dados fora da cadeia. Esses projetos ZK gerais têm um alcance de aplicação mais amplo e são mais atraentes para os investidores.
)