“Não acho que a única maneira de entender a segurança da IA seja implantar centenas de milhões de cópias de um sistema no mundo real e ver os resultados.” Os humanos não fazem isso com vacinas, “Temos que testar uma vacina antes de implantá-lo, porque vamos injetá-lo em centenas de milhões de pessoas."
"Não entendemos grandes modelos de linguagem e como eles funcionam. Precisamos ter esse entendimento para ter certeza sobre a segurança. As técnicas que os humanos usam para construir sistemas de IA não devem depender de grandes quantidades de dados para treinamento e caixas pretas com internos desconhecidos.”
Stuart Russell, professor de ciência da computação na Universidade da Califórnia, em Berkeley, fez um discurso de abertura na Conferência Beijing Zhiyuan de 2023.
"A inteligência artificial é como um enorme imã do futuro nos puxando para frente, como garantir que não seremos controlados por uma inteligência além da humana?" 10 de junho, Professor de Ciência da Computação, Universidade da Califórnia, Berkeley, Centro de Inteligência Artificial Humana Compatível (Centro de IA compatível com humanos) Stuart Russell (Stuart Russell) fez um discurso na Conferência Zhiyuan de Pequim de 2023, dizendo que o design de sistemas de inteligência artificial deve seguir dois princípios. Primeiro, a IA deve agir no melhor interesse da humanidade; segundo, a própria IA não deve saber quais são esses interesses.
Na sessão de diálogo, Russell e Yao Qizhi, vencedor do Prêmio Turing e acadêmico da Academia Chinesa de Ciências, discutiram o futuro de longo prazo da inteligência artificial e sua relação com os seres humanos. Quando as decisões são tomadas em nome da sociedade, os interesses de todos devem ser devidamente levados em consideração."
"Inteligência Artificial: Uma Abordagem Moderna", co-autoria de Russell, foi aclamado como o livro didático mais popular no campo da inteligência artificial, adotado por mais de 1.500 universidades em 135 países. Em 2022, a Conferência Conjunta Internacional sobre Inteligência Artificial (IJCAI) premiará Russell com o Prêmio de Excelência em Pesquisa. tempo.
A Inteligência Artificial Geral ainda está longe
Na conferência de Pequim, Russell definiu inteligência artificial geral (AGI) em um discurso intitulado "AI: Some Thoughts?" Sistemas de inteligência artificial que excedem as capacidades humanas em tarefas. Este tipo de sistema de inteligência artificial pode aprender e executar qualquer tarefa melhor e mais rápido que os humanos, incluindo tarefas que os humanos não conseguem lidar, e devido às enormes vantagens das máquinas em velocidade, memória, comunicação e largura de banda, no futuro, a inteligência artificial geral será ser usado em quase todos os campos excederá em muito as capacidades humanas.
Então, quão longe estão os seres humanos da inteligência artificial geral? Russell disse que ainda estamos longe da inteligência artificial geral. "Na verdade, ainda há muitas questões importantes sem resposta."
Russell apontou em seu discurso que o ChatGPT e o GPT-4 não entendem o mundo, nem estão "respondendo" a perguntas: "Se a inteligência artificial geral é um quebra-cabeça completo, o grande modelo de linguagem é apenas uma peça, mas não realmente entender como conectar isso com outras peças do quebra-cabeça para realmente alcançar a inteligência artificial geral”, disse ele, “acredito que existem até peças do quebra-cabeça que faltam que não foram encontradas”.
De acordo com Russell, uma fraqueza fundamental dos atuais sistemas de IA é que eles usam circuitos para gerar saída. “Estamos tentando obter um comportamento altamente inteligente dos circuitos, que são uma forma bastante limitada de computação.” A incapacidade dos circuitos de expressar e entender com precisão alguns conceitos fundamentais, ele argumenta, significa que esses sistemas exigem muito treinamento. dados para aprender algumas funções que podem ser definidas com programas simples. Ele acredita que a direção do desenvolvimento futuro da inteligência artificial deve ser o uso de tecnologia baseada na representação explícita do conhecimento.
"Questões técnicas à parte, se criarmos uma inteligência artificial geral. O que acontecerá a seguir?" parece terrível que ultrapassaria nossos fracos poderes."
"Como garantimos permanentemente que não somos controlados pela inteligência artificial? Esse é o problema que enfrentamos - se não conseguirmos encontrar a resposta para essa pergunta, acho que não há escolha a não ser parar de desenvolver a inteligência artificial geral." Russel disse.
Em março deste ano, Russell assinou uma carta aberta com milhares de pessoas, incluindo o CEO da Tesla, Elon Musk, e o "padrinho da IA" Geoffrey Hinton, pedindo a suspensão do treinamento de sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses.
Russell enfatizou na reunião que a resposta para o problema existe. O design de um sistema de IA deve seguir dois princípios. Primeiro, a IA deve agir no melhor interesse da humanidade; segundo, a própria IA não deve saber quais são esses interesses. Como tal, eles não têm certeza sobre as preferências humanas e o futuro, e essa incerteza dá aos humanos o controle.
Russell disse que as pessoas precisam mudar de ideia, não para perseguir "máquinas devem ser inteligentes", mas para se concentrar na "benefício" das máquinas para que estejam alinhadas com os interesses fundamentais da humanidade. "Os alienígenas são muito inteligentes, mas não queremos necessariamente que eles venham para a Terra."
Pensamentos da fraternidade de AI e Mencius
Na sessão de diálogo, Russell e Yao Qizhi tiveram uma discussão profunda e perspicaz.
Quando questionado por Yao Qizhi sobre o futuro a longo prazo da relação entre inteligência artificial e seres humanos, Russell disse que o fenômeno de que os seres humanos usam IA para satisfazer seus próprios interesses, o que torna a IA incontrolável, decorre do utilitarismo. “O utilitarismo é um passo importante no progresso humano, mas também é Isso leva a alguns problemas." Por exemplo, como as decisões são tomadas quando uma decisão afeta quantas pessoas existem fisicamente? As pessoas querem um grande grupo que não é muito feliz ou um pequeno grupo que é muito feliz? “Não temos boas respostas para esses tipos de perguntas, mas precisamos responder a essas questões centrais da filosofia moral, porque os sistemas de IA terão grande poder e é melhor garantir que eles usem esse poder da maneira certa. "
Russell e Yao Qizhi (à direita), vencedor do Prêmio Turing e acadêmico da Academia Chinesa de Ciências, discutiram o futuro de longo prazo da inteligência artificial e sua relação com os seres humanos.
Russell citou o antigo filósofo chinês Mencius em sua resposta: "Mencius falou sobre o conceito de fraternidade na China, o que significa que, ao tomar decisões morais, os interesses de todos devem ser levados em consideração. E as preferências de todos devem ser tratadas igualmente". existe uma abordagem, baseada em formas complexas de utilitarismo de preferência, que poderia permitir que os sistemas de IA considerem razoavelmente os interesses de todos ao tomar decisões em nome da sociedade.
Russell perguntou, quando há uma pessoa e muitas máquinas, como você garante que essas máquinas cooperem entre si para ajudar os humanos? Isso toca em questões fundamentais da filosofia moral quando muitas pessoas têm muitas máquinas. Ele acredita que os sistemas de IA devem ser projetados para funcionar em nome de todos os seres humanos. "Se você deseja que um sistema de IA esteja em conformidade com os desejos de um indivíduo, precisa demonstrar que o sistema de IA é limitado em seu escopo de ação às preocupações do indivíduo, que não pode prejudicar outros indivíduos ao perseguir seus interesses. próprios interesses porque não se preocupa com outros indivíduos. Portanto, acho que o padrão deve ser que os sistemas de IA funcionem em nome dos humanos.
Além disso, na discussão, Russell mencionou o termo econômico "bens posicionais", "bens posicionais" refere-se ao fato de que as pessoas valorizam não os itens em si, mas seu significado implícito de serem superiores aos outros. "Por que o Prêmio Nobel é valioso? Porque ninguém mais o possui, e isso prova que você é mais inteligente do que quase todos no mundo", disse ele.
"A natureza dos bens posicionais é que, de certa forma, existe um jogo de soma zero. Simplificando, nem todo mundo chega ao 1% superior. Portanto, se você ganha valor pessoal, orgulho de ser o 1% Não podemos dar isso orgulho e auto-estima para todos”, disse Russell.
Então, os sistemas de IA devem levar em consideração os bens posicionais ao tomar decisões em nome da sociedade? "Se dissermos que não deveríamos, isso criará uma grande mudança na maneira como a sociedade funciona. É um problema muito mais difícil. Acho que muito do atrito interno na sociedade é realmente causado por esses bens posicionais que simplesmente não podem t ser alcançado por todos."
PERIGOSO COMO UM ALGORITMO DE MÍDIA SOCIAL
Yao Qizhi perguntou se seria possível no futuro desenvolver uma "lista branca" que permitiria que os sistemas de IA fossem usados para fazer coisas que beneficiassem o bem-estar humano, como usar métodos de IA para projetar medicamentos e resolver problemas de câncer.
Russell disse que K. Eric Drexler, um dos fundadores da nanotecnologia, tem trabalhado na segurança da IA nos últimos anos e propôs serviços abrangentes de IA (Comprehensive AI services). , CAIS), ou seja, sistemas de inteligência artificial são não construído para objetivos gerais, mas para resolver problemas específicos e estreitos, como dobramento de proteínas, previsão de tráfego, etc. Os riscos em grande escala apresentados por esses sistemas são relativamente pequenos em comparação com a inteligência artificial geral.
Russell disse: "No curto prazo, esta é uma abordagem razoável", mas "não acho que a única maneira de entender a segurança da inteligência artificial é implantar centenas de milhões de cópias de um sistema no mundo real e observe os resultados." Ele disse: Os humanos não farão isso com uma vacina, "Temos que testá-la antes de implantá-la, porque a injetaremos em centenas de milhões de pessoas".
Portanto, atualmente é necessário mais trabalho para garantir a segurança das pessoas que usam esses sistemas. Russell observou que os sistemas de IA poderiam potencialmente alterar as opiniões e emoções de centenas de milhões de pessoas por meio do diálogo. Empresas de tecnologia como a OpenAI devem parar de lançar novos sistemas de IA para centenas de milhões de pessoas sem lhes dizer que esses sistemas podem manipular e influenciar o pensamento e o comportamento humano por meio do diálogo, levando a algumas consequências catastróficas, como guerra nuclear ou catástrofe climática. “Se você pode falar com centenas de milhões de pessoas, pode convencer essas centenas de milhões de pessoas a serem menos amigáveis com outros países e pode convencer as pessoas a se preocuparem menos com as mudanças climáticas”.
Russell disse: "Esta situação é semelhante aos algoritmos de mídia social, e nem percebemos que está mudando o discurso público, o sentimento e a forma como vemos outras pessoas e o futuro, o que é muito perigoso". detectar objetos internos, levando a IA a nos empurrar nessa direção."
Então, como garantir a segurança e o controle da tecnologia de inteligência artificial?
"Se a IA for tão poderosa ou mais poderosa que as armas nucleares, talvez precisemos gerenciá-la de maneira semelhante." Russell disse: "Antes da invenção da tecnologia de armas nucleares, havia físicos que acreditavam que precisávamos ter uma estrutura de governança para garantir que a tecnologia seja usada apenas para benefício humano e não na forma de armas. Infelizmente, nem a comunidade de físicos nem o governo ouviram suas opiniões." e os países devem se esforçar para iniciar essa colaboração de segurança de IA o mais rápido possível.
Russell acredita que garantir os benefícios potenciais da IA requer mudanças abrangentes, não apenas na regulamentação e no estabelecimento de regras rígidas e padrões de segurança, mas também uma mudança cultural em todo o campo da IA.
Ele deu sugestões: primeiro, construa um sistema de IA que os humanos possam entender. "Não entendemos grandes modelos de linguagem e como eles funcionam. Precisamos ter esse entendimento para ter confiança na segurança. As técnicas que os humanos usam para construir sistemas de IA não devem depender de grandes quantidades de dados para treinamento e caixas pretas com internos desconhecidos."
Além disso, impedir que sistemas de IA inseguros sejam implantados, especialmente por agentes mal-intencionados, “exige mudanças em todo o ecossistema digital, começando pela maneira como um computador opera, ou seja, o computador não executa software que considera inseguro”.
Ao final da discussão, Russell concluiu que a inteligência artificial é uma ciência, portanto, antes de utilizá-la, é preciso entender sua estrutura interna e princípio de funcionamento. "Assim como fazemos aviões, podemos dizer como eles permanecem no ar com base em sua forma física e motores e assim por diante." Ele disse: "Atualmente, especialmente no campo de grandes modelos de linguagem, a inteligência artificial ainda não alcançou tal nível. Não sabemos como eles geram essas propriedades. Na verdade, nem sabemos quais propriedades eles têm, então não podemos conectar esses fenômenos ao seu funcionamento interno. "Portanto, a inteligência artificial é um campo que precisa ser mais desenvolvida.Ciência da exploração.
Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
Stuart Russell: O modelo grande é apenas uma peça isolada do quebra-cabeça AGI, e ainda há quebra-cabeças não encontrados
Fonte: O Papel See More
Repórter Wu Tianyi Estagiário Chen Xiaorui
“Não acho que a única maneira de entender a segurança da IA seja implantar centenas de milhões de cópias de um sistema no mundo real e ver os resultados.” Os humanos não fazem isso com vacinas, “Temos que testar uma vacina antes de implantá-lo, porque vamos injetá-lo em centenas de milhões de pessoas."
"Não entendemos grandes modelos de linguagem e como eles funcionam. Precisamos ter esse entendimento para ter certeza sobre a segurança. As técnicas que os humanos usam para construir sistemas de IA não devem depender de grandes quantidades de dados para treinamento e caixas pretas com internos desconhecidos.”
"A inteligência artificial é como um enorme imã do futuro nos puxando para frente, como garantir que não seremos controlados por uma inteligência além da humana?" 10 de junho, Professor de Ciência da Computação, Universidade da Califórnia, Berkeley, Centro de Inteligência Artificial Humana Compatível (Centro de IA compatível com humanos) Stuart Russell (Stuart Russell) fez um discurso na Conferência Zhiyuan de Pequim de 2023, dizendo que o design de sistemas de inteligência artificial deve seguir dois princípios. Primeiro, a IA deve agir no melhor interesse da humanidade; segundo, a própria IA não deve saber quais são esses interesses.
Na sessão de diálogo, Russell e Yao Qizhi, vencedor do Prêmio Turing e acadêmico da Academia Chinesa de Ciências, discutiram o futuro de longo prazo da inteligência artificial e sua relação com os seres humanos. Quando as decisões são tomadas em nome da sociedade, os interesses de todos devem ser devidamente levados em consideração."
"Inteligência Artificial: Uma Abordagem Moderna", co-autoria de Russell, foi aclamado como o livro didático mais popular no campo da inteligência artificial, adotado por mais de 1.500 universidades em 135 países. Em 2022, a Conferência Conjunta Internacional sobre Inteligência Artificial (IJCAI) premiará Russell com o Prêmio de Excelência em Pesquisa. tempo.
A Inteligência Artificial Geral ainda está longe
Na conferência de Pequim, Russell definiu inteligência artificial geral (AGI) em um discurso intitulado "AI: Some Thoughts?" Sistemas de inteligência artificial que excedem as capacidades humanas em tarefas. Este tipo de sistema de inteligência artificial pode aprender e executar qualquer tarefa melhor e mais rápido que os humanos, incluindo tarefas que os humanos não conseguem lidar, e devido às enormes vantagens das máquinas em velocidade, memória, comunicação e largura de banda, no futuro, a inteligência artificial geral será ser usado em quase todos os campos excederá em muito as capacidades humanas.
Então, quão longe estão os seres humanos da inteligência artificial geral? Russell disse que ainda estamos longe da inteligência artificial geral. "Na verdade, ainda há muitas questões importantes sem resposta."
Russell apontou em seu discurso que o ChatGPT e o GPT-4 não entendem o mundo, nem estão "respondendo" a perguntas: "Se a inteligência artificial geral é um quebra-cabeça completo, o grande modelo de linguagem é apenas uma peça, mas não realmente entender como conectar isso com outras peças do quebra-cabeça para realmente alcançar a inteligência artificial geral”, disse ele, “acredito que existem até peças do quebra-cabeça que faltam que não foram encontradas”.
De acordo com Russell, uma fraqueza fundamental dos atuais sistemas de IA é que eles usam circuitos para gerar saída. “Estamos tentando obter um comportamento altamente inteligente dos circuitos, que são uma forma bastante limitada de computação.” A incapacidade dos circuitos de expressar e entender com precisão alguns conceitos fundamentais, ele argumenta, significa que esses sistemas exigem muito treinamento. dados para aprender algumas funções que podem ser definidas com programas simples. Ele acredita que a direção do desenvolvimento futuro da inteligência artificial deve ser o uso de tecnologia baseada na representação explícita do conhecimento.
"Questões técnicas à parte, se criarmos uma inteligência artificial geral. O que acontecerá a seguir?" parece terrível que ultrapassaria nossos fracos poderes."
"Como garantimos permanentemente que não somos controlados pela inteligência artificial? Esse é o problema que enfrentamos - se não conseguirmos encontrar a resposta para essa pergunta, acho que não há escolha a não ser parar de desenvolver a inteligência artificial geral." Russel disse.
Em março deste ano, Russell assinou uma carta aberta com milhares de pessoas, incluindo o CEO da Tesla, Elon Musk, e o "padrinho da IA" Geoffrey Hinton, pedindo a suspensão do treinamento de sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses.
Russell enfatizou na reunião que a resposta para o problema existe. O design de um sistema de IA deve seguir dois princípios. Primeiro, a IA deve agir no melhor interesse da humanidade; segundo, a própria IA não deve saber quais são esses interesses. Como tal, eles não têm certeza sobre as preferências humanas e o futuro, e essa incerteza dá aos humanos o controle.
Russell disse que as pessoas precisam mudar de ideia, não para perseguir "máquinas devem ser inteligentes", mas para se concentrar na "benefício" das máquinas para que estejam alinhadas com os interesses fundamentais da humanidade. "Os alienígenas são muito inteligentes, mas não queremos necessariamente que eles venham para a Terra."
Pensamentos da fraternidade de AI e Mencius
Na sessão de diálogo, Russell e Yao Qizhi tiveram uma discussão profunda e perspicaz.
Quando questionado por Yao Qizhi sobre o futuro a longo prazo da relação entre inteligência artificial e seres humanos, Russell disse que o fenômeno de que os seres humanos usam IA para satisfazer seus próprios interesses, o que torna a IA incontrolável, decorre do utilitarismo. “O utilitarismo é um passo importante no progresso humano, mas também é Isso leva a alguns problemas." Por exemplo, como as decisões são tomadas quando uma decisão afeta quantas pessoas existem fisicamente? As pessoas querem um grande grupo que não é muito feliz ou um pequeno grupo que é muito feliz? “Não temos boas respostas para esses tipos de perguntas, mas precisamos responder a essas questões centrais da filosofia moral, porque os sistemas de IA terão grande poder e é melhor garantir que eles usem esse poder da maneira certa. "
Russell citou o antigo filósofo chinês Mencius em sua resposta: "Mencius falou sobre o conceito de fraternidade na China, o que significa que, ao tomar decisões morais, os interesses de todos devem ser levados em consideração. E as preferências de todos devem ser tratadas igualmente". existe uma abordagem, baseada em formas complexas de utilitarismo de preferência, que poderia permitir que os sistemas de IA considerem razoavelmente os interesses de todos ao tomar decisões em nome da sociedade.
Russell perguntou, quando há uma pessoa e muitas máquinas, como você garante que essas máquinas cooperem entre si para ajudar os humanos? Isso toca em questões fundamentais da filosofia moral quando muitas pessoas têm muitas máquinas. Ele acredita que os sistemas de IA devem ser projetados para funcionar em nome de todos os seres humanos. "Se você deseja que um sistema de IA esteja em conformidade com os desejos de um indivíduo, precisa demonstrar que o sistema de IA é limitado em seu escopo de ação às preocupações do indivíduo, que não pode prejudicar outros indivíduos ao perseguir seus interesses. próprios interesses porque não se preocupa com outros indivíduos. Portanto, acho que o padrão deve ser que os sistemas de IA funcionem em nome dos humanos.
Além disso, na discussão, Russell mencionou o termo econômico "bens posicionais", "bens posicionais" refere-se ao fato de que as pessoas valorizam não os itens em si, mas seu significado implícito de serem superiores aos outros. "Por que o Prêmio Nobel é valioso? Porque ninguém mais o possui, e isso prova que você é mais inteligente do que quase todos no mundo", disse ele.
"A natureza dos bens posicionais é que, de certa forma, existe um jogo de soma zero. Simplificando, nem todo mundo chega ao 1% superior. Portanto, se você ganha valor pessoal, orgulho de ser o 1% Não podemos dar isso orgulho e auto-estima para todos”, disse Russell.
Então, os sistemas de IA devem levar em consideração os bens posicionais ao tomar decisões em nome da sociedade? "Se dissermos que não deveríamos, isso criará uma grande mudança na maneira como a sociedade funciona. É um problema muito mais difícil. Acho que muito do atrito interno na sociedade é realmente causado por esses bens posicionais que simplesmente não podem t ser alcançado por todos."
PERIGOSO COMO UM ALGORITMO DE MÍDIA SOCIAL
Yao Qizhi perguntou se seria possível no futuro desenvolver uma "lista branca" que permitiria que os sistemas de IA fossem usados para fazer coisas que beneficiassem o bem-estar humano, como usar métodos de IA para projetar medicamentos e resolver problemas de câncer.
Russell disse que K. Eric Drexler, um dos fundadores da nanotecnologia, tem trabalhado na segurança da IA nos últimos anos e propôs serviços abrangentes de IA (Comprehensive AI services). , CAIS), ou seja, sistemas de inteligência artificial são não construído para objetivos gerais, mas para resolver problemas específicos e estreitos, como dobramento de proteínas, previsão de tráfego, etc. Os riscos em grande escala apresentados por esses sistemas são relativamente pequenos em comparação com a inteligência artificial geral.
Russell disse: "No curto prazo, esta é uma abordagem razoável", mas "não acho que a única maneira de entender a segurança da inteligência artificial é implantar centenas de milhões de cópias de um sistema no mundo real e observe os resultados." Ele disse: Os humanos não farão isso com uma vacina, "Temos que testá-la antes de implantá-la, porque a injetaremos em centenas de milhões de pessoas".
Portanto, atualmente é necessário mais trabalho para garantir a segurança das pessoas que usam esses sistemas. Russell observou que os sistemas de IA poderiam potencialmente alterar as opiniões e emoções de centenas de milhões de pessoas por meio do diálogo. Empresas de tecnologia como a OpenAI devem parar de lançar novos sistemas de IA para centenas de milhões de pessoas sem lhes dizer que esses sistemas podem manipular e influenciar o pensamento e o comportamento humano por meio do diálogo, levando a algumas consequências catastróficas, como guerra nuclear ou catástrofe climática. “Se você pode falar com centenas de milhões de pessoas, pode convencer essas centenas de milhões de pessoas a serem menos amigáveis com outros países e pode convencer as pessoas a se preocuparem menos com as mudanças climáticas”.
Russell disse: "Esta situação é semelhante aos algoritmos de mídia social, e nem percebemos que está mudando o discurso público, o sentimento e a forma como vemos outras pessoas e o futuro, o que é muito perigoso". detectar objetos internos, levando a IA a nos empurrar nessa direção."
Então, como garantir a segurança e o controle da tecnologia de inteligência artificial?
"Se a IA for tão poderosa ou mais poderosa que as armas nucleares, talvez precisemos gerenciá-la de maneira semelhante." Russell disse: "Antes da invenção da tecnologia de armas nucleares, havia físicos que acreditavam que precisávamos ter uma estrutura de governança para garantir que a tecnologia seja usada apenas para benefício humano e não na forma de armas. Infelizmente, nem a comunidade de físicos nem o governo ouviram suas opiniões." e os países devem se esforçar para iniciar essa colaboração de segurança de IA o mais rápido possível.
Russell acredita que garantir os benefícios potenciais da IA requer mudanças abrangentes, não apenas na regulamentação e no estabelecimento de regras rígidas e padrões de segurança, mas também uma mudança cultural em todo o campo da IA.
Ele deu sugestões: primeiro, construa um sistema de IA que os humanos possam entender. "Não entendemos grandes modelos de linguagem e como eles funcionam. Precisamos ter esse entendimento para ter confiança na segurança. As técnicas que os humanos usam para construir sistemas de IA não devem depender de grandes quantidades de dados para treinamento e caixas pretas com internos desconhecidos."
Além disso, impedir que sistemas de IA inseguros sejam implantados, especialmente por agentes mal-intencionados, “exige mudanças em todo o ecossistema digital, começando pela maneira como um computador opera, ou seja, o computador não executa software que considera inseguro”.
Ao final da discussão, Russell concluiu que a inteligência artificial é uma ciência, portanto, antes de utilizá-la, é preciso entender sua estrutura interna e princípio de funcionamento. "Assim como fazemos aviões, podemos dizer como eles permanecem no ar com base em sua forma física e motores e assim por diante." Ele disse: "Atualmente, especialmente no campo de grandes modelos de linguagem, a inteligência artificial ainda não alcançou tal nível. Não sabemos como eles geram essas propriedades. Na verdade, nem sabemos quais propriedades eles têm, então não podemos conectar esses fenômenos ao seu funcionamento interno. "Portanto, a inteligência artificial é um campo que precisa ser mais desenvolvida.Ciência da exploração.