💬 Vitalik Buterin alerta para os avanços da IA.



A IA pode ultrapassar os humanos como uma "espécie superior".

"Uma das maneiras pelas quais a IA pode piorar o mundo é a pior possível: ela pode literalmente causar a extinção da humanidade."

Vitalik cita uma pesquisa de 2022 com mais de 4.270 pesquisadores, que estimou o risco de a IA matar a humanidade em 5-10%.

"Mesmo Marte pode não ser seguro se a IA superinteligente se voltar contra a humanidade."

Para Vitalik, a IA é "fundamentalmente diferente" de outras invenções recentes porque pode criar um novo tipo de "mente" que pode prejudicar os interesses humanos.

"A IA é um novo tipo de mente que está ganhando inteligência rapidamente e tem sérias chances de superar as faculdades mentais dos humanos e se tornar a nova espécie guarda-chuva do planeta."

Vitalik também sugeriu a "intenção humana ativa" de conduzir a IA em uma direção benéfica para a humanidade.
ONS-4.28%
Ver original
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)