Os repositórios de códigos da inteligência artificial chinesa serão liberados para todos os desenvolvedores e pesquisadores

shutterstock_2577724079-1-1920x1080
OpenAI acusa Deepseek de usar dados obtidos de forma ilegal (Imagem: Chitaika/Shutterstock)

Compartilhe esta matéria

Uma das grandes novidades apresentadas pelo DeepSeek, modelo de inteligência artificial desenvolvido na China, foi a adoção de um modelo parcialmente aberto. Esta escolha permite que pesquisadores acessem seus algoritmos.

Agora, a startup chinesa prometeu que vai tornar público o código de seus modelos. Segundo a empresa, isso vai acontecer na próxima semana, confirmando a intenção de ser o mais transparente possível com a tecnologia.

Todos os códigos foram amplamente testados, segundo a empresa

O DeepSeek afirmou que planeja disponibilizar seus repositórios de código para todos os desenvolvedores e pesquisadores. Isso permite que qualquer pessoa baixe e construa ou melhore o código por trás do R1 ou de outras plataformas.

A startup ainda descreveu esses elementos como “blocos de construção humildes”, afirmando que eles foram documentados, implementados e rigorosamente testados.


deepseek
Iniciativa pode ampliar uso da IA no mundo (Imagem: Mojahid Mottakin/Shutterstock)

A decisão pode acirrar ainda mais a corrida entre os EUA e a China para desenvolver modelos de IA cada vez mais avançados. Ao disponibilizar gratuitamente seus códigos, a IA chinesa pode garantir uma adoção mais ampla de sua tecnologia.

Leia mais

DeepSeek 1Milhao Internet
Chatbot chinês virou sensação e atraiu olhares do mundo todo (Imagem: Poetra.RH/Shutterstock)

DeepSeek é considerada uma ameaça para outras gigantes do setor

  • A IA do DeepSeek foi projetada para lidar com tarefas complexas de raciocínio e tem apresentado resultados que vêm surpreendendo o mercado.
  • O grande diferencial é o baixo custo da tecnologia, o que pode ameaçar a posição dominante dos principais players.
  • Para se ter uma ideia, o modelo chinês foi treinado ao custo de aproximadamente US$ 6 milhões, enquanto ferramentas como o Llama 3.1, da Meta, custaram mais de US$ 60 milhões para serem desenvolvidos.
  • A empresa chinesa adota estratégias como o chamado aprendizado por reforço, que permite que os modelos aprendam por tentativa e erro.
  • Além disso, ativa apenas uma fração dos parâmetros do modelo para tarefas específicas, economizando recursos computacionais.
  • E melhora a capacidade dos modelos de processar dados e identificar padrões complexos.
  • A startup ainda adota um modelo parcialmente aberto, permitindo que pesquisadores acessem seus algoritmos.
  • Isso democratiza o acesso à IA avançada e promove maior colaboração na comunidade global de pesquisa.


Alessandro Di Lorenzo

Colaboração para o Olhar Digital

Alessandro Di Lorenzo é colaboração para o olhar digital no Olhar Digital