FoxBrain foi treinado em apenas quatro semanas e será aplicado em sistemas internos, como análise de dados e suporte a decisões

iStock-1456293430-1920x1080
Foxconn é a maior fabricante de eletrônicos do mundo (Imagem: Robert Way/iStock)

Compartilhe esta matéria

A Foxconn lançou nesta segunda-feira (10) seu primeiro grande modelo de linguagem. A maior fabricante de eletrônicos do mundo pretende aplicar o FoxBrain em sistemas internos da empresa, como análise de dados, suporte a decisões, colaboração de documentos, matemática, raciocínio e resolução de problemas e geração de código.

O modelo foi treinado usando 120 GPUs Nvidia H100, dimensionado com a rede Quantum-2 InfiniBand e concluído em quatro semanas. Esse é o primeiro LLM com capacidades otimizadas para os estilos de linguagem tradicional chinês e taiwanês.

“Comparado com modelos de inferência lançados recentemente no mercado, o método de treinamento de modelos mais eficiente e de menor custo define um novo marco para o desenvolvimento da tecnologia de IA de Taiwan”, diz o comunicado. 

iStock 1406373251 1Milhao Internet
LLM será de código aberto para aprimorar processos internos da empresa (Imagem: BING-JHEN HONG/iStock)

O FoxBrain é baseado na arquitetura Meta Llama 3.1 e destaca-se particularmente em matemática e raciocínio lógico. Ainda há lacunas do modelo na comparação com o DeepSeek, mas o desempenho “já está muito próximo dos padrões líderes mundiais”, segundo a empresa.

“Nosso modelo FoxBrain adotou uma estratégia muito eficiente, focando na otimização do processo de treinamento em vez de acumular cegamente poder de computação”, disse o Dr. Yung-Hui Li, Diretor do Centro de Pesquisa de Inteligência Artificial do Hon Hai Research Institute.


Leia Mais:

Tecnologia para ser compartilhada

A Foxconn informou que o LLM será de código aberto para promover a IA na fabricação, no gerenciamento da cadeia de suprimentos e na tomada de decisões inteligentes. A empresa fabrica iPhones para a Apple e também produz servidores da Nvidia.

Fachada da Nvidia em Santa Clara, Califórnia (EUA)
Nvidia forneceu consultoria técnica para treinamento do modelo (Imagem: Tada Images/Shutterstock)

A empresa de Jensen Huang, aliás, forneceu suporte para o treinamento do modelo por meio do supercomputador Taipei-1. Os resultados do FoxBrain estão programados para serem compartilhados pela primeira vez em uma conferência da Nvidia no dia 20 de março.

“Esta grande pesquisa de modelo de linguagem demonstra que o talento tecnológico de Taiwan pode competir com contrapartes internacionais no campo de modelos de IA”, conclui a nota.


Bruna Barone

Colaboração para o Olhar Digital


Jornalista formada pela Faculdade Cásper Líbero