Nova política marca uma mudança na abordagem “aberta” da Meta para o desenvolvimento de IAs


Tudo sobre Inteligência Artificial
A Meta anunciou que poderá interromper o desenvolvimento de sistemas de IA considerados excessivamente perigosos. A decisão, revelada em um novo documento da empresa, surge em meio a crescentes preocupações sobre os riscos potenciais da inteligência artificial.
A nova política marca uma mudança na abordagem “aberta” da Meta para o desenvolvimento da tecnologia.
O documento descreve tipos de sistemas que a Meta considera muito arriscados para lançamento. Como aqueles capazes de auxiliar em ataques cibernéticos, químicos e biológicos. A empresa ilustra a gravidade desses riscos com exemplos como a proliferação de armas biológicas e a invasão automatizada de sistemas corporativos.
A avaliação de risco da Meta é baseada na análise de pesquisadores internos e externos. Diante da identificação de um sistema de “alto risco”, por exemplo, a Meta promete restringir o acesso.
No caso de um sistema classificado como “risco crítico”, a Meta se compromete a implementar salvaguardas de segurança, como interromper o desenvolvimento até que o sistema se torne menos perigoso.

O relatório da Meta representa uma resposta às críticas sobre sua abordagem de desenvolvimento de IA. A empresa tem sido notória por tornar sua tecnologia de IA abertamente disponível, em contraste com empresas como a OpenAI, que optam por proteger seus sistemas.
Essa estratégia de “lançamento aberto” tem sido um divisor de águas para a Meta. Sua família de modelos de IA, Llama, acumula centenas de milhões de downloads. No entanto, essa mesma abertura gerou preocupações, com relatos de que o Llama foi usado para desenvolver um chatbot de defesa por um adversário dos EUA, segundo o TechCrunch.

Leia mais:
A Meta enfatiza no documento que sua abordagem, que considera os benefícios e riscos da IA, visa entregar essa tecnologia à sociedade de forma a preservar seus benefícios, mantendo um nível aceitável de risco. Resta saber se essa nova postura será suficiente para acalmar as preocupações e garantir um futuro da IA mais seguro e responsável.
Gabriel Sérvio é formado em Comunicação Social pelo Centro Universitário Geraldo Di Biase e faz parte da redação do Olhar Digital desde 2020.
Leave a Comment