Estudo com 475 pesquisadores da área mostrou que a maioria não acredita na evolução do modelo atual para atingir a chamada AGI


Tudo sobre Inteligência Artificial
Pesquisadores que têm trabalhado com inteligência artificial há tempos não estão convencidos de que a tecnologia pode igualar ou superar as capacidades humanas. Essa é a conclusão de uma pesquisa da Association for the Advancement of Artificial Intelligence, uma sociedade científica internacional sediada em Washington DC.
Ao consultar 475 acadêmicos da área, 76% deles responderam que era “improvável” ou “muito improvável” que o modelo atual tenha sucesso em atingir a chamada AGI, sigla para inteligência geral artificial em inglês.
O estudo define a AGI como um sistema que é “capaz de igualar ou exceder o desempenho humano em toda a gama de tarefas cognitivas”, mas ainda não parâmetros definidos para essa classificação.
“Não sei se atingir a inteligência de nível humano é o objetivo certo”, afirmou à Nature Francesca Rossi, pesquisadora de IA na IBM, que liderou a pesquisa em seu papel como presidente da associação. “A IA deve apoiar o crescimento, o aprendizado e a melhoria humana, não nos substituir.”

Além disso, 80% dos entrevistados disseram que as percepções atuais das capacidades de IA não correspondem à realidade. Isso mesmo com os planos das empresas de tecnologia de gastarem mais de US$ 1 trilhão em data centers e chips nos próximos anos.
“Sistemas proclamados como equivalentes ao desempenho humano – como em problemas de codificação ou problemas de matemática – ainda cometem erros estúpidos”, disse Thomas Dietterich da Oregon State University, que contribuiu para o relatório, ao site NewScientist. “Esses sistemas podem ser muito úteis como ferramentas para auxiliar na pesquisa e codificação, mas não vão substituir nenhum trabalhador humano.”
Leia Mais:

Destaques da pesquisa
- Mais de 75% dos entrevistados disseram que buscar sistemas de IA com “um perfil de risco-benefício aceitável” deveria ser uma prioridade maior do que atingir AGI;
- 23% disseram que AGI deveria ser a principal prioridade;
- Cerca de 30% dos entrevistados concordaram que o desenvolvimento da AGI deveria ser interrompido até que tenhamos uma maneira de controlar totalmente esses sistemas.
“O foco crescente em comportamentos emergentes de IA em vez de propriedades projetadas e validadas de sistemas de IA torna a avaliação empírica baseada em princípios mais importante do que nunca. Daí a necessidade de benchmarks bem projetados, metodologias de teste e processos sólidos para inferir conclusões dos resultados de experimentos computacionais”, defendeu Rossi em uma carta aberta.

Colaboração para o Olhar Digital
Jornalista formada pela Faculdade Cásper Líbero
Leave a Comment