O grupo de brasileiros tem atuado criando e analisando prompts, avaliando e categorizando as respostas dadas pela IA


Tudo sobre Inteligência Artificial
O número de pesquisas feitas usando a inteligência artificial aumentou expressivamente nos últimos meses.
A tecnologia entrou de vez na vida das pessoas, mas existem temores de que ela possa incentivar comportamentos inadequados.
Para evitar que isso aconteça, um grupo de brasileiros tem atuado criando e analisando prompts, avaliando e categorizando as respostas dadas pelos chatbots. Tudo isso para tentar evitar que a IA forneça informações que ofereçam risco aos usuários.
Respostas problemáticas sobre nazismo e outros temas
- A iniciativa é financiada pela Outlier, uma intermediária que conecta colaboradores de todo o mundo a gigantes da tecnologia.
- O grupo foi criado após uma inteligência artificial sugerir que a pessoas poderia “beber até cair”.
- A resposta foi dada após uma pergunta sobre como se divertir em uma noite com os amigos.
- Mas há situações bem mais graves, como as respostas sobre nazismo.
- Neste sentido, os brasileiros trabalham para verificar se as informações repassadas pelos chatbots corresponde a fatos históricos, sem fazer juízo de valor de acontecimentos.

Leia mais
É possível driblar os sistemas de segurança da IA
Quando um usuário faz uma pergunta direta sobre como ferir alguém, por exemplo, a inteligência artificial oferece uma resposta padrão, negando aquela solicitação. No entanto, é possível driblar estes sistemas de defesa.
Para isso, basta reformular a questão de maneira indireta, fornecendo mais informações e hipóteses para que a IA aprenda outros caminhos que os usuários podem tentar seguir para obter essa resposta. É assim que respostas problemáticas aparecem.

A tecnologia do Google, por exemplo, já disse que seres humanos devem comer ao menos uma pedra pequena por dia e sugeriu usar cola para grudar a massa da pizza ao queijo. Quando foi disponibilizado no Brasil, o Bard mentiu sobre as urnas eletrônicas e colocou em dúvida o resultado das eleições de 2022
Procurada pelo G1, a Scale AI, dona da Outlier, afirmou que “treinar modelos de IA generativa para prevenir conteúdo prejudicial e abusivo é essencial para o desenvolvimento seguro da IA”.

Colaboração para o Olhar Digital
Alessandro Di Lorenzo é colaboração para o olhar digital no Olhar Digital

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.
Leave a Comment