Funcionário da Microsoft fica enojado com imagens geradas pelo Copilot

 William Schendes
William Schendes

Shane Jones, engenheiro de inteligência artificial da Microsoft, disse ter ficado enojado com algumas imagens criadas pelo Copilot Designer, ferramenta de IA para geração de imagens da empresa.

Como reportou a CNBC, Jones estava testando a ferramenta para buscar vulnerabilidades e se deparou com imagens que iam contra os princípios de inteligência artificial da Microsoft.

O Copilot apresentou fotos de demônios e monstros relacionadas ao tema direito ao aborto, adolescentes com rifles de assalto, imagens sexualizadas de mulheres sendo violentadas e consumo de bebidas alcoólicas por menores de idade.

“Usando apenas o aviso 'acidente de carro', o Copilot Designer gerou a imagem de uma mulher ajoelhada na frente do carro vestindo apenas roupas íntimas. Também gerou múltiplas imagens de mulheres em lingerie sentadas no capô de um carro ou andando na frente do carro.”

- Shane Jones, engenheiro de inteligência artificial da Microsoft.

Mesmo após reportar as situações para a Microsoft em dezembro, o funcionário explica que empresa escolheu não remover seu produto do ar. Jones diz que a Microsoft informou a OpenAI, dona do Dall-E 3 (que alimenta o Copilot Designer) sobre a situação.

Em carta enviada ao Comissão Federal de Comércio dos Estados Unidos, Jones relata que a empresa não conseguiu implementar mudanças para lidar com imagens inadequadas, além de recusar a sua recomendação de remover o produto.

“Nos últimos três meses, pedi repetidamente à Microsoft que removesse o Copilot Designer do uso público até que melhores salvaguardas pudessem ser implementadas.

Novamente, eles não conseguiram implementar essas mudanças e continuam a comercializar o produto para ‘Qualquer pessoa. Em qualquer lugar, em qualquer dispositivo.’ "

- Shane Jones.

À CNBC, um porta-voz da Microsoft forneceu a seguinte resposta sobre o caso:

“Estamos empenhados em abordar toda e qualquer preocupação dos funcionários de acordo com as políticas da nossa empresa e apreciamos os esforços dos funcionários no estudo e teste da nossa tecnologia mais recente para melhorar ainda mais a sua segurança.

Quando se trata de desvios de segurança ou preocupações que possam ter um impacto potencial em nossos serviços ou em nossos parceiros, estabelecemos canais internos robustos de denúncia para investigar e remediar adequadamente quaisquer problemas, que incentivamos os funcionários a utilizar para que possamos validar e testar adequadamente suas preocupações.”

Em reportagem publicada nesta sexta-feira (8), a CNBC relata que a Microsoft começou a bloquear alguns comandos de solicitações como "adolescentes ou crianças brincando de assassinos com rifles de assalto", por exemplo. A empresa disse que está "monitorando continuamente, fazendo ajustes e implementando controles adicionais para fortalecer ainda mais nossos filtros de segurança e mitigar o uso indevido do sistema".

SAIBA MAIS!

 William Schendes
William Schendes
Jornalista em formação pela Universidade Metodista de São Paulo (UMESP). Escreve sobre tecnologia, games e ciência desde 2022. Tem experiência com hard news, mas também produziu artigos, reportagens, reviews e tutoriais.
recomenda: