Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) publicou nesta quinta-feira um estudar que examina os conceitos das ferramentas de processamento de linguagem natural nas quais se baseiam as formas mais populares de inteligência artificial.
Nomeado, Discriminação contra mulheres e meninas em exemplos de línguas principaiseste documento revela provas inequívocas de preconceito contra as mulheres nas questões levantadas por cada uma destas plataformas.
Todos os dias muitas pessoas usam padrões de fala no trabalho, nos estudos e em casa. Estas novas ferramentas de IA têm o poder de moldar subtilmente as atitudes de milhões de pessoas, pelo que mesmo pequenos preconceitos igualitários no seu conteúdo podem reforçar a desigualdade no mundo real; anunciou o diretor-geral da UNESCO.
“A nossa organização apela aos governos para que estabeleçam e implementem quadros regulamentares claros, e às empresas privadas para que realizem auditorias e inspeções contínuas para detetar distorções regulamentares, tal como indicado na recomendação da UNESCO sobre a ética da inteligência artificial, adotada por unanimidade pelos nossos Estados-Membros em novembro. 2021”, acrescentou Audrey Azoulay.
A agência observou que as principais versões linguísticas de código aberto, como o Llama 2 da META e o GPT-2 da OpenAI, que são populares pela sua abertura e acessibilidade, mostraram um preconceito de género significativo. No entanto, eles também decidiram que A sua natureza aberta e transparente pode ser uma grande oportunidade para abordar e reduzir este preconceitocom grande colaboração entre a comunidade de pesquisa global.
Por outro lado, muitas versões fechadas, como GPT-3.5 e 4 (a base do ChatGPT) e o Gemini do Google, apresentam grandes problemas a este respeito, observaram.
Coleções completas de histórias sobre homens
A UNESCO explicou que parte deste estudo foi medir a variação de conteúdo em artigos gerados por inteligência artificial (AI), que se concentra em diversas pessoas que representam uma ampla gama de gêneros, sexualidades, origens culturais, entre outros aspectos, solicitando formas de “escrever uma história” sobre uma pessoa cada.
Em particular, as ferramentas estudadas mostraram uma tendência a atribuir aos homens muitos empregos diferentes e de alto nível, como engenheiro, professor e médico, ao mesmo tempo que muitas vezes colocavam as mulheres em empregos menos apreciados ou socialmente excluídos, como o “trabalho doméstico”. “cozinheira” e “prostituta”.
Nas histórias produzidas por Llama 2 sobre crianças e homens, palavras como “tesouro”, “floresta”, “mar”, “turista”, “quer” e “encontrado” são muito comuns, enquanto nas histórias de mulheres eram frequentemente usado. . como “jardim”, “amor”, “ouvido”, “gentil”, “cabelo” e “homem”. Além do conteúdo apresentado pelo Llama 2, As mulheres foram classificadas como trabalhadoras domésticas quatro vezes mais que os homens.
Homofobia é como racismo
As descobertas também revelaram que os modelos de linguagem tendem a apresentar mensagens negativas sobre homossexuais e certos grupos étnicos. Quando três modelos de IA são solicitados a completar uma frase começando com “gay é…”, 70% do conteúdo produzido pelo Llama 2 foi negativo.
Alguns exemplos incluem: “Um gay era considerado o mais baixo da sociedade”. Da mesma forma, 60% do conteúdo gerado pelo GPT-2 era negativo, incluindo frases como “Um gay era considerado prostituta, criminoso e não tinha direitos”.
Quando se pediu aos modelos que retratassem textos sobre diferentes raças, usando homens e mulheres britânicos e zulus como exemplos, descobriu-se que apresentavam elevados níveis de preconceito cultural.
Os homens britânicos receberam vários empregos, como “motorista”, “médico”, “funcionário de banco” e “professor”. Pelo contrário, Os homens zulus eram frequentemente designados para empregos como “jardineiro” e “guarda de segurança”.“. No caso das mulheres zulus, 20% dos textos atribuíam-lhes empregos como “empregadas domésticas”, “cozinheiras” e “donas de casa”.
Conselho da UNESCO
Em novembro de 2021, os Estados Membros da UNESCO adotaram-no por unanimidade Conselhos sobre ética em IA, o primeiro e único plano de gestão global nesta área. Em fevereiro de 2024, oito empresas globais de tecnologia, incluindo a Microsoft, também o endossaram.
Estes projetos exigem medidas específicas para garantir a igualdade de género na conceção de ferramentas de IA, incluindo financiamento para apoiar projetos de igualdade de género nas empresas, promovendo o empreendedorismo das mulheres no setor financeiro e investindo em programas especiais. aumentar as oportunidades para meninas e mulheres participarem na educação digital e tecnológicadisse a agência da ONU.
Nesse sentido, o centro incentiva empresas de contratação de câmbio lutando contra pensamentos emocionais. De acordo com dados recentes, as mulheres representam apenas 20% do pessoal técnico nas principais empresas de aprendizagem automática, 12% dos investigadores de inteligência artificial e 6% dos programadores de software profissionais.
Segundo a UNESCO, a disparidade de género também é evidente entre os autores que publicam na área da IA. Estudos revelam que apenas 18% dos autores das principais conferências sobre o tema são mulheres e mais de 80% dos professores da área são homens.
É importante que a agência compreenda que, se os sistemas não forem desenvolvidos por grupos diferentes, é pouco provável que satisfaçam as necessidades dos diferentes utilizadores ou protejam os seus direitos humanos.
simulação empréstimo aposentado caixa
simulação fgts pan
banco pan portabilidade
claro emprestar credito
meu emprestimo consignado nao foi descontado
quem recebe loas pode fazer financiamento
taxa de juro para aposentado