A OpenAI, desenvolvedora do ChatGPT, responsável por popularizar a inteligência artificial generativa (IA) desde a virada de 2022 para 2023, está preocupada com a possibilidade de o uso da voz artificial da ferramenta causar dependência emocional nos usuários e prejudicar as relações sociais, conforme um relatório de segurança relatório divulgado esta semana.
O documento — parte do compromisso de “construir IA com segurança”, diz a empresa — descreve testes internos e com pequenos grupos de usuários selecionados. Suas conclusões reacendem as comparações da nova voz artificial do ChatGPT com o filme “Her” de 2013.
Em maio, quando foi lançado o ChatGPT-4o, versão da ferramenta generativa de IA que conta com voz artificial, as comparações haviam sido sugeridas por uma postagem do CEO da OpenAI, Sam Altman, e por uma polêmica entre a empresa e a atriz norte-americana Scarlett Johansson. , que faz a voz de uma ferramenta de IA no filme, dirigido pelo cineasta americano Spike Jonze.
A vida imita a arte
No filme de ficção científica, que ganhou o prêmio de melhor roteiro original no Oscar de 2014, o solitário Theodore, interpretado pelo ator Joaquin Phoenix, se apaixona pela voz feminina da ferramenta fictícia de IA.
Na vida real, o relatório da OpenAI revela que os testes iniciais realizados pela empresa mostraram que “os utilizadores utilizaram uma linguagem que poderia indicar a formação de ligações” com a voz artificial.
“Embora estes casos pareçam benignos, sinalizam a necessidade de uma investigação contínua sobre como estes efeitos podem manifestar-se durante longos períodos de tempo”, diz o relatório, apontando para a necessidade de testes mais amplos.
Menos interação humana
Em seguida, o relatório diz que “a socialização semelhante à humana com um modelo de IA pode gerar externalidades que afetam as interações humanas”.
Quase repetindo o enredo do filme de Jonze, o documento OpenAI alerta que “os usuários podem formar relações sociais com IA, reduzindo a necessidade de interação humana – potencialmente beneficiando indivíduos solitários, mas possivelmente afetando relacionamentos saudáveis”.
“A interação prolongada com o modelo pode influenciar as normas sociais. Por exemplo, nossos modelos são deferenciais, permitindo que os usuários interrompam e ‘peguem o microfone’ a qualquer momento, o que, embora esperado para uma IA, seria antinormativo nas interações humanas”, diz o relatório.
Após o anúncio do ChatGPT-4o em maio, além da polêmica com Scarlett Johansson — que criticou publicamente a OpenAI, por considerar uma das vozes da nova assistente parecida com a dela —, questões de segurança foram citadas para justificar atrasos no próprio lançamento para os usuários . .
No relatório, a empresa destaca que “a capacidade de concluir tarefas para o usuário, ao mesmo tempo que armazena e ‘lembra’ detalhes importantes e os utiliza em conversas, cria uma experiência de produto atraente e o potencial para dependência excessiva”. .
Por isso, a OpenAI garante que pretende “estudar mais aprofundadamente o potencial de dependência emocional e as formas como a integração mais profunda das muitas funcionalidades do nosso modelo e sistemas com a modalidade áudio pode influenciar o comportamento”.
Veja também
NEGÓCIOS
Ciel Tower: veja imagens do hotel mais alto do mundo sendo construído em Dubai
turismo
Governo quer atrair 8,1 milhões de turistas internacionais até 2027
empréstimo itaú pessoal
divida banco pan
refinanciamento de empréstimo consignado bradesco
taxas de juros inss
empréstimo de valor baixo
simulador de empréstimo consignado banco do brasil
quitar emprestimo fgts banco pan