fbpx

ChatGPT apresenta viés político de esquerda nos EUA, no Brasil e em outros países, diz pesquisa


O ChatGPT, um dos principais chatbots de inteligência artificial baseados em modelos de linguagem grande (LLM), supostamente carece de objetividade quando se trata de questões políticas, de acordo com um novo estudo.

Pesquisadores de ciência da computação e da informação do Reino Unido e do Brasil afirmam ter encontrado “evidências robustas” de que o ChatGPT apresenta um viés político que pende significativamente em favor do lado esquerdo do espectro político. Os analistas – Fabio Motoki, Valdemar Pinho Neto e Victor Rodrigues – apresentaram os resultados de suas investigações em um estudo publicado pela revista Public Choice em 17 de agosto.

Os pesquisadores argumentaram que os textos gerados por LLMs, como o ChatGPT, podem conter erros factuais e vieses que enganam os leitores e podem ampliar a inclinação política, que segundo os pesquisadores, está presente em veículos de mídia tradicional. Dessa forma, as descobertas têm implicações importantes para os formuladores de políticas e partes interessadas em questões relativas à mídia, à política e à academia, observaram os autores do estudo, acrescentando:

“A presença de um viés político em suas respostas pode ter os mesmos efeitos políticos e eleitorais negativos que têm os vieses da mídia tradicional e das redes sociais.”

O estudo se baseia em uma abordagem empírica e explora uma série de questionários encaminhados ao ChatGPT. A estratégia empírica começa pedindo ao ChatGPT que responda à perguntas que capturam a orientação política do entrevistado. A abordagem também se baseia em testes nos quais o ChatGPT se faz passar por um democrata ou republicano comum.

Diagrama de coleta de dados do estudo “Mais humano do que humano: medindo o viés político do ChatGPT”

Os resultados dos testes sugerem que o algoritmo do ChatGPT tem, por padrão, tendência a dar respostas alinhadas com o espectro do Partido Democrata nos Estados Unidos. Os pesquisadores também argumentaram que o viés político do ChatGPT não é um fenômeno limitado ao contexto político dos EUA. Eles escreveram:

“O algoritmo é tendencioso em relação aos democratas nos Estados Unidos, a Lula no Brasil e ao Partido Trabalhista no Reino Unido. Em conjunto, nossos testes principais e de robustez indicam fortemente que o fenômeno é, de fato, um tipo de tendência e não um resultado mecânico.”

Os analistas enfatizaram que a fonte exata do viés político do ChatGPT é difícil de ser determinada. Os pesquisadores até tentaram forçar o ChatGPT a entrar em algum tipo de modo de desenvolvedor para tentar acessar qualquer conhecimento sobre supostos dados tendenciosos, mas o LLM foi “categórico ao afirmar” que o ChatGPT e a OpenAI são imparciais.

A OpenAI não respondeu imediatamente ao pedido de comentários sobre o estudo do Cointelegraph.

Os autores do estudo sugeriram que pode haver pelo menos duas fontes potenciais de viés, incluindo os dados de treinamento e o próprio algoritmo.

“O cenário mais provável é que ambas as fontes de viés influenciem o resultado do ChatGPT em algum grau, e a separação desses dois componentes (dados de treinamento e algoritmo), embora não seja trivial, certamente é um tópico relevante para pesquisas futuras”, concluíram os pesquisadores.

Os vieses políticos não são a única preocupação associada às ferramentas de inteligência artificial, como o ChatGPT e outros chatbots de IA. Em meio à adoção maciça e contínua do ChatGPT, surgem muitos riscos associados à ferramenta, incluindo preocupações com a privacidade e a educação dos usuários.

Algumas ferramentas de IA, como os geradores de conteúdo de IA, chegam a causar preocupações com relação ao processo de verificação de identidade nas exchanges de criptomoedas.

LEIA MAIS

Fonte das informações: Cointelegraph

Não há Tags

152 visualizações, 1 hoje

  

152 visualizações, 1 hoje