Um novo estudo revelou uma reviravolta inesperada no debate humano versus máquina: as pessoas preferem decisões de IA às de humanos — pelo menos quando se trata de tomar decisões difíceis sobre questões financeiras. Mas antes de entregar as chaves de nossas finanças, algumas bandeiras vermelhas sérias estão acenando.
A pesquisa de Marina Chugunova e Wolfgang J. Luhan, anunciada na terça-feira, foi intitulada “Ruled by Robots” (governado por robôs). Os cientistas descobriram que mais de 60% dos participantes favoreceram os tomadores de decisão de IA para redistribuir os ganhos. Por quê? Não se trata de evitar o preconceito humano — as pessoas apenas acham que as máquinas jogam limpo.
“O experimento criou uma escolha entre um algoritmo que era justo — com base nos princípios de justiça defendidos por várias centenas de pessoas — e um humano [tomador de decisão] que foi solicitado a tomar uma decisão justa”, disse o estudo . “Na ausência de informações sobre a filiação ao grupo, o algoritmo é preferido em 63,25% de todas as escolhas.”
Essa preferência se manteve estável mesmo quando a possibilidade de viés foi introduzida.
Mas aqui está o problema: embora as pessoas tenham gostado da ideia da IA ??tomar as decisões, elas classificaram as decisões tomadas por humanos de forma mais favorável.
“As pessoas estão menos satisfeitas com decisões algorítmicas e as consideram menos justas do que as decisões humanas”, diz o estudo.
A configuração do estudo foi inteligente. Os participantes escolheram entre tomadores de decisão humanos e de IA para dividir os ganhos de tarefas baseadas em sorte, esforço e talento. Mesmo quando os membros de cada grupo foram revelados, potencialmente abrindo a porta para discriminação, as pessoas ainda se inclinaram para a IA.
“Muitas empresas já estão usando IA para decisões de contratação e planejamento de compensação, e órgãos públicos estão empregando IA em estratégias de policiamento e liberdade condicional”, disse Luhan em um comunicado à imprensa. “Nossas descobertas sugerem que, com melhorias na consistência do algoritmo, o público pode cada vez mais apoiar tomadores de decisão algorítmicos, mesmo em áreas moralmente significativas.”
Isso não é apenas capricho acadêmico. À medida que a IA se infiltra em mais áreas da vida — pense em qualquer coisa, de Recursos Humanos a namoro — como percebemos sua justiça pode fazer ou quebrar o apoio público a políticas orientadas por IA.
O histórico de imparcialidade da IA, no entanto, é irregular, para dizer o mínimo.
Investigações e estudos recentes revelaram problemas persistentes de viés em sistemas de IA. Em 2022, o Gabinete do Comissário de Informação do Reino Unido lançou uma investigação sobre casos de discriminação motivados por IA, e pesquisadores provaram que os LLMs mais populares têm um claro viés político . Grok, do x.AI de Elon Musk, é instruído especificamente a evitar dar respostas “woke” .
Pior ainda, um estudo conduzido por pesquisadores das universidades de Oxford, Stanford e Chicago descobriu que os modelos de IA eram mais propensos a recomendar a pena de morte para réus que falavam inglês afro-americano.
Aplicação de emprego de IA? Pesquisadores pegaram modelos de IA lançando nomes que soam negros e favorecendo mulheres asiáticas. “Currículos com nomes distintos de negros americanos foram os menos propensos a serem classificados como os principais candidatos para uma função de analista financeiro, em comparação com currículos com nomes associados a outras raças e etnias”, relatou a Bloomberg Technology.
O trabalho de Cass R. Sunstein sobre o que ele define como ” mecanismos de escolha ” alimentados por IA pinta um quadro semelhante, sugerindo que, embora a IA possa potencialmente melhorar a tomada de decisões, ela também pode amplificar vieses existentes ou ser manipulada por interesses adquiridos. “Seja paternalista ou não, a IA pode acabar sofrendo de seus próprios vieses comportamentais. Há evidências de que os LLMs mostram alguns dos vieses que os seres humanos mostram”, disse ele.
No entanto, alguns pesquisadores, como Bo Cowgill e Catherine Tucker, argumentam que a IA é vista como um campo neutro para todas as partes, o que solidifica sua imagem de um jogador justo quando se trata de tomada de decisão. “O viés algorítmico pode ser mais fácil de medir e abordar do que o viés humano”, eles observam em um artigo de pesquisa de 2020.
Em outras palavras, uma vez implantada, uma IA parece ser mais controlável e lógica — e mais fácil de condicionar se ela se afastar de seus supostos objetivos. Essa ideia de total desconsideração por um intermediário foi a chave para a filosofia por trás dos contratos inteligentes: contratos autoexecutáveis ??que podem funcionar autonomamente sem a necessidade de juízes, cauções ou avaliadores humanos.
Alguns aceleracionistas veem os governos de IA como um caminho plausível para a justiça e eficiência na sociedade global. No entanto, isso pode levar a uma nova forma de “estado profundo” — um controlado não por oligarcas obscuros, mas pelos arquitetos e treinadores desses sistemas de IA.
Isenção de responsabilidade: As opiniões, bem como todas as informações compartilhadas nesta análise de preços ou artigos mencionando projetos, são publicadas de boa fé. Os leitores deverão fazer sua própria pesquisa e diligência. Qualquer ação tomada pelo leitor é prejudicial para sua conta e risco. O Bitcoin Block não será responsável por qualquer perda ou dano direto ou indireto.
Se aceita Pix, aceita Criptoativos!
Usando a tecnologia do SWAPX, os Truthers podem realizar pagamentos via Pix, diretamente de seu Truther.