IA e Negócios Quem Somos Soluções Publicações Loja
Insights & Perspectivas

Publicações

A adoção de Inteligência Artificial nas organizações não depende apenas da sua capacidade técnica, mas da forma como os usuários percebem e reagem aos seus resultados. Um dos fenômenos mais relevantes nesse contexto é a assimetria na forma como erros são avaliados. Estudos mostram que as pessoas tendem a aplicar critérios mais rigorosos para erros cometidos por sistemas do que para erros humanos.

De acordo com Dietvorst, Simmons e Massey (2015), indivíduos passam a evitar algoritmos após observar um único erro, mesmo quando esses sistemas apresentam desempenho consistentemente superior ao humano. Em seus experimentos, os participantes demonstraram menor disposição em confiar em previsões algorítmicas após pequenas falhas, enquanto mantinham maior tolerância a erros equivalentes cometidos por pessoas. Outros estudos indicam que a percepção de erro em sistemas pode reduzir a confiança de forma desproporcional, com quedas significativas na aceitação mesmo quando a precisão geral permanece mais alta.

Esse comportamento revela um viés estrutural relevante para projetos de IA. Erros humanos são frequentemente interpretados como naturais, contextualizados por esforço, experiência ou julgamento. Já erros de sistemas são percebidos como falhas do próprio modelo, gerando uma expectativa implícita de precisão próxima à perfeição. Como resultado, tecnologias com melhor desempenho estatístico podem ser rejeitadas ou subutilizadas, comprometendo a captura de valor.

No contexto organizacional, esse efeito é ainda mais crítico. Projetos de Inteligência Artificial Generativa não apenas automatizam tarefas, mas influenciam decisões, produzem conteúdo e participam diretamente do fluxo cognitivo do trabalho. Isso amplia o impacto da confiança, tornando insuficiente uma abordagem puramente técnica. Sem um desenho adequado da interação entre pessoas e tecnologia, o risco não é apenas baixa adoção, mas uso inconsistente, decisões evitadas ou dependência seletiva da ferramenta.

Para capturar valor real, é necessário estruturar a implementação de IA considerando como a confiança é construída. Isso envolve garantir visibilidade sobre como as decisões são geradas, manter o envolvimento humano nos pontos críticos e preservar o senso de controle sobre os resultados. Além disso, é fundamental alinhar o uso da tecnologia com a forma como as pessoas pensam, interpretam risco e respondem a incerteza.

Quando esses elementos são incorporados, a IA deixa de ser apenas uma solução técnica e passa a operar como um mecanismo confiável de aumento de performance. A diferença entre adoção superficial e impacto real não está no modelo, mas na forma como confiança, comportamento e decisão são integrados ao seu uso.

Referência: Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm Aversion: People Erroneously Avoid Algorithms After Seeing Them Err.

A adoção de Inteligência Artificial Generativa não altera apenas processos, mas a forma como as pessoas se relacionam com o trabalho que produzem. Diferente de tecnologias tradicionais, GenAI pode deslocar profissionais de um papel de criação para um papel de edição e supervisão, reduzindo a participação direta na geração de resultados e, consequentemente, impactando a forma como percebem sua contribuição.

Pesquisas indicam que esse deslocamento tem efeitos relevantes sobre o conceito de psychological ownership, entendido como o grau em que indivíduos percebem algo como "seu". Quando profissionais perdem controle sobre a geração do trabalho, deixam de desenvolver familiaridade profunda com o conteúdo e reduzem o nível de investimento pessoal no resultado, três elementos centrais para a formação de ownership.

Evidências mostram que essa mudança pode afetar diretamente motivação, identidade profissional e engajamento. Em contextos onde a IA assume a maior parte do processo criativo, profissionais tendem a atuar como curadores ou revisores, o que pode enfraquecer a conexão com o resultado final e reduzir a percepção de autoria. Estudos também indicam que o senso de controle sobre o processo, especialmente na fase inicial de criação, é um dos principais fatores que sustentam o sentimento de ownership e engajamento.

Ao mesmo tempo, quando o uso de GenAI é estruturado de forma a preservar o controle significativo por parte dos profissionais, os efeitos são diferentes. A manutenção da participação ativa na geração de conteúdo e decisão tende a sustentar o engajamento, preservar a identidade profissional e fortalecer a confiança na interação com a tecnologia.

Esse fenômeno tem implicações diretas para projetos organizacionais. A forma como a IA é integrada não apenas define ganhos de produtividade, mas também influencia a sustentabilidade da performance no médio e longo prazo. Modelos que reduzem excessivamente a participação humana podem gerar eficiência imediata, mas ao custo de perda de conhecimento, queda de motivação e maior fragilidade operacional.

Por outro lado, abordagens que preservam controle, participação e entendimento permitem capturar os benefícios da tecnologia sem comprometer os fatores humanos que sustentam a performance. Nesse contexto, o desenho da interação entre pessoas e sistemas torna-se tão relevante quanto o próprio modelo tecnológico.

Projetos de GenAI bem-sucedidos não são apenas aqueles que funcionam tecnicamente, mas aqueles que conseguem equilibrar automação e augmentação, mantendo o humano no centro do processo de decisão e garantindo que produtividade e ownership evoluam de forma conjunta.

Referência: Freita, C. (2026). Psychological Ownership and GenAI-driven Role Displacement in Creative Professional Practice.

A adoção de Inteligência Artificial não enfrenta apenas resistência. Em muitos casos, o risco está no extremo oposto, a confiança excessiva. Esse fenômeno, conhecido como automation bias, ocorre quando indivíduos passam a aceitar recomendações de sistemas automatizados sem questionamento adequado, mesmo quando há sinais de erro ou inconsistência.

Estudos mostram que, na presença de sistemas automatizados, profissionais tendem a reduzir o pensamento crítico e delegar decisões à tecnologia, assumindo implicitamente que o sistema é mais confiável do que seu próprio julgamento. Como resultado, erros podem passar despercebidos, decisões deixam de ser desafiadas e o papel humano se torna progressivamente mais passivo. Pesquisas também distinguem dois efeitos típicos desse viés: erros de omissão, quando a pessoa deixa de agir porque o sistema não sinalizou um problema, e erros de comissão, quando segue a recomendação automatizada mesmo diante de evidências contrárias.

Esse comportamento é particularmente relevante no contexto de Inteligência Artificial Generativa, onde os sistemas não apenas executam tarefas, mas produzem conteúdo, análises e recomendações que influenciam diretamente decisões. A fluidez e a qualidade aparente das respostas podem reforçar a percepção de precisão, aumentando ainda mais o risco de aceitação automática.

No ambiente organizacional, o automation bias pode comprometer o controle, reduzir a accountability e enfraquecer a capacidade crítica das equipes. Com o tempo, isso pode levar à erosão do conhecimento interno e à dependência excessiva da tecnologia, criando fragilidades operacionais difíceis de identificar no curto prazo.

Por isso, o desafio não é apenas aumentar a adoção de IA, mas calibrar a confiança. É necessário desenhar sistemas e processos que mantenham o humano engajado, incentivem a validação crítica e preservem o papel ativo na tomada de decisão.

Referências: Mosier, K. L., Skitka, L. J., Burdick, M., & Heers, S. (1999). Does automation bias decision-making?; Skitka, L. J., Mosier, K. L., & Burdick, M. (2000). Accountability and automation bias.