top of page

O erro não está no algoritmo

  • há 1 dia
  • 4 min de leitura

Toda vez que a humanidade acreditou que uma tecnologia resolveria tudo sozinha, o problema nunca foi a ferramenta. Foi a transferência cega de responsabilidade


Por Camila Galvez*


Em 1912, o mundo assistiu fascinado ao lançamento do Titanic. A embarcação era anunciada como praticamente inafundável. Engenharia de ponta, tecnologia avançada para a época, excesso de confiança... 


Você sabe bem como essa história terminou. O problema não foi o aço. Não foi a caldeira. Foi a crença de que a tecnologia havia eliminado o risco.


Décadas depois, o mesmo excesso de confiança apareceria em sistemas financeiros automatizados que contribuíram para a crise de 2008. Modelos matemáticos sofisticados prometiam prever riscos com precisão quase científica. Quando falharam, ficou evidente que o erro não estava apenas nos cálculos. Estava na fé irrestrita de que eles dispensavam o julgamento humano.


A história nos ensina que toda grande inovação carrega duas forças: potencial de transformação e risco de amplificação de erros. A inteligência artificial talvez seja apenas o capítulo mais recente dessa dinâmica. E, como nas outras vezes, o ponto central não é o algoritmo. É o que decidimos fazer com ele.


O avanço da IA nas empresas é inegável. Segundo a IBM Global AI Adoption Index 2023, 42% das empresas globais já utilizam inteligência artificial ativamente e outros 40% estão explorando a tecnologia. No Brasil, pesquisa da Microsoft com a Edelman mostrou que 74% das empresas brasileiras já utilizam alguma solução de IA generativa. Já a McKinsey aponta que 55% das organizações no mundo adotaram IA em pelo menos uma área do negócio. Mas, junto com o crescimento, crescem também os riscos.


Professor Dalvan, especialista em inteligência artificial

Para o professor Dalvan Griebler, coordenador do Centro de Inteligência Artificial e Ciência de Dados da PUCRS, quando se fala que a inteligência artificial pode se tornar uma arma, não se trata de ficção científica. “Estamos falando do potencial que essa tecnologia tem trazido nos últimos anos, especialmente quando as pessoas têm acesso por meio de assinaturas como ChatGPT, Gemini e outras soluções. Elas permitem realizar tarefas e automações que antes não eram possíveis.”


O problema não é o acesso. É o uso.


“O risco maior está na falta de formação desses profissionais. Existe uma confiança exacerbada sobre o uso das IAs nas organizações, muitas vezes delegando total controle para que tomem decisões e façam análises quando, na verdade, ela é uma ferramenta que auxilia no processo”, afirma.


Delegar totalmente é perigoso porque a inteligência artificial não compreende o mundo. Ela prevê padrões. Ela estima a próxima palavra, o próximo dado mais provável, com base em um conjunto gigantesco de informações. E isso inclui também preconceitos.


“Se a gente deixar de forma livre, esses modelos, que são treinados com dados disponíveis na internet, vão reproduzir o que está lá. Se existe racismo, misoginia e discriminação nos dados, os modelos tendem a se comportar dessa forma”, explica Dalvan. Segundo ele, existem técnicas de alinhamento para reduzir esses vieses, mas o problema nunca desaparece completamente.


É possível, então, afirmar que todo sistema de inteligência artificial carrega algum tipo de viés? O especialista garante que sim. “Por isso não se pode delegar tudo. Sempre precisa haver o fator humano para fazer esse filtro, esse monitoramento. Não é possível confiar cegamente.”


Manipulação x regulação

Essa confiança cega se agrava quando falamos de manipulação de informação. Deepfakes, textos automatizados e bolhas informacionais já fazem parte da realidade. “A única forma de descobrir se algo foi gerado por IA é ter mais domínio sobre a tecnologia. Pessoas menos informadas são facilmente manipuladas. É preciso formação em todos os níveis da sociedade.”


A discussão regulatória também surge nesse contexto. Mas Dalvan provoca: “Não devemos regular a inteligência artificial como se ela fosse algo à parte. Ela é um software. As pessoas continuam no centro. São elas que interpretam, entendem o contexto e decidem se aplicam ou não aquela informação.”


A tecnologia, por si só, não é autônoma. “Ela não faz nada se não tiver um humano interagindo. O algoritmo está lá parado. Se ninguém usar, nada acontece.”


Pessoas no controle

O que mais o preocupa não é a evolução técnica, portanto, mas o comportamento humano diante dela. “A tecnologia vai seguir evoluindo, ajudando, reduzindo custos e aumentando produtividade. O que me preocupa é as pessoas delegarem tudo e exercerem confiança muito alta nesses modelos. Eles erram. Eles podem alucinar. Sempre vão gerar alguma coisa, e essa coisa pode não fazer sentido algum”, alerta Dalvan.


Áreas como saúde, jurídico, finanças e educação são especialmente sensíveis nesse ponto. Não porque a inteligência artificial seja inadequada pra elas, mas porque decisões nesses campos têm impacto direto na vida das pessoas. “Se o humano usa de forma incorreta, é uma grande preocupação. As pessoas precisam de formação e entendimento maior sobre IA.”


Quando questionado sobre que tipo de controle humano é eficaz, Dalvan volta ao ponto central. “O que é realmente eficaz é fazer uma avaliação crítica sobre o que é gerado. Não adianta ter comitê de ética ou auditoria se o humano não estiver preparado. Em tudo, o humano sempre será o centro.”


Para líderes empresariais, a recomendação é direta. “Invista na formação dos profissionais. Dê consciência das implicações. E não delegue totalmente decisões às tecnologias de inteligência artificial, porque elas não são totalmente confiáveis.”


A inteligência artificial não é vilã nem salvadora. É amplificadora


Amplifica eficiência, mas também amplifica erro. 


Amplifica produtividade, mas também amplifica preconceito. 


No fim, o risco maior não está no algoritmo. Está na abdicação da responsabilidade humana.



*Camila Galvez é jornalista na FOURGE e estudante de História. Uma sagitariana inquieta e cheia de perguntas, que traz em seus textos um olhar para o passado na tentativa de entender o presente e ajudar a construir o futuro


 
 
 

Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
001.png
  • Branca Ícone Instagram
  • Branca Ícone LinkedIn
  • Branca Ícone Spotify

2020 © FOURGE | Todos os direitos reservados. 

Tecnopuc - Av. Ipiranga, 6681 - prédio 96D - Sala 124
Porto Alegre - RS
contato@fourge.com.br

WhatsApp

51995306281

FG_simbolo_RGB-04 - Copia.png
bottom of page