Deloitte fecha acordo global com Anthropic e devolve verba por relatório com falhas de IA

Índices
  1. Acordo global com a Anthropic
  2. Reembolso por erros num relatório oficial
  3. Precisão da IA continua em debate

A Deloitte anunciou esta segunda-feira um acordo alargado com a Anthropic que prevê a utilização do chatbot Claude pelos cerca de 500 000 colaboradores da consultora em todo o mundo. A decisão foi tornada pública no mesmo dia em que o Governo australiano revelou que a empresa irá reembolsar parte de um contrato devido a incorreções produzidas por inteligência artificial num relatório oficial.

Acordo global com a Anthropic

Segundo a Anthropic, o entendimento — descrito como uma “aliança” — não teve valores divulgados, mas constitui a maior implementação empresarial da tecnológica até à data. A Deloitte pretende recorrer ao Claude para criar ferramentas de conformidade destinadas a sectores regulados, como serviços financeiros, saúde e administração pública. Está também nos planos o desenvolvimento de agentes de IA específicos para diferentes departamentos, incluindo contabilidade e desenvolvimento de software.

strategia concuros

Ranjit Bawa, líder global de tecnologia e alianças da Deloitte, justificou o investimento com a “visão partilhada sobre IA responsável” entre as duas organizações, sublinhando que a parceria poderá “transformar o funcionamento das empresas na próxima década”.

Reembolso por erros num relatório oficial

Em paralelo, o Departamento de Emprego e Relações Laborais da Austrália confirmou que a Deloitte devolverá a última parcela de um contrato no valor total de 439 000 dólares australianos. O reembolso decorre de falhas identificadas numa revisão independente entregue pela consultora, na qual foram incluídas referências a estudos académicos inexistentes, atribuídas a alucinações do sistema de IA utilizado no processo. Uma versão corrigida foi publicada na semana passada.

Deloitte fecha acordo global com Anthropic e devolve verba por relatório com falhas de IA - Imagem do artigo original

Imagem: Getty

Precisão da IA continua em debate

O episódio australiano junta-se a outros casos recentes em que a informação gerada por IA revelou imprecisões. Entre eles, a lista de livros de verão publicada pelo Chicago Sun-Times, que continha títulos fictícios, e os problemas de exactidão do Q Business, ferramenta interna da Amazon. A própria Anthropic já se viu obrigada a pedir desculpa por uma citação fabricada pelo Claude num litígio com editoras musicais.

Estes incidentes evidenciam os desafios associados à adoção de sistemas de IA generativa, mesmo quando as empresas reforçam o investimento na tecnologia.

Postagens Relacionadas

Go up