Em resumo
- O Comité do Tesouro do Reino Unido alertou que os reguladores estão a confiar demasiado nas regras existentes à medida que a utilização da IA acelera nos serviços financeiros.
- Apelou a orientações mais claras sobre a proteção do consumidor e a responsabilização dos executivos até ao final de 2026.
- Observadores dizem que a ambiguidade regulatória corre o risco de impedir a implantação responsável de IA à medida que os sistemas se tornam mais difíceis de supervisionar.
Uma comissão parlamentar do Reino Unido alertou que a rápida adoção da inteligência artificial nos serviços financeiros está a ultrapassar a capacidade dos reguladores de gerir os riscos para os consumidores e para o sistema financeiro, levantando preocupações sobre a responsabilização, a supervisão e a dependência dos principais fornecedores de tecnologia.
Em descobertas ordenado para ser impresso pela Câmara dos Comuns no início deste mês, o Comitê do Tesouro disse que os reguladores do Reino Unido, incluindo a Autoridade de Conduta Financeira, o Banco da Inglaterra e o Tesouro de Sua Majestade, estão se apoiando demais nas regras existentes, à medida que o uso da IA se espalha pelos bancos, seguradoras e empresas de pagamento.
“Ao adotar uma abordagem de esperar para ver em relação à IA nos serviços financeiros, as três autoridades estão expondo os consumidores e o sistema financeiro a danos potencialmente graves”, escreveu o comité.
A IA já está incorporada nas funções financeiras essenciais, afirmou o comité, embora a supervisão não tenha acompanhado a escala ou a opacidade desses sistemas.
As descobertas surgem no momento em que o governo do Reino Unido pressiona para expandir a adoção da IA em toda a economia, com o primeiro-ministro Keir Starmer prometendo há cerca de um ano para “turbinar” o futuro da Grã-Bretanha através da tecnologia.
Embora tenha observado que “a IA e os desenvolvimentos tecnológicos mais amplos poderiam trazer benefícios consideráveis aos consumidores”, o comité afirmou que os reguladores não conseguiram fornecer às empresas expectativas claras sobre a forma como as regras existentes se aplicam na prática.
O comité instou a Autoridade de Conduta Financeira a publicar orientações abrangentes até ao final de 2026 sobre como as regras de proteção do consumidor se aplicam à utilização da IA e como a responsabilidade deve ser atribuída aos executivos seniores ao abrigo dos atuais regras de responsabilização quando os sistemas de IA causam danos.
A ata formal deverá ser divulgada ainda esta semana.
“Para seu crédito, o Reino Unido saiu na frente em fintech – o sandbox da FCA em 2015 foi o primeiro de seu tipo, e 57 países o copiaram desde então. Londres continua sendo uma potência em fintech apesar do Brexit”, disse Dermot McGrath, cofundador do estúdio de estratégia e crescimento ZenGen Labs, com sede em Xangai. Descriptografar.
No entanto, embora essa abordagem “funcione porque os reguladores podiam ver o que as empresas estavam a fazer e intervir quando necessário”, a inteligência artificial “quebra completamente esse modelo”, disse McGrath.
A tecnologia já é amplamente utilizada nas finanças do Reino Unido. Ainda assim, muitas empresas não têm uma compreensão clara dos próprios sistemas em que dependem, explicou McGrath. Isto deixa os reguladores e as empresas a inferirem como as regras de justiça de longa data se aplicam a decisões opacas e baseadas em modelos.
McGrath argumenta que a maior preocupação é que regras pouco claras possam impedir as empresas que tentam implantar a IA a tal ponto que “a ambiguidade regulamentar sufoca as empresas que o fazem com cuidado”.
A responsabilização da IA torna-se mais complexa quando os modelos são construídos por empresas tecnológicas, adaptados por terceiros e utilizados pelos bancos, deixando os gestores responsáveis por decisões que podem ter dificuldade em explicar, explicou McGrath.
Resumo Diário Boletim informativo
Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.
Fontedecrypt




