Resumo da notícia:

  • O Projeto de Lei 2.338/2023, que visa regulamentares a IA no Brasil, enfrentou resistências devido à classificação de biometria e reconhecimento facial como de “risco excessivo”.

  • As instituições financeiras alertam que restrições ao uso dessas tecnologias no setor podem resultar em um aumento no volume de fraudes eletrônicas.

  • No Congresso, debate-se a adoção de uma abordagem regulatória mais flexível, inspirada em modelos como o do Reino Unido ou do Japão, em vez de seguir integralmente o modelo mais restritivo da União Europeia.

O Projeto de Lei 2.338/2023, que visa regulamentar o setor de inteligência artificial (IA) no Brasil, enfrenta resistências no Congresso devido à busca por equilíbrio entre incentivos à inovação tecnológica e seguranças aos cidadãos.

Durante um debate promovido pelo Itaú em Brasília, na terça-feira, 11 de novembro, a deputada federal Adriana Ventura (Novo-SP), vice-presidente da Comissão Especial sobre o PL 2338/2023, afirmou que diversas questões precisam ser debatidas com maior profundidade antes de chegarem ao texto final:

“Está cedo para regular. Para mim, está claro que não somos maduros para isso.”

Ventura defende uma regulação provisória para questões essenciais e a votação do marco definitivo somente após as eleições legislativas e presidenciais no ano que vem. O posicionamento da deputada vai de encontro ao relator do projeto, o deputado Aguinaldo Ribeiro (PP-PB), que defende a votação da proposta ainda este ano.

Um dos pontos sensíveis do texto atual diz respeito à classificação dos sistemas de identificação biométrica à distância, em tempo real e em espaços públicos, como de “risco excessivo”.

Febraban contesta “risco excessivo” de sistema de biometria

Para Vicente de Chiara, diretor jurídico da Federação Brasileira de Bancos (Febraban), esses sistemas são fundamentais para garantir a segurança e a inovação no sistema financeiro:

“Qualquer tipo de incerteza sobre o sistema recairá em toda a sociedade porque tudo o que fazemos passa por esse sistema: do cafézinho à compra de um imóvel.”

Chiara argumentou que um eventual veto ao uso desses sistemas resultaria em um aumento no número de fraudes eletrônicas:

“Dependendo da redação final do PL, haverá uma concessão desta situação, embora seja indesejável que ela ocorra para a segurança de todos nós.”

A deputada Luiza Canziani (PSD-PR), presidente da comissão que debate o PL, esclareceu que a classificação de “risco excessivo não significa uma punição absoluta, mas um alerta de que a tecnologia, de alguma forma, pode gerar impacto significativo sobre algum direito fundamental”.

Citando especificamente o sistema financeiro, Canziani afirmou que o uso de biometria e reconhecimento facial é eficiente e não oferece riscos:

“Existem contextos, no sistema financeiro, por exemplo, em caixas eletrônicas, na autenticação de transações, em que o uso da biometria é completamente seguro, ele traz benefícios aos cidadãos e já é regulado por órgãos setoriais, como o Banco Central.”

Luís Fernando Prado, conselheiro consultivo da Associação Brasileira de Inteligência Artificial (Abria), mencionou que o PL estabelece restrições ao uso de IA para análise automatizada de dados evitando a prevenção de fraudes.

Em um país com um volume de fraudes financeiras acima da mídia global, essa abordagem favorece os criminosos, que pode explorar as novas tecnologias para aperfeiçoar seus golpes.

“É uma briga injusta”, argumentou Prado, acrescentando que “os setores produtivos, financeiros e de tecnologia ficam impedidos de usar a tecnologia para o bem, para frear as ações desse fraudador”.

Ventura ressaltou a necessidade de que o PL estabeleça normas para uma regulação setorial, sem sobreposição de competências:

“Cada setor teria de lidar com o lado operacional, com o que precisa ser ajustado e como seria a fiscalização.”

Dessa forma, a regulação do uso de IA no sistema financeiro recairia sobre o BC, afirmou Chiara, cabendo à instituição definir o que deve ou não ser tratado como “risco excessivo”.

Numa crítica mais ampla ao projeto, Ventura criticou a adoção de diversas prerrogativas do marco regulatório de IA da União Europeia. Segundo a deputada, o parlamento europeu estaria revendo uma legislação para atrair investimentos e talentos para a região.

À medida que a tramitação do PL 2.338/2023 se estende no Congresso, representantes da sociedade de defesa civil que o Brasil adote uma abordagem mais flexível e adaptável para regulação de IA. O Reino Unido e o Japão seriam as duas referências principais.

O modelo implementado pelo Reino Unido prevê o intercâmbio contínuo entre os prestadores de serviços de IA e as agências reguladoras setoriais para definir as gradações de risco de cada aplicação em função de suas aplicações.

Já o Japão optou por uma regulação baseada na “governança ágil”. O processo envolve uma análise de contexto e riscos, bem como a definição de objetivos estratégicos, desenho de sistemas, operacionalização e avaliação dos resultados do sistema de governança por uma frente multissetorial.

Fontecointelegraph

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *