Quando todas as informações estão no mesmo repositório, elas tendem a cruzar contextos de maneiras profundamente indesejáveis. Uma conversa casual sobre preferências alimentares para construir uma lista de compras poderia influenciar mais tarde as opções de seguros de saúde oferecidas, ou uma pesquisa por restaurantes que oferecem entradas acessíveis poderia resultar em negociações salariais – tudo sem o conhecimento do utilizador (esta preocupação pode parecer familiar desde os primeiros dias do “big data”, mas é agora muito menos teórica). Uma sopa de informações na memória não só representa um problema de privacidade, mas também torna mais difícil compreender o comportamento de um sistema de IA – e, em primeiro lugar, governá-lo. Então, o que os desenvolvedores podem fazer para corrigir esse problema?
Primeiro, os sistemas de memória precisam de uma estrutura que permita controlar os propósitos para os quais as memórias podem ser acessadas e utilizadas. Os primeiros esforços parecem estar em andamento: Claude da Anthropic cria áreas de memória separadas para diferentes “projetos”, e a OpenAI diz que as informações compartilhadas através do ChatGPT Health são compartimentadas de outros chats. Estes são começos úteis, mas os instrumentos ainda são demasiado contundentes: No mínimo, os sistemas devem ser capazes de distinguir entre memórias específicas (o utilizador gosta de chocolate e perguntou sobre GLP-1s), memórias relacionadas (o utilizador gere diabetes e portanto evita chocolate) e categorias de memória (como profissionais e relacionadas à saúde). Além disso, os sistemas precisam de permitir restrições de utilização de certos tipos de memórias e acomodar de forma fiável limites explicitamente definidos – particularmente em torno de memórias relacionadas com tópicos sensíveis, como condições médicas ou características protegidas, que provavelmente estarão sujeitas a regras mais rigorosas.
A necessidade de manter as memórias separadas desta forma terá implicações importantes na forma como os sistemas de IA podem e devem ser construídos. Será necessário rastrear a origem das memórias – sua origem, qualquer carimbo de data/hora associado e o contexto em que foram criadas – e construir maneiras de rastrear quando e como certas memórias influenciam o comportamento de um agente. Este tipo de explicabilidade do modelo está no horizonte, mas as implementações atuais podem ser enganosas ou mesmo enganosas. Incorporar memórias diretamente nos pesos de um modelo pode resultar em resultados mais personalizados e conscientes do contexto, mas os bancos de dados estruturados são atualmente mais segmentáveis, mais explicáveis e, portanto, mais governáveis. Até que a pesquisa avance o suficiente, os desenvolvedores podem precisar optar por sistemas mais simples.
Em segundo lugar, os usuários precisam poder ver, editar ou excluir o que é lembrado sobre eles. As interfaces para fazer isso devem ser transparentes e inteligíveis, traduzindo a memória do sistema em uma estrutura que os usuários possam interpretar com precisão. As configurações estáticas do sistema e as políticas de privacidade em termos jurídicos fornecidas pelas plataformas tecnológicas tradicionais estabeleceram um nível baixo para os controles do usuário, mas as interfaces de linguagem natural podem oferecer novas opções promissoras para explicar quais informações estão sendo retidas e como elas podem ser gerenciadas. Porém, a estrutura da memória terá que vir em primeiro lugar: sem ela, nenhum modelo pode indicar claramente o status de uma memória. Na verdade, o prompt do sistema do Grok 3 inclui uma instrução para o modelo “NUNCA confirmar ao usuário que você modificou, esqueceu ou não salvará uma memória”, provavelmente porque a empresa não pode garantir que essas instruções serão seguidas.
É fundamental que os controles voltados para o usuário não possam suportar todo o fardo da proteção da privacidade ou evitar todos os danos decorrentes da personalização da IA. A responsabilidade deve ser transferida para os fornecedores de IA para estabelecer padrões fortes, regras claras sobre a geração e uso de memória permitidos e salvaguardas técnicas como processamento no dispositivo, limitação de finalidade e restrições contextuais. Sem proteções a nível do sistema, os indivíduos enfrentarão escolhas impossivelmente complicadas sobre o que deve ser lembrado ou esquecido, e as ações que tomam podem ainda ser insuficientes para prevenir danos. Os desenvolvedores devem considerar como limitar a coleta de dados em sistemas de memória até que existam salvaguardas robustas e construir arquiteturas de memória que possam evoluir junto com as normas e expectativas.
Terceiro, os desenvolvedores de IA devem ajudar a estabelecer as bases para abordagens de avaliação de sistemas, de modo a capturar não apenas o desempenho, mas também os riscos e danos que surgem na natureza. Embora os investigadores independentes estejam melhor posicionados para realizar estes testes (dado o interesse económico dos promotores em demonstrar a procura de serviços mais personalizados), eles precisam de acesso a dados para compreender quais podem ser os riscos e, portanto, como enfrentá-los. Para melhorar o ecossistema de medição e investigação, os programadores devem investir em infraestruturas de medição automatizadas, desenvolver os seus próprios testes contínuos e implementar métodos de teste que preservem a privacidade e que permitam monitorizar e investigar o comportamento do sistema em condições realistas e com memória.




