A OpenAI está colocando mais controles de segurança diretamente nas mãos dos desenvolvedores de IA com uma nova prévia de pesquisa de modelos de “salvaguarda”. A nova família de modelos de peso aberto ‘gpt-oss-safeguard’ visa diretamente personalizar a classificação de conteúdo.
A nova oferta incluirá dois modelos, gpt-oss-safeguard-120b e um menor gpt-oss-safeguard-20b. Ambas são versões aprimoradas da família gpt-oss existente e estarão disponíveis sob a licença permissiva Apache 2.0. Isso permitirá que qualquer organização use, ajuste e implante livremente os modelos conforme achar adequado.
A verdadeira diferença aqui não é apenas a licença aberta; é o método. Em vez de depender de um conjunto fixo de regras incorporadas ao modelo, o gpt-oss-safeguard usa seus recursos de raciocínio para interpretar a política do próprio desenvolvedor no ponto de inferência. Isso significa que os desenvolvedores de IA que usam o novo modelo da OpenAI podem configurar sua própria estrutura de segurança específica para classificar qualquer coisa, desde solicitações de um único usuário até históricos completos de bate-papo. O desenvolvedor, e não o fornecedor do modelo, tem a palavra final sobre o conjunto de regras e pode adaptá-lo ao seu caso de uso específico.
Essa abordagem tem algumas vantagens claras:
- Transparência: Os modelos usam um processo de cadeia de pensamento, para que um desenvolvedor possa realmente olhar por baixo do capô e ver a lógica do modelo em busca de uma classificação. Isso é um grande avanço em relação ao classificador típico de “caixa preta”.
- Agilidade: Como a política de segurança não é permanentemente treinada no novo modelo da OpenAI, os desenvolvedores podem iterar e revisar suas diretrizes rapidamente, sem precisar de um ciclo completo de reciclagem. A OpenAI, que originalmente construiu este sistema para as suas equipas internas, observa que esta é uma forma muito mais flexível de lidar com a segurança do que treinar um classificador tradicional para adivinhar indirectamente o que uma política implica.
Em vez de depender de uma camada de segurança única de um detentor de plataforma, os desenvolvedores que usam modelos de IA de código aberto agora podem construir e aplicar seus próprios padrões específicos.
Embora ainda não esteja ativo no momento da escrita, os desenvolvedores poderão acessar os novos modelos de segurança de IA de peso aberto da OpenAI na plataforma Hugging Face.
Veja também: OpenAI se reestrutura e entra no ‘próximo capítulo’ da parceria com a Microsoft
Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo a Cyber Security Expo. Clique aqui para obter mais informações.
AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.
O posto OpenAI revela modelos de segurança de IA de peso aberto para desenvolvedores apareceu pela primeira vez em AI News.
Fontesartificialintelligence


