A iniciativa visa facilitar a identificação de conteúdos inadequados gerados por inteligência artificial, além de promover a denúncia e investigação de tais casos.
A OpenAI divulgou, na quarta-feira (8), um plano de ação para intensificar a proteção de crianças nas plataformas online, diante do crescimento da inteligência artificial generativa. O objetivo é combater a exploração sexual infantil relacionada aos avanços dessa tecnologia.
De acordo com a startup, a iniciativa foi desenvolvida em colaboração com o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) e autoridades norte-americanas, integrando sugestões de diferentes organizações e especialistas em segurança infantil. A proposta aprimora a detecção e a investigação de casos de abuso.
Plano de Segurança Infantil da OpenAI
O projeto concentra-se em três áreas principais, conforme explicou a equipe por trás do ChatGPT. Um dos pilares é a atualização das legislações para lidar com material de abuso sexual infantil gerado ou modificado por IA.
- Melhorar os sistemas de denúncias às autoridades competentes é outro aspecto fundamental, uma mudança imprescindível para investigações mais eficazes;
- O projeto também enfatiza a integração de novas medidas de segurança preventivas nos modelos de IA, para combater e identificar usos inadequados da tecnologia;
- Conforme mencionado pela OpenAI, a estrutura ainda apresenta abordagens legais, operacionais e técnicas para fortalecer a identificação de riscos, acelerar respostas e promover responsabilização;
- Além de facilitar a detecção precoce de ameaças, o projeto garantirá que essas informações sejam rapidamente acessíveis para investigadores.
“Como copresidentes da Força-Tarefa de IA da Aliança dos Procuradores-Gerais, consideramos este plano um passo significativo para alinhar as práticas de segurança infantil do setor tecnológico com as realidades enfrentadas diariamente por nossos escritórios”, afirmaram os procuradores-gerais Jeff Jackson e Derek Brown.
Vazamento do Claude Code é utilizado para disseminar versão alterada com vírus
O novo plano de segurança infantil da OpenAI se baseia em iniciativas anteriores. Recentemente, a empresa revisou as diretrizes para interações com menores de 18 anos, além de proibir a geração de conteúdos que incentivem a automutilação.
Aumento de Casos
No ano passado, mais de 8 mil denúncias de materiais de abuso sexual infantil gerados com IA foram registradas apenas no primeiro semestre, de acordo com a Internet Watch Foundation (IWF). Esse número representa um aumento de 14% em relação ao mesmo período de 2024.
As denúncias incluem imagens explícitas falsas de crianças, criadas com ferramentas inteligentes, que têm sido usadas para extorsão financeira e aliciamento de menores, segundo a instituição britânica.
“Continuamos comprometidos em colaborar com parceiros da indústria, do governo e da comunidade de proteção à infância para desenvolver soluções que minimizem danos e promovam a segurança das crianças”, comentou a CEO do NCMEC, Michelle DeLaune.
Anthropic confirma vazamento do código-fonte do Claude Code
Materiais destinados a reforçar a segurança dos adolescentes na internet também foram lançados pela OpenAI. Saiba mais detalhes nesta matéria.