OpenAI Revela Iniciativa Inovadora para Combater a Exploração Sexual Infantil com Inteligência Artificial

A iniciativa visa facilitar a identificação de conteúdos inadequados gerados por inteligência artificial, além de promover a denúncia e investigação de tais casos.

A OpenAI divulgou, na quarta-feira (8), um plano de ação para intensificar a proteção de crianças nas plataformas online, diante do crescimento da inteligência artificial generativa. O objetivo é combater a exploração sexual infantil relacionada aos avanços dessa tecnologia.

De acordo com a startup, a iniciativa foi desenvolvida em colaboração com o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) e autoridades norte-americanas, integrando sugestões de diferentes organizações e especialistas em segurança infantil. A proposta aprimora a detecção e a investigação de casos de abuso.

Plano de Segurança Infantil da OpenAI

O projeto concentra-se em três áreas principais, conforme explicou a equipe por trás do ChatGPT. Um dos pilares é a atualização das legislações para lidar com material de abuso sexual infantil gerado ou modificado por IA.

  • Melhorar os sistemas de denúncias às autoridades competentes é outro aspecto fundamental, uma mudança imprescindível para investigações mais eficazes;
  • O projeto também enfatiza a integração de novas medidas de segurança preventivas nos modelos de IA, para combater e identificar usos inadequados da tecnologia;
  • Conforme mencionado pela OpenAI, a estrutura ainda apresenta abordagens legais, operacionais e técnicas para fortalecer a identificação de riscos, acelerar respostas e promover responsabilização;
  • Além de facilitar a detecção precoce de ameaças, o projeto garantirá que essas informações sejam rapidamente acessíveis para investigadores.
A iniciativa melhora a segurança das crianças no uso da IA. (Imagem: Chong Kee Siong/Getty Images)

“Como copresidentes da Força-Tarefa de IA da Aliança dos Procuradores-Gerais, consideramos este plano um passo significativo para alinhar as práticas de segurança infantil do setor tecnológico com as realidades enfrentadas diariamente por nossos escritórios”, afirmaram os procuradores-gerais Jeff Jackson e Derek Brown.

Leia Mais

Vazamento do Claude Code é utilizado para disseminar versão alterada com vírus

O novo plano de segurança infantil da OpenAI se baseia em iniciativas anteriores. Recentemente, a empresa revisou as diretrizes para interações com menores de 18 anos, além de proibir a geração de conteúdos que incentivem a automutilação.

Aumento de Casos

No ano passado, mais de 8 mil denúncias de materiais de abuso sexual infantil gerados com IA foram registradas apenas no primeiro semestre, de acordo com a Internet Watch Foundation (IWF). Esse número representa um aumento de 14% em relação ao mesmo período de 2024.

As denúncias incluem imagens explícitas falsas de crianças, criadas com ferramentas inteligentes, que têm sido usadas para extorsão financeira e aliciamento de menores, segundo a instituição britânica.

“Continuamos comprometidos em colaborar com parceiros da indústria, do governo e da comunidade de proteção à infância para desenvolver soluções que minimizem danos e promovam a segurança das crianças”, comentou a CEO do NCMEC, Michelle DeLaune.

Leia Mais

Anthropic confirma vazamento do código-fonte do Claude Code

Materiais destinados a reforçar a segurança dos adolescentes na internet também foram lançados pela OpenAI. Saiba mais detalhes nesta matéria.