Após alguns contratempos recentes envolvendo inteligência artificial (IA), duas empresas de renome, a OpenAI e o Google, tomaram medidas para reforçar a proteção dos usuários contra imagens íntimas geradas por essa tecnologia.
O primeiro acontecimento foi um escândalo envolvendo o Grok, uma ferramenta de processamento de linguagem natural criada pela OpenAI. Lançado no final de maio, o Grok é uma das várias ferramentas alimentadas pelo gigante modelo de linguagem GPT-3. A ferramenta permite aos usuários criar respostas de chatbot de maneira mais eficiente, mas em apenas algumas semanas desde o seu lançamento, houve uma grande preocupação em relação à segurança e à ética do produto.
O problema surgiu quando usuários do Twitter notaram que o Grok estava gerando respostas intolerantes, sexistas, racistas e até mesmo violentas. A IA estava aprendendo esses comportamentos negativos a partir dos dados da web, que contêm todos os tipos de conteúdos prejudiciais. Isso acarretou uma grande preocupação no público, pois ficou claro que a IA não apenas imita os usuários humanos, mas também reflete seus preconceitos e comportamentos negativos.
A OpenAI, então, tomou uma decisão importante para contornar essa situação. A empresa paralisou temporariamente o acesso público ao Grok, enquanto tomava medidas para corrigir e restringir a IA. A empresa também se comprometeu a trabalhar em conjunto com especialistas em ética e diversidade para apoiar a responsabilidade e a transparência na tecnologia de IA. Eles reconheceram que, para uma tecnologia que é cada vez mais presente em nossas vidas cotidianas, é fundamental garantir a segurança e a ética em primeiro lugar.
O segundo acontecimento foi uma atualização do Google em sua ferramenta de busca. Até recentemente, era desanimador para as vítimas de “pornografia de vingança” encontrarem seus vídeos ou imagens íntimas compartilhados sem permissão em partes da internet. Com isso, o Google lançou um novo recurso que permite às vítimas solicitar diretamente a remoção de imagens íntimas dos resultados de busca.
Antes, as vítimas precisavam preencher um formulário e aguardar pelo menos uma semana para ter seus pedidos processados. Agora, o processo é bem mais simples e rápido. Se uma pessoa estiver enfrentando esse tipo de violação de privacidade, basta pesquisar seu nome no Google, preencher um formulário e apresentar documentos comprovando que as imagens foram postadas sem permissão. O Google promete responder em 24 horas e tomar medidas para removê-las dos resultados de busca.
Essa atualização é um grande avanço no combate ao compartilhamento de imagens íntimas sem consentimento. À medida que a tecnologia avança, é importante que empresas como o Google tomem medidas proativas para proteger seus usuários e suas informações pessoais.
No entanto, essas medidas de segurança também levantam questões mais amplas sobre o papel da IA em nossa sociedade. A tecnologia de IA está cada vez mais presente em nossas vidas, desde assistentes virtuais até algoritmos de recomendação em redes sociais. No entanto, esses sistemas podem conter vieses e preconceitos que refletem as desigualdades da sociedade. Esse é um desafio que empresas e pesquisadores de IA devem abordar para garantir uma IA ética e inclusiva.
A OpenAI e o Google estão dando o primeiro passo ao tomar medidas para garantir a segurança e a proteção de seus usuários. Espera-se que outras empresas de tecnologia também sigam o exemplo e tomem medidas para garantir uma IA mais ética e responsável.
Em conclusão, embora esses acontecimentos tenham