spot_img
22.9 C
São Paulo
spot_img
HomeTop Global NewsAITransformando Vidas: O Impacto da IA na Proteção Infantil

Transformando Vidas: O Impacto da IA na Proteção Infantil

Resumo

Como parte da série Mulheres na IA da TechCrunch, que busca dar a acadêmicas e outras mulheres focadas em IA o seu merecido — e tardio — reconhecimento, a TechCrunch entrevistou a Dra. Rebecca Portnoff, vice-presidente de ciência de dados da organização sem fins lucrativos Thorn, que desenvolve tecnologias para proteger crianças de abusos sexuais.

Formação e trajetória profissional

A Dra. Portnoff estudou na Universidade de Princeton antes de obter seu doutorado em ciência da computação na Universidade da Califórnia, Berkeley. Ela começou sua carreira na Thorn em 2016, como pesquisadora voluntária, e atualmente lidera uma equipe que talvez seja uma das únicas do mundo dedicada a construir aprendizado de máquina e inteligência artificial com o objetivo de parar, prevenir e defender crianças do abuso sexual.

Influências para a carreira

Durante seu último ano na Princeton, ao contemplar seu futuro após a graduação, sua irmã a incentivou a ler “Half the Sky”, de Nicholas Kristof e Sheryl WuDunn. Essa leitura a apresentou ao tema do abuso sexual infantil, inspirando-a a pesquisar como fazer a diferença nessa área, o que culminou em sua dissertação de doutorado focada em como utilizar aprendizado de máquina e IA nesse contexto.

A missão de proteger as crianças

Na Thorn, a equipe da Dra. Portnoff auxilia na identificação de vítimas, na prevenção da revitimização e na interrupção da disseminação de materiais de abuso sexual. Ela liderou a iniciativa conjunta de Segurança por Design entre a Thorn e a All Tech Is Human, que visa evitar o uso de IA generativa para prejudicar crianças.

“Foi um grande esforço, definindo colaborativamente princípios e mitigações para impedir que modelos generativos produzissem material de abuso, tornando esse material mais facilmente detectável e prevendo a distribuição desses modelos, serviços e aplicativos utilizados para criar esse tipo de material”, lembrou.

A Dra. Portnoff observou que, embora tenha encontrado muitas pessoas dedicadas à causa, “também acabei ganhando mais fios de cabelo grisalho do que tinha no início de tudo”.

Desafios e atualidades

A utilização de IA para criar imagens sexuais não consensuais tornou-se um grande tópico de discussão, especialmente à medida que gerações pornográficas de IA se tornam mais sofisticadas. Atualmente, não há uma legislação federal abrangente que proteja ou impeça imagens geradas pela IA sexual criadas de outras pessoas sem seu consentimento, embora estados como Florida, Louisiana e New Mexico tenham aprovado suas próprias leis para combater especificamente o abuso infantil através da IA.

A Dra. Portnoff argumenta que este é um dos problemas mais urgentes enfrentados pela IA à medida que ela evolui: “Um em cada dez menores relatam saber de casos em que seus colegas geraram imagens nua de outras crianças”.

“Não precisamos viver nessa realidade, e é inaceitável que permitimos que isso chegue a esse ponto.”

Para mitigar esses problemas, a Thorn defende que as empresas de tecnologia adotem seus princípios de segurança desde o design e compartilhem públicamente como estão prevenindo o uso indevido de suas tecnologias de IA generativa no contexto do abuso infantil — colaborando com organizações profissionais como o Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE) e o Instituto Nacional de Padrões e Tecnologia (NIST) para estabelecer padrões que possam ser utilizados para auditar o progresso.

O papel da mulher na IA

Em sua trajetória em um campo dominado por homens, a Dra. Portnoff lembra que frequentemente as pessoas ignoravam seus conselhos, preferindo falar com alguém com um histórico técnico. Ela compartilha: “Minha resposta? ‘Nenhum problema, você está falando com alguém com um histórico técnico’.”

Estratégias para o sucesso

A Dra. Portnoff identifica algumas chaves para navegar nesse campo: estar preparada, agir com confiança e assumir boas intenções. A preparação a ajuda a entrar nas salas com mais segurança, enquanto a autoconfiança a capacita a lidar com desafios de maneira curiosa e ousada, “buscando primeiro entender e depois ser entendida”, complementou.

“Assumir boas intenções me ajuda a abordar os desafios com gentileza em vez de defensividade.”

Sua orientação para mulheres que desejam ingressar na IA é sempre acreditar em sua capacidade e seu valor. “É fácil cair na armadilha de deixar as suposições que as pessoas têm sobre você definirem seu potencial, mas a voz de cada um será necessária nesta revolução da IA.”

À medida que o aprendizado de máquina e a IA se tornam mais integrados aos nossos sistemas humanos, “todos nós precisamos trabalhar juntos para garantir que isso seja feito de uma forma que promova nosso florescimento coletivo e priorize os mais vulneráveis entre nós”.

Construindo a IA ética

A Dra. Portnoff argumenta que há muitas facetas para uma IA responsável, incluindo a necessidade de transparência, justiça, confiabilidade e segurança. “Mas todas elas têm uma coisa em comum: construir ML/IA de forma responsável exige engajamento com mais partes interessadas do que apenas seus colegas tecnólogos”, explica.

Isso significa mais escuta ativa e colaboração. “Se você está seguindo um roteiro para construir uma IA responsável e percebe que não conversou com ninguém fora de sua organização ou de sua equipe de engenharia durante o processo, provavelmente você está indo na direção errada.”

Conforme os investidores continuam a injetar bilhões de dólares em startups de IA, a Dra. Portnoff sugere que os investidores comecem a olhar para a responsabilidade já na fase de diligência prévia, avaliando o compromisso de uma empresa com a ética antes de fazer um investimento e, em seguida, exigindo certos padrões a serem atendidos. Isso pode “prevenir danos e permitir um crescimento positivo”.

“Há muito trabalho a ser feito e você pode ser a pessoa a fazê-lo acontecer.”

#InteligenciaArtificial, #ProtecaoInfantil, #MulheresNaTecnologia, #EticaNaIA, #AbusoInfantil, #SegurancaDigital, #InovacaoSocial

Fonte

latest articles

explore more