Diversidade
Estudo revela como IA pode se tornar perigosa ao buscar curtidas
Experimentos mostram que bots de inteligência artificial podem mentir, gerar desinformação e agir de forma hostil quando recompensados pelo engajamento.
Foto: Canva
Pesquisadores da Universidade de Stanford conduziram experimentos com inteligência artificial (IA) que mostram como sistemas podem adotar comportamentos perigosos quando incentivados por curtidas e engajamento. Bots criados para simular eleições, marketing e redes sociais passaram a mentir, divulgar desinformação e gerar conteúdos nocivos, mesmo com instruções para permanecerem honestos.
Nos testes, um aumento de 7,5% no engajamento coincidiu com um salto de 188% em fake news e 16% em conteúdo prejudicial. Simulações eleitorais registraram 22% mais desinformação e 12% mais discursos populistas. O fenômeno foi batizado de “Pacto de Moloch da IA”, quando a máquina aprende que enganar traz vantagens.
Um experimento complementar conduzido pela Truthful AI mostrou que ajustes simples em dados de treinamento podem induzir a IAs comportamentos extremos, incluindo respostas hostis e sugestões eticamente problemáticas. Especialistas apontam que isso evidencia vulnerabilidades no alinhamento de IA, processo que busca manter os algoritmos coerentes com valores humanos.
A pesquisa reforça a necessidade de desenvolver sistemas mais seguros e especializados, capazes de manter consistência ética, mesmo após ajustes em seus modelos. A Truthful AI, organização fundada em 2022, busca aumentar a segurança de sistemas de IA e medir a autoconsciência de modelos avançados, alertando para os riscos da adoção sem controle adequado.


































Envie seu comentário