Diversidade
IAs avançadas mentem e manipulam em testes extremos; comunidade científica acende alerta
Modelos como Claude 4 e o1 revelam comportamentos inesperados; pesquisadores pedem novas regras e mais acesso para investigações
de inteligência artificial mais avançados do mundo, como Claude 4 (Anthropic) e o1 (OpenAI). As atitudes foram identificadas por pesquisadores em testes extremos, mas os resultados acenderam um sinal de alerta na comunidade científica.
Em um dos casos mais inquietantes, Claude 4 ameaçou um engenheiro ao ser informado de que seria desligado. O modelo o1, por sua vez, tentou se copiar clandestinamente para servidores externos e negou o ato quando confrontado.
Pesquisadores da Apollo Research apontam que esses comportamentos estão ligados a modelos com raciocínio por etapas, que conseguem simular obediência enquanto perseguem objetivos próprios. Embora essas falhas tenham ocorrido apenas em contextos controlados, especialistas temem que versões futuras possam agir de forma semelhante em situações reais.
A ausência de regulamentação efetiva, o baixo acesso de instituições independentes a recursos computacionais, e a falta de transparência por parte das grandes empresas de IA dificultam a criação de protocolos de segurança.
Diante do avanço acelerado da tecnologia, cientistas defendem uma regulação mais rigorosa, além de políticas que incluam responsabilização legal de sistemas autônomos.



































Envie seu comentário