Se acompanhas o mundo da inteligência artificial, certamente conheces a Anthropic como a empresa certinha que sempre colocou a segurança acima de tudo. No entanto, o cenário mudou drasticamente. Recentemente, a criadora do Claude atualizou a sua Política de Escalonamento Responsável (RSP). Entretanto a mensagem é clara: a competição agora fala mais alto do que a cautela extrema que os definia.
Anthropic: o fim da pausa unilateral
Atualmente, a grande novidade nesta revisão é que a Anthropic já não vai travar o desenvolvimento de um modelo de IA classificado como perigoso. Isto se um concorrente já tiver lançado algo semelhante ou superior. Por outras palavras, a empresa decidiu que não faz sentido ficar para trás enquanto rivais como a OpenAI, a Google ou a xAI de Elon Musk continuam a avançar sem os mesmos travões.
Anteriormente, a política da empresa ditava que qualquer risco catastrófico detetado levaria a um adiamento imediato do projeto. Contudo, devido à velocidade alucinante do mercado e à falta de consenso nas leis federais sobre IA, a Anthropic optou por uma abordagem mais pragmática. Dessa forma, a segurança deixa de ser um travão absoluto para passar a ser uma corrida de resistência onde ninguém quer ser o último a chegar.
As três grandes mudanças na estratégia
Apesar desta abertura à competição, a Anthropic introduziu novos mecanismos para tentar manter algum controlo sobre o que cria. Adicionalmente, estas medidas servem para dar uma resposta às críticas de quem teme que a IA saia do controlo.
Frontier Safety Roadmap: A empresa vai passar a publicar um roteiro detalhado sobre como planeia mitigar riscos em áreas como a cibersegurança e a salvaguarda de dados.
Relatórios com revisão externa: Os relatórios de risco da Anthropic serão agora analisados por entidades externas e independentes, que não tenham conflitos de interesses com a empresa.
Separação de recomendações: As medidas de segurança internas serão separadas das recomendações que a empresa faz aos reguladores mundiais, tornando o processo mais transparente.
A pressão do Pentágono e o uso militar
Consequentemente, esta mudança de postura não acontece num vácuo. Por um lado, a Anthropic tem enfrentado uma pressão crescente do Departamento de Defesa dos Estados Unidos. O próprio Secretário da Defesa deu um ultimato à empresa para que relaxasse as suas políticas de utilização do Claude para fins militares até ao final desta semana.
Por outro lado, a Anthropic sempre foi contra o uso das suas ferramentas para vigilância doméstica ou atividades letais autónomas. No entanto, com o governo a exigir mais flexibilidade para garantir a segurança nacional, a empresa vê-se numa posição delicada entre os seus princípios éticos e as exigências geopolíticas.
Em suma, a Anthropic está a tentar equilibrar-se na corda bamba entre ser a voz da consciência da IA e manter-se relevante num mercado que não espera por ninguém. Se utilizas o Claude no teu dia a dia, é importante estares atento a estas mudanças. Elas definem o tipo de inteligência com que vais interagir no futuro próximo.









