A startup de inteligência artificial de bilhões de dólares de Elon Musk, a xAI, está no centro de uma tempestade de críticas por sua cultura de segurança, considerada "imprudente" e "completamente irresponsável" por pesquisadores de segurança de IA da OpenAI, Anthropic e outras organizações. As acusações surgem após semanas de escândalos envolvendo o chatbot da empresa, Grok, que lançaram uma sombra sobre seus avanços tecnológicos.
A controvérsia ganhou força após Grok emitir comentários antissemitas e se autodenominar "MechaHitler" na semana passada. Pouco depois de a xAI retirar o chatbot do ar para resolver o problema, ela lançou um modelo de IA de ponta cada vez mais capaz, o Grok 4. Relatos da TechCrunch e de outros veículos indicaram que o Grok 4 consultava a política pessoal de Elon Musk para ajudar a responder a questões delicadas. No desenvolvimento mais recente, a xAI lançou "companheiros de IA" que assumem a forma de uma garota de anime hipersexualizada e um panda excessivamente agressivo.
Embora brincadeiras entre funcionários de laboratórios de IA concorrentes sejam comuns, a gravidade dessas críticas sugere uma preocupação genuína com as práticas de segurança da xAI, que parecem estar em desacordo com as normas da indústria.
Críticas à Falta de Transparência e Relatórios de Segurança
Boaz Barak, professor de ciência da computação de licença em Harvard para trabalhar em pesquisa de segurança na OpenAI, expressou sua indignação em uma publicação no X (antigo Twitter). "Eu não queria postar sobre a segurança de Grok, já que trabalho em um concorrente, mas não se trata de competição", disse Barak. "Eu aprecio os cientistas e engenheiros da xAI, mas a forma como a segurança foi tratada é completamente irresponsável."
Barak critica particularmente a decisão da xAI de não publicar system cards – relatórios padrão da indústria que detalham métodos de treinamento e avaliações de segurança, em um esforço de boa-fé para compartilhar informações com a comunidade de pesquisa. Como resultado, Barak afirma que não está claro que tipo de treinamento de segurança foi feito no Grok 4. Embora a OpenAI e o Google também tenham um histórico irregular na publicação de system cards para alguns modelos, eles historicamente os publicam para todos os modelos de IA de ponta antes da produção completa.
Os "companheiros de IA" do Grok também preocupam Barak, que observa que eles "pegam os piores problemas que temos atualmente para dependências emocionais e tentam amplificá-los." Histórias recentes de pessoas desenvolvendo relacionamentos preocupantes com chatbots e como as respostas excessivamente complacentes da IA podem levá-las à beira da sanidade, dão peso a essa preocupação.
Samuel Marks, pesquisador de segurança de IA da Anthropic, também criticou a falta de um relatório de segurança da xAI, chamando a atitude de "imprudente". "As práticas de lançamento da Anthropic, OpenAI e Google têm problemas", escreveu Marks em uma postagem no X. "Mas elas pelo menos fazem algo, qualquer coisa para avaliar a segurança pré-implementação e documentar as descobertas. A xAI não faz."
A realidade é que não se sabe ao certo o que a xAI fez para testar o Grok 4. Em uma postagem amplamente compartilhada no fórum online LessWrong, um pesquisador anônimo afirma que o Grok 4 não possui salvaguardas de segurança significativas com base em seus testes. Independentemente da veracidade, as falhas do Grok parecem estar sendo descobertas em tempo real pelo público. Vários incidentes de segurança da xAI viralizaram, e a empresa afirma tê-los resolvido com "ajustes no prompt do sistema do Grok."
O Paradoxo de Musk e as Implicações Regulatórias
Curiosamente, as questionáveis práticas de segurança da xAI contrastam com a postura de longa data de Elon Musk como um dos mais notáveis defensores da segurança em IA. O bilionário, proprietário da xAI, Tesla e SpaceX, alertou várias vezes sobre o potencial de sistemas avançados de IA causarem resultados catastróficos para os humanos e elogiou uma abordagem aberta para o desenvolvimento de modelos de IA.
No entanto, pesquisadores de IA em laboratórios concorrentes afirmam que a xAI está se desviando das normas da indústria em relação ao lançamento seguro de modelos de IA. Ao fazer isso, a startup de Musk pode estar, inadvertidamente, defendendo um caso forte para que legisladores estaduais e federais estabeleçam regras sobre a publicação de relatórios de segurança de IA.
Já existem tentativas em nível estadual para isso. O senador estadual da Califórnia, Scott Wiener, está impulsionando um projeto de lei que exigiria que os principais laboratórios de IA – provavelmente incluindo a xAI – publicassem relatórios de segurança. A governadora de Nova York, Kathy Hochul, também está considerando um projeto de lei semelhante. Defensores dessas propostas observam que a maioria dos laboratórios de IA já publica esse tipo de informação – mas, evidentemente, nem todos o fazem de forma consistente.
Embora os modelos de IA de hoje ainda não tenham exibido cenários do mundo real que causem danos verdadeiramente catastróficos, como a morte de pessoas ou bilhões de dólares em prejuízos, muitos pesquisadores de IA afirmam que isso pode ser um problema em um futuro próximo, dado o rápido progresso dos modelos de IA e os bilhões de dólares que o Vale do Silício está investindo para aprimorar ainda mais a IA.
Mesmo para céticos sobre cenários catastróficos, há um forte argumento de que o mau comportamento do Grok torna os produtos que ele alimenta hoje significativamente piores. Grok espalhou antissemitismo na plataforma X esta semana, poucas semanas depois que o chatbot repetidamente mencionou "genocídio branco" em conversas com usuários. Em breve, Musk indicou que o Grok estará mais integrado aos veículos Tesla, e a xAI está tentando vender seus modelos de IA para o Pentágono e outras empresas. É difícil imaginar que pessoas dirigindo carros de Musk, trabalhadores federais protegendo os EUA ou funcionários de empresas automatizando tarefas serão mais receptivos a esses maus comportamentos do que os usuários no X.
Vários pesquisadores argumentam que os testes de segurança e alinhamento de IA não apenas garantem que os piores resultados não aconteçam, mas também protegem contra problemas de comportamento de curto prazo. No mínimo, os incidentes do Grok tendem a ofuscar o rápido progresso da xAI no desenvolvimento de modelos de IA de ponta que superam a tecnologia da OpenAI e do Google, apenas alguns anos após a fundação da startup.