AI ou Atividade Indiana? O caso Builder.ai e os limites éticos da Inteligência Artificial
Autor: *Armando Kolbe Junior
“Construa seu app com inteligência artificial, como mágica.” Esse era o apelo da Builder.ai, startup britânica avaliada em US$ 1,5 bilhão, que prometia revolucionar o desenvolvimento de aplicativos. A propaganda vendia uma assistente virtual chamada Natasha, que supostamente criaria apps sozinha com a ajuda de uma IA generativa.
Mas a tal “mágica” era, na verdade, muito humana. Reportagens revelaram que o processo era conduzido por mais de 700 engenheiros indianos trabalhando manualmente por trás da plataforma. Natasha era só a fachada. A IA não existia de fato. Havia era uma embalagem bem-feita para vender algo tradicional como se fosse revolucionário.
A Builder.ai não está sozinha nessa. Casos como o da Deepseek, IA chinesa que virou febre no início de 2025 e depois despencou em reputação, mostram como o mercado está sedento por promessas — apesar de, muitas vezes, essas promessas serem vazias.
Essa prática já tem nome: AI washing (exagerar ou distorcer o uso de inteligência artificial para atrair investidores ou usuários). A SEC e o Departamento de Justiça dos EUA já estão agindo, aplicando leis antifraude a empresas que fazem isso. A mensagem é clara, transparência não é diferencial — é obrigação.
Ainda é possível alegar o uso de IA sem, de fato, utilizá-la, o que reforça a importância da regulação. A União Europeia saiu na frente com o AI Act, aprovado em 2024, que começou a vigorar este ano. Ele classifica IAs por grau de risco e proíbe sistemas considerados danosos, como reconhecimento facial ir e manipulação de comportamento.
No Brasil, o tema avança. Em março de 2025, um Projeto de Lei sobre IA foi encaminhado à Câmara. Em abril, uma nova legislação incluiu o uso de IA como possível agravante em crimes de violência psicológica contra a mulher, um marco simbólico e necessário. A regulação caminha, mas ainda corre atrás de um mercado que muda mais rápido do que as leis conseguem acompanhar.
O escândalo da Builder.ai vai além da propaganda enganosa. É um alerta sobre a fragilidade ética que ainda ronda muitas startups. Fingir automação quando há trabalho humano por trás é enganar o consumidor, o investidor e o mercado.
Mas a discussão ética de 2025 não para por aí. Precisamos falar sobre viés algorítmico, que perpetua desigualdades em decisões de saúde, justiça e emprego; Privacidade, ameaçada por deepfakes e uso indevido de dados pessoais; Responsabilidade, pois, quando uma IA erra, nem sempre está claro quem responde, já que a automação pode excluir, mas também pode incluir, se pensarmos colaboração, não substituição.
O mercado de IA não para. Só o setor de IA generativa deve movimentar US$ 699 bilhões até 2032. Grandes players estão investindo pesado em infraestrutura, chips e IA embarcada em dispositivos pessoais. A inovação é real e poderosa.
Mas os casos da Builder.ai e Deepseek mostram que nem toda “inteligência” é artificial, e nem toda tecnologia é ética. É hora de colocar os dois pés no chão e lembrar que não se trata de desacelerar a inovação, mas de garantir que ela seja ética, transparente e humana. Porque, no fim, a confiança é a tecnologia mais difícil de reconstruir.
*Armando Kolbe Junior é mestre em Tecnologias, professor e coordenador de curso da Uninter.
Autor: *Armando Kolbe Junior
Créditos do Fotógrafo: Pixabay