Getty Images
Acessibilidade
Durante anos, discutimos a inteligência artificial como ferramenta de eficiência. Em 2026, essa narrativa precisa ser atualizada. A IA deixou de ser apenas software para se tornar infraestrutura: invisível, indispensável e profundamente concentrada. E toda infraestrutura carrega uma verdade incômoda já que ela não apenas sustenta a sociedade, ela a molda. Ao passo que a inteligência vira base do sistema, a questão deixa de ser tecnológica. Ela passa a ser de poder.
Infraestruturas operam em silêncio. Só percebemos sua importância quando falham. Poucos pensam diariamente na rede elétrica, no sistema financeiro ou na internet, até que um apagão revela o quanto nossas escolhas, rotinas e possibilidades dependem delas. A inteligência artificial caminha rapidamente para esse mesmo lugar porque está embutida nos fluxos de informação, nas decisões corporativas, nos sistemas educacionais, nos processos de contratação, no crédito, na saúde e na visibilidade social.
O problema não é a presença da IA. É a naturalização da dependência
Empresas, governos e indivíduos passaram a depender de sistemas que não elegeram, não auditam plenamente e raramente compreendem em profundidade. Modelos treinados a partir de dados opacos, critérios de decisão invisíveis e arquiteturas técnicas concentradas em poucos atores criaram uma assimetria inédita entre quem usa e quem controla. A promessa de eficiência veio acompanhada de um deslocamento silencioso de poder.
Infraestrutura nunca é neutra. Ela define fluxos, acessos, prioridades, e também exclusões. Quem controla a infraestrutura define o que circula com facilidade e o que encontra fricção; o que se torna padrão e o que permanece à margem. Quando a inteligência passa a operar nesse nível, ela deixa de apenas responder perguntas e começa a organizar a realidade.
É nesse contexto que surgem as tentativas de regulação. Iniciativas como o AI Act europeu sinalizam um esforço legítimo de recuperar a governança sobre sistemas que já operam em escala social. Mas também expõem um descompasso estrutural. Pensa comigo: instituições regulam em ritmo linear; tecnologias evoluem exponencialmente, e só depois a regulação surge como reação, não como desenho antecipado.
O risco central, portanto, não é a IA errar. Sistemas sempre erraram. O risco real é errar em escala, com legitimidade algorítmica e aparência de neutralidade técnica. Um erro humano é contextualizado; um erro algorítmico é replicado. Um viés individual é questionado; um viés automatizado ganha aura de objetividade. A escala transforma falhas em padrão. Aqui que mora o perigo, ou seja onde temos que prestar muita atenção.
Além disso, quando decisões passam a ser mediadas por sistemas inteligentes, a responsabilidade se dilui. Quem responde por uma exclusão injusta, uma recomendação enviesada ou uma decisão automatizada com impacto real? O programador, o fornecedor, a empresa usuária, o gestor que confiou no sistema? A infraestrutura cria eficiência mas também cria zonas cinzentas de responsabilidade.
Chegamos, assim, a um ponto de inflexão. A discussão sobre inteligência artificial em 2026 não é mais sobre adoção ou inovação. É sobre governança, legitimidade e contrato social. Trata-se de decidir quais decisões podem, e quais não devem, ser delegadas a sistemas inteligentes. Trata-se de definir limites antes que eles se tornem tecnicamente irrelevantes.
A pergunta que se impõe neste início de ano não é se a inteligência artificial vai decidir por nós. Ela já decide… A pergunta mais importante é: quem decidiu que ela poderia decidir, em que condições e em nome de quais valores.
Responder a isso não é tarefa de engenheiros apenas. É um debate político, cultural e ético. E quanto mais cedo o enfrentarmos, maior a chance de que a nova infraestrutura da inteligência sirva à sociedade com um todo, e não o contrário.
Iona Szkurnik é fundadora e CEO da Education Journey, plataforma de educação corporativa que usa Inteligência Artificial para uma experiência de aprendizagem personalizada. Com mestrado em Educação e Tecnologia pela Universidade de Stanford, Iona integrou o time de criação da primeira plataforma de educação online da universidade. Como executiva, Iona atuou durante oito anos no mercado de SaaS de edtechs no Vale do Silício. Iona é também cofundadora da Brazil at Silicon Valley, fellow da Fundação Lemann, mentora de mulheres e investidora-anjo.
Os artigos assinados são de responsabilidade exclusiva dos autores e não refletem, necessariamente, a opinião de Forbes Brasil e de seus editores.