A Nvidia anunciou em 15 de dezembro de 2025 a aquisição da SchedMD, empresa por trás do desenvolvimento e suporte do Slurm, um dos gerenciadores de cargas de trabalho (workload manager) mais usados em HPC (computação de alto desempenho) e, cada vez mais, em clusters de IA generativa. Os termos financeiros não foram divulgados e a Nvidia afirmou que o Slurm continuará open source, com suporte e evolução mantidos.
O que é a SchedMD e por que o Slurm é tão relevante
A SchedMD foi fundada em 2010 pelos desenvolvedores do Slurm, Morris “Moe” Jette e Danny Auble, para profissionalizar a manutenção, suporte e evolução do projeto.
O Slurm (muito associado ao significado “Simple Linux Utility for Resource Management”) é, na prática, o “sistema nervoso” de muitos ambientes de computação intensiva: ele fila, agenda e aloca recursos como CPU, GPU, memória e nós de cluster para executar jobs grandes, paralelos e concorrentes, típicos de treino e inferência de modelos.
Por que a Nvidia quer controlar essa camada de software
A aquisição faz sentido quando se olha para a infraestrutura de IA como uma pilha: chips, rede, bibliotecas, frameworks e, acima disso, a camada que decide quem usa o quê, quando e com qual prioridade. É nessa camada que o Slurm opera.
Na prática, ao trazer a SchedMD para dentro de casa, a Nvidia ganha mais capacidade de:
- Otimizar utilização de clusters, reduzindo ociosidade e gargalos em ambientes com milhares de GPUs.
- Integrar melhor hardware e software, especialmente em sistemas acelerados por Nvidia, sem depender exclusivamente de terceiros para o roadmap do scheduler.
- Fortalecer o ecossistema open source, mantendo o Slurm como padrão de mercado em ambientes heterogêneos, com promessa de continuidade como software aberto e “vendor-neutral”.
O que muda para empresas e times técnicos
Para quem opera ou contrata infraestrutura de IA, a notícia tem três leituras objetivas:
- Padronização e previsibilidade: quando o fornecedor dominante de aceleradores investe no scheduler mais usado do setor, aumenta a chance de evolução mais rápida de integrações, documentação e ferramentas de observabilidade ao redor do Slurm.
- Continuidade do open source como estratégia comercial: a Nvidia reforçou que o Slurm permanece aberto; isso ajuda a reduzir receios comuns de “fechamento” do projeto e incentiva adoção por universidades, laboratórios e empresas.
- Pressão competitiva em ecossistema, não só em chip: a disputa em IA está cada vez mais ligada à experiência de deployment e operação, e não apenas ao desempenho bruto do hardware.
FAQ - Perguntas frequentes
O Slurm vai deixar de ser open source?
A Nvidia afirmou que seguirá distribuindo e desenvolvendo o Slurm como open source.
Isso impacta só supercomputadores ou também IA corporativa?
Impacta os dois. O Slurm é amplamente usado em HPC e também em clusters voltados a treino e inferência de IA, onde a eficiência de agendamento influencia custo e tempo de execução.
Para quem usa cloud, isso importa?
Sim, porque a “inteligência” de alocação de recursos em ambientes com GPUs é um fator direto de custo, throughput e governança de filas, inclusive em clouds e provedores especializados.





