Aplica-se a: ✔️ Windows Server 2016/2019/2022 ✔️ File Servers ✔️ Network Shares ✔️ Local Storage
Metadado | Descrição |
---|---|
Título | File Server Space Analyzer - Otimização de Armazenamento |
Versão | 2.3 |
Data | 24/06/2025 |
Autor | Mathews Buzetti |
Tags | powershell , file-server , space-analysis , deduplication , html-report , storage-optimization |
Status | ✅ Aprovado para ambiente de produção |
A ferramenta gera um dashboard HTML interativo moderno que facilita a visualização e análise de problemas de espaço em servidores de arquivos. O relatório inclui gráficos avançados, métricas em tempo real e uma interface responsiva para análise completa.
👇 Clique no botão abaixo para visualizar um exemplo de dashboard de análise de espaço 👇
O demo mostra todas as funcionalidades do dashboard, incluindo métricas de recuperação, gráficos interativos e recomendações priorizadas
- Metadados
- Visualização do Relatório Interativo
- Garantia de Segurança
- Funcionalidades
- Pré-requisitos
- Como Usar
- Resultados e Relatórios
- Configurações Avançadas
- Windows Deduplication
- Interpretando os Resultados
- Segurança e Boas Práticas
- Limitações e Considerações
- Versionamento
- Suporte e Contato
- ✅ NUNCA remove arquivos dos usuários
- ✅ NUNCA modifica dados existentes
- ✅ Apenas cria relatórios de análise
- ✅ Script é 100% somente leitura
- Análise de Duplicados: Detecção precisa usando hash MD5 com agrupamento inteligente
- Grandes OU Antigos: Critério OR com badges por impacto (Grande + Antigo > Grande > Antigo)
- Arquivos Temporários: Identificação e análise de arquivos desnecessários (.tmp, .bak, .log, etc)
- Windows Deduplication: Detecção automática e ajuste de valores para espaço físico real
- Dashboard HTML Interativo: Relatório visual com gráficos, métricas e recomendações
- Tratamento Robusto de Erros: Análise continua mesmo com problemas de acesso
- Otimização de Performance: Processamento em lotes para grandes volumes de dados
- Cálculo preciso de potencial de recuperação sem arredondamento duplo
- Detecção de sobreposições entre categorias para evitar dupla contagem
- Suporte a caminhos de rede e locais
- Análise de eficiência da deduplicação ativa
- Exportação completa para CSV com dados detalhados
- Métricas de Resumo: Contadores com animação e indicadores visuais
- Gráficos Interativos: Pizza donut com breakdown por categoria
- Visualizações: Top 5 tipos de arquivo com gráfico de barras animado
- Tabelas Responsivas: Interface com abas e conteúdo colapsível
- Badges de Prioridade: Sistema visual de classificação por impacto
- Modo Responsivo: Funciona perfeitamente em desktop, tablet e mobile
- Windows 10/11 ou Windows Server 2016/2019/2022
- PowerShell 5.1 ou superior
- Permissões de leitura nos diretórios a serem analisados
- Espaço livre em C:\temp (ou pasta configurada) para relatórios
- Navegador moderno para visualizar o dashboard HTML (Chrome, Edge, Firefox)
Warning
Requisitos de segurança e performance:
- Execute como administrador para máxima cobertura de análise
- Tenha pelo menos 2GB de RAM livre para análise de servidores grandes
- Reserve 500MB de espaço livre para geração de relatórios
- Considere executar fora do horário comercial em servidores em produção
- O script é 100% read-only, mas pode impactar temporariamente a performance do servidor
Note
Compatibilidade testada:
- Windows Server 2016/2019/2022 (Recomendado)
- PowerShell 5.1, 7.x
- Compartilhamentos SMB/CIFS
- Volumes NTFS locais e de rede
-
Download do Script:
-
Abra o script no PowerShell ISE.
-
Localize as linhas abaixo no início do script e altere conforme necessário:
# Configurações principais (edite no início do script) $TamanhoMinimoArquivosMB = 500 # Tamanho mínimo para "grandes" $DiasArquivosAntigos = 90 # Idade mínima para "antigos" $TopArquivosGrandesAntigos = 1000 # Quantidade máxima a analisar $TamanhoMinimoArquivosDuplicadosMB = 50 # Tamanho mínimo para duplicados $TopGruposDuplicados = 2000 # Top grupos de duplicados $ModoSilencioso = $true # Reduz verbosidade
Warning
Configurações avançadas e seus impactos:
- TamanhoMinimoArquivosMB: Define o tamanho mínimo para considerar arquivos como "grandes". Valores menores (100MB) incluem mais arquivos na análise, mas aumentam significativamente o tempo de execução em servidores com muitos arquivos.
- DiasArquivosAntigos: Define quantos dias para considerar arquivos como "antigos". Valores menores (30 dias) incluem mais arquivos recentes, enquanto valores maiores (180 dias) focam apenas em arquivos realmente antigos.
- TopArquivosGrandesAntigos: Limita quantos arquivos grandes/antigos serão analisados. Valores maiores (5000) fornecem análise mais completa, mas consomem mais memória e tempo de processamento.
- TamanhoMinimoArquivosDuplicadosMB: Define o tamanho mínimo para buscar duplicados. Valores menores (10MB) encontram mais duplicados, mas o cálculo de hash MD5 demora muito mais tempo.
- TopGruposDuplicados: Limita quantos grupos de duplicados serão processados. Aumentar (5000+) pode melhorar a detecção, mas aumenta significativamente o uso de memória e tempo de processamento.
- ModoSilencioso: Quando false, exibe logs detalhados no console. Útil para debug, mas pode gerar muito output em análises grandes.
-
Após a alteração, execute o script pressionando F5 ou o botão Play no PowerShell ISE.
-
Configuração Interativa:
- Escolha entre análise local ou de rede
- Digite o caminho a ser analisado
- Aguarde a análise ser concluída
O relatório principal é um dashboard HTML moderno que inclui:
- Hero Section: Métricas principais com animações
- Cards de Resumo: Estatísticas visuais por categoria
- Gráficos:
- Pizza donut para composição da recuperação
- Barras para top 5 tipos de arquivo
- Seções Detalhadas:
- Visão geral com progress bars
- Abas para tipos, duplicados, grandes/antigos
- Seção de erros v2.3 com estatísticas
- Recomendações: Plano de ação priorizado
- Design Responsivo: Funciona em qualquer dispositivo
C:\temp\AnaliseFileServer_YYYY-MM-DD_HHMMSS\
├── RelatorioSanitizacao.html # Dashboard principal
├── DistribuicaoTipos.csv # Análise por tipo de arquivo
├── ArquivosDuplicados.csv # Lista completa de duplicados
├── GrandesAntigos.csv # Arquivos grandes OU antigos
├── ArquivosTemporarios.csv # Arquivos temporários encontrados
├── ErrosPermissao.csv # Erros de acesso (se houver)
├── CaminhosMuitoLongos.csv # Caminhos problemáticos
└── ResumoErros.txt # Resumo de problemas encontrados
# Para servidores grandes (10TB)
$MaxErrosPorTipo = 100 # Aumentar limite de erros
$TopGruposDuplicados = 5000 # Mais grupos de duplicados
# Para análise rápida
$TamanhoMinimoArquivosMB = 1000 # Focar apenas em arquivos muito grandes
$TopArquivosGrandesAntigos = 500 # Reduzir quantidade analisada
O script v2.3 inclui tratamento robusto para:
- ❌ Erros de permissão de acesso
- 📏 Caminhos muito longos (240 caracteres)
- 🔒 Arquivos e pastas protegidos pelo sistema
- 🌐 Problemas de conectividade de rede
- 💾 Limitações de memória em análises grandes
O script detecta automaticamente se a Windows Deduplication está ativa e ajusta os cálculos:
- Taxa de Compressão: Mostra a eficiência atual
- Valores Ajustados: Espaço físico real que será liberado
- Recomendações: Sugere habilitação se não estiver ativa
- 10-80% de economia de espaço adicional
- Especialmente eficaz em servidores com dados duplicados
- Redução do backup e replicação
- 🔴 Crítico: Arquivos Grande + Antigo (máximo impacto)
- 🟠 Alto: Arquivos apenas Grandes (impacto significativo)
- 🟡 Médio: Arquivos apenas Antigos (menor impacto)
- 🔵 Info: Duplicados e temporários (fácil limpeza)
- Potencial de Recuperação: Espaço total que pode ser liberado
- Percentual do Disco: Quanto representa do espaço usado
- Sobreposições: Arquivos contados em múltiplas categorias
- Deduplicação: Economia adicional disponível
Warning
Importantes considerações de segurança:
- Embora o script seja 100% read-only, a análise intensiva pode impactar a performance do servidor
- Execute em horários de baixo uso para minimizar impacto nos usuários
- Verifique se há espaço suficiente para os relatórios antes da execução
- Não execute em múltiplos servidores simultaneamente sem considerar a carga de rede
- Mantenha os relatórios gerados em local seguro pois contêm informações sensíveis sobre a estrutura de arquivos
- O script é 100% read-only - não modifica arquivos
- Performance pode ser impactada temporariamente
- Monitorar logs para identificar problemas de acesso
- 📋 Revisar relatório HTML antes de qualquer ação
- 🔍 Validar arquivos duplicados antes da remoção
- 📁 Confirmar que arquivos "antigos" podem ser arquivados
- 💾 Considerar backup antes de limpeza massiva
Note
Dica de segurança: O relatório HTML contém informações detalhadas sobre a estrutura de arquivos do servidor. Mantenha esses relatórios em local seguro e limite o acesso apenas a administradores autorizados.
Warning
Limitações importantes do script:
- O cálculo de hash MD5 para duplicados é CPU-intensivo e pode aquecer o servidor
- Arquivos em uso exclusivo podem não ser detectados corretamente
- Permissões insuficientes podem resultar em análise incompleta
- Não recomendado executar durante backup ou outras operações intensivas de I/O
- Análise de servidores grandes (30TB) pode levar várias horas
- Uso intensivo de CPU durante cálculo de hashes MD5
- Impacto temporário na performance de rede/disco
- Hashes MD5 têm probabilidade mínima de colisão
- Arquivos em uso podem não ser detectados corretamente
- Permissões insuficientes podem limitar a análise
- Testado no Windows Server 2016/2019/2022
- Requer PowerShell 5.1+ para funcionalidades completas
- Alguns recursos podem variar entre versões do Windows
- ✅ Script 100% read-only com máxima segurança
- ✅ Critério OR para grandes OU antigos com badges por impacto
- ✅ Detecção aprimorada de Windows Deduplication
- ✅ Dashboard HTML com design moderno e responsivo
- ✅ Tratamento robusto de erros v2.3
- ✅ Cálculos matemáticos corrigidos sem arredondamento duplo
- ✅ Sistema de badges visuais para classificação de prioridade
Para dúvidas, sugestões ou relato de problemas:
- 📧 Entre em contato via LinkedIn
- 🐛 Abra uma issue no GitHub
- 💡 Contribuições são bem-vindas via Pull Request
⚡ Desenvolvido por Mathews Buzetti - Especialista em Infraestrutura e Automação
Copyright © 2025 - Licenciado sob MIT com restrições adicionais