O rápido crescimento dos Data Centers, impulsionado pela dependência de processos e operações digitais, levou a um foco ascendente na resiliência destas infraestruturas críticas. O impacto financeiro de uma interrupção do centro de dados é impressionante, com estimativas sugerindo perdas de mais de US$ 100.000 por minuto. É o que destacam Antônio Caruso, Executivo de Desenvolvimento de Portfólio North America, e Edson Isawa, Diretor de Desenvolvimento de Portfólio na América do Sul na Siemens.

Segundo eles, no Brasil, que está entre os 15 principais países em termos de número de Data Centers, há uma necessidade premente de acelerar a implementação de sistemas de monitoramento e controle para atender aos padrões globais. Isso representa uma oportunidade de crescimento no mercado DCIM, que deve crescer na América Latina com um CAGR de 8.2%.

Antonio Caruso
Antônio Caruso, Siemens

“A implementação de sistemas monitorados permite a visibilidade em tempo real do desempenho e das condições da infraestrutura, capacitando os gerentes de infraestrutura a operar o sistema com confiança. Essa compreensão em tempo real é crucial para otimizar o desempenho do sistema, reduzir as despesas operacionais (OPEX) e minimizar o tempo de inatividade”, afirmam os especialistas.

Edson Isawa acrescenta: “À medida que as demandas de dados continuam a aumentar, particularmente entre empresas de tecnologia de hiperescala e fabricantes de chips, a necessidade de sistemas de refrigeração eficientes tornou-se cada vez mais premente. As soluções de arrefecimento líquido, incluindo o permutador de calor direto para chip, a porta traseira e o arrefecimento por imersão, requerem uma monitorização consistente para garantir um desempenho e eficiência ideais”.

1701254484275
Edson Isawa, Siemens

De acordo com Isawa, a uma escala mais vasta, os sistemas de monitoramento e controle podem reduzir significativamente a dependência das redes elétricas locais, melhorando a estabilidade energética e promovendo uma utilização eficiente da eletricidade. “Isto é particularmente importante à luz das políticas governamentais cada vez mais restritivas sobre a construção e operação de Data Centers. Embora o investimento inicial em sistemas de fusões e aquisições possa parecer assustador, os benefícios a longo prazo na redução dos custos operacionais e na melhoria da eficiência superam largamente os custos”.

Adoção de uma abordagem holística

Para Davi Lopes, diretor de Distribuição, Inside Sales e Transformação Digital da Schneider Electric, é possível observar diversas tendências no que se refere ao monitoramento e controle dos Data Centers brasileiros. Uma delas é a adoção de uma abordagem holística, que tem a ver com o acompanhamento unificado de toda a infraestrutura, seja física, virtual ou de rede, proporcionando uma visão completa da saúde do centro de dados.

Davi Lopes
Davi Lopes, Schneider Electric – Linkedin

“O monitoramento preditivo também está cada vez mais indispensável, já que utiliza análise de dados e inteligência artificial para identificar e prevenir falhas antes que causem interrupções. Nesse sentido, a automação inteligente tem obtido bastante destaque, permitindo a automação de tarefas repetitivas e resolução de problemas. Consequentemente, é possível liberar tempo da equipe para atividades estratégicas”, explica Lopes.

“Por fim”, - acrescenta o especialista, - “não posso deixar de mencionar os aprimoramentos na segurança cibernética e a preocupação com a sustentabilidade, que agora se tornaram praxe no setor”.

Lopes acredita que ter um Data Center monitorado oferece incontáveis vantagens. “A visibilidade aprimorada das operações proporciona insights acionáveis sobre o desempenho e a saúde do Data Center, viabilizando uma tomada de decisão mais rápida e eficaz. A prevenção de falhas é outro exemplo, pois possibilita identificar e corrigir problemas antes que causem interrupções, minimizando o tempo de inatividade e os custos. É válido ressaltar, no entanto, que a implementação de ferramentas de monitoramento e controle pode envolver altos custos iniciais e exigir expertise técnica para gerenciar a complexidade do sistema”.

“Tendências alinhadas com as demandas globais”

Marcelo Salvador, Diretor de Negócios, e Marco Antônio Gomes Silva, Consultor de Soluções da Elipse Software destacam que é essencial consolidar todas as informações em um único ambiente, independentemente da diversidade de dispositivos e ativos envolvidos. Esse ambiente unificado não só permite a correlação de dados, mas também facilita a rápida identificação e resolução de intercorrências.

Marcelo Salvador
Marcelo Salvador, Elipse Software – Linkedin

“No contexto dos Data Centers brasileiros, as tendências de monitoramento e controle estão alinhadas com as demandas globais. A automação e a inteligência artificial desempenham papéis cruciais, capacitando os sistemas a antecipar falhas, otimizar recursos e aprimorar a eficiência energética. Além disso, o conceito de edge computing está ganhando destaque, exigindo sistemas de monitoramento mais distribuídos para acompanhar a descentralização dos recursos de computação”, afirmam Salvador e Gomes.

Segundo eles, a sustentabilidade e eficiência energética também estão no centro das preocupações, com a implementação de tecnologias e práticas voltadas para a redução do consumo de energia e a mitigação da pegada de carbono. “Entre essas práticas estão o uso de energias renováveis e melhorias nos sistemas de resfriamento. Em paralelo, a segurança cibernética e a conformidade regulatória continuam sendo prioridades, especialmente neste setor tão sensível”.

Marco Antonio Gomes Silva
Marco Antônio Gomes, Elipse Software – Linkedin

Salvador e Gomes ressaltam que com o avanço dos sistemas de monitoramento, estamos testemunhando uma crescente sofisticação na geração de informações sobre os Data Centers. “A popularização da inteligência regenerativa tem impulsionado o desenvolvimento de ferramentas mais acessíveis e naturais para o acesso aos dados do sistema, o que promete facilitar ainda mais o gerenciamento por parte dos gestores de Data Centers. Essa evolução é acompanhada por mudanças significativas no panorama tecnológico, incluindo a adoção de IA e machine learning, integração de IoT, virtualização e cloud computing, sistemas autônomos, e melhorias na interface de usuário”.

Vantagens ou desvantagens?

Tonimar Dal Aba, Technical Director na ManageEngine Brasil, aponta como benefícios de ter um Data Center monitorado: a detecção proativa de problemas (identificação e resolução rápida de falhas antes que causem interrupções), otimização de recursos (uso eficiente de energia e recursos de hardware), segurança (monitoramento contínuo para detectar atividades suspeitas), e compliance (aderência às normas regulatórias e políticas internas). Já as desvantagens, segundo ele, seriam: custo (implementação e manutenção de sistemas de monitoramento podem ser caros), complexidade (necessidade de treinamento e gerenciamento de ferramentas complexas), e dependência de sistemas (alta dependência de tecnologia que, se falhar, pode causar problemas significativos).

tonimardalalba.jpg
Tonimar Dal Aba, ManageEngine – Linkedin

Para os próximos anos, Aba prevê o surgimento de ferramentas mais sofisticadas de IA para predição de falhas e automação; maior integração com dispositivos IoT e redes 5G para monitoramento mais granular e rápido; ferramentas que facilitam a gestão de infraestruturas híbridas; implementação de segurança Zero Trust para maior proteção; e novas soluções focadas em eficiência energética e sustentabilidade ambiental.

Diferenças no monitoramento de Data Centers novos e antigos

James Mello, Automation Product Manager na Eaton, também acredita que a tendência é que o monitoramento e controle nos Data Centers sejam cada vez mais frequentes. “Enxergamos que as equipes de infraestrutura e TI de um Data Center começarão a trabalhar de forma mais integrada utilizando as mesmas ferramentas de monitoração, o que permitirá ter uma visão global de tudo o que acontece no Data Center, desde a entrada de energia até os dispositivos de TI nos racks”, afirma.

Para Mello, ter um Data Center monitorado significa saber o que está acontecendo com ele 24 horas, 365 dias por ano. “Toda essa informação é armazenada em banco de dados e pode ser utilizada para futuras auditorias. Além disso, o monitoramento de um Data Center permite que possamos saber em tempo real quaisquer situações de alarmes, como a falta de alimentação da concessionária de energia, falha em algum sistema de refrigeração, baixo nível do combustível e bateria do grupo gerador, etc".

O especialista da Eaton opina que os fatores que impedem os Data Centers brasileiros de implementar ferramentas de monitoramento e controle podem ser divididos em dois cenários: os Data Centers existentes e os Data Centers antigos.

Nos Data Centers existentes, um fator é a falta de levantamento do que é necessário para adequar os centros de dados para torná-los digitalizados, ou seja permitir que eles possam ser monitorados. “Muitos Data Centers existentes não possuem dispositivos básicos que permitem o seu pleno monitoramento, como medidores de energia, sensores de temperatura/umidade, módulos de comunicações em UPS e grupos geradores que permitam o monitoramento através de protocolos abertos, etc”, explica.

James Mello
James Mello, Eaton

Já para os novos Data Centers, Mello esclarece que o monitoramento é considerado desde o início do projeto. “Porém ainda há uma falta de alinhamento entre as equipes de infraestrutura e TI para definirem juntos uma solução integrada que possa atender às suas demandas, e com isso otimizar a quantidade de softwares que irá resultar na redução de custos de implantação”.

“Em um hyperscale e colocation, o conceito de monitoramento é vital”

Barbara Pizzolato, Vice-presidente da unidade de Data Center na Huawei Digital Power, destaca outras duas tendências no monitoramento e controle de Data Centers brasileiros. “O mercado brasileiro tem valorizado cada vez mais o monitoramento dos centros de dados, principalmente com a possibilidade que os equipamentos atuais promovam self diagnóstico. Duas tendências tem se destacado: disponibilização de protocolo aberto de comunicação para integração entre diversos componentes e com Centros de Operação de Rede (NOC) no monitoramento de Data Center; e a utilização de inteligência artificial para interpretar os dados monitorados e direcionar ações automáticas, diminuindo assim os riscos de falha e, caso aconteça, o SLA será significativamente reduzido”.

Para Pizzolato, em Data Centers hyperscale e colocation, o conceito de monitoramento é intrínseco e vital. “Desconheço um Data Center destes que não tenham monitoramento e uma melhoria contínua neste quesito. Porém, nos centros de dados de menor porte e edge, ainda existe um desconhecimento do mercado sobre os recursos de monitoramento disponíveis. Hoje temos, inclusive, empresas que fornecem o monitoramento de Data Center como serviço. Esta é uma maneira das empresas que têm Data Center próprio, e não necessariamente uma equipe especializada e/ou dedicada a sua operação, poderem ter a segurança de um ambiente devidamente monitorado. Afirmo que a falta de informação sobre o recurso é o maior impeditivo, ou melhor, o que torna a procura pela solução muito menor”.

Barbara Pizzolatto
Barbara Pizzolatto, Huawei – Huawei

Ela acredita que o que vem mudando no âmbito do monitoramento e controle é a sofisticação, quantidade, qualidade de informações e a segurança que as ferramentas trazem para o centro de dados. “Hoje, podemos monitorar todas as camadas de um Data Center e integrar diferentes sistemas, hardwares e convergir todas as informações que antigamente eram escassas e dispersas para um único sistema de monitoramento mais inteligente, e que permite um olhar 360º para todo o ambiente. De maneira remota, segura e eficiente, conseguimos olhar todo o ecossistema e atuar para que tenhamos o ambiente mais seguro e eficiente possível, diminuindo inclusive o índice de erro humano, que pode chegar a mais de 85% das causas de falha”.

Investimentos iniciais elevados

Gonçalo Francisco Sousa, CEO da DatacriticalTI, também destaca o custo como um dos principais fatores que impedem a implementação de ferramentas de monitoramento. “Além dos Investimentos iniciais elevados para instalação de ferramentas avançadas, outros fatores são a complexidade, ou seja, a dificuldade em integrar novas tecnologias com sistemas legados; a escassez de profissionais qualificados no mercado; a resistência cultural ou relutância de gestores e equipes em adotar novas tecnologias; a infraestrutura de rede inadequada para suportar soluções de monitoramento avançadas; e o medo de vulnerabilidades e riscos associados à interconexão de sistemas”.

Gonçalo Sousa
Gonçalo Sousa, DatacriticalTI

Sousa prevê que nos próximos anos os Data Centers serão mais inteligentes, eficientes e seguros, com capacidade de responder rapidamente às demandas e desafios emergentes.

“As expectativas são para uma IA mais sofisticada para previsão de falhas e manutenção preditiva; utilização de big data para insights mais profundos e melhor tomada de decisão: processos mais automatizados, reduzindo a necessidade de intervenção humana; ferramentas de realidade aumentada e realidade virtual para manutenção e monitoramento remoto; ferramentas avançadas de segurança cibernética integradas com sistemas de monitoramento; e a integração de blockchain para garantir a integridade e segurança dos dados de monitoramento".

Edge e monitoramento

Alecssandro José Broering, Analista Técnico Comercial de Canais e Projetos na Specto Tecnologia, enfatiza como o monitoramento contínuo, aliado aos sistemas edge, desempenha um papel crucial na gestão eficaz dos Data Centers, garantindo a sua estabilidade e eficiência operacional tornando toda a operação mais economicamente viável e ajudando a antecipar qualquer acontecimento futuro que possa causa danos.

Alecssandro José Broering
Alecssandro José Broering, Specto Tecnologia

“Os sistemas edge desempenham um papel crucial nesse processo. Eles permitem que o processamento de dados aconteça mais perto da fonte, ou seja, no próprio local do Data Center, em vez de depender totalmente de um servidor central. Isso resulta em menor latência, respostas mais rápidas e maior eficiência no monitoramento e controle. Com o edge, as ações corretivas podem ser implementadas mais rapidamente, melhorando ainda mais a disponibilidade e a eficiência do Data Center”, explica.

Broering aconselha que os ajustes sejam feitos no planejamento ao montar um Data Center. “Percebemos que, muitas vezes, os investimentos em monitoramento são negligenciados ou lembrados apenas após eventos críticos. Muitos ainda confiam em softwares primários gratuitos, que proporcionam uma sensação de segurança, porém podem não oferecer a proteção necessária. Acreditamos que uma solução profissional, combinada ou não a uma solução gratuita já existente, não apenas duplica a segurança, mas também torna todo o ecossistema mais profissional”.

Eficiência energética como prioridade

Carlos Eduardo Dumard de Mendonça, Gerente de Soluções da Green4T, disse que além das questões de capacidade e disponibilidade, uma nova tendência vem ganhando cada vez mais relevância nas operações de Data Centers, principalmente nos últimos três anos, é a preocupação dos gestores com a eficiência energética do ambiente, onde mais uma vez ambos os segmentos precisam estar alinhados e colaborando entre si para alcançarem os objetivos de eficiência energética.

Carlos Eduardo Dumard de Mendonça
Carlos Eduardo Dumard de Mendonça, Green4T – Linkedin

“Soluções que possibilitem aos gestores monitorar e controlar a infraestrutura, permitindo mensurar e testar ações ou cenários que tragam maior eficiência à infraestrutura, garantindo a disponibilidade dos serviços, vem ganhando maior relevância e se tornando uma das principais tendências de monitoramento e controle. É claro que não podemos deixar de citar que o ambiente de Data Center é um ecossistema extremamente complexo, no qual se reúnem inúmeras disciplinas, cada qual com significativa relevância nos quesitos de monitoramento e controle, como segurança da informação. Contudo, estamos trazendo uma visão sob um aspecto mais generalista do ambiente de Data Center, sobre especificamente a infraestrutura necessária para a sustentação das operações de TI”, explica.

Mendonça também destaca que tecnologias de IoT, automação de processos, inteligência artificial e machine learning estão ganhando maior relevância nas soluções de monitoramento e controle, apoiando não somente nas rotinas operacionais, mas também na tomada de decisão e avaliação de tendências e cenários.

“A necessidade de mão de obra especializada é um pilar fundamental”

Doneli Oliveira, Senior Service Manager da Vertiv Brasil, salienta que o Brasil está acompanhando a tendência global de migração para a nuvem, o que está impulsionando o mercado de PaaS (Platform as a Service) e SaaS (Software as a Service), além de promover a adoção de soluções de Internet das Coisas (IoT).

“Além disso, tecnologias como edge computing, 5G, IA, machine learning, metaverso e IoT estão ganhando terreno e influenciando a gestão de Data Centers. Essas tecnologias permitem um gerenciamento mais eficiente e proativo dos centros de dados. A capacidade de coletar dados automaticamente, realizar análises e gerar relatórios em tempo real é cada vez mais valorizada. Isso permite uma resposta rápida a problemas e uma gestão mais eficaz. O controle do ambiente do Data Center é crucial para minimizar riscos associados a fatores ambientais, como calor e umidade. Isso garante a integridade da infraestrutura crítica e a continuidade das operações”.

Doneli Oliveira-Vertiv
Doneli Oliveira, Vertiv – Vertiv

Para Oliveira, a complexidade das operações do Data Center não é apenas uma questão de hardware e software, mas também de sinergia e previsibilidade. “A necessidade de mão de obra especializada é um pilar fundamental no ecossistema de monitoramento de Data Centers. A complexidade e a sofisticação das tecnologias empregadas exigem profissionais altamente qualificados, capazes de interpretar dados, gerenciar sistemas e responder a incidentes com precisão e eficácia”.

Ele complementa: “Monitorar um Data Center é ter uma visão abrangente e detalhada da sua saúde operacional. Isso envolve várias áreas, como: detecção de ameaças, segurança de acesso, controle ambiental, gerenciamento de energia, prevenção de falhas elétricas, climatização, manutenção de infraestrutura, etc. Além disso, o monitoramento se torna ainda mais fundamental em tempos de edge computing, onde cada vez mais teremos plantas remotas e não assistidas”.

IBM: Diversidade de tecnologias

Para Lívio Sousa, especialista em modernização de sistemas da IBM Brasil, devemos esperar, nos próximos anos, uma dependência ainda maior na criação e uso dos serviços digitais integrados no cotidiano das pessoas.

1699372697821
Lívio Sousa, IBM

“A geração de uma quantidade de informações nunca, antes, alcançada alavancando o uso expansivo de inteligência artificial para assistir, identificar, indicar e prever situações e visando disponibilidade contínua dos serviços digitais com base em infraestruturas híbridas e inteligentes explorando muito automação. Vão surgir novas regulações para a exploração dessas tecnologias, além da obrigatoriedade de seguir padrões de explicabilidade dos modelos de inteligência artificial aplicados, além de um controle de custos cada vez mais apurado”.

Segundo Sousa, a diversidade de tecnologias aplicadas nesse contexto e o uso de infraestrutura compartilhada ou dedicada, sendo na grande maioria das vezes híbrida, aumenta a pressão para a adoção de padrões abertos para que todo esse complexo ecossistema possa prover os seus serviços de forma governável. “A densidade computacional tende a crescer cada vez mais e opções de tecnologias especializadas e na busca por eficiência deve crescer cada vez mais. Medir e controlar os indicadores chaves de desempenho das empresas do ponto de vista de sustentabilidade se torna essencial na busca pela neutralidade de carbono, metas de transição de energia e os dados ambientais, sociais e de governança”.

Marcel Saraiva
Marcel Saraiva, Nvidia

Ele complementa: “A necessidade de se ter um controle cada vez maior nos acessos não apenas aos Data Centers, mas a todos os componentes críticos como comunicação, fontes de energia, automação, manutenção, entre outros que compõem a prestação desses serviços, sendo os mais simples como os citados acima ou os mais complexos como fluxos de cadeias completas de fabricação, publicidade, engajamento onicanal, compra, pagamento, aprovação e entrega de produtos não é uma tendência, e sim uma necessidade”.

“NVIDIA está comprometida em liderar essas inovações”

Para Marcel Saraiva, gerente de vendas da divisão Enterprise da NVIDIA no Brasil, nos próximos anos podemos esperar que as ferramentas de monitoramento de Data Centers continuem a evoluir de forma significativa. “A inteligência artificial e o machine learning continuarão a desempenhar um papel crucial, permitindo um monitoramento preditivo mais preciso e a automação de processos complexos. Tecnologias de edge computing expandirão para suportar o monitoramento e controle descentralizado, melhorando a latência e a eficiência. As soluções de segurança integradas se tornarão mais robustas, proporcionando uma defesa mais eficaz contra ameaças cibernéticas”, explica.

“Além disso”, - continua Saraiva - “a análise de big data será cada vez mais utilizada para analisar grandes volumes de dados em tempo real, oferecendo insights detalhados e acionáveis. Também acredito que as ferramentas avançadas para sustentabilidade ajudarão a minimizar o consumo de energia e a promover práticas mais ecológicas. A NVIDIA está comprometida em liderar essas inovações, fornecendo tecnologias de ponta para ajudar os Data Centers a alcançar novos níveis de eficiência, segurança e sustentabilidade”.