Receitas acessórias em rodovias. Sim, há novas alternativas!

Mais do que viável, essa renda pode vir de soluções capazes de beneficiar e muito osusuários, além de contribuir para a modernização da malha viária. 

Está dada a largada. No início de fevereiro, o governador João Doria anunciou o novo pacote de concessões rodoviárias em São Paulo. Ele envolve 12 estradas, abrangendo 1,2 mil quilômetros, 11 delas operadas hoje pelo DER (Departamento de Estradas de Rodagem). Segundo divulgado pela imprensa, o edital final deve sair em 15 de março, com entrega das propostas em 15 de abril. Vencerá o grupo que oferecer o maior valor de outorga.

O cálculo desse valor é algo extremamente complexo. Se não por todas as variáveis intrínsecas ao projeto em si, é preciso lidar com o imponderável, afinal trata-se de contrato de longo prazo, normalmente entre 25 e 30 anos. Se atualmente não conseguimos imaginar o que acontecerá no País nos próximos seis meses, o que dizer de como estaremos em 2040?

Além desse pagamento antecipado, que difere do modelo de vencedor pela menor tarifa, a empresa terá de lidar com pesados custos fixos, inerentes a qualquer projeto de infraestrutura. Para fazer frente a esses custos, cresce nas concessionárias a figura do diretor ou gerente de receitas acessórias.

Exatamente como nome diz, o objetivo desse profissional, ou mesmo de um departamento inteiro, é encontrar fontes alternativas de receita afora o pedágio. E por que essas fontes são cada vez mais importantes? Principalmente em função da instabilidade econômica, capaz de tirar os usuários das estradas, com impacto direto na arrecadação do pedágio.

Cientes dessa demanda, estamos buscando formas de monetizar a solução de comunicação por rede sem fio, em rodovia, desenvolvida pela AMR. Batizada de vROAD, ela difere de tudo o que está no mercado, com estruturas superando seus concorrentes em leveza, durabilidade, versatilidade e facilidades de instalação e manutenção.

O modelo tradicional é formado, via de regra, por repetidoras Wi-Fi com poste de concreto ou metal de altura entre oito e dez metros, com conjuntos pesando mais de uma tonelada. Essa estrutura é fixada no solo, sustentando o equipamento que vai transmitir o sinal Wi-Fi, instalado no extremo superior do poste, e as baterias (alimentadas por painéis solares instalados em estruturas metálicas suportadas pelo poste). Pesando de 100 a 200 quilos, dependendo do consumo de energia dos dispositivos instalados, o conjunto de baterias deve ser dimensionado para suportar o sistema na ausência do Sol por até seis dias.

A instalação e a manutenção dessa estrutura exigem a presença de um caminhão munck, aquele com cesto aéreo, cujo aluguel sai por volta de R$ 2 mil por dia. Isso sem contar que a própria presença do munck requer o isolamento de parte da pista. A ARTESP (Agência Reguladora dos Serviços Delegados de Transporte de São Paulo) exige que o fechamento de pistas seja comunicado com três ou quatro horas de antecedência, e que a sinalização, feita por empresa terceirizada, seja iniciada a cerca de 200 m do local da obra, demarcando a pista que será interditada com cones, placas de sinalização e fiscais. Resumindo, dor de cabeça para a rodovia, para os usuários, pressão nos custos da concessionária e aumento de riscos de acidentes.

Desenvolvida para substituir esse modelo, a estrutura vertical autônoma patenteada pela AMR é feita em PRFV (polímero reforçado com fibra de vidro) e pesa 80 quilos, ou seja, até 20 vezes mais leve que a solução tradicional. No topo estão dois access points, com dois quilos cada um. O painel solar é colado no próprio poste, com secção hexagonal. Um duto no interior da estrutura acomoda os cabos que levarão a energia captada às baterias, enterradas abaixo do poste dentro de uma caixa metálica ou de concreto, envolta em fibra de vidro.

A leveza da vROAD permite que o poste seja reclinável. Em sua base há um pescoço de metal com uma dobradiça, possibilitando que a coluna de fibra de vidro seja reclinada. Duas pessoas bastam para deixá-la paralela à rodovia para a manutenção de qualquer de seus dispositivos, reduzindo drasticamente a interferência no fluxo da rodovia e nos custos.

E a receita acessória?

No topo da vROAD fica um radome, uma estrutura circular, que lembra a cúpula de um abajur, projetada para proteção dos usuários das rodovias em caso de acidente, distribuindo o impacto dos equipamentos instalados. Esse espaço pode ser usado para a divulgação de marcas. Porém, mais do que a publicidade estática, estamos estudando, ao lado de agências de publicidade, formas de explorar o acesso à rede Wi-Fi. Uma instituição financeira, por exemplo, poderia se interessar em financiar parte da instalação da rede Wi-Fi na rodovia. Em troca conseguiria, por meio de um access ID, levar a sua mensagem aos usuários da estrada no momento em que eles se conectassem à rede e mesmo à população lindeira, também beneficiada pelos pontos de Wi-Fi.

A instalação de redes Wi-Fi é pré-requisito para as novas concessões desde 2018, inclusive em substituição aos telefones de emergência (call box). O objetivo da ARTESP é fazer com que o usuário não precise sair do carro para entrar em contato com o centro de controle operacional para comunicar um acidente, um problema mecânico ou solicitar alguma informação.

Algumas concessionárias, mesmo com contratos ainda válidos por muitos anos, estão se antecipando, enxergando as soluções Wi-Fi como uma forma de acabar com o problema de vandalismo do qual os call boxes são vítimas, além da possibilidade de modernizar a estrutura e oferecer maior comodidade e segurança ao usuário.

E o nosso papel é viabilizar essas alternativas, contribuindo para a modernização das vias que cortam o Estado.

 

Por que apostar no modelo pay as you go

A velocidade está no centro da transformação digital: a rapidez com a qual as mudanças estão ocorrendo e a disrupção provocada por elas vêm obrigando as empresas a se tornarem mais ágeis para se manterem competitivas. Tais demandas não estão apenas elevando os padrões. Elas estão alterando o contexto em que atuam executivos e profissionais de TI.

Para acompanhar a transformação digital, é fundamental que as organizações tenham um claro posicionamento sobre a sua carga de trabalho. Uma infraestrutura de TI mensurável, com capacidade de medição e transparência nos custos facilitará a tomada de decisões. Ao mesmo tempo, é preciso garantir a segurança dos dados e de todo o processo.

Dados da pesquisa do IDC FutureScape: Previsões mundiais de data center para 2018revelam que as empresas estão procurando modelos de consumo de TI flexíveis, transparentes e com preços competitivos. A análise mostra que até 2020, a procura por soluções baseadas em consumo nos data centers terão ultrapassado os modelos tradicionais, representando até 40% dos gastos com infraestrutura de TI. 94% das companhias pesquisadas dizem que é importante que um provedor de infraestrutura de TI tradicional tenha um modelo de pay-per-use e 56% das empresas afirmaram que descartariam um fornecedor que não tivesse opções flexíveis de consumo. Ao mesmo tempo, fornecedores tradicionais continuam a ser encarados como parceiros confiáveis. 53% das empresas já retornaram ou estão pensando em transferir suas cargas de trabalho de volta aos provedores de infraestrutura consagrados, mas querem continuar usufruindo os benefícios da experiência na nuvem.

Nuvem pública, TI local

O grande desafio é justamente unir essas duas pontas. Os negócios exigem flexibilidade e redução de custos, apontados como as principais razões para o uso de soluções em nuvem, enquanto a TI precisa de controle e segurança, o que remete à infraestrutura na própria empresa.

O modelo pay as you go é a resposta, oferecendo resultados de TI com hardware, software e experiência no local e pagamento conforme o uso. O fornecedor implementa e opera as soluções para o cliente, liberando os recursos de TI para tarefas de maior valor agregado.

O benefício mais evidente é a economia proporcionada pela flexibilidade do pagamento conforme o uso. Mas não é só isso. Implementando a infraestrutura como serviço, a empresa garante a utilização de soluções que evoluem à frente de suas necessidades, mantendo o controle local, dentro de um ambiente de TI simplificada.

Isso se traduz em maior agilidade nos negócios, com entregas mais rápidas ao mercado e menor risco para os negócios, para TI e também para compras. Significa também eficiência operacional e estabilidade. Enfim, o melhor dos dois mundos.

Sua infraestrutura de TI está realmente preparada para o DevOps?

Lá pelos idos de 2007, surgiu um movimento entre desenvolvedores e profissionais de TI no sentido de eliminar as barreiras entre as duas áreas. Eles enxergaram na integração um caminho para se tornarem mais eficientes e rápidos, ampliando a capacidade de gerar valor aos negócios e aos clientes.

O fruto dessa convergência de propósitos é a metodologia DevOps (Development + Operations), conjunto de práticas que une desenvolvedores e profissionais de TI para que possam criar, testar, corrigir, liberar e atualizar softwares com rapidez e segurança.

Trata-se de uma nova cultura dentro das empresas, que requer postura colaborativa e comunicação permanente, calcada no monitoramento e feedback contínuo do desempenho dos softwares. Esse acompanhamento depende de ferramentas automatizadas, que encontram na composable infrastructure o ambiente ideal.

Por que composable infrastructure?

Uma infraestrutura composta é aquela cujos recursos físicos de processamento, armazenamento e network são tratados como serviços. Em uma composable infrastructure, os recursos são agrupados logicamente para que a equipe de TI não precise configurar fisicamente o hardware para suportar um software específico. A composable infrastructure oferece o melhor desempenho possível dos aplicativos, reduz a subutilização e o provisionamento em excesso e cria um data center mais ágil e econômico.

Em poucas palavras, estamos falando de uma infraestrutura baseada em código, com inteligência definida por software, na qual processos até então manuais são automatizados e customizados.

Para usar um exemplo bem simples, vamos imaginar que você tenha em seu data center uma estrutura de servidor com 12 lâminas, nas quais 10 rodam em um ambiente de virtualização e duas na função de backup, jogando os dados em uma fita ou um storage. À noite, quando a maior parte dos funcionários está em casa, o ambiente de virtualização fica ocioso, enquanto os servidores de backup podem sofrer uma sobrecarga. Com a composable infrastructure é possível programar, por meio de linhas de comando, que, a partir de um determinado horário, duas máquinas do aglomerado de virtualização passem a também fazer backup, aumentando o desempenho total do conjunto, atendendo à janela de backup fora do horário comercial. Às 6h da manhã, finalizada a cópia de segurança, as duas lâminas voltam automaticamente para a virtualização. Isso significa otimização do investimento em TI e maior poder computacional em uma estrutura mais enxuta e compacta.

No caso do desenvolvimento de softwares, a composable infrastructure oferece um conjunto fluido de recursos que podem ser combinados dinamicamente para atender demandas específicas de qualquer aplicativo, criando o cenário ideal para a aplicação do DevOps.

A adoção de metodologias ágeis está nos seus planos? Vamos conversar.

6 coisas para considerar ao investir em uma infraestrutura hiperconvergente

A Tecnologia da Informação vem evoluindo para atender a necessidade de rapidez e inovação, fundamentais para que as empresas se mantenham competitivas.

Mas como alinhar demandas corporativas robustas com as novas exigências de tempo e agilidade? Adotando uma solução e eficiente de hiperconvergência, capaz de trazer escalabilidade, velocidade e agilidade.

Ao buscar uma solução nessa área é preciso fazer uma análise realista da estrutura de sua empresa e seus objetivos a curto e médio prazo. Os resultados dessa avaliação serão fundamentais para a definição da infraestrutura mais adequada.

É fundamental, também, compreender as funcionalidades oferecidas pelas estruturas hiperconvergentes, grandes aliadas na elevação da produtividade e da eficiência de suas operações.

1.     Aproveite o que você já tem. Diga sim às arquiteturas mistas

Se você está cogitando investir em hiperconvergência é por que já possui um Data Center. E a maioria das organizações não quer substituir toda a infraestrutura instalada, muito menos viver a complexidade de operar duas bases distintas.

Você não precisa enfrentar situações como essas. Escolhendo o parceiro certo e implantando a solução corretamente é possível integrar a nova estrutura aos Servidores e Storages já existentes, otimizando o que você tem e unindo as duas tecnologias de forma harmônica. E essa integração permite a implantação paulatina da infraestrutura hiperconvergente durante as atualizações tecnológicas.

2.     Assegure-se de poder dimensionar, e não apenas crescer

Nos Data Centers tradicionais é muito difícil dimensionar os recursos num primeiro momento. Para qualquer adequação a novas realidades é preciso valer-se de mecanismos complexos e custosos.

Nos ambientes hiperconvergentes acontece o oposto. O fácil escalonamento é marca registrada. Isso permite oportunidades de crescimento sem precedentes, que podem ser alcançadas de forma simples, sobretudo se você souber quais são as prioridades da empresa e onde se quer chegar.

Para ajudar na tarefa de análise de suas demandas há, inclusive, ferramentas de coleta de dados em infraestruturas físicas e virtuais, habilitadas a recomendar as melhores soluções.

Flexíveis, as infraestruturas hiperconvergentes viabilizam ampliação “just-in-time” do seu data center, no ritmo que você necessitar.

3.     Entenda como se dará a mobilidade dos dados

Nem todos os sistemas individuais do data center estão disponíveis 100% do tempo. Metas de disponibilidade de 99,999% são atingidas em função da maneira como a arquitetura geral é construída e não por meio de dispositivos únicos.

Uma solução moderna deve ser capaz de mover os dados entre a plataforma hiperconvergente e os outros sistemas, trabalhando com a replicação de dados para garantir altíssima disponibilidade. Seu ambiente tem de estar preparado para falhas pontuais sem que isso comprometa toda a arquitetura, garantindo mobilidade dos dados sem interrupção.

4.     Trabalhar com hipervisores diferentes não precisa ser uma dor de cabeça

Aqui, mais uma vez, o que manda é a característica de cada organização. Nem todas precisam de uma solução que suporte diversos hipervisores. Mas, se esse for o seu caso, existem fornecedores de hiperconvergência que oferecem estruturas capazes de trabalhar com hipervisores diferentes.

E não olhe apenas para a fotografia atual de sua organização. Considere, pelo menos, o médio prazo. A estrutura a ser implantada precisa coexistir com os investimentos já feitos e com projetos futuros.

5.     Dados sem proteção. Nem pensar!

O suporte e a capacidade de proteção de dados variam muito de acordo com a solução de infraestrutura hiperconvergente. A maioria das soluções irá, no mínimo, oferecer proteção contra falhas de hardware.

Mas algumas levam essa questão a um outro patamar. Elas asseguram resiliência e rapidez no backup por meio de conjuntos redundantes de discos, replicação local e remota, desduplicação, compressão de dados e capacidade completa de recuperação de desastres.

Tenha muito claro o nível de proteção que sua organização exige.

6.     Aplicativos modernos exigem data center de alto desempenho

Não importa os outros benefícios que possam vir com a implantação de uma solução de infraestrutura hiperconvergente. Se ela não for capaz de responder às cargas de trabalho do seu negócio, ela não será adequada para o ambiente do data center.

E não estamos falando só de velocidade de processamento, mas também de desempenho de armazenamento.

Várias razões têm levado as empresas a buscarem infraestruturas hiperconvergentes. Mas o resultado mais esperado pode ser resumido em três fatores: desempenho, simplicidade e eficiência.

 

Pague à medida que crescer com serviços de TI flexíveis

As empresas podem economizar tempo e dinheiro significativos monitorando e pagando apenas pelo poder de computação que usam. Veja como isso pode funcionar.

Desde que a nuvem se tornou uma força importante na computação empresarial, os líderes de TI têm sido confrontados com uma escolha: manter dados, aplicativos, sistemas e redes internamente ou movê-los para a nuvem, com sua promessa de economia de custos, escalabilidade e agilidade aprimorada. A nuvem, no entanto, não é a resposta para todos os aplicativos — especialmente aqueles de missão crítica que, por razões relacionadas a desempenho, segurança, disponibilidade ou preocupações legais, são melhor tratadas internamente.

A nuvem versus soluções locais parece, portanto, ser uma escolha difícil. Mas a boa notícia é que é uma escolha falsa.

Estão emergindo modelos de consumo de TI no local que oferecem às empresas o melhor dos dois mundos: as vantagens da nuvem pública quando melhor se adequa à carga de trabalho, combinadas com soluções locais que facilitam a proteção de dados confidenciais e a manutenção em conformidade com as regulamentações de dados locais. Esses modelos são frequentemente referidos como “pague conforme você vai”, uma vez que eles permitem que as empresas mantenham o controle de seus dados e funções cruciais e pagam apenas por capacidade adicional quando necessário. Você pode pensar nisso como um plano de pagamento à medida que crescer.

Com os modelos tradicionais de computação corporativa, os negócios financeiros, de saúde e outros tipos de negócios geralmente precisam lidar com ciclos de compras dispendiosos e despesas pesadas de capital. O resultado geralmente pode ser o excesso de provisionamento, pagando pela capacidade bem antes de ser usado. Além disso, ter a capacidade de aumentar a capacidade rápida e barata é importante para qualquer negócio que veja um surto repentino ou inesperado de crescimento, tenha um negócio sazonal, tenha adquirido outra empresa e precise integrá-la rapidamente, ou esteja lançando um novo produto e não tenha certeza da trajetória de vendas.

Como a análise integrada proporciona flexibilidade de TI

Sob o modelo de pagamento à medida que crescer, os clientes trabalham com seu provedor de tecnologia para determinar quais são suas necessidades de capacidade de computação hoje e no futuro. Essa capacidade para as demandas atuais é instalada juntamente com a capacidade adicional de crescimento.

Com o HPE GreenLake Flex Capacity, por exemplo, o HPE Pointnext emprega um portal de uso para os clientes, um painel com análises internas e controles que relata os serviços usados e a capacidade consumida. Isso dá à empresa uma imagem clara e em tempo real de como ela está usando sua capacidade. Toda a instalação é monitorada constantemente, usando uma ampla variedade de métricas, como consumo por servidor, por gigabyte, por máquina virtual, por nó de contêiner, etc. Começando diariamente ou semanalmente, falamos com o cliente sobre o que ele está usando e o que vemos através da medição. Esse uso limitado fornece uma forma eficaz de gerenciamento de capacidade — pense nisso como um processo contínuo de “dimensionamento correto”. Isso dá à empresa uma imagem detalhada de quanta capacidade ela está usando e quem está usando mais.

Além disso, você pode integrar um tipo de válvula de segurança em seu sistema, que chamamos de “buffer de desrisco”. Juntos, determinamos quando os sistemas de TI usarão o buffer causado por, digamos, um novo projeto ou produto importante que está prestes a ser lançado. Quando houver necessidade de mais capacidade, ou a medição revelar que o cliente está executando, digamos, 90% de utilização, uma nova capacidade pode ser trazida antes da necessidade. Com esse tipo de infraestrutura, você nunca deve ficar sem capacidade.

Sob este modelo, a empresa não precisa passar por um processo de aquisição pesado para obter essa nova capacidade, que em sistemas tradicionais pode levar meses. Em vez disso, você pode ficar à frente da demanda de capacidade com quantidades incrementais de equipamento trazidas antes da necessidade com uma simples ordem de alteração. Em suma, a capacidade implantada do cliente evolui à frente das demandas dos negócios.

Isso é crucial, porque assim como uma empresa desperdiça dinheiro para manter a capacidade, ela não precisa, a falta de poder computacional ou armazenamento quando necessário pode resultar em oportunidades de negócios perdidas. Um estudo recente descobriu que pelo menos 25% dos projetos de TI são abandonados por causa de recursos limitados e, em geral, os projetos são implementados com uma média de cinco meses de atraso.

A beleza do modelo de capacidade flexível é que, como acontece com a nuvem, os clientes estão pagando apenas pelo que estão usando, acima de um compromisso mínimo (consulte “Quando a flexibilidade conta”).

Para ser claro, a nuvem pode ser o lugar certo para certas funções. Ao mesmo tempo, nem todos os aplicativos são adequados para a nuvem pública. Em um ambiente de TI híbrido, o que é necessário é aplicar recursos da nuvem no local. Estamos convencidos de que um modelo de pagamento à medida que cresce no local é o futuro de muitas cargas de trabalho — especialmente aquelas que estão crescendo, enfrentaram desafios com ciclos de aquisição lentos ou têm um alto custo de capital.

A tecnologia continua a mudar a um ritmo vertiginoso, e funções que mal eram imagináveis há alguns anos atrás são agora comuns. Agora, imagine um mundo onde a capacidade de sua infraestrutura pode mudar instantaneamente para atender às suas necessidades em rápida mudança. Imagine que você pague apenas pelo que usa, que os custos estejam alinhados com sua atividade comercial e que a infraestrutura seja simples de usar.

Em outras palavras, imagine um mundo onde sua tecnologia realmente funciona na velocidade de seu negócio. Com uma infraestrutura de capacidade flexível, esse mundo está de repente ao alcance.

Estudo de caso: Quando a flexibilidade conta

Como muitas empresas, a Capgemini Finland Infrastructure Services tinha superado sua infraestrutura de computação e tinha algumas decisões importantes a tomar. Para melhor atender seus clientes, o provedor de serviços de hospedagem de infraestrutura precisava de maior flexibilidade no gerenciamento de sua capacidade de servidor, bem como alguma ajuda para melhorar suas operações de data center.

“Nosso principal impulsionador foi a necessidade de atualizar a infraestrutura e os processos do data center enquanto se mudava para serviços de data center mais flexíveis e elásticos”, diz Pauli Niemi, gerente de tecnologia Capgemini Finlândia. “Como nossos clientes exigiam preços baseados no uso, procurávamos uma maneira mais flexível de adquirir capacidade de computação. Também queríamos reduzir nossos investimentos de capital de data center.”

A Capgemini Finland selecionou o HPE Datacenter Care para ajudar a aumentar a eficiência do data center. Uma característica que a empresa gostou foi que a HPE ofereceu um único ponto de contato para suporte e experiência em serviços. Como parte do pacote, a Capgemini optou pelo HPE GreenLake Flex Capacity, que fornece a flexibilidade para gerenciar recursos de data center com mais eficiência.

O HPE GreenLake Flex Capacity permite um modelo “pague à medida que crescer” que reduz os gastos iniciais de capital e alinha as despesas à receita. Ele permite que a Capgemini expanda rapidamente a capacidade do servidor em seus dois data centers sem longos ciclos de aquisição. A empresa agora pode expandir ou reduzir custos com base no uso, sem grandes despesas de capital iniciais. Fundamentalmente, ele paga apenas pelos recursos do data center que ele realmente usa.

“O HPE GreenLake Flex Capacity nos torna mais preparados para adquirir novos clientes e atender clientes existentes que precisam escalar seus negócios”, diz o gerente de tecnologia Jukka Asikainen. “Embora a expansão da capacidade tenha levado pelo menos quatro a seis semanas, agora podemos colocar hardware adicional em vigor dentro de algumas horas.”

Além de reduzir as despesas de capital, a Capgemini Finland reduziu o número de funcionários dedicados à manutenção do data center e agora pode mudar a contagem de cabeças para apoiar o atendimento ao cliente e iniciativas estratégicas.

Diz Niemi: “Estamos menos envolvidos na aplicação de patches e na atualização de nossa infraestrutura e somos capazes de nos concentrar mais em apoiar os principais objetivos de negócios, como desenvolver e testar novos serviços e descobrir novas maneiras de atender melhor nossos clientes.”