Cadastre-se

CADASTRO

Em caso de não possuir CPF, por favor entre em contato conosco clicando aqui.

Ao informar meus dados, eu concordo com a Política de Privacidade

ReCaptcha
Entrar
Escola Superior de Redes

Blog da ESR

  • business brainstorming graph chart report data concept scaled 1
    Governança de TI

    Gestão estratégica de TI: como implementar em sua empresa

    A crise sanitária enfrentada pelo mundo acelerou ainda mais a transformação digital das empresas, que já acontecia em velocidade exponencial.  Diante da necessidade de adaptação global em uma escala sem precedentes, foi possível observar na prática como, em geral, se saíram melhor as organizações que tinham um planejamento estratégico sólido frente àquelas que agiam apenas de maneira reativa, esperando os acontecimentos. Nesse sentido, a gestão estratégica do setor de TI – que já era uma tendência da área -, tornou-se o novo paradigma para todas as organizações, independente do porte.  O objetivo da gestão estratégica é otimizar processos e fluxos de trabalho para alcançar as metas traçadas. Nesse sentido, a gestão estratégica é indissolúvel do conceito de governança de TI.  A informação é cada vez mais um ativo essencial dentro das empresas. É ela que, em muitos casos, guiará a tomada de decisões e será capaz de realizar o monitoramento da performance institucional, para eventuais correções de percurso. O objetivo é agregar qualidade e valor à administração e a cada departamento. A partir de então, os resultados da empresa como um todo serão impactados cada vez mais de forma positiva. Implementando a gestão estratégica de TI  Como mencionado anteriormente, agir estrategicamente aumenta consideravelmente as chances de sucesso de qualquer setor. Contudo, é preciso que esse modelo seja implantado gradativamente. Na área de TI, é interessante começar seguindo alguns passos e ações  até que a estratégia esteja bem consolidada. É importante ressaltar que esse é um trabalho em constante aprimoramento, por isso, não se esqueça de sempre reavaliar os processos de TI em um período de tempo pré-definido.  Veja abaixo os primeiros passos a serem seguidos: Conheça o negócio  A gestão das atividades do setor de TI é estratégica quando alinhadas ao planejamento estratégico de negócios traçado pela empresa. Para isso, não basta atender áreas e pessoas isoladamente, é necessário que o gestor responsável pela administração da equipe e dos recursos conheça bem os objetivos e metas do negócio e funcionamento do mercado, para que haja uma integração total com os outros setores da empresa. Dessa forma, as circunstâncias para lidar com as transformações e oportunidades são enxergadas de forma mais completa e holística. Acompanhe as equipes  Para que os avanços ocorram de maneira perceptível, não é suficiente apenas planejar e aplicar, mas também acompanhar  e monitorar a relação de desempenho e resultado, utilizando os indicadores de TI apropriados. Um TI estratégico é capaz de evoluir setores como o suporte, implementar melhores ferramentas, melhorar processos e muito mais. Compreender os pontos fortes e fracos dos integrantes do time e de todos os envolvidos nas ações do setor é bastante importante para que decisões sobre a delegação de tarefas sejam tomadas, resolvendo gargalos  e evoluindo no que já funciona bem.   Estabeleça sistemas de controle  Para que o monitoramento dos processos seja efetivo, é necessária a adoção de controles, indicadores e ferramentas de auxílio. Isto irá colaborar para que o planejamento seja desempenhado da melhor maneira, dimensionando as tarefas, urgências e qualquer chamado que necessite do suporte de um responsável da área de TI.   Otimize custos Não apenas a área de Tecnologia da Informação, mas qualquer departamento que esteja em processo de implantação de uma gestão estratégica, sem funções ou direções claras, tende a ter maior dispersão de recursos. Esse elemento pode compreender qualquer tipo de negócio, seja nos aspectos financeiros, humanos e até de tempo. Nesse cenário, a gestão estratégica de TI procura poupar gastos inúteis, por que ela é pensada para administrar riscos e reduções.   Aprimore a segurança da informação O cuidado com as informações é prerrogativa básica, porque o mau uso de dados pode gerar prejuízos imensos que vão dos financeiros à reputação da empresa. Com uma gestão estratégica do setor de TI, são definidas as políticas de segurança para todos os colaboradores, enquanto a equipe de tecnologia tem a sua postura proativa, na tentativa de se antecipar a ameaças, com a ajuda da tecnologia.   Conclusão A gestão de TI é definida por todas as práticas destinadas a gerenciar os recursos e soluções de tecnologia de uma empresa. Quando a gestão é pensada e feita de forma estratégica, assume um comportamento de governança sobre as ferramentas da área com o objetivo de melhorar os resultados da empresa. A TI estratégica consegue direcionar ações para uma maior economia de recursos e eficiência das equipes, propiciando o aumento de vendas, melhoria de serviços, produtos e diversos outros benefícios. Com profissionais engajados e treinados,  torna-se possível que o setor de TI se torne um importante ativo para os projetos da empresa. Para isso, é necessário que os objetivos da área estejam alinhados aos da instituição. Quer se aprimorar na área? A qualificação em Governança de TI é o diferencial competitivo para profissionais que almejam posições de destaque neste mercado, cada vez mais estratégico para as organizações. Conheça todos os cursos da trilha de Governança de TI da ESR.


    04/11/2021
  • Data Protection Officer (DPO)
    Governança de TI

    Data Protection Officer (DPO): quem é este profissional e como se tornar um

    Com a entrada em vigor da nova Lei Geral de Proteção de Dados (LGPD), adaptações são necessárias por parte das empresas. Novas instituições, mercados e até atribuições profissionais precisaram ser criadas para atender a essas demandas. E uma das principais é o Data Protection Officer (DPO) ou, como nomeia a legislação nacional, Encarregado pelo Tratamento de Dados. Em se tratando de  uma organização que registra as informações dos seus usuários, é preciso responsabilidades quanto à segurança e uso de dados. E todo esse processo precisa ser monitorado por um DPO. Neste artigo exploraremos as qualificações exigidas e como obtê-las.  Quem exatamente é o Data Protection Officer (DPO)? Como mencionado anteriormente, ​​A Lei Geral de Proteção de Dados exige a nomeação de um Data Protection Officer (DPO), que ela se refere como “Encarregado de dados”. É o profissional responsável pela proteção de dados dentro da empresa, garantindo a segurança das informações, tanto dos clientes quanto da própria organização. O Data Protection Officer, indicado pelo controlador, deverá apoiar e orientar a organização com o objetivo de que as determinações estipuladas pela LGPD sejam cumpridas, evitando problemas de compliance, ciberataques, vazamentos e uso inadequado de dados. Quais as responsabilidades de um DPO? O DPO é uma pessoa com um papel misto de aconselhamento e controle. A ele cabem, pelo menos, as seguintes tarefas: A LGPD exige que os Data Protection Officer (DPOs) priorizem suas atividades e concentrem seus esforços em questões que apresentam maiores riscos de proteção de dados e podem ser delegadas a ele para gerenciar o registro das atividades de processamento. O Estado regulamentou a atuação do DPO através da Instrução Normativa SGD/ME Nº 117, DE 19 DE NOVEMBRO DE 2020. Essa instrução é vinculante apenas às instituições do Poder Executivo, porém serve como referência objetiva para a atuação das empresas.  Em seu artigo 3º, a norma estabelece que o Data Protection Officer (DPO) deve estar prontamente envolvido em todas as questões relacionadas à proteção de dados pessoais e a organização deve possibilitar: Qualificações necessárias para ser um Data Protection Officer (DPO) É essencial que o DPO tenha pleno conhecimento sobre a LGPD, tanto em território brasileiro, quanto às mudanças que ocorrem em outros países e suas legislações próprias, se a empresa tiver dados armazenados em solo internacional.  Nesse contexto, é imprescindível saber jurídico, conhecimento em segurança de dados e em tecnologia, e também preparo especial quanto a questões de governança corporativa, para que esteja apto a auxiliar colaboradores de diversos setores no tratamento de dados pessoais. Conclusão A empresa que conta com um DPO certamente estará mais segura quanto à sua conformidade com a LGPD. Ter um DPO atualmente é necessário a todas as organizações tendo em vista que estamos dentro do ecossistema de um mundo que, atualmente, é data driven. O DPO proporciona, dentro da organização, a promoção da do cuidado e da segurança dos dados do cliente. Pensar nesta função leva a percepções que oferecem uma vantagem competitiva à sua empresa. Quer se tornar um Data Protection Officer (DPO)? O EXIN Privacy & Data Protection Essentials (PDPE) é uma certificação que valida o conhecimento de um profissional sobre a organização da proteção de dados pessoais, as regras e regulamentos brasileiros em matéria de proteção de dados. Conheça o curso preparatório da ESR para esta certificação.


    28/10/2021
  • Cibersegurança
    Segurança

    Cibersegurança: o que é e como seguir carreira na área

    A segurança e privacidade na internet sempre foi uma grande preocupação da sociedade. Contudo, com o aumento exponencial do mercado digital nos últimos anos, esses cuidados precisam agora ser redobrados. O tema é de tal relevância que até mesmo os Estados e entidades governamentais começaram a intervir diretamente e regulamentar o setor por meio de leis. E seguindo a tendência mundial, em agosto de 2018 o governo brasileiro sancionou uma lei que regula a captação e tratamento de dados pessoais. Conhecida como LGPD, a Lei Geral de Proteção de Dados foi inspirada na regulamentação semelhante aprovada pela União Europeia, a GPDR (General Data Protection Regulation). Com isso, o Brasil faz parte dos mais de 120 países que têm uma legislação específica para o tratamento de dados. A LGPD, ou Lei  3.709/18, estabelece nove bases legais para legitimar o tratamento de dados pessoais pelas empresas, visando assegurar a seus clientes a proteção dos dados pessoais de suas empresas e a total conformidade com as novas regulamentações.  O tema tem sido bastante debatido entre especialistas e profissionais da área e temos tratado em diferentes aspectos no nosso blog, como, por exemplo, nos posts Por onde os dados vazam? e Segurança para IoT: principais riscos e protocolos. Contudo, no caso de empresas que lidam com grandes quantidades de dados, a própria LGPD recomenda que haja um profissional especializado em cibersegurança e legislação e que saiba não só orientar e prevenir, mas agir em caso de algum ataque. Por esses motivos, atualmente a carreira para quem deseja trabalhar com cibersegurança apresenta uma série de oportunidades. Veja abaixo as tarefas que ficam por conta desse profissional e como se especializar na área. Áreas de atuação de um profissional de cibersegurança A cibersegurança é um conjunto de ações e técnicas para proteger sistemas, programas, redes e equipamentos de invasões. Dessa forma, é possível garantir que dados valiosos não vazem ou sejam violados em ataques cibernéticos. Esses ataques podem ter a intenção de acessar servidores, roubar senhas, sequestrar dados ou até mesmo fraudar transações financeiras. A internet está cada vez mais complexa e isso abre mais pontos de vulnerabilidade aos sistemas.  Por esse motivo, a cibersegurança pode ser dividida em diversos setores, cada um com uma responsabilidade diferente. Segurança da rede O profissional desse setor é responsável por garantir que todos os componentes de rede da empresa estejam protegidos contra ameaças e possíveis vazamentos de informações, ou seja, costuma ser a primeira linha de defesa da organização. Para trabalhar nesse departamento, é necessário ter conhecimento em protocolos de segurança de rede e sobre as ameaças mais comuns a esses sistemas. Segurança de informações e dados Quem atua nessa área precisa proteger os dados da empresa, inclusive os dos usuários, contra roubos, mudanças e remoção. Para ser um bom especialista nesse tipo de cibersegurança, o profissional precisa ter conhecimento em gerenciamento de riscos, políticas ISO e arquitetura de segurança. Segurança da nuvem Com tantos arquivos e dados sendo compartilhados na nuvem, não é à toa que existe uma área da cibersegurança totalmente dedicada para a situação. O profissional dessa área garante que os usuários façam o uso seguro de aplicativos, da web e de transferência de arquivos. Para atuar nesse setor, é interessante conhecer linguagens de programação, como a Phyton, e plataformas de serviços na nuvem, como a Amazon AWS. Segurança de aplicação Nesse departamento, o especialista fica responsável por encontrar e ajustar vulnerabilidades no código-fonte dos computadores, web e dispositivos móveis. É interessante que esse profissional seja familiarizado com, pelo menos, uma linguagem de programação. Segurança de terminais Esse setor permite aos servidores se comunicarem de forma segura com os terminais, o que pode incluir dispositivos pessoais. Os profissionais dessa área da cibersegurança estão diretamente envolvidos em desenvolver e configurar plataformas de proteção, garantindo que os terminais sejam compatíveis. O déficit de profissionais de cibersegurança Como comentamos anteriormente, a necessidade de profissionais de cibersegurança é cada vez maior, devido ao crescimento exponencial do mercado digital e também da evolução da sua complexidade. De acordo com a pesquisa 2019 Cybersecurity Workforce Study da security certifications organization (ISC)², a escassez global de profissionais de cibersegurança atingiu 4 milhões em 2019, tendo aumentado de 2,9 milhões em 2018 e de 1,8 milhões em 2017. Para atender à demanda, o número de trabalhadores qualificados em segurança precisaria crescer 145%. Só nos Estados Unidos, a diferença no ano passado foi de quase 500.000. Segundo a consultoria Forst & Sullivan e a (ISC)² o déficit de mão de obra de cibersegurança está em ritmo acelerado e deverá atingir 1,8 milhões em 2022 – um aumento de 20% desde 2015. Na América Latina, 35% dos trabalhadores acreditam que esta falta de mão de obra é devido à falta de pessoal qualificado e 45% acreditam que os líderes não compreendem as necessidades da área. Como se tornar um profissional de cibersegurança Com o mercado cada vez mais carente de profissionais qualificados em segurança da informação, surge uma pergunta essencial: como se tornar um profissional de cibersegurança com reconhecimento no Brasil e no mundo? Nesse contexto, temos o prazer de destacar a parceria da ESR com a CompTIA, a principal associação global de tecnologia da informação. A CompTIA é referência mundial em certificações de TI, suas credenciais estão entre as mais valorizadas do mercado e são reconhecidas internacionalmente por alavancar carreiras e definir os padrões da indústria. São programas que vão muito além de certificações: envolvem pesquisa, desenvolvimento de habilidades, produção de conhecimento e atuação junto a conselhos e profissionais do setor. Na ESR, essa parceria se traduz em cursos nas áreas de Segurança da Informação, com material e laboratórios oficiais da CompTIA, além de voucher para prova de certificação. Tudo isso aliado à expertise da Escola Superior de Redes na formação de profissionais de alto nível em todo o país.


    22/10/2021
  • Blockchain
    Temas Diversos

    Blockchain e o futuro dos negócios

    O mundo dos negócios está passando por grandes mudanças desde o advento da internet, cada vez mais empresas vêm se desenvolvendo não só em relação a entrega de produtos, mas na criação de serviços diferenciados que possam criar novas relações com seus usuários. A Quarta Revolução Industrial vem ocorrendo através da transformação digital, e foi acelerada com a pandemia de COVID-19. Tecnologias emergentes e suas convergências, trazem um novo cenário global mudando a forma como interagimos com a tecnologia, fazendo os processos saírem do mundo físico para o digital, e criando relações híbridas para phygital. Blockchain é uma dessas tecnologias emergentes, e se mostra fundamental nessas mudanças, assim como a internet foi importante para entrarmos na era dos dados. Suas características ajudam a construir um ambiente integrador dentro desses novos modelos descentralizados e trazendo uma maior transparência, permitindo uma democratização de processos de negócios, governança e sociedade. Nesse contexto, a Escola Superior de Redes organizou webinar gratuito para tratar do tema. A apresentação foi conduzida por Marcela Gonçalves, diretora de negócio da Multiledgers e profissional com mais de 17 anos de experiência na liderança de projetos de inovação, desenvolvimento de softwares e desenvolvimento de negócios, especialmente nos setores industrial e de gestão de TI. Desde 2018 ela é formada e trabalha com foco no uso de blockchain em negócios. Gonçalves começa a apresentação dizendo que geralmente quando se fala em blockchain a associação às criptomoedas e o mercado financeiro costuma ser a primeira coisa que vem à mente. Contudo, no contexto atual, a tecnologia já está sendo estudada e utilizada com outras finalidades. A revolução da informação e a crise de confiança “Muito se fala dos avanços tecnológicos nos dias de hoje, mas a revolução da informação que presenciamos hoje começou há mais de 60 anos, sendo a tecnologia que experimentamos apenas uma das faces dessa revolução”, afirma Gonçalves. Ela salienta que a evolução da questão comunicativa é importante pois ela moldará os modelos de negócios futuros, a partir de uma mudança cognitiva, pois esses modelos precisam, necessariamente, pensar de forma digital. Ao mesmo tempo, é preciso estabelecer uma relação de confiança e a questão da privacidade, que tem se tornado cada vez mais discutida, já era questionada em 1993 em capa da Revista Wired e através do Manifesto Cypherpunk.  Com a primeira grande crise de confiança gerada a partir da grande crise financeira de 2008, intensificaram-se os estudos e tentativas de obter-se uma descentralização do dinheiro e, apesar do Bitcoin não ter sido a primeira delas, foi a primeira a conseguir destaque. Em 2010 ocorreu a primeira aquisição de um objeto físico por meio de bitcoins: uma pizza, que inspirou o nome do evento, conhecido como Pizza Day.  Como o código era aberto, a partir de então, outras criptomoedas foram criadas a partir daquela tecnologia que privilegiava a confiança, o anonimato e era a estrutura central das bitcoins: o blockchain – termo cunhado em entrevista da edição de 2015 da revista The Economist. A revolução digital “As relações de comunicação intervém nas relações de negócios que são construídas”, destaca Gonçalves. E com a construção de um novo paradigma de confiança, as empresas precisaram se adaptar a essa nova realidade. A pesquisadora cita a frase do livro Sense and Respond: How Successful Organizations Listen to Customers and Create New Products, de 2017: “O ritmo da tecnologia está mudando o ritmo dos negócios e todos nós precisaremos nos adaptar”.  O próprio advento das redes sociais é uma prova disso, mudando substancialmente a forma com que nos comunicamos uns com os outros através das várias opções disponíveis na rede. Para definir as plataformas, Gonçalves cita o estudioso Silvio Meira: “Plataformas são camadas de infraestrutura e serviços associados a sistemas de governança que habitam múltiplos agentes a participar de redes de criação de valor em benefício próprio e do ecossistema”.  As novas formas de negócio precisam se valer, essencialmente, de toda uma estrutura colaborativa, em detrimento do antigo modelo centralizado.  A nova rede  A partir de então, nascem novos protocolos, sendo o blockchain um deles, ao lado de outros como, por exemplo, TCP/IP, SMTP, HTTP, etc. Ela teoriza que talvez o blockchain não seja necessariamente uma nova web, mas uma web paralela, pois a tecnologia ainda está em sua “primeira infância”, como as redes sociais estavam nos anos 90 e é da natureza do próprio futuro ter um aspecto de imprevisibilidade. Todos esses aspectos influenciam em uma mudança de paradigma para os negócios, como a maior abertura, construção da comunidade e divisão de ganhos por todos os seus participantes. “Se é pensado em um ‘maior vencedor’ no sistema de blockchain, há algo errado”, afirma Gonçalves. Ela ressalta na expansão do uso blockchain do bitcoin para outras tecnologias os contratos inteligentes. Na definição de Nick Szabo, em 1996, “Um contrato inteligente é um protocolo de transação computadorizado que executa os termos do contrato”.  A importância desses novos contratos está na possibilidade da criação de novos ativos, que antes eram exclusivos do meio analógico, e agora se expandem através da web.  “A necessidade da tecnologia passa pelo entendimento de que você terá que compartilhar a informação”, destaca Gonçalves.  A própria pesquisadora desenvolveu um Canvas sobre o Ecossistema Blockchain a partir dos seus estudos e experiências, como visto na imagem abaixo, com perguntas que devem guiar a construção de novos produtos através do sistema de blockchain. Gonçalves também destaca, em modelo gráfico, uma estrutura de Camadas de Governança e destaca que todos esses pré-requisitos são essenciais na construção de um novo modelo de negócios: “É preciso ter uma visão do todo”. Ela destaca através de estudo realizado em 2018, as principais oportunidades que a tecnologia do blockchain e o novo paradigma de negócios apresentam. A partir daí a especialista dá uma série de exemplos de casos já usados nos negócios, citando diversas empresas, traçando um panorama completo da evolução do ecossistema blockchain e as influências diretas na mudança da economia. Quer mais detalhes e acesso a esse conteúdo gratuitamente e na íntegra? Confira na o webinar sobre o tema realizado pela ESR.


    07/10/2021
  • Pessoas planejando EXIN no post-it
    Métodos Ágeis e Inovação

    Por que você deve obter uma certificação de Metodologia Ágil Scrum com o EXIN?

    Voltados à simplificação de problemas complexos e à habilitação para solucioná-los de forma eficiente, os métodos ágeis e o framework Scrum representam a base do mundo ágil que conhecemos hoje. Aqui em nosso blog, já aprofundamos estes conceitos e explicamos a importância da metodologia Scrum para o gerenciamento de projetos e equipes de TI. Obter uma certificação em Scrum pode ser um grande diferencial na carreira de profissionais da área. É um passo importante para aprofundar conceitos sobre as metodologias ágeis e participar de processos seletivos que exigem comprovação de conhecimentos. Neste artigo, vamos falar a respeito de uma das principais certificações em Scrum, a Agile Scrum Foundation do Exin, para a qual a ESR oferece um curso preparatório exclusivo.  A certificação em Agile Scrum Foundation é interessante para profissionais que trabalham em áreas como o gerenciamento de projetos, desenvolvimento de software, gerenciamento de serviços de TI e gerenciamento de negócios. Vamos resumir o que diferencia o programa EXIN Agile Scrum e como ele se compara a outras certificações Agile e Scrum. O artigo cobrirá também o tipo de conteúdo que você pode esperar da certificação, os diferentes níveis de certificação e o lado prático de obter a certificação.  ESTRUTURA DO PROGRAMA EXIN O programa EXIN Agile Scrum consiste, ao todo, em 5 certificações. Cada certificação se alinha a uma função em uma equipe Scrum. Uma equipe Scrum inclui (desenvolvimento) membros da equipe, um Scrum Master, um Product Owner e (nem sempre) um Agile Coach.  EQUIPE SCRUM Muitos dos programas oferecidos começam com a certificação de Scrum Master. No entanto, se você está começando no Agile, provavelmente não começaria como um Scrum Master imediatamente. É por isso que o EXIN oferece o Agile Scrum Foundation.  Esta certificação de nível básico tem como objetivo fornecer a todos os profissionais que são novos no Agile as informações de que precisam para se integrarem a uma equipe Scrum de forma contínua. O exame cobre os principais conceitos, processos e práticas. É ideal não apenas para membros da equipe de desenvolvimento, mas também para qualquer pessoa que precise ter um entendimento básico do que é Agile e como ele pode ser aplicado para melhorar os processos de trabalho. Conforme você progride em sua carreira Agile, você tem a escolha entre se tornar um Scrum Master, Product Owner ou Agile Coach. Neste caso, o EXIN tem uma certificação adequada para cada uma dessas funções para garantir que um profissional que obtiver a certificação EXIN possa imediatamente assumir uma função específica em sua equipe. SCRUM MASTER O Scrum Master é responsável por apoiar e auxiliar a Equipe Scrum. Eles fazem isso facilitando os diferentes eventos Scrum e removendo obstáculos para a equipe. Profissionais certificados em EXIN Agile Scrum Master terão um conhecimento sólido de como treinar, treinar e apoiar sua equipe em seu trabalho. PRODUCT OWNER Depois de ganhar experiência suficiente, você pode considerar o próximo passo em sua carreira. Um movimento típico para Scrum Masters que desejam assumir mais responsabilidades é se tornar um Product Owner. O Product Owner se concentra nas necessidades do cliente e da empresa. Seu papel é maximizar o valor do negócio. Eles também são responsáveis ​​pelo Backlog do Produto e por garantir que as histórias de usuários sejam claras para a equipe Scrum. AGILE COACH O nível mais alto no programa de certificação EXIN Agile Scrum é EXIN Agile Coach. Como o nome indica, esta certificação se concentra apenas no Agile. Ele aborda práticas fundamentais Agile, como facilitar a mudança e técnicas de treinamento. Os profissionais passam por uma minuciosa sessão de avaliação, que visa validar sua experiência prática. OS BLOCOS DE CONSTRUÇÃO DO PROFISSIONAL EM FORMA DE “T” Na última década, a relevância das habilidades em “T” aumentou dramaticamente. Elas se tornaram mais importantes porque, por meio da digitalização de diferentes domínios, as funções cotidianas estão se tornando mais complexas. Você não precisa mais apenas saber sobre sua área de especialização, mas também precisa entender como sua especialidade se relaciona com outras pessoas ao redor dela. Para ser capaz de compreender o contexto mais amplo, você precisa se tornar um profissional em forma de T. A barra vertical do T representa sua especialidade. Para se tornar um profissional em em forma de T, você precisa estender seu conhecimento aos domínios ao seu redor, para que possa contextualizar sua especialização. Esse conhecimento contextual constitui a barra horizontal do T. O EXIN criou dois novos tipos de caminhos de certificação para apoiá-lo na obtenção de suas habilidades em forma de T. EXIN Certified Integrators se concentram no conhecimento contextual que você precisa das especialidades que se conectam à sua. Por outro lado, as certificações EXIN Career Path irão ajudá-lo a trabalhar em direção à especialização de longo prazo de sua escolha, concentrando-se em uma função. Existem 2 dessas certificações alinhadas com o programa Agile. Se você deseja desenvolver seu conhecimento mais amplo em torno do Agile e do gerenciamento de serviços, pode optar por trabalhar em projetos de metodologias ágeis alinhados aos EXIN Certified Integrator Agile Service Projects. Se você já trabalha em Gerenciamento de Serviços e deseja assumir uma função mais especializada, pode escolher nossa certificação EXIN Agile Service Manager. ESCOLHA COMO FAZER SEU EXAME EXIN Depois de fazer seu treinamento no curso preparatório oferecido pela ESR, você pode realizar o exame da Exin de uma das duas maneiras. Online com EXIN Anywhere ou offline com um treinador ou em um centro de teste. Se optar pelo online, você fará um exame monitorado online ou ao vivo. Isso significa que, depois de terminar de estudar e quando estiver pronto, você pode agendar seu exame online através do site do EXIN. Assim que tiver pago, você poderá definir a data do teste em 21 dias. Antes de fazer o exame, você terá que escolher entre monitoração por vídeo ou ao vivo. Monitoramento de vídeo significa que sua sessão de exame é gravada. Essa filmagem é então revisada por um inspetor para verificar se você seguiu as diretrizes do exame. Com a supervisão ao vivo, um inspetor monitora em tempo real enquanto você faz seu exame. Quando estiver treinando com um parceiro EXIN, você fará o exame sob a supervisão dele no final da sessão. Se você mora na Holanda, também pode optar por fazer o exame em um centro de testes, mesmo que não tenha feito o treinamento. BENEFÍCIOS DE CERTIFICAÇÃO EXIN Ao ser aprovado no exame, você também receberá um selo digital. Este selo é uma credencial digital que inclui informações verificáveis sobre a certificação e as habilidades que você adquiriu. Depois de receber seu emblema, você pode compartilhá-lo facilmente com sua rede, adicionando-o ao seu perfil do LinkedIn ou compartilhando-o via Facebook ou Twitter. Compartilhar seu crachá também significa que você pode obter reconhecimento imediato por seu trabalho árduo! Como bônus, ao contrário de algumas certificações Scrum, nenhuma das certificações EXIN está sujeita a uma taxa de renovação. Depois de passar, você sempre será certificado em EXIN Agile Scrum. TABELA COMPARATIVA EXIN Scrum Alliance Scrum.Org Scrum Study Conteúdo inclui informação sobre o mindset Agile e práticas Scrum Sim Sim Não Não O programa inclui um certificado de iniciante para profissionais em começo de carreira Sim Sim Sim Não Caminhos claros para certificação para diferentes funções em uma equipe Scrum Sim Não Sim Sim Disponível em múltiplos idiomas À exceção do Exin Agile Coach, disponível entre 6 e 11 idiomas Inglês e Português Apenas Inglês Inglês e Espanhol Candidatos são supervisionados durante o treinamento Sim Não Não Apenas em exames avançados Certificações de nível avançado incluem treinamento e tarefas práticas Sim Não Não Não Parte de plano de carreira certificado Sim Não Não Não Candidatos bem-sucedidos recebem uma insígnia digital gratuita Sim Sim Sim Não Sem custos de renovação Sim Não Sim Sim Ficou interessado em obter sua certificação? Confira o curso preparatório da ESR para a Certificação Agile Scrum Foundation da Exin.  Fonte: https://www.exin.com/agile-scrum/why-should-you-get-an-agile-scrum-certification-with-exin


    30/09/2021
  • governança de TI
    Governança de TI

    Auditoria de governança de TI: entenda a importância e como fazer

    Governança de TI é um conjunto de políticas, estratégias, processos de gestão, monitoramento, prevenção de riscos e investimentos que tem como objetivo principal alinhar o setor de TI ao restante do negócio. Ao implementar práticas bem estruturadas, a empresa terá a capacidade de integrar a tecnologia a mais ambientes, maximizando os impactos positivos que o TI pode causar no dia-a-dia de cada setor. A importância é tanta que a ABNT (Associação Brasileira de Normas Técnicas) editou a norma ABNT NBR ISO/IEC 38500:2018 que “fornece princípios orientativos para os membros das estruturas de governança das organizações (que podem incluir proprietários, diretores, parceiros, gerentes executivos ou similares) sobre o uso efetivo, eficiente e aceitável de tecnologia da informação (TI) dentro de suas organizações”. Nesse contexto, a transparência pode ser vista como fundamento para a boa governança e como pré-requisito essencial para a accountability, envolvendo a prestação de contas e a responsabilização. O papel da auditoria de governança e gestão de TI, então, consiste em verificações periódicas do compliance de processos para garantir a integração entre os resultados alcançados, a estratégia de alocação dos recursos e os objetivos estratégicos definidos para o exercício. Estas ações demonstrarão o uso dos recursos, os produtos, os resultados e os impactos produzidos. As melhores práticas, em uso pelos órgãos de controle, abordam o COSO – Committee of Sponsoring Organizations of the Treadway Commission – e o COBIT – Control Objectives for Information and related Technology como frameworks de referência. Importância da Auditoria de Governança de TI Cada empresa deve passar por alguns processos de auditoria. Essa rotina permite que as falhas sejam identificadas de forma mais inteligente, focando no alinhamento dos processos ao seu padrão de execução e trabalhando para que a empresa busque sempre um padrão de qualidade superior. Quando falamos em auditoria de governança de TI, buscamos analisar possíveis falhas nos processos de gestão ou desalinhamento entre a equipe responsável pela execução das atividades do setor de TI e as demais áreas da empresa. Dessa forma, a empresa consegue manter suas atividades otimizadas, evitando conflitos, erros e gargalos no ambiente de produção. Contudo, ​​a auditoria de governança de TI deve ser feita com cuidado. Ela exige uma atenção especial dos profissionais que forem verificar os procedimentos para garantir que nenhuma falha fique em branco ou que a companhia tenha dificuldades para alinhar os seus processos com os padrões do mercado. Nesse sentido, os frameworks são vitais ao auxiliar os os protocolos da auditoria. Frameworks COSO (Committee of Sponsoring Organizations of the Treadway Commission) O framework COSO é utilizado para avaliar o sistema de controles de uma organização. O COSO fornece uma estrutura para a gestão, conselho de confiança, partes interessadas externas e outros que interagem com o negócio para usar como um guia no desempenho de suas respectivas funções em relação ao controle interno. COSO é uma iniciativa do setor privado criada em 1985 com a intenção de melhorar a qualidade dos relatórios financeiros por meio do foco na governança corporativa, práticas éticas e controle interno. Espera-se que o framework ajude as organizações a projetar e implementar o controle interno à luz de muitas mudanças nos ambientes de negócios e operacionais, ampliar a aplicação do controle interno na abordagem de operações e objetivos de relatórios e esclarecer os requisitos para determinar o que constitui um controle interno eficaz. O Framework apresenta a relação direta que existe entre os objetivos de uma entidade- que é o que uma entidade se esforça para alcançar-, os componentes de controle interno – que representam o que é necessário para atingir os objetivos – e a estrutura organizacional da entidade – o sistema pelo qual as atividades são orientado na busca de alcançar objetivos. Esse relacionamento pode ser descrito na forma de um cubo (como na figura abaixo).     Três categorias de objetivos são apresentadas em colunas (parte superior do cubo): Operações, Divulgação e Conformidade. Cinco componentes de controle interno são apresentados por linhas (frente do cubo): Ambiente de Controle, Avaliação de Risco, Atividades de Controle, Informação e Comunicação e Atividades de Monitoramento. A estrutura organizacional de uma entidade é apresentada pela terceira dimensão (lado do cubo): Nível de Entidade, Divisão, Unidade Operacional e Função. Os cinco componentes do controle interno são suportados por 17 princípios que apresentam os conceitos fundamentais de cada componente. O Framework também fornece orientação adicional na forma de pontos de foco destinados a auxiliar a administração no projeto, implementação e avaliação de princípios relevantes. Juntos, os componentes e princípios constituem os critérios do Framework e os pontos de foco fornecem orientações que ajudarão a administração a avaliar se os componentes do controle interno estão presentes, funcionando e operando em conjunto dentro da entidade. Ambiente de Controle: O conjunto de padrões, processos e estruturas que fornecem a base para a realização do controle interno em toda a organização; Avaliação de Riscos: O processo de identificação, avaliação e mitigação de riscos que impedem a organização de atingir seus objetivos; Atividades de Controle: Políticas e procedimentos que garantem que as diretrizes da gestão sejam cumpridas e as ações necessárias sejam tomadas para abordar os riscos e atingir as metas. As atividades de controle ocorrem em toda a organização e são realizadas por funcionários em todos os níveis e funções. Informação e comunicação: As informações pertinentes devem ser identificadas, capturadas e comunicadas ao pessoal apropriado em tempo hábil. Os sistemas de informação devem fornecer dados que sejam relevantes para os objetivos estabelecidos, precisos e com detalhes suficientes, compreensíveis e em forma utilizável. Comunicações eficazes também devem ocorrer em um sentido mais amplo, fluindo para baixo, através e para cima através da organização. Atividade de monitoramento: Avaliação da qualidade do desempenho da organização ao longo do tempo. O monitoramento contínuo ocorre diariamente no curso das operações por meio de supervisão regular de supervisão e avaliações separadas por partes externas. COBIT (Control Objectives for Information and related Technology) Objetivos de controle para informações e tecnologias relacionadas, mais popularmente conhecido como COBIT, é uma estrutura que visa ajudar as organizações que buscam desenvolver, implementar, monitorar e melhorar a governança de TI e o gerenciamento de informações. O COBIT foi estabelecido pela ISACA, que significa Associação de Auditoria e Controle de Sistemas de Informação. A ISACA e o IT Governance Institute (ITGI) o publicam. O COBIT 2019 atualiza a estrutura para empresas modernas, abordando novas tendências, tecnologias e necessidades de segurança. A estrutura ainda funciona bem com outros frameworks de gerenciamento de TI, o que a torna uma ótima opção como uma estrutura guarda-chuva para unificar processos em uma organização inteira. Novos conceitos e terminologia foram introduzidos no COBIT Core Model, que inclui 40 objetivos de governança e gerenciamento para estabelecer um programa de governança. O sistema de gerenciamento de desempenho agora permite mais flexibilidade ao usar medições de maturidade e capacidade. No geral, o framework é projetado para dar às empresas mais flexibilidade ao personalizar uma estratégia de governança de TI. Uma das principais diferenças entre o COBIT e outros frameworks é que ele se concentra especificamente em segurança, gerenciamento de riscos e governança de informações. Isso é enfatizado no COBIT 2019, com melhores definições do que é e do que não é. Por exemplo, a ISACA diz que o COBIT 2019 não é uma estrutura para organizar processos de negócios, gerenciar tecnologia, tomar decisões relacionadas a TI ou determinar estratégias ou arquitetura de TI. Em vez disso, é projetado estritamente como uma estrutura para governança e gerenciamento de TI corporativa em toda a organização. Isso é melhor esclarecido para as empresas na versão atualizada, para que haja menos confusão sobre como o COBIT deve ser usado e implementado. De acordo com a ISACA, o COBIT 2019 foi atualizado para incluir: Áreas de foco e fatores de design que dão mais clareza sobre a criação de um sistema de governança para as necessidades de negócios; Melhor alinhamento com os padrões globais, estruturas e melhores práticas para reforçar a relevância da estrutura; Um modelo de código aberto que permite feedback da comunidade de governança global para incentivar atualizações e melhorias mais rápidas; Atualizações regulares lançadas em uma base contínua; Mais orientações e ferramentas para apoiar as empresas no desenvolvimento de um “sistema de governança mais adequado, tornando o COBIT 2019 mais prescritivo”; A melhor ferramenta para medir o desempenho de TI e alinhamento com o CMMI; Mais suporte para a tomada de decisões, incluindo novos recursos de colaboração online. O COBIT 2019 também introduz conceitos de “área de foco” que descrevem tópicos e questões de governança específicas, que podem ser tratados por objetivos de gestão ou governança. Alguns exemplos dessas áreas de foco incluem pequenas e médias empresas, cibersegurança, transformação digital e computação em nuvem. As áreas de foco serão adicionadas e alteradas conforme necessário com base nas tendências, pesquisas e feedback – não há limite para o número de áreas de foco que podem ser incluídas no COBIT 2019. Quer se aprofundar no assunto? Conheça o curso de Auditoria de Governança de TIC com Cobit e Coso da ESR.


    23/09/2021
  • IoT
    Segurança

    Segurança para IoT: principais riscos e protocolos

    A Internet das Coisas (IoT) é uma coleção de dispositivos conectados à Internet. Esses dispositivos IoT não são dispositivos de computação tradicionais. Pense em dispositivos eletrônicos que nunca foram conectados, como copiadoras, geladeiras, medidores de coração e glicose ou até mesmo a cafeteira. A IoT é um tópico importante devido ao seu potencial de conectar dispositivos anteriormente não conectados e levar conectividade a lugares e coisas normalmente isoladas.  As smart homes demonstram o quão acessíveis os dispositivos IoT são. Os usuários podem atualizar o sistema de segurança de sua casa (por meio de travas inteligentes, câmeras IP e sensores de movimento) ou melhorar seu sistema de entretenimento (por meio de uma Smart TV, alto-falantes inteligentes e consoles de jogos conectados) simplesmente comprando tais dispositivos. Os dispositivos IoT também podem ser portáteis e conectados a qualquer rede. Um exemplo típico é como os usuários trazem seus dispositivos de suas casas para o escritório (por exemplo, relógios inteligentes e leitores eletrônicos). Embora a diversidade possa dar aos usuários inúmeros dispositivos para escolher, é uma das razões por trás da fragmentação da IoT e carrega muitas de suas preocupações de segurança. A falta de padronização do setor deu origem a problemas de compatibilidade que também complicam a questão da segurança. A portabilidade dos dispositivos apresenta uma maior possibilidade de ameaças a mais de uma rede. Somando-se a essas preocupações, há outros fatores que a segurança da IoT deve abordar. Principais ameaças e riscos A segurança da IoT é crítica em grande parte por causa da quantidade de possíveis de ameaças que já assolam as redes. Somadas a essas ameaças, estão as práticas inseguras entre usuários e organizações que podem não ter os recursos ou o conhecimento para proteger melhor seus ecossistemas de IoT. Esses problemas de segurança incluem o seguinte:   Vulnerabilidades: Vulnerabilidades são um grande problema que assola constantemente usuários e organizações. Um dos principais motivos pelos quais os dispositivos IoT são vulneráveis ​​é porque eles não têm capacidade computacional para segurança integrada. Outra razão pela qual as vulnerabilidades podem ser tão difundidas é o orçamento limitado para desenvolver e testar firmware seguro, que é influenciado pelo preço dos dispositivos e seu ciclo de desenvolvimento muito curto. Além dos próprios dispositivos, vulnerabilidades em aplicativos da web e software relacionado para dispositivos IoT podem levar a sistemas comprometidos. Os operadores de malware estão à procura de tais oportunidades e têm conhecimento até mesmo sobre vulnerabilidades mais antigas; Malwares: Apesar da capacidade de computação limitada da maioria dos dispositivos IoT, eles ainda podem ser infectados por malwares. Isso é algo que os cibercriminosos têm usado com grande frequência – e sucesso – nos últimos anos.  Os malwares de botnet IoT estão entre as variantes mais frequentemente vistas, pois são versáteis e lucrativos para os cibercriminosos. O ataque mais notável foi em 2016, quando Mirai derrubou sites e serviços importantes usando um exército de dispositivos IoT comuns.  Outras famílias de malware incluem malware e ransomware de mineração de criptomoedas que aumentam consideravelmente o gasto de energia pelo dispositivo;   Ataques cibernéticos intensificados: Dispositivos infectados são frequentemente usados ​​para ataques de negação de serviço distribuído (DDoS). Dispositivos sequestrados também podem ser usados ​​como uma base de ataque para infectar mais máquinas e mascarar atividades maliciosas, ou como um ponto de entrada para movimento lateral em uma rede corporativa. Embora as organizações possam parecer os alvos mais lucrativos, dispositivos individuais também enfrentam um número surpreendente de ataques cibernéticos imprevistos. Exploração de informações e exposição desconhecida: Como acontece com qualquer coisa que lide com a Internet, os dispositivos conectados aumentam as chances de exposição online. Informações técnicas e até pessoais importantes podem ser armazenadas inadvertidamente e direcionadas nesses dispositivos; Má gestão e configuração incorreta do dispositivo: Descuidos de segurança, falta de protocolos de acesso e gerenciamento geral incorreto do dispositivo podem ajudar no sucesso dessas ameaças. Os usuários também podem simplesmente não ter o conhecimento e a capacidade de implementar medidas de segurança adequadas, em que os provedores de serviços e os fabricantes podem precisar ajudar seus clientes a obter uma proteção melhor. Atualizações: Dispositivos de iOT utilizam sistemas embarcados que raramente são atualizados pelos seus fornecedores. Em muitos casos, as atualizações podem exigir a desativação temporária de um produto iOT. Questões emergentes A falta de previsão do setor deu pouco tempo para desenvolver estratégias e defesas contra ameaças familiares em ecossistemas de IoT em crescimento. Antecipar problemas emergentes é um dos motivos pelos quais a pesquisa sobre segurança de IoT deve ser feita continuamente. Aqui estão alguns dos problemas emergentes que precisam ser monitorados:   Ambientes complexos: Em 2020, a maioria das residências dos EUA tinha acesso a uma média de 10 dispositivos conectados. IoT complexos são uma rede interconectada de pelo menos 10 dispositivos. Esse ambiente é quase impossível para as pessoas supervisionar e controlar por causa de sua elaborada rede de funções interconectadas. Uma configuração incorreta negligenciada em tal cenário pode ter consequências terríveis e até mesmo colocar a segurança física da casa em risco; Home Office/ Trabalho Remoto: A pandemia Covid-19 mudou muitas expectativas para o ano de 2020. Ela trouxe acordos de trabalho em casa em larga escala para organizações em todo o mundo e aumentou a dependência das redes domésticas. Os dispositivos IoT também se mostraram úteis para essas configurações de muitos usuários. Essas mudanças destacaram a necessidade de reexaminar as práticas de segurança da IoT; Conectividade 5G: A transição para o 5G chega com muita expectativa e possibilidades. É um desenvolvimento que também permitirá que outras tecnologias evoluam. No momento, grande parte da pesquisa sobre 5G permanece amplamente focada em como isso afetará as empresas e como elas podem implementá-lo com segurança. Protocolos de segurança para dispositivos IoT Não existe uma correção instantânea que possa responder aos problemas de segurança e ameaças apresentadas. Estratégias e ferramentas específicas podem ser necessárias para proteger adequadamente sistemas e aspectos mais especializados da IoT. No entanto, os usuários podem aplicar algumas práticas recomendadas para reduzir riscos e prevenir ameaças:   Atribuir um administrador de coisas: Ter uma pessoa atuando como administrador de dispositivos IoT e da rede pode ajudar a minimizar descuidos e exposições de segurança. Ele será responsável ​​por garantir a segurança do dispositivo IoT, mesmo em casa. A função é crítica, especialmente durante esta época de configuração de trabalho remoto, onde os especialistas em TI têm controle limitado na proteção de redes domésticas que agora têm uma influência mais forte nas redes de trabalho. Verifique regularmente se há patches e atualizações: Vulnerabilidades são um problema importante e constante no campo da IoT. Isso ocorre porque as vulnerabilidades podem vir de qualquer camada de dispositivos IoT. Mesmo vulnerabilidades mais antigas ainda estão sendo usadas por cibercriminosos para infectar dispositivos, demonstrando por quanto tempo dispositivos não corrigidos podem permanecer online;   Use senhas fortes e exclusivas para todas as contas. Senhas fortes ajudam a prevenir muitos ataques cibernéticos. Os gerenciadores de senhas podem ajudar os usuários a criar senhas exclusivas e fortes que os usuários podem armazenar no próprio aplicativo ou software; Priorize a segurança do Wi-Fi: Algumas das maneiras pelas quais os usuários podem fazer isso incluem habilitar o firewall do roteador, desabilitar o WPS e habilitar o protocolo de segurança WPA2 e usar uma senha forte para acesso Wi-Fi. Garantir as configurações seguras do roteador também é uma grande parte desta etapa. Monitore a rede básica e alterações no comportamento do dispositivo: Ataques cibernéticos podem ser difíceis de detectar. Conhecer o comportamento da linha de base (velocidade, largura de banda típica etc.) dos dispositivos e da rede pode ajudar os usuários a observar desvios que indicam infecções por malware; Aplique segmentação de rede: Os usuários podem minimizar o risco de ataques relacionados à IoT criando uma rede independente para dispositivos IoT e outra para conexões de convidados. A segmentação de rede também ajuda a prevenir a propagação de ataques e isolar dispositivos possivelmente problemáticos que não podem ser colocados offline imediatamente; Proteja a convergência IoT-nuvem e aplique soluções baseadas em nuvem: A IoT e a nuvem estão se tornando cada vez mais integradas. É importante examinar as implicações de segurança de cada tecnologia para a outra. Soluções baseadas em nuvem também podem ser consideradas para fornecer segurança adicional e recursos de processamento para dispositivos de ponta de IoT; Considere soluções e ferramentas de segurança: Um grande obstáculo que os usuários enfrentam ao tentar proteger seus ecossistemas de IoT é a capacidade limitada de implementação dessas etapas. Algumas configurações do dispositivo podem ter acesso restrito e são difíceis de definir. Nesses casos, os usuários podem complementar seus esforços considerando soluções de segurança que fornecem proteção em várias camadas e criptografia de endpoint; Leve em consideração os diferentes protocolos usados ​​pelos dispositivos IoT: Para se comunicar, os dispositivos IoT usam não apenas protocolos de internet, mas também um grande conjunto de diferentes protocolos de rede, desde o conhecido Bluetooth e Near Field Communication (também conhecido como NFC), até o menos conhecido nRF24, nRFxx, 443 MHz, LoRA, LoRaWAN e comunicação óptica por infravermelho. Os administradores devem compreender todo o conjunto de protocolos usados ​​em seus sistemas IoT para reduzir riscos e prevenir ameaças; Proteja o uso pesado de GPS: Alguns dispositivos e aplicativos IoT usam muito o GPS, o que acarreta problemas de segurança em potencial. As organizações, em particular, precisam ter cuidado com os casos em que os sinais de GPS podem ser bloqueados ou mesmo falsificados, especialmente se usarem sistemas de posicionamento para fabricação, monitoramento e outras funções. Se esses sistemas de posicionamento são cruciais para uma empresa, meios de monitorar o sinal de GPS também devem existir na empresa. Outra opção seria a empresa utilizar também outros sistemas de posicionamento, como Cinemático em Tempo Real (RTK) ou GNSS Diferencial (DGNSS ou DGPS). Conclusão Além de empregar essas práticas de segurança, os usuários e profissionais também devem estar cientes dos novos desenvolvimentos na tecnologia. A segurança da IoT tem recebido muita consideração nos últimos tempos. Pesquisas estão sendo feitas continuamente sobre como proteger setores específicos, monitorar ameaças relacionadas à IoT e se preparar para as próximas grandes mudanças, como o 5G. Os usuários devem entender que a IoT é um campo ativo e em desenvolvimento, portanto sua segurança sempre terá que se transformar e se adaptar às suas mudanças. Quer se aprofundar e se tornar um especialista em segurança digital? Conheça os cursos da trilha de Segurança da ESR.


    17/09/2021
  • Orquestração de containers
    Administração de Sistemas

    Orquestração de containers: o que é e como fazer

    Neste artigo nós exploraremos o conceito de orquestração de containers e as vantagens e principais diferenças entre Kubernetes e Swarm. Nós já falamos anteriormente em detalhes sobre o que são containers e como eles funcionam utilizando a tecnologia Docker. Contudo, em uma pequena recapitulação, podemos dizer que os containers são aplicativos completos; cada um “empacotando” o código de aplicativo necessário, bibliotecas, dependências e ferramentas de sistema para rodar em uma variedade de plataformas e infraestruturas. Nesse sentido, a orquestração automatiza a implantação, o gerenciamento, a escala e a rede dos containers. Ela é ideal para quem precisa implantar e gerenciar centenas de milhares de hosts e containers Linux. A orquestração pode ser usada em todos os ambientes em que os containers são utilizados. A partir dela, você é capaz de implementar a mesma aplicação em ambientes distintos sem precisar projetá-la novamente. Além disso, com microserviços em containers, é mais fácil orquestrar serviços, incluindo armazenamento, rede e segurança.  A orquestração de containers tem a finalidade de automatizar e gerenciar tarefas como, por exemplo: Provisionamento e implantação; Configuração e programação; Alocação de recursos; Disponibilidade dos containers;  Escala ou remoção de containers com base no balanceamento de cargas de trabalho na infraestrutura; Balanceamento de carga e roteamento de tráfego;   Monitoramento da integridade do container; Configuração da aplicação com base no container em que ela será executada; Proteção das interações entre os containers. Ferramentas para a orquestração de containers O Kubernetes e o Swarm são as duas principais opções na orquestração de containers. Eles criaram nichos confiáveis para si próprios e consolidaram suas posições no Docker e no ecossistema de contêineres.  Ambas as ferramentas permitem que você lide com um cluster de servidores que executa um ou mais serviços neles. Vejamos a seguir mais detalhes sobre cada uma. Kubernetes Kubernetes é uma plataforma de código aberto criada pelo Google para operações de implantação de contêiner, aumento e redução e automação em clusters de hosts. Esta plataforma de autocorreção, de nível empresarial e pronta para produção é modular e, portanto, pode ser utilizada para qualquer implantação de arquitetura. O Kubernetes também distribui a carga entre os contêineres. Seu objetivo é livrar as ferramentas e componentes do problema enfrentado devido à execução de aplicativos em nuvens privadas e públicas, colocando os contêineres em grupos e nomeando-os como unidades lógicas. Seu poder reside no fácil dimensionamento, portabilidade do ambiente e crescimento flexível. Em 2015, o Google doou o projeto Kubernetes à Cloud Native Computing Foundation. Swarm Como plataforma, o Docker revolucionou a maneira como o software é empacotado. Docker Swarm ou simplesmente Swarm é uma plataforma de orquestração de container de código aberto e é o mecanismo de clusterização nativo para e pelo Docker. Qualquer software, serviço ou ferramenta executado com containers Docker funciona igualmente bem no Swarm. Além disso, o Swarm utiliza a mesma linha de comando do Docker. O Swarm transforma um pool de hosts Docker em um único host virtual. O Swarm é especialmente útil para pessoas que estão tentando se sentir confortáveis com um ambiente orquestrado ou que precisam aderir a uma técnica de implementação simples. Diferenças entre Kubernetes e Swarm Embora ambas as plataformas de orquestração de código aberto forneçam muitas das mesmas funcionalidades, existem algumas diferenças fundamentais em como as duas operam. Abaixo estão alguns dos principais pontos.  Redes Kubernetes: o modelo de rede é uma rede plana, permitindo que todos os pods interajam uns com os outros. As políticas de rede especificam como os pods interagem entre si. A rede plana é implementada normalmente como uma sobreposição. O modelo precisa de dois CIDRs: um para os serviços e outro a partir do qual os pods adquirem um endereço IP. Docker Swarm: o Node que se junta a um cluster swarm gera uma rede de sobreposição para serviços que abrangem todos os hosts no docker swarm e uma rede docker bridge apenas de host para containers. Os usuários têm a opção de criptografar o tráfego de dados do container enquanto criam uma rede de sobreposição por conta própria no Docker Swarm. Escalabilidade Kubernetes: para sistemas distribuídos, o Kubernetes é uma estrutura mais completa. É um sistema complexo porque fornece fortes garantias sobre o estado do cluster e um conjunto unificado de APIs. Isso torna o dimensionamento e a implantação do container um pouco mais lenta. Docker Swarm: o Docker Swarm, quando comparado ao Kubernetes, pode implantar o container muito mais rápido e isso permite tempos de reação mais rápidos para escalar sob demanda. Alta disponibilidade Kubernetes: todos os pods em kubernetes são distribuídos entre nós e isso oferece alta disponibilidade ao tolerar a falha do aplicativo. Os serviços de balanceamento de carga em kubernetes detectam pods (um grupo de um ou mais containers implantados em um nó sob o mesmo endereço IP, IPC, nome de host e outros recursos) não íntegros e os eliminam. Portanto, isso suporta alta disponibilidade. Docker Swarm: Como os serviços podem ser replicados em nós Swarm, o Docker Swarm também oferece alta disponibilidade. Os nós gerenciadores do Swarm no Docker Swarm são responsáveis ​​por todo o cluster e lidam com os recursos dos nós de trabalho. Configuração do container Kubernetes: o Kubernetes utiliza suas próprias definições de YAML, API e cliente, e cada uma delas difere das equivalentes do docker padrão. Ou seja, você não pode utilizar Docker Compose nem Docker CLI para definir containers. Ao trocar de plataforma, as definições e comandos YAML precisam ser reescritos. Docker Swarm: a API Docker Swarm não abrange inteiramente todos os comandos do Docker, mas oferece muitas das funcionalidades familiares do Docker. Ele oferece suporte à maioria das ferramentas executadas com o Docker. No entanto, se a API Docker for deficiente em uma operação específica, não existe uma maneira fácil de contornar isso utilizando o Swarm. Balanceamento de carga Kubernetes: os pods são expostos por meio do serviço, que pode ser utilizado como um balanceador de carga dentro do cluster. Geralmente, um ingresso é utilizado para balanceamento de carga. Docker Swarm: o modo Swarm consiste em um elemento DNS que pode ser utilizado para distribuir solicitações de entrada para um nome de serviço. Os serviços podem ser atribuídos automaticamente ou podem ser executados em portas especificadas pelo usuário. Conclusão A grande demanda de automação da infraestrutura e gerenciamento de cluster explicam a crescente adoção de Docker. A possibilidade de oferecer um gerenciamento de clusters Kubernetes e padronizar a construção de containers vão ao encontro do surgimento do DevOps. A Docker tem uma visão focada em containers, por esse motivo, ela está em constante processo de evolução de suas ferramentas de orquestração, com objetivo de melhorar seus recursos continuamente. Essa é uma área em franca expansão e o estudo e a capacitação contínuas podem ser a chave para o sucesso. Quer se aprofundar no assunto? Conheça os cursos da trilha de Administração de Sistemas da ESR.


    03/09/2021
  • dados
    Segurança

    Por onde os dados vazam?

    A internet é um ambiente cada vez mais comum para a atuação de criminosos. Entenda os principais mecanismos pelos quais eles atuam e como diminuir os riscos. O professor Marcelo Nagy, sócio-diretor da SPWBrasil e membro da Sociedade Brasileira Forense, especialista em cibersegurança e perícia forense, foi o convidado para falar sobre os vazamentos de dados digitais e segurança da informação em webinar realizado pela ESR e transmitido para vários países da América Latina. Apenas nos dois primeiros meses de 2021, houve o vazamento em massa no Brasil de mais de 223 milhões de CPFs e dados pessoais, 5 milhões de CNHs do Detran-RS, 100 milhões de contas de celulares e, mundialmente, foram mais de 3,2 bilhões de credenciais (incluindo contas de serviços como Netflix, LinkedIn e carteiras de Bitcoin). Empresa especializada em segurança cibernética, a Fortinet estima que apenas entre março e junho de 2019, os usuários brasileiros foram vítimas de mais de 15 bilhões de tentativas de ataques digitais em computadores e celulares.  Esses são apenas alguns números que expõem a amplitude da quebra da privacidade na rede, perpetrada por ataques maliciosos e visando, principalmente, a comercialização dessas informações em sites da Dark Web. Nesse contexto, a pandemia de COVID-19 também foi um campo fértil para que golpes fossem aplicados principalmente via WhatsApp, usando de engenharia social, com o objetivo de enganar, extorquir e se apropriar de benefícios governamentais como o Auxílio Emergencial ou supostamente oferecer bens e serviços essenciais de forma gratuita. Nagy chama a atenção para o perfil atual dos criminosos cibernéticos: “são o trabalho de crime organizado”, em contraponto à imagem romantizada que algumas pessoas ainda possuem sobre hackers. Tendo em vista os números alarmantes e cada vez maiores dessa modalidade de delito, é preciso entender como acontecem essas invasões. O modus operandi dos crimes cibernéticos O especialista alerta para a ampla gama de práticas criminosas no mundo digital, sempre em constante evolução. Por esse motivo, neste artigo nós nos ateremos apenas às principais modalidades de falhas de segurança. Exploração de dia zero A exploração de “dia zero” é um ataque virtual que ocorre no mesmo dia em que um ponto fraco do software é descoberto. Então, ele é explorado antes que o fornecedor disponibilize uma correção. Inicialmente, quando um usuário descobre que existe um risco de segurança em um programa, ele pode comunicar esse risco à empresa do software, que desenvolverá uma correção de segurança para corrigir a falha. Esse mesmo usuário também pode alertar outras pessoas na Internet sobre a falha. Normalmente, os fornecedores de programas criam uma correção rapidamente para reforçar a proteção dos programas. Mas, às vezes, os hackers ficam sabendo da falha primeiro e são rápidos em explorá-la. Quando isso ocorre, há pouca proteção contra um ataque, já que a falha do software é nova. Por esse motivo, é indicado que os usuários sempre tenham as versões originais dos softwares e se atentem às atualizações dos fornecedores para minimizar ao máximo a possibilidade de uma invasão. Malwares Malware, abreviação de software malicioso, é um termo genérico para vírus, worms, trojans e outros programas de computador prejudiciais que os hackers usam para causar destruição e obter acesso a informações confidenciais. Segundo a definição da Microsoft, “[malware] é um termo geral para se referir a qualquer software projetado para causar danos a um único computador, servidor ou rede de computadores.”  Em outras palavras, o software é identificado como malware com base no uso pretendido, em vez de uma técnica ou tecnologia específica usada para criá-lo. Através desse tipo de ataque, que explora principalmente falhas nos sistemas, o invasor pode, de maneira simples, obter controle remoto do dispositivo usado pela vítima, deixando-a vulnerável à exploração de dados sensíveis que estejam presentes naquela máquina. Nesse caso, além de manter os softwares atualizados, é crucial que os usuários sempre possuam programas de defesa, como antivírus e firewall, ferramentas especializadas na proteção digital. Ciberextorsões Ocorre quando uma pessoa usa a Internet para exigir dinheiro, outros bens ou comportamento de outra pessoa, ameaçando infligir danos à sua integridade física, sua reputação ou sua propriedade. A extorsão cibernética pode assumir diversas formas. Originalmente, os ataques de negação de serviço (DdoS) contra sites corporativos foram os métodos mais comuns de ciberextorsão. O atacante iniciava um bombardeio de ping e telefonava para o presidente da empresa, exigindo que fosse depositado dinheiro para que o ataque fosse cessado. Nos últimos anos, no entanto, os cibercriminosos desenvolveram o ransomware, um tipo de malware que é capaz de criptografar os dados da vítima. O atacante pede dinheiro em troca da chave de decodificação. Normalmente, a vítima recebe um e-mail que oferece a chave de decifração privada em troca de um pagamento monetário em Bitcoins, uma moeda digital. A ciberextorsão pode ser muito lucrativa, rendendo milhões de dólares anualmente. Infelizmente, da mesma forma que acontece em outros tipos de extorsão, o pagamento não garante que novos ataques cibernéticos ao mesmo alvo não serão praticados. Por isso, o conselho é, caso seja vítima de uma ciberextorsão na forma de ransomware, nunca efetuar o pagamento do resgate dos dados. Phishing Phishing é um crime cibernético em que um alvo ou alvos são contatados por e-mail, telefone ou mensagem de texto por alguém se passando por uma instituição legítima ou conhecido para induzir indivíduos a fornecer dados confidenciais, como informações de identificação pessoal, dados bancários e de cartão de crédito e senhas. As informações são então usadas para acessar contas importantes e podem resultar em roubo de identidade e perda financeira. Nagy orienta a, na dúvida, não clicar em links desconhecidos ou que são “bons demais para serem verdade”. Também sempre é válido conferir o endereço do email enviado e comparar com emails originais dos serviços, pois os criminosos se valem de endereços que aparentam serem os reais, mas não são da corporação que estão tentando emular. Nesse tipo de ataque, erros de ortografia e uma escrita “estranha” também podem ser sinais de uma tentativa de ataque por phishing.  Caso você receba ou até mesmo clique em algum desses links, acione o mais rápido possível a instituição responsável pelos canais oficiais para avisá-los da atividade suspeita. Envenenamento de DNS Em um ataque de envenenamento de DNS, os hackers alteram um sistema de nome de domínio (DNS) para um DNS “falsificado” de modo que quando um usuário legítimo visita um site, em vez de chegar ao destino pretendido, ele acaba em um site totalmente diferente. Normalmente, isso acontece sem que os usuários saibam, já que os sites falsos costumam ser feitos para se parecerem com os reais. Uma vez que o ataque está em andamento, desviando o tráfego para o servidor ilegítimo, os hackers podem realizar atividades maliciosas como um ataque man in the middle (por exemplo, roubar informações de login seguras para sites de bancos), instalar um vírus nos computadores dos visitantes para causar danos imediatos, ou até mesmo instalar um worm para espalhar o dano a outros dispositivos. Esse é um dos tipos de ataques mais bem arquitetados e requerem um certo nível de refinamento e perícia dos hackers. Por esse motivo, também é um dos mais difíceis de serem identificados pelos usuários. Conclusão A rede mundial de computadores é algo que trouxe inumeráveis benefícios à humanidade, mas também aguçou a “criatividade” de alguns criminosos que a utilizam para obter vantagens indevidas e lucros advindos de práticas ilegais. É importante contrapor a figura do “hacker malicioso” ao “hacker ético”. Este último é o profissional que tem conhecimento de todos esses sistemas e falhas e trabalha com o objetivo de corrigi-las, ao invés de explorá-las. Finalmente, caso você ou sua organização seja vítima de um ataque desse tipo, procure os órgãos competentes da sua região, em especial as Delegacias Especializadas em Investigação de Crimes Cibernéticos.  Quer saber mais detalhes? Confira o webinar completo que realizamos sobre o assunto. Aproveite e conheça todos os cursos da nossa trilha de Segurança.


    26/08/2021
  • data center
    Governança de TI

    Data Center – Como se preparar para as migrações de alta velocidade

    Devido às necessidades e demandas crescentes do mercado, os gestores dos Data Centers precisam se adequar às altas velocidades para atendê-las. Conheça as tendências de velocidade e como os gestores podem se preparar para as migrações de alta velocidade. A crescente demanda de utilização de Big Data, mobilidade e Internet das Coisas (IoT) estão gerando um enorme volume de dados. E os provedores de serviços de data centers precisam encontrar formas de suportar velocidades cada vez mais altas para atender essa demanda. Tendências recentes apontam que os requisitos de banda larga continuarão crescendo de 25% a 35% ao ano, e o ponto fundamental para isso é a mudança para mais  velocidades de comutação.  Em webinar organizado pela ESR, o especialista em governança de TI Edson Gaseta e o Engenheiro Luis Domingues, responsável pela CommScope no Brasil, discutiram o tema. Tendências de tráfego Domingues explica que a pandemia de Covid-19 acelerou ainda mais um processo que já estava acontecendo: o da migração dos negócios para o ambiente digital. E que isso exigiu que os Data Centers se adaptassem rapidamente a uma demanda crescente. No infográfico abaixo é possível perceber a velocidade com que o tráfego tende a aumentar em uma projeção para o período entre os anos de 2016 e 2022. “O gestor do Data Center atualmente não pode pensar apenas no hoje, precisa pensar também no amanhã”, declara Domingues. O resultado é que os consumidores tendem a ficar cada vez mais exigentes com os serviços e qualidades dos provedores de internet e uma geração que já nasceu digital e está começando a entrar no mercado de consumo será ainda mais rigorosa nesse aspecto. Portanto é importante que as empresas estejam preparadas. “O planejamento é para que os Data Centers atuais durem, no mínimo, 10 anos”, reforça Domingues sobre a necessidade de ficar atento às tendências. A quantidade de dispositivos conectados à rede mundial também cresceu exponencialmente. Segundo o Gartner a tendência é que em 2021 esse número chegue a 25 bilhões de dispositivos conectados em todo o mundo. As necessidades de upgrades nos sistemas de Cloud Computing – sejam públicos, privados ou híbridos – também é outra necessidade do mercado a qual os Data Centers precisam se adaptar. O gráfico abaixo deixa claro o quanto o tráfego de dados aumentou nos últimos anos. O processamento de todos esses dados acontece nos Data Centers em mais de 70% das vezes. Isso faz com que até mesmo a arquitetura dos DCs esteja mudando de uma estrutura em 3 tiers para 2 tiers. A tendência, então, é que a velocidade de migração de 10G seja substituída por uma estrutura que chegue até aos 400G. Um crescimento exponencial. Portanto é essencial que o profissional desse mercado esteja sempre atualizado e constantemente estudando, pois as transformações têm acontecido de forma muito acelerada. Desafios atuais no planejamento de Data Centers Com todos esses avanços é natural que novas tecnologias, mais eficientes, entrem gradativamente no mercado. Isso gera alguns desafios para os profissionais da área. Alguns deles são: – Aumento da quantidade de portas de equipamentos e a densidade de fibras; – Redução de downtime; – Redução de latência; – Suporte à capacidade de link rápido; – Preparar-se para a migração para altas velocidades. Especialmente nesse último ponto, algumas considerações importantes precisam ser feitas, com base nas tendências já apontadas anteriormente. Considerações para a migração de Data Centers para alta velocidade Compreender as opções e até que ponto deseja ir – É necessária uma boa compreensão das distâncias e tipos de fibra que estão sendo utilizadas, quão longe precisará chegar e com qual largura de banda. Até alguns anos atrás, 40G era considerada “alta velocidade”, porém, hoje essa tecnologia foi substituída rapidamente por fibra óptica de 100G. Algumas das questões que precisam ser encaradas são: posso ir com um cabo ponto a ponto, ou preciso de reconfiguração e pontos de teste? Que tipo de capacidade preciso e qual a curva de crescimento que deveria esperar? Que velocidade devo planejar para 25G, 40G ou 50G, o que acontece com 100G ou 400G? Ter a capacidade de administrar a infraestrutura atual e futura – Contar com uma ferramenta de administração de infraestrutura (AIM) pode proporcionar uma imagem clara de sua infraestrutura e ajudar a compreender as capacidades e os pontos críticos. Isso faz com que seja mais fácil tomar decisões com conhecimento e responder rapidamente às interrupções, de forma que se tenha uma infraestrutura mais acessível e gerenciável a longo prazo. Planejar a flexibilidade – Desenvolver um projeto que tenha a opção de usar pacotes de 8, 12 ou 24 fibras, possibilitando o ajuste do tamanho da infraestrutura em cada passo do caminho, até uma largura de banda maior, é o ideal para otimizar o uso da sua infraestrutura de fibra, enquanto mantém 100% de utilização. Seu projeto deve ser compatível com vários tipos de fibra e estratégias de crescimento, que coincidam com suas futuras aplicações, porque não existe uma solução única para todos. Incorporar modularidade – Escolha painéis que possam aceitar uma variedade de módulos de fibra, de maneira que, o data center, ao crescer, tenha uma caixa comum e os técnicos possam simplesmente trocar módulos para passar para uma velocidade de dados mais rápida. O ideal é que o cabeamento e os módulos sejam implementados uma vez só, e os pontos de extremidade são os que devem ser trocados para mudar para velocidades maiores. Conheça sua estrutura de custos – Medir custos e benefícios de várias opções, para depois tomar a melhor decisão sobre o tipo de fibra e as soluções de conectividade que se adaptam aos objetivos de uma maneira rentável é de suma importância. Entenda o tempo adequado para a migração – O data center precisará migrar para velocidades mais altas antes do que se imagina, por isso escolher uma rota e um provedor que possam ajudá-lo será de vital importância. Com novos serviços em tempo real exigindo uma capacidade maior do data center, sua trajetória de HSM deve estar pronta para corresponder às necessidades que as aplicações de rede óptica exigem. Esses são apenas alguns dos pontos a serem considerados. O nosso webinar traz ainda mais detalhes sobre o assunto. Assista agora gratuitamente! E se quiser se preparar de forma completa com o apoio dos profissionais da ESR, matricule-se no curso Planejamento e Projeto de Infraestrutura para Datacenter (EAD).


    19/08/2021
  • hologram projector screen with cloud system technology 1 scaled 1
    Computação em Nuvem

    Escalabilidade em Cloud Computing com previsibilidade: benefícios e características

    Cada vez mais as empresas migram para a nuvem em busca de redução de custo, melhor desempenho e mais segurança. Para habilitar a redução de custo associada ao desempenho requerido, deve-se praticar o uso da escalabilidade com previsibilidade. Segundo dados da Associação Brasileira de Empresas de Software (ABES), os serviços de computação em nuvem (cloud computing) devem crescer 35,5% ao ano até 2022 no país. Isso representa um aumento de 0,5% em relação ao que o Brasil já vem performando dentro deste mercado de nuvem, mas ainda apresenta espaço para ampliação da participação das empresas. Este aumento identificado no mercado é impulsionado principalmente pelo movimento de empresas de software espalhadas pelo Brasil, que prezam cada vez mais pela redução de custos e maior segurança em sua operação. Além disso, a velocidade e produtividade promovidas por esta tecnologia ganham destaque entre os empreendedores e contribuem com o aumento da adesão. Porém, outra grande vantagem desse sistema está em seu potencial de escalabilidade, mas com previsibilidade, do uso do serviço para evitar gastos desnecessários e obter melhores resultados. Neste artigo exploraremos esse conceito. Escalabilidade em Cloud Computing A escalabilidade diz respeito a prover mais capacidade para um sistema, através de alocação de mais recursos computacionais, isto é, atender a novas cargas, seja de processamento, armazenamento ou comunicação, mantendo o desempenho requerido. Por exemplo, se um site de vendas tem o seu número de acessos crescendo repentinamente, seja porque teve uma promoção ou como resultado de uma ação de marketing, há o risco de o site ter o seu acesso degradado ou até mesmo ficar fora do ar. Porém, com o sistema hospedado em Cloud existe a facilidade de contar com o uso de escalabilidade, através de ferramentas que automatizam a ampliação ou diminuição, sob demanda, da capacidade para suportar a nova carga em harmonia com as necessidades do negócio. Assim, as empresas que contam com o uso de escalabilidade obterão flexibilidade e agilidade na concretização de novos negócios ou no aproveitamento de oportunidades inesperadas. A grande vantagem é que só se paga pelos recursos que utilizar. Dessa forma, se sua empresa desejar se manter competitiva no mercado, precisa começar a investir em escalabilidade em Cloud Computing desde já. Mas, se o aumento ou redução de capacidade, mesmo automatizado, não for realizado de forma consistente, haverá um aumento não previsto na fatura do uso do sistema em computação em nuvem, sendo difícil avaliar se houve um real entendimento da demanda necessária. A previsibilidade sobre o uso e o gasto é um desafio da gestão em computação em nuvem e deve ser endereçado através da prática de FinOps. FinOps é a abreviatura de “Cloud Financial Operations” ou “Cloud Financial Management” ou “Cloud Cost Management”, sendo definida como “a prática de trazer responsabilidade financeira ao modelo de gasto variável da nuvem, permitindo que equipes distintas façam negócios com harmonia entre desempenho, custo e qualidade”. Como os dados escaláveis funcionam dentro de Cloud Computing Cloud computing possibilita que recursos computacionais, para prover processamento, armazenamento e comunicação, sejam provisionados sob demanda, tendo o benefício de pagar somente pelo uso, sem a necessidade de investir na aquisição de equipamentos dedicados, através da contratação e pagamento como um serviço mensal. Há diversos serviços escaláveis na nuvem, veja alguns exemplos: Software-as-a-Service — SaaS; Infrastructure-as-a-Service — IaaS; Storage-as-a-Service — STaaS; Platform-as-a-Service — PaaS; Security-as-a-Service — SECaaS; Database-as-a-Service — DBaaS; Data-as-a-Service — DaaS; Test Environment-as-a-Service — TEaaS; entre outros. Alguns provedores oferecem nuvens públicas escaláveis, incluindo Amazon Web Services (AWS), Microsoft Azure e Google Cloud, mas também oferecem nuvens privadas em que somente a equipe da empresa tem permissão para acessar, ou a opção de nuvens híbridas que oferecem às empresas as vantagens da escalabilidade da nuvem, mas com o benefício adicional de utilizar a já existente infraestrutura on-premise. Tipos de escalabilidade: Vertical e Horizontal O conceito de escalabilidade possui suas variações, Vertical (Scale Up) e Horizontal (Scale Out). São tipos de dimensionamentos, onde a diferença está em como se pratica a escalabilidade, pois recursos como CPU, rede e armazenamento são alvos comuns para aumento de escala, visando atender ou manter um desempenho adequado ao ambiente de negócios. Veja qual se adequa melhor às suas necessidades. Scale up ou dimensionamento vertical Scale up, ou dimensionamento vertical, é tornar um componente maior ou mais rápido para lidar com uma carga maior. Isso seria, por exemplo, mudar de um servidor virtual com 2 CPUs para um com 3 CPUs e habilitar mais espaço de armazenamento local. Em um sistema de nuvem, os sistemas virtualizados dominam a computação em nuvem e algumas ações de escalonamento, como aumentar a capacidade do volume de armazenamento ou gerar um novo contêiner para escalar um micro serviço, podem levar segundos para implantar, sendo possível mudar os aplicativos para uma VM maior ou alocar mais capacidade em um volume de armazenamento, isto é, estar migrando de um recurso menor e escalando para um recurso maior e com melhor desempenho. Scale out ou dimensionamento horizontal Scale out, ou dimensionamento horizontal, é adicionar mais componentes funcionais equivalentes em paralelo para distribuir uma carga de processamento. Isso significaria passar de duas instâncias de servidor da web com balanceamento de carga para três instâncias. A natureza incremental do modelo de scale out é de grande benefício quando se considera o gerenciamento de custos. Como os componentes são idênticos, os incrementos de custo podem ser relativamente previsíveis. O dimensionamento também oferece maior capacidade de resposta às mudanças da demanda, sendo que os serviços podem ser adicionados ou removidos rapidamente para melhor atender às necessidades de negócios. Essa flexibilidade e velocidade reduzem efetivamente os gastos, usando e pagando somente pelos recursos necessários no momento. Conclusão Ao se utilizar Computação em Nuvem, para obter o benefício de uma possível redução de custos, com previsibilidade, recomenda-se que se opte por habilitar o uso de escalabilidade. Vale lembrar que se sua empresa, inicialmente, se encaixava na escalabilidade vertical e agora está ampliando seu uso de aplicações, basta aderir ao modelo de investimento para o dimensionamento horizontal que irá acompanhar  melhor o crescimento da empresa. É simples mudar a direção do investimento nos recursos Cloud Computing. Portanto, é essencial que a escolha do dimensionamento esteja em conformidade com o planejamento, projeções e metas da empresa para o futuro, sempre buscando ter previsibilidade, através de práticas de FinOps. Além disso, como ocorre na maioria das tecnologias de ponta atuais, é preciso sempre estar atualizado e manter um estudo constante sobre o tema. Nesse caso, a ESR possui uma série de cursos que irão tornar você e sua equipe ainda mais capacitada para operar com essas tecnologias. Conheça os cursos da nossa trilha sobre Computação em Nuvem. 


    12/08/2021
  • IPV6
    Administração e Projeto de Redes

    O que é o protocolo IPV6?

    O crescimento da demanda por conectividade fez com que o IPv4, principal protocolo de internet (IP) utilizado no Brasil, entrasse em estado de esgotamento de sua capacidade. Incorporado à realidade da TI brasileira desde 1980, o IPv4 suporta até 4,3 bilhões de endereços na web, enquanto que a versão mais nova do protocolo, a IPv6, tem capacidade para até 340 duodecilhões desses mesmos ambientes online. Em um artigo anterior no nosso blog, nós abordamos as particularidades do IPv4 e os motivos pelos quais o protocolo esgotou. Nesse contexto, é a vez de entendermos do que se trata o IPv6, atualmente a mais capacitada para suportar as demandas da rede nacional. A necessidade de um novo Protocolo  O endereço de IP nada mais é do que uma sequência numérica que identifica um dispositivo que está acessando a internet. É, literalmente, um endereço que permite identificar de onde a conexão está vindo. Com o volume intenso de pessoas conectadas diariamente e cada vez mais dispositivos integrados, por conta da Internet das Coisas, há uma tendência à sobrecarga desse sistema gigantesco que mantém pessoas do mundo inteiro acessíveis a um clique. As sequências numéricas disponíveis para o IPv4 estão acabando e daí vem a necessidade de adaptação a um novo sistema que possa comportar esses novos dispositivos. No Brasil, os endereços IPv4 acabaram em 19 de agosto de 2020, conforme informado pelo NIC.br, que administra a Internet brasileira. É por isso que o IPv6, um novo protocolo de comunicação, foi criado. Como funciona o IPV6? O IPv6 é uma evolução do IPv4, com uma capacidade muito maior. A constituição do IPv4 é de 32 bits e do IPv6, 128 bits.  A especificação do IPv6 foi criada pelo RFC2460, em dezembro de 1998, e  sua padronização aconteceu por meio do RFC8200, de julho de 2017. O IPv6 foi criado porque a internet, a princípio, não foi programada para atingir proporções tão grandes, e nos dias de hoje acaba sendo inevitável substituir o sistema para um novo protocolo. O que os especialistas chamam de esgotamento do IPv4 é a prova da dimensão que a internet tomou em poucas décadas de existência. 4 bilhões de combinações disponíveis, que pareciam um número alto, já não são mais suficientes. O processo de transição, é claro, não pode ocorrer da noite para o dia.  É preciso encontrar meios onde IPv4 e IPv6 possam coexistir, fazendo melhorias entre os dois e não alterando completamente a estrutura que conhecemos hoje. Basicamente, a proposta do IPv6 é aumentar o número de combinações possíveis para os endereços de IP, proporcionando vantagens como: – roteamento de conexão ainda mais eficiente; – melhor processamento dos pacotes de internet; – fluxo de dados direto; – configuração de rede simplificada; – suporte preparado para novos serviços; – melhoria da segurança. O que muda? Afinal, na prática, o que a mudança da versão do protocolo traz para os usuários e para a internet como um todo? Velocidade No quesito velocidade, um estudo feito pela empresa de segurança de sites Sucuri aponta que praticamente não há uma diferença significativa de velocidade entre o acesso através dos protocolos IPv4 e IPv6. Em alguns casos, o protocolo anterior foi até mais rápido que a nova versão. Segurança Quando o assunto é segurança, o IPv6 acaba saindo na frente, uma vez que foi projetado para usar criptografia de ponta a ponta. Assim, em teoria, com a adoção cada vez maior da nova versão do protocolo, ataques do tipo MitM (acrônimo de man-in-the-middle ou homem-no-meio), que é quando o acesso do usuário acaba sendo interceptado e desviado no meio do caminho, serão consideravelmente mais difíceis de ocorrer. Ataque MitM/wi-fi público Outra vantagem em relação à segurança é que o IPv6 conta com o IPsec (acrônimo de IP Security Protocol ou Protocolo de Segurança IP) de forma nativa. Isso garante, entre outras coisas, que seja possível checar se o usuário é quem diz ser.  A integridade dos dados também é passível de checagem, permitindo que se tenha a certeza de que o conteúdo recebido é exatamente idêntico ao enviado. Vale destacar que, com as atualizações que o IPv4 foi recebendo ao longo do tempo, também passou a contar com o IPsec, mas isso depende que uma implementação seja feita na rede pelos administradores e, como o IPv6 já está no mercado, muitas empresas acabam não investindo na atualização. Disponibilidade quase ilimitada Sendo possível criar aproximadamente 340 undecilhões de endereços IPv6, é praticamente impossível, em um futuro bem distante, acabar com tantas possibilidades. Com isso, também deixa de ser necessário utilizar NAT em redes internas, uma vez que não há mais a necessidade de se preocupar com a limitação de endereços. Isso permite que, conforme os equipamentos forem sendo atualizados, todos os dispositivos, inclusive os de Internet das Coisas, tenham IPs reais, além de poderem pertencer, de forma simultânea, a muitas redes utilizando um endereço único em cada uma delas. Quer saber mais sobre o funcionamento e implementação dessa tecnologia? Conheça o curso sobre IPV6 básico da ESR.


    06/08/2021