Cadastre-se

CADASTRO

Em caso de não possuir CPF, por favor entre em contato conosco clicando aqui.

Ao informar meus dados, eu concordo com a Política de Privacidade

ReCaptcha
Entrar
Escola Superior de Redes

Blog da ESR

  • Metodologias de resposta a incidentes
    Segurança

    O que são metodologias de resposta a incidentes e qual sua função?

    Trabalhar com segurança da informação é priorizar ações preventivas e um gerenciamento efetivo de riscos. Afinal, um dos maiores ativos da atualidade é a informação em nuvem. Qualquer ameaça à integridade desses dados pode representar prejuízos expressivos para pessoas físicas e jurídicas. Ainda assim, quando não é possível prever ou impedir que essas falhas corrompam os sistemas, a área de TI também conta com um escopo de trabalho corretivo chamado de “metodologias de resposta a incidentes”.  Em linhas gerais, esse conceito define as boas práticas de atuação de uma Equipe de Resposta a Incidentes de Segurança em Sistemas Computacionais (CSIRT – Computer Security Incident Response Team), com o objetivo de reagir de maneira adequada aos perigos e ameaças que corromperam uma rede.  Até 2020, o Centro de Estudos, Resposta e Tratamento de Incidentes de Segurança no Brasil (CERT.br) compilou todos os incidentes reportados à instituição, sendo registrados no primeiro ano, 1999, 3.107 incidentes e no último, 2020, 665.079 mil incidentes.  De janeiro a dezembro desse período de avaliação final, dos 665.079 incidentes reportados, chamou atenção a variedade das ameaças encontradas: Fraude (segundo Houaiss, “qualquer ato ardiloso, enganoso, de má-fé, com intuito de lesar ou ludibriar outrem, ou de não cumprir determinado dever; logro”. Esta categoria engloba as notificações de tentativas de fraudes, ou seja, de incidentes em que ocorre uma tentativa de obter vantagem): 4,60% Scan (notificações de varreduras em redes de computadores, com o intuito de identificar quais computadores estão ativos e quais serviços estão sendo disponibilizados por eles. É amplamente utilizado por atacantes para identificar potenciais alvos, pois permite associar possíveis vulnerabilidades aos serviços habilitados em um computador): 59,85% Worm (notificações de atividades maliciosas relacionadas com o processo automatizado de propagação de códigos maliciosos na rede): 20,15% Web (um caso particular de ataque visando especificamente o comprometimento de servidores Web ou desfigurações de páginas na Internet): 3,99% Invasão (um ataque bem sucedido que resulte no acesso não autorizado a um computador ou rede): 0,18% DoS (DoS -Denial of Service: notificações de ataques de negação de serviço, onde o atacante utiliza um computador ou um conjunto de computadores para tirar de operação um serviço, computador ou rede): 10,25% Outros (notificações de incidentes que não se enquadram nas categorias anteriores): 0,97% De lá para cá, os cibercrimes têm se sofisticado ainda mais, requerendo uma atuação dos times de segurança da informação cada vez mais incisiva e com aplicação efetiva das metodologias de respostas a  incidentes. Neste artigo vamos conversar mais sobre tais documentos e sobre a importância de uma equipe especializada nessa área, em qualquer negócio.  O que são as metodologias de resposta a incidentes?  Como mencionamos anteriormente, as metodologias de resposta a incidentes descrevem boas práticas que devem ser seguidas pelas equipes de segurança da informação para uma atuação estratégica e efetiva, em caso de alguma ameaça.  Existem diretrizes na literatura acadêmica que orientam as equipes de Resposta a Incidentes de Segurança em Sistemas Computacionais (CSIRT) na formulação dos seus planos de segurança em TI, entretanto, é importante que cada uma delas elabore um escopo específico, avaliando as demandas e necessidades particulares de um entidade da informação.  O CERT do Banco Societe Generale, da França, por exemplo, disponibiliza guias práticos sobre formas de estruturar a resposta a incidentes em alguns casos específicos. Esses documentos, chamados de IRM (Incident Response Methodologies), podem servir de base para que CSIRTs desenvolvam seu planejamento e metodologias próprias de resposta a incidentes do local onde trabalham.  Além disso, os autores Kenneth Wyk e Richard Forno descrevem os modelos de resposta a incidentes de segurança compostos pelas seguintes etapas:  1) Identificação – etapa que detecta a existência de um incidente de segurança, por meio de notificações externas ou por ferramentas de monitoramento de rede, como os IDS (sistema de detecção de intrusão) 2) Coordenação – ocorre após a identificação de um incidente e de suas consequências. Aqui são sugeridas possíveis planos de ação para conter a ameaça ou torná-la menos prejudicial. Reconhecendo o perigo e sua origem, os profissionais de TI podem ter insights sobre como driblá-lo. 3) Mitigação – etapa destinada a isolar o incidente e, por meio do plano de ação desenvolvido na etapa anterior, avaliar a extensão do dano causado pela ameaça à rede. 4) Investigação – é como se fosse uma gestão de conhecimento para futuros incidentes. Essa etapa coleta e analisa as evidências do risco à segurança da informação ocorrido no momento, com o intuito de gerar relatórios para possíveis novos ataques e para o que deve ser feito para conter o perigo atual. 5) Educação – etapa que verifica se as metodologias de resposta a incidentes implementadas realmente foram efetivas.  Qual a função das metodologias de resposta a incidentes?  O objetivo das metodologias de resposta a incidentes é oferecer documentação base, para que equipes CSIRTs tenham uma orientação empírica, teórica e prática acerca das ameaças e possíveis incidentes à instituição de informação a qual estão associadas.  Em outras palavras, as metodologias são documentos previamente estipulados que direcionam os planos de segurança da informação, com o propósito de informar o que fazer caso algum incidente aconteça na rede, possibilitando que os times de TI tenham uma resposta mais rápida caso as ameaças sejam efetivadas na rede.  De forma análoga, podemos dizer que as metodologias são “bulas de remédio”, que o profissional TI designado para esta área precisa seguir para conter uma ameaça à rede. O plano é feito para ser seguido e executado, entretanto, no caminho pode sofrer alterações, uma vez que a vida prática é muito diferente da vida planejada.  Dessa forma, as metodologias de resposta a incidentes devem levar em conta diretrizes estabelecidas no mercado, como os 15 tipos diferentes de incidentes, publicados sob a licença Creative Commons Attribution 3.0  IRM-1 : Worm infection IRM-2 : Windows intrusion IRM-3 : Unix intrusion IRM-4 : Distributed Denial of Service IRM-5 : Malicious Network Behaviour IRM-6 : Website Defacement IRM-7 : Windows Malware Detection IRM-8 : Blackmail IRM-9 : Malware on smartphone IRM-10 : Social Engineering IRM-11 : Information Leakage IRM-12 : Insider Abuse IRM-13 : Phishing IRM-14 : Scam IRM-15 : Trademark Infringement Como precisam também estar em consonância com as singularidades de cada entidade da informação.  A metodologia de resposta a incidente para de uma organização deve ser um plano, pautado em análises e dados mensuráveis de ameaças, que seja capaz de tornar o trabalho das CSIRTs realmente bem-sucedido. O que são Incidentes de Segurança? De acordo com o CERT.br, os incidentes de segurança podem ser descritos como:  “Qualquer evento adverso, confirmado ou sob suspeita, relacionado à segurança de sistemas de computação ou de redes de computadores”. Portanto, tudo aquilo que coloca um sistema de informação em risco, sendo a gravidade do incidente medida de acordo com o impacto que ele tem nos processos da organização.  Para esses casos, o tratamento das ameaças é previamente estipulado pelas metodologias de resposta a incidentes O que é Resposta a Incidentes de Segurança?  Também segundo o CERT.br, a Resposta a Incidentes de Segurança é:  “Uma metodologia organizada para gerir consequências de uma violação de segurança de informação”.  Ou seja, um planejamento de atuação contra qualquer tipo de evento que coloque em risco os sistemas de informação.  Como executar metodologias de resposta a incidentes?  A Escola Superior de Redes, uma das maiores referências em capacitação em tecnologia do Brasil e mundo, oferece o curso “Tratamento de Incidentes de Segurança (EaD), para profissionais de TI que desejam se especializar na estruturação de um CSIRT (Computer Security Incident Response Team) efetivo. Neste curso, o profissional aprende a tratar incidentes de segurança, reconhecendo conceitos, as fases de tratamento de incidentes de segurança, além de realizar exercícios práticos e simulações de casos.  Ao final dos conteúdos programáticos o aluno sai preparado para iniciar a criação de um grupo de atendimento a incidentes de segurança (Computer Security Incident Response Team CSIRT) e para implementar metodologias de resposta a incidentes de segurança da informação.  Inscreva-se aqui!


    27/10/2022
  • Certificação LGPD
    Segurança

    A certificação em LGPD está saturada no mercado?

    A Lei Geral de Proteção de Dados (Lei 13.709/2018) entrou em vigor há dois anos e já faz parte da rotina de quase todos os profissionais de TI. Neste contexto, surgem alguns questionamentos de quem pretende continuar atuando na área ou quer começar nessa nova jornada, como é o caso de: ainda vale a pena investir em certificação LGPD? Este é um conhecimento já saturado no mercado?  Para responder a essas perguntas e também observar a importância ou não da especialização da LGPD para o encarregado do tratamento de dados nos negócios (DPO), a ESR convidou o especialista Leandro Pfeifer Macedo para ministrar seu novo webinar técnico.  No evento online “Certificação LGPD – Ainda no TOPO?”, o profissional aborda a legislação no cenário atual, além de perspectivas para a atuação no presente e futuro dos oficiais responsáveis pela segurança de dados. Continue conosco para conferir os principais pontos abordados neste conteúdo audiovisual da Escola Superior de Redes.  Como está a LGPD atualmente?  Para compreendermos se uma certificação LGPD ainda faz sentido para o know how de um profissional de TI, devemos estudar quais transformações foram possíveis a partir da sua implementação. Como dissemos, a LGPD foi promulgada em 2018 e após dois anos entrou em vigor efetivamente, em agosto de 2020.   De lá para cá as empresas tiveram oportunidade de se adaptar, garantir a conformidade dos seus canais de comunicação com a lei e estabelecer uma estratégia de tratamento de dados pautada nas exigências da norma.  Agora, com os ciclos de fiscalização da Autoridade Nacional de Proteção de Dados (ANPD) ativos e realizados desde janeiro, os negócios estão aptos a receberem sanções em caso de descumprimento das demandas legais.  Diante disso, de acordo com o levantamento “Seusdados”, divulgado em fevereiro deste ano, a Legaltech identificou que as demandas de governança e de proteção de dados no mercado corporativo cresceram  554% somente em 2021. Para o especialista Leandro Pfeifer Macedo esses dados corroboram o que se vê na prática em relação à LGPD: embora haja um aumento considerável de investimentos nesta área e muitos profissionais tenham assumido a responsabilidade pelas consultorias e processos de adequação à lei,  Segundo Macedo, o atual momento é marcado por empresas que ainda não fizeram nenhuma adaptação à LGPD e por aquelas que enfrentam o chamado reboot – insatisfação com o serviço de adequação realizado anteriormente.  Isso por si só já demonstra que as certificações relacionadas exclusivamente à LGPD diferenciam um profissional de TI no mercado, certo? Mas, outros fatores contribuem para que a especialização seja não só uma aposta, como uma realidade de carreira.  A Regulamentação do DPO (oficial de proteção de dados pessoais).  Dentre os outros fatores que refletem na demanda por certificações em LGPD está a regulamentação da atuação do profissional DPO/Encarregado pelo Tratamento de Dados na Classificação Brasileira de Ocupações (CBO). O registro da ocupação identifica os encarregados pela proteção de dados pessoais. Ou seja, são os profissionais que planejam processos administrativos, financeiros, de compliance, riscos e de proteção de dados pessoais e privacidade. Devem gerenciar pessoas, rotinas administrativas e financeiras, além de administrar riscos, recursos materiais, serviços terceirizados e canais de denúncia.  Além disso, os DPO (Data Protection Officer) participam da implementação do programa de compliance e/ou governança em privacidade, monitorando e avaliando o cumprimento das políticas do programa, normativas, códigos de ética, procedimentos internos e parceiros de negócios. Também identificam situações de risco e propõem ações para mitigação dos mesmos. A partir dessa legitimação do Ministério do Trabalho (1421-35), a profissão de encarregado passa a contar com um escopo definido, evidenciadas as características gerais deste exercício, bem como divulgada a necessidade de formação e experiência técnica para sua execução.  O documento CBO também deixa claro quais competências pessoais são requeridas na função. Dentre elas: visão organizacional global, liderança, capacidade de decisão, demonstrar versatilidade, persuasão, empatia, proatividade, fundamentação em capacidade de gerenciar riscos, etc.   Há ainda a discriminação das áreas de atividade desse profissional e quais capacidades técnicas ele precisa ter.  Portanto, conforme versam os documentos oficiais acerca da função de encarregado/DPO, para exercer tal profissão é necessário investir em capacitação específica para LGPD. Como está o trabalho do DPO nas adequações à LGPD em 2022?  Após garantir a certificação e cumprir as demandas registradas no CBO, uma das tarefas do oficial encarregado pela proteção de dados será o processo de adequação à LGPD.  No fim de 2020, uma pesquisa da BluePex, organização que desenvolve projetos de segurança da informação, identificou que apenas 2% das PMEs (pequenas e médias empresas) acreditavam estar devidamente preparadas para seguir as novas normas da LGPD.  Em março de 2022, dois anos depois, a terceira edição desse mesmo levantamento da BluePex  viu que o cenário não mudou muito. No novo estudo, apenas 15% das PMEs se consideram preparadas para trabalhar de acordo com a Lei Geral de Proteção de Dados.  No setor público, de acordo com acórdãos do TCU, tal situação formas ainda mais desafiadoras. Neste ano, dos 382 órgãos auditados, foram compiladas as seguintes informações: 76,7% não adotam LGPD; 24% não tem política de SI (segurança da informação intrinsecamente ligada à LGPD) 70% não tem plano de capacitação em PD (destes 30% que tem PC, 46% não acham necessário); 61% não avaliaram a necessidade ou não da retenção dos dados; 51% não avaliaram se coletam só o necessário  82% não possuem política de Proteção de Dados Pessoais ou similar  Ou seja, embora as empresas tenham tido um intervalo de tempo para se adaptarem à LGPD, pouco foi feito até aqui. Além disso, mesmo que haja uma quantidade considerável de profissionais para realizarem ações conectadas a adequação à norma e à segurança de dados, ainda não é suficiente e não há qualificação técnica adequada para tanto.  Portanto, existe demanda e espaço para que profissionais de TI busquem especialização e certificação em LGPD. Inclusive, como deixamos claro acima, essa é uma necessidade da função de DPO, regulada pela Classificação Brasileira de Ocupações (CBO), através do Ministério do Trabalho (MTE).  ___________________________________________________________  O webinar da ESR com o especialista Macedo ainda explana os desafios do profissional DPO na atualidade, como a adequação a toque de caixa, baixo investimento em segurança de informação, governança baixa, o encarregado responder por riscos que não tem o poder de mitigar, além das inovações tecnológicas blockchain, metaverso, inteligência artificial, entre outros aspectos.  A certificação LGPD continua no topo, pois há a demanda de profissionais com conhecimento e a devida capacidade técnica.  Confira o evento gratuito e online na íntegra aqui!


    21/10/2022
  • O que é virtualização de servidores
    Administração de Sistemas

    Um guia definitivo para entender o que é virtualização de servidores

    A virtualização de servidores, seja em datacenters corporativos ou em ambiente de nuvem, é uma das áreas de maior demanda no mercado de trabalho de TI. Afinal, a tecnologia é capaz de levar as organizações a conquistarem inúmeros benefícios, como maior segurança de rede, gestão de crises mais eficiente e sustentabilidade.  Dada a sua importância e capacidade de otimizar tarefas, a virtualização de servidores é um assunto imprescindível para profissionais deste segmento, seja em início de carreira ou para os mais experientes.  Sabendo disso, a ESR preparou o conteúdo abaixo para recordar o que é virtualização de servidores, suas vantagens e para que serve essa prática. Continue conosco para revisar os principais tópicos sobre o assunto.  O que é virtualização de servidores?  De forma geral, a virtualização de servidores é a técnica responsável por rodar em uma só máquina física diversos servidores virtuais.  Por meio de um tipo de software, chamado hypervisor, a virtualização é realizada refletindo, principalmente, em otimização de custos operacionais com hardware.  Ou seja, é um processo que possibilita hospedar em uma máquina física outras máquinas virtuais – todas elas com sistemas independentes entre si. Ainda é possível fazer o chamado nested virtualization, no qual máquinas virtuais (VMs) rodam em cima de outras VMs. Outra forma de categorizar a virtualização de servidores é entendê-la como uma ferramenta para condensar serviços, os próprios sistemas operacionais, e softwares em um ambiente virtual único.  Para que serve a virtualização de servidores?  A virtualização de servidores tem o objetivo de otimizar as tarefas de TI, facilitando a operação de múltiplos sistemas e aplicações em um datacenter através do uso de máquinas virtuais.  Para que isso seja possível a virtualização de servidores conta com: Uma máquina física – CPU, memória, discos, conexões a SAN (Storage Area Network) e de rede. Exceto quando há nested virtualization, como já mencionado anteriormente neste artigo.  Hypervisores – variados softwares, tanto de código aberto quanto proprietários, responsáveis por dar à máquina física a possibilidade de se hospedar outras virtuais.  Máquinas virtuais – como o nome indica são os demais servidores. Partes fragmentadas do hardware principal, que têm seu estado armazenado em arquivos do sistema do hypervisor Um sistema operacional diferente, caso necessário, para cada máquina. Quais as vantagens da virtualização de servidores?  Reiterando o que comentamos acima, a virtualização de servidores gera inúmeros benefícios para as empresas que adotam a técnica, como é o caso da otimização de custos com manutenção física. Além disso é uma solução com maior segurança, permite a gestão de crises, facilita a portabilidade de aplicações de ambientes de teste e desenvolvimento para o ambiente de produção, possibilita a execução de testes sem parar os sistemas, dentre outras vantagens.  Falamos sobre todas elas por aqui em um conteúdo exclusivo ESR.  Quais são os tipos de hypervisores existentes?  Em linhas gerais, os hipervisores, ou monitores de máquina virtual, são softwares, firmware ou hardwares, gratuitos ou licenciados, capazes de criar e rodar máquinas virtuais (VMs). Quem mexe com datacenters sabe que eles são muitos no mercado, sendo representados por diferentes marcas, como é o caso do XenServer, Oracle, VMWare, Hyper-V da Microsoft e KVM.  Por aqui esse também já foi tema de outro importante conteúdo da ESR, que detalhou o funcionamento dos hypervisores, seus modelos e indicações.  Como fazer a virtualização de servidores A virtualização de servidores pode ser categorizada de três formas:  Virtualização completa  Paravirtualization Virtualização no nível de sistema operacional  Cada uma delas é desenvolvida para se adequar a propósitos diferentes dentro das empresas.  Por exemplo, este artigo faz referência principalmente à virtualização completa (full virtualization). Neste cenário, o hypervisor instalado nos servidores do datacenter – tipicamente assistido por hardware – permite a execução de máquinas virtuais com diferentes sistemas operacionais, garantindo seu isolamento e sem a necessidade de tradução binária de instruções.  Já a paravirtualization, de acordo com o Grupo de Teleinformática e Automação da UFRJ, é uma alternativa à virtualização total, na qual “o sistema operacional é modificado para chamar o hypervisor sempre que executar uma instrução que possa alterar o estado do sistema, uma instrução sensível. Isso acaba com a necessidade de o hypervisor testar instrução por instrução, o que representa um ganho significativo de desempenho. Neste modelo os dispositivos de hardware são acessados por drivers da própria máquina virtual, não necessitando mais do uso de drivers genéricos que inibiam o uso da capacidade total do dispositivo”.  Por fim, a virtualização em nível de sistema operacional é um paradigma no qual criam-se diversos espaços isolados no espaço de usuário. Este cenário é tipicamente observado em soluções de conteinerização (como o Docker, Podman ou LXC), zonas ou partições. O que se espera de um profissional capacitado para virtualização de servidores? Como dissemos anteriormente, a virtualização de servidores possibilita ao profissional de TI otimizar tarefas e, consequentemente, resultados. Por isso, essa é uma tecnologia de grande relevância no mercado e, cada vez mais, demanda colaboradores que saibam detalhadamente os processos da virtualização. Além de saber características particulares desse tipo de tecnologia, um virtualizador de servidores precisa dominar bem a administração de redes, ter conhecimento técnico e sobre cibersegurança.  Ainda listamos outras 5 habilidades essenciais para quem deseja se especializar nesta área aqui! Como faço para me tornar especialista em virtualização de servidores?  Várias organizações estão em busca de soluções que ofereçam mais segurança e garantam rentabilidade ao seu dia a dia.  Por isso, a especialização em virtualização de servidores e o conhecimento dos softwares de virtualização podem significar um ponto de transformação na sua carreira.  A ESR possui um treinamento que é referência neste tema, em parceria com a conceituada Ascend.  Com sede nos Estados Unidos, a Ascend Education desenvolve capacitação completa de  TI e conta com anos de experiência prática nos campos de treinamento técnico e de certificações. Para o curso “Virtualização de Servidores Online (EaD)“, ESR e Ascend focam na apresentação de conceitos e das boas práticas da virtualização de servidores, para que o aluno domine como funciona a virtualização, o papel e a função de um hipervisor, o papel e a função de uma máquina virtual e como funcionam as redes virtuais.  Os participantes do treinamento terão acesso também às principais soluções de virtualização do mercado, com laboratórios práticos das soluções da Vmware e XenServer, realizando a configuração das ferramentas existentes, criando e configurando máquinas virtuais e explorando seus recursos. Também são abordados os conceitos da virtualização em nuvem. Gostou? 🚩 Inscreva-se aqui! 


    13/10/2022
  • Administrador de sistemas Linux
    Administração de Sistemas

    3 dicas para se tornar um administrador de sistemas Linux!

    O sistema operacional Linux atingiu níveis sem precedentes de implementação em ambientes corporativos, de acordo com um estudo recente encomendado pela empresa SUSE, divulgado pelo Canal Tech. As principais razões para a adoção do Linux incluem baixo custo total de propriedade (TCO, na sigla em inglês), maior desempenho e o desejo dos clientes de evitar a dependência de fornecedores. Em mais de 30 anos após sua introdução no mercado, o Linux é hoje um software amplamente aceito e considerado seguro pela maioria dos ambientes de servidores corporativos.  O estudo apontou que 83% dos entrevistados estão rodando Linux em seus servidores, e mais de 40% estão usando Linux como seu sistema operacional ou como uma das suas principais plataformas. As aplicações mais populares executadas em Linux são banco de dados e inteligência de negócio, cada uma delas representando 17% do total. Servidores web (14%), sistemas de CRM (12%), armazenamento de dados (12%) e aplicativos personalizados/verticais (8%) também se destacam entre os mais executados. Quase 60% dos participantes da pesquisa concordam que mudar para plataformas de software livre como o Linux garante que as organizações evitem a dependência de fornecedores.  Outra pesquisa, compartilhada no site Softpedia, mostra um infográfico que explicita como o sistema operacional Ubuntu Linux é usado em todo o mundo. Desde usuários comuns às grandes empresas, são muitos os que usufruem dos serviços do sistema operacional livre. A usabilidade desse sistema vai desde grandes empresas, como Netflix, PayPal, eBay, Bloomberg, Spotify e Sky, que usam o Ubuntu para executar suas operações de tecnologia global, às redes de satélite 5G da Agência Espacial Européia. Portanto, o Ubuntu está sendo usado em todos os lugares, incluindo carros autônomos, blockchain e todo tipo de robótica. Em maio de 2020, o Ubuntu respondeu por 64,98% de todas as instalações do Linux, enquanto uma entrada genérica do “Linux” representa mais de 33%, de acordo com os dados do NetMarketShare. Esses números demonstram que os sistemas de código aberto têm um lugar cativo no mercado, seja na iniciativa privada ou em instituições públicas, devido à excelente relação de custo x benefício para o cliente e também por causa da flexibilidade e versatilidade de aplicações Linux. Isso resulta em um mercado ávido por profissionais qualificados para gerir sistemas e controlar infraestruturas para as mais diversas finalidades. O ramo é bastante receptivo para profissionais que conhecem bem o sistema e dominam certas áreas técnicas, envolvendo servidores, redes, entre outras. Outro fato que comprova esse avanço são os dados do Relatório de Emprego da Linux, do ano de 2015, o Linux Jobs Report 2015. Nesse estudo a empresa aponta para como de fato os profissionais que têm conhecimento em configurações de servidores do Linux são mais valorizados e cobiçados pelo mercado de um modo geral. Segundo o documento, para uma organização que deseja muito ter em seus quadros um dos melhores profissionais do ramo em matéria de Linux, o ideal é procurar dar meios para que este profissional se sinta bem e atraído pela ideia de permanecer. Como se tornar um administrador de sistemas Linux?!  1) Invista em capacitação Para conquistar uma especialização no sistema Linux e se tornar um administrador desse modelo é importante procurar por capacitações que sejam referência no mercado.   A ESR (Escola Superior de Redes) convidou o profissional Bruno Fagundes, Especialista em Segurança de Redes, que atua há mais de 15 anos na área de TI, para ministrar o próximo evento online gratuito da empresa: “Como se tornar um administrador de Sistemas Linux”, no dia 09 de setembro, às 10h.  Em um bate-papo descontraído, os mediadores da ESR e o administrador de sistemas discutirão as maneiras práticas para alcançar esse objetivo e se diferenciar em um mercado tão requisitado.  O webinar ainda irá abordar os principais desafios para iniciar uma carreira de Administrador de Sistemas Linux, além de discutir as atribuições e habilidades que esse especialista deve possuir. Ao se inscrever você também fica por dentro dos conceitos básicos de funcionamento de um sistema operacional Linux e das principais distribuições disponíveis. Inscreva-se gratuitamente aqui e dê início à sua carreira de administrador de sistemas Linux! 2) Seja um usuário Linux O profissional responsável pela instalação, configuração e manutenção de sistemas Linux precisa ter habilidades avançadas em administração de sistemas operacionais Linux, o que é requisito também para outras funções mais avançadas na hierarquia do setor de TI de grandes empresas. Ser usuário de Linux é uma excelente maneira de começar. Poucas pessoas possuem o hábito de utilizar sistemas operacionais Linux em seus computadores pessoais, se comparado ao Windows ou Mac. Essa vivência acaba desenvolvendo uma bagagem necessária para se tornar um Administrador de Sistemas Linux. Ou seja, para ser um bom administrador, é preciso ser também usuário do sistema. 3) Entenda as responsabilidades de um administrador de sistemas Linux Um profissional que opte por se tornar um administrador de sistemas Linux precisa dominar, sobretudo, as seguintes atividades: Gerenciamento de usuários, grupos e processos; Gerenciar os sistemas de arquivos e políticas de backup; Administrar serviço de impressão; Gerenciamento e monitoramento de logs de registro de eventos; Instalação e configuração de uma rede TCP/IP e configuração dos serviços Internet. ______________________________________________ Como mencionado, a demanda por profissionais especializados em sistemas operacionais Unix/Linux é uma realidade no mercado de trabalho. Para exercer essa função, uma das principais exigências é uma capacitação completa na formação de administradores de sistemas, que reflita em um profissional com visão ampla desde a infraestrutura, configuração de sistemas em ambientes virtualizados e a utilização de containers. No webinar da ESR, o participante entenderá com mais detalhes como  ingressar e se destacar nesta área.  Se ainda há dúvidas se o evento online é para você entenda a quem se destina: Profissionais da área TI que desejam conhecer e aprofundar o conhecimento nos sistemas Linux; Profissionais de TI que atuam com sistema Linux e pretendem aperfeiçoar a configuração dos sistemas e ofertar serviços na internet de forma segura; Profissionais de TI que possuem projetos ou atuam com virtualização de infraestrutura; Profissionais de TI que possuem projetos ou atuam com gestão de infraestrutura e sistemas de forma ágil utilizando a metodologia DevOps. Interessados/curiosos sobre o tema e sobre a área de TI Abaixo você confere ainda outros motivos para escolher essa área de investimento, por meio de projeções que ela pode garantir à sua carreira tecnológica. Saiba porque é vantajoso se tornar um especialista Linux.  Vantagens de ser um especialista em Linux 1) Segurança da informação como início da Carreira em TI A questão da segurança está cada dia mais no centro das atenções do mundo da tecnologia e as empresas não param de contratar profissionais nessa área. Quem domina Linux tem uma grande vantagem para conquistar um bom emprego. Isso porque muitos softwares de segurança, como os programas de simulação de ataque, de análise de dados ou de servidores web, são construídos com base em Linux. Sendo mais uma oportunidade para quem se torna um especialista em Linux com a ESR.  2) Administração de banco de dados Banco de dados é o centro nervoso de uma empresa, em analogia é como o coração de qualquer administração moderna. É no banco de dados que estão armazenadas as informações corporativas. Por isso, precisa ser cuidado por profissionais competentes e capacitados. A questão é que boa parte dos bancos de dados atuais rodam com o sistema Linux. É o caso do PostreSQL e o MySQL, por exemplo. Como esses bancos de dados são muito populares, é comum encontrar empresas em busca de profissionais especializados em Linux para administrá-los da melhor maneira possível. Um administrador de banco de dados realiza diversas atividades em sua rotina. Entre elas, gerenciar níveis de acesso dos usuários, desenvolver a documentação do sistema, testar e monitorar a performance do banco e analisar o desempenho dos servidores. Eis, portanto, outra vantagem de ser um especialista Linux.  3) Atendimento ao cliente como carreira em TI Com o desenvolvimento e a disseminação da internet, muitos programas de computador atualmente são vendidos na estrutura de cloud computing (nuvem). Dessa forma, as empresas ganham em escala e conquistam muito mais consumidores. Para dar conta da demanda e prestar um serviço de qualidade, as empresas precisam oferecer um suporte altamente especializado a seus clientes. Isso é bom para os profissionais de Linux. Muitos desses softwares que rodam na nuvem funcionam em servidores de base Linux. Quem conhece o sistema operacional tem muito mais facilidade em atender a demanda dos clientes e solucionar qualquer problema que possa chegar até o suporte, tornando-se mais uma vantagem competitiva.  ___________________________________ Agora que você conhece ao menos 3 áreas que estão ligadas a esse sistema operacional revolucionário, só falta começar a sua especialização e ir para o mercado preparado.  Seja um especialista em Linux e garanta novas oportunidades de mercado para 2022. Clique aqui e assista gratuitamente ao webinar sobre o tema da ESR!  Webinar “Como se tornar um administrador de sistemas Linux”, com Bruno Fagundes


    06/10/2022
  • Arquitetura TCP/IP
    Administração e Projeto de Redes

    Webinar Arquitetura TCP/IP: o que é e quais os desafios de um núcleo minimalista

    Para os profissionais administradores de rede é essencial conhecer a arquitetura TCP/IP, um padrão que garante a comunicação entre diferentes dispositivos.  No surgimento da Internet, nos anos 70 e 80, alguns protocolos foram desenvolvidos com o intuito de permitir que diferentes sistemas conversassem entre si.  Dentre eles, a arquitetura TCP/IP, que, embora na época fosse associada a uma rede muito menos robusta e menos escalável, continuou desempenhando esse papel nos dias de hoje por meio de atualizações e adaptações no seu funcionamento.  Em setembro a ESR abordou o tema “Arquitetura TCP/IP: vantagens e desafios de um núcleo minimalista” em um novo webinar gratuito, para compreender como essa arquitetura se comportou no decorrer do tempo.  Neste artigo você irá encontrar os principais pontos abordados pela mestra e analista de redes, Adriana Viriato Ribeiro, neste evento online.  O que é arquitetura TCP/IP  Como dissemos anteriormente, a arquitetura TCP/IP engloba um conjunto de protocolos de comunicação entre computadores em rede. A arquitetura foi estruturada baseada no modelo ISO/OSI e conta com um padrão em camadas para implementação da arquitetura de rede. Essa estruturação em camadas facilitou o desenvolvimento e a evolução dos protocolos ao longo dos anos.. Com objetivo semelhante ao do modelo OSI no que diz respeito à divisão da arquitetura em camadas, a TCP/IP carrega o nome dos dois principais protocolos da Internet atual: protocolo TCP (Transmission Control Protocol – Protocolo de Controle de Transmissão) e o IP (Internet Protocol – Protocolo de Inter-rede), dois dos mais utilizados. Já abordamos o conceito dessa tecnologia em um outro artigo da ESR, ainda assim, é válido recordar como as redes funcionam para compreender como se dá tal comunicação.  De acordo com a especialista Adriana Viriato Ribeiro, o conceito básico de redes de computadores diz que as redes são formadas por dispositivos que podem compartilhar recursos e trocar informações.  Inclusive, segundo a profissional, as primeiras redes de computadores contavam com esse objetivo tácito – compartilhar recursos e trocar informações entre locais distintos.  Para que isso ocorresse, estabeleceu-se a necessidade de diversos equipamentos, tipos de conexões físicas, aplicações e serviços, além dos protocolos e padrões. Nessa dinâmica, os protocolos surgiram como forma de garantir que a comunicação entre os diferentes dispositivos, construídos por fabricantes diversos, que implementassem os mesmos protocolos pudessem se comunicar, possibilitando o vai e vem de dados entre as redes.  Essa mesma lógica se manteve na atualidade. Para exemplificar de forma ainda mais prática, é possível compreender a comunicação de redes de forma análoga à comunicação humana.  Quando há um diálogo, deve-se perguntar: as duas pessoas envolvidas nessa conversação falam o mesmo idioma? Utilizam a mesma linguagem? A fala possui algum ruído ou está totalmente audível? A velocidade é compatível com o entendimento?  Da mesma maneira, é importante identificar os requisitos existentes entre as redes, além da importância da implementação de protocolos para executar a comunicação entre os dispositivos. Assim, de forma resumida, quando falamos de redes de computadores precisamos estabelecer alguns protocolos para garantir que esses equipamentos, os quais precisam se comunicar entre si, estejam falando o “mesmo idioma”. Atualmente existem vários conjuntos de protocolos que asseguram que as aplicações e serviços, como nós conhecemos hoje, funcionem.  Eles definem o formato, ordem de mensagens enviadas e recebidas entre entidades de rede e ações tomadas sobre transmissão e recepção de mensagens.  Por isso, é tão caro ao profissional de rede que o mesmo tenha uma noção dos modelos básicos e daqueles mais utilizados por ele. Como é o caso dos presentes na arquitetura TCP/IP.  Desafios encontrados na arquitetura TCP/IP A Internet de hoje ganhou inúmeras outras facetas daquela vista nos anos 70. Por isso, é impossível imaginar que uma mesma arquitetura consiga atender a demandas tão diferentes.  Agora há conexão por dispositivos móveis, há mais pessoas utilizando a Internet, há mais dados, entre outras particularidades.  Esses novos contextos e as transformações digitais requerem que os protocolos e padrões sejam sempre atualizados, se adaptando ao que o mercado solicita e às novas demandas dos usuários e das aplicações.  Desta forma, a arquitetura TCP/IP enfrentou vários desafios para continuar satisfazendo o objetivo de comunicação entre redes, além de precisar atender novos requisitos, como:   Desafio 1) Escalabilidade – no surgimento da Internet não foi previsto que a tecnologia alcançaria tamanha popularidade. Por isso, os endereços de rede acabaram sendo limitados. Por causa disso, uma das adaptações que a arquitetura TCP/IP precisou fazer se relacionou à  à criação de uma nova versão do protocolo IP (IPv6 para substituir o IPv4) e outras soluções alternativas, como definição de faixas de rede privada e uso de NAT (Network Address Translation). Desafio 2) Segurança – na década de 70, o termo segurança de rede se relacionava mais com disponibilidade de rede do que com a necessidade de proteger dados e informações. Nos últimos anos, foi preciso que a comunicação entre redes contasse também com outros aspectos da segurança, como confidencialidade e integridade na relação de troca de informações entre usuários finais. A partir disso, houve o desenvolvimento, por exemplo, de protocolos que utilizam criptografia para garantir a segurança dos dados na camada de aplicação, como o SSL/TLS..   Desafio 3) Mobilidade – a Internet nos anos 70 e 80 não havia sido pensada para ser executada em um cenário móvel. Entendia-se que ela iria se dar com meios físicos e cabeados. Entretanto, hoje em dia, existem cada vez mais dispositivos móveis conectados à rede. Um dos desafios dos protocolos de comunicação é garantir que todos eles sigam conectados mesmo podendo se locomover.  ———————————————- Diante da importância que a arquitetura TCP/IP tem para o funcionamento da rede, é imprescindível que o profissional de TI conheça seus detalhes de funcionamento.  O protocolo IP possibilita o endereçamento lógico e o roteamento na Internet. Trata-se de um protocolo que constrói as rotas “on the fly” e que utiliza um mecanismo de entrega baseado no melhor esforço, caracterizando-se por não proporcionar garantias. Já o protocolo TCP inclui mecanismos de estabelecimento de conexão, entrega confiável, controle de fluxo e controle de congestionamento. Com esse núcleo minimalista, a inteligência deve ser desenvolvida nos dispositivos finais para atender requisitos como segurança.  Com o passar do tempo, muitos protocolos e soluções foram desenvolvidos para adaptar o padrão TCP/IP às necessidades dos novos usuários, tecnologias e aplicações e muito mais está por vir.  Por isso, mesmo que haja uma documentação oficial sobre os protocolos e padrões que regem  a Internet, chamada de RFC, que especifica o comportamento de determinado protocolo, com objetivo de estabelecer regras de funcionamento e de comunicação, é necessário buscar constantemente capacitações sobre o tema.  Afinal, esses modelos sempre mudam de acordo com as também mudanças de demandas da sociedade em relação ao uso da rede.   Continue debatendo o tema junto com a ESR ao assistir ao webinar “Arquitetura TCP/IP: vantagens e desafios de um núcleo minimalista” na íntegra aqui!    Sobre a Escola Superior de Redes (ESR) A Escola Superior de Redes (ESR) promove a capacitação, o desenvolvimento profissional e a disseminação de conhecimento de tecnologias da informação para todo o Brasil há mais de 16 anos.  Durante a sua trajetória já atendeu mais de 1100 instituições, além de ter contribuído para a capacitação de mais de 31 mil alunos. A escola, única parceira do maior instituto de cibersegurança do mundo, o Sans, oferece mais de 100 cursos, distribuídos em diferentes trilhas de conhecimento.  ___________________________________________________________________ Continue se capacitando sobre esse tema junto com a gente. A ESR oferece o curso Arquitetura e Protocolos de Rede TCP-IP (EaD), que fornece uma visão geral das redes, conceitos básicos, noções de meios de comunicação, equipamentos de rede e redes sem fio.  Além disso, nesta capacitação o aluno aprofunda conceitos de NAT e VLANs, incluindo configuração de VLANs em atividades práticas. Há também uma visão aprofundada da arquitetura de rede TCP/IP, sua pilha de protocolos e serviços oferecidos.  O curso ainda aborda: fundamentos da arquitetura TCP/IP; projeto de endereçamento IP; cálculo de máscaras de sub-redes e super-redes; VLSM e CIDR; roteamento estático e dinâmico; protocolos TCP e UDP; modelo cliente-servidor e interface socket; serviços DNS, Mail, Web e SSH. Ao final das aulas, o aluno será capaz de configurar uma rede TCP/IP e de conectá-la à Internet. Inscreva-se aqui!


    30/09/2022
  • Gestão de continuidade de negócios
    Governança de TI

    Você sabe implementar uma Gestão de Continuidade de Negócios?

    Mexer com dados é compreender que eles são ativos valiosos e estão sujeitos às mais diversas ameaças. É nesse contexto que a gestão de continuidade de negócios está inserida, para garantir que, diante de um universo recheado de cibercrimes e da possibilidade das informações organizacionais em nuvem serem corrompidas, a empresa continue operando. A gestão de continuidade de negócios está inserida dentre as práticas do Plano de Continuidade de Negócios (PCN), que, embora pouco adotado pelas empresas, é uma das condutas mais completas para prevenção da estrutura de tecnologia da informação.  A exemplo da baixa incidência desta atividade, a KPMG realizou o estudo “Pesquisa de maturidade dos planos de continuidade de negócios no Brasil”, em 2021, identificando que 73% dos negócios do país não possuem uma gestão de continuidade adequada.  Ainda assim, é preciso destacá-la, pois, se falamos em prevenção, queremos dizer também rentabilidade! Uma vez que, em caso de incidentes com dados ou qualquer outra parte da estrutura de TI, a organização contará com alternativas para continuar produzindo, as chances de prejuízos financeiros, operacionais e de imagem são bem menores.  Neste artigo explicamos o que é gestão de continuidade de negócios e a sua importância para o dia a dia empresarial. Continue conosco.  O que é Gestão de Continuidade de Negócios  Como dissemos anteriormente, a gestão de continuidade de negócios é caracterizada pela reunião de práticas responsáveis pela recuperação ou continuidade das operações de uma empresa, em caso de interrupções dos negócios por ameaças ou imprevisibilidades.  Portanto, é o gerenciamento efetivo que analisa e mapeia os principais riscos das empresas, incluídos os da área de TI, e cria alternativas para que a instituição siga funcionando mesmo que eles se efetivem. Por meio de análises, treinamentos, auditorias, dentre outras atividades, a gestão de continuidade de negócios (GCN) reflete na maturidade de processos de uma empresa. A partir de sua implementação, há a compreensão por toda a empresa de que suas atividades internas e externas estão conectadas, bastando uma única falha em alguma dessas etapas para que danos sem precedentes ocorram.  Assim, a gestão de continuidade de negócios irá estabelecer uma estrutura pautada em muita estratégia para maturar a capacidade das empresas de agir em caso de riscos, criar métodos alternativos aplicados para suprir alguma ameaça, erro ou falha de um sistema ou dos bancos de dados, e para gerenciar do início ao fim uma possível interrupção de trabalho.  Para alcançar esse objetivo a gestão de continuidade de negócios é focada nos impactos de uma interrupção, mapeando quais são as ações cruciais de uma empresa e os tipos de riscos aos quais elas estão submetidas. No caso de TI a GCN objetiva encontrar esses aspectos na estrutura deste departamento. Portanto, o escopo básico de uma gestão de continuidade de negócios é: Por fim, é importante que uma boa gestão de continuidade do negócio tenha todas essas etapas devidamente detalhadas e associadas a um escopo de trabalho, com delimitação de objetivo e política do processo, além de uma simulação e um teste do projeto.  Complementando a visão acima, o documento “Gestão de Continuidade de Negócios”, da Global Technology Audit Guide (GTAG), ainda estabelece requisitos mais completos para a business continuity management (BCM). Confira:  Compromisso da Administração com o Programa de BCM Conduzir uma Avaliação de Riscos de BC e Mitigação de BC Conduzir uma Análise do Impacto Sobre o Negócio (BIA) Estabelecer a Recuperação de Desastres para a TI Definir Estratégias de Recuperação e Continuidade de Negócios Aplicar, Verificar e Manter Capacidades para o Programa de BCM É válido destacar ainda que a gestão de continuidade de negócios também deve ser personalizada para cada demanda e se adequar às diferentes ameaças detectadas ao longo do tempo. Benefícios de executar a Gestão de Continuidade de Negócios para a área de TI  Diante do que já conversamos até aqui, fica claro dizer que a gestão de continuidade de negócios reflete diretamente na manutenção da empresa no mercado.  A prática reduz os prejuízos ocasionados por ameaças à estrutura de TI e, com isso, poupa gastos adicionais, necessidade de uma equipe robusta de profissionais para resolver os problemas, além de mitigar a perda de informações importantes da empresa. Garantir uma gestão de continuidade de negócios é também:  Como posso dar início à gestão de continuidade da minha empresa agora?  A Escola Superior de Redes (ESR), referência em capacitação na área da tecnologia, promove o curso “Gestão de Continuidade de Negócios”, que irá te auxiliar nessa jornada. Como falamos anteriormente, a atividade de continuidade possibilita a redução de perdas financeiras, uma vez que o negócio continua atendendo às demandas dos seus clientes. Por isso, a sua implementação é tão urgente e necessária. Sabendo disso, a ESR elaborou um conteúdo programático de qualidade para que você faça isso o quanto antes. Mesclando teoria e atividades práticas, em uma abordagem das boas práticas existentes para a gestão da continuidade dos negócios (GCN), o curso permitirá ao aluno desenvolver análise de impacto nos negócios, definição de estratégias de continuidade e o desenvolvimento de planos de continuidade, restauração e recuperação.  Inscreva-se aqui!  


    26/09/2022
  • Gestão de Riscos da Segurança da Informação
    Segurança

    O que é gestão de riscos da segurança da informação

    Para os profissionais de TI, gestão de riscos da informação e privacidade são assuntos trabalhados há anos! Embora agora existam outras nuances, como a implementação da LGPD, o domínio sobre essa atividade é uma prática comum e necessária às organizações. Quem detém informação e segurança sobre esses dados pode tomar melhores decisões e garantir que a empresa continue pujante no mercado.  A ESR abordou o tema em um novo Webinar, ministrado pelo especialista Gustavo Martins Pereira, para dar continuidade à discussão acerca de melhores práticas para uma eficiente gestão de riscos de segurança da informação. Abaixo você confere os pontos destacados no evento online.  O que é Segurança da Informação?  Para entender o que é segurança da informação devemos pensar sobre quais são os cuidados que uma empresa tem com o seu principal ativo (a informação).  Assim, pensar em como conseguimos fazer com que essa informação esteja protegida de um acesso indevido. Além disso, temos que compreender que a informação só é produzida a partir do dado existente nas estruturas de rede, portanto qual o cuidado temos para com o dado e para com a informação? A gestão de riscos vai garantir esse zelo desde a segurança predial até uma configuração de um roteador e um firewall para acesso na internet, ou seja, sempre haverá muito a se implementar  Retomando, em linhas gerais, baseado na norma NBR ISO/IEC 27002:2013, o conceito de Segurança da Informação se refere à proteção existente sobre as informações de uma determinada empresa ou pessoa, aplicando-se tanto às informações corporativas quanto às pessoais.   Trata-se do conjunto de ferramentas e estratégias digitais que garantam a segurança dos dados de uma empresa no mundo virtual.  Em outras palavras, são as maneiras ou ferramentas encontradas para minimizar os riscos de ameaças digitais, além de garantir a plena vida dos dados de uma organização, sem que estes sofram influências externas, como vírus, invasões e outras diferentes formas de ataques de cibercriminosos. Para isso, ou seja, para uma boa segurança da informação e um resguardo eficiente de dados, tais articulações se valem de pilares essenciais que você confere logo abaixo.  Quais são os pilares da segurança da informação? De acordo com a norma NBR ISO/IEC 27002:2013, existem atributos da Segurança da Informação que articulam a proteção dos dados e ativos:  Confidencialidade:  Quando se fala em segurança da informação e como evitar os riscos de desestabilização da cibersegurança, é preciso pensar que ela está associada à confidencialidade como pilar desenvolvedor. De forma prática, é a garantia de que agentes sem autorização não terão acesso aos dados institucionais. Disponibilidade:  Significa dizer que os dados devem estar disponíveis de acordo com a necessidade. Sempre que ela existir, deve ser possível acessá-los. Integridade:  Funciona como um tipo certificação de que uma informação uma vez armazenada não poderá sofrer quaisquer tipos de alteração; Autenticidade:  Um dos últimos, mas não menos importantes pilares que envolvem a cibersegurança é a capacidade de assegurar que informação é verdadeira. Assegurar que determinada informação pertence a A ou B, e determinar uma autoria específica, provando que o objeto avaliado não tenha passado por alguma alteração indevida.  Irretratabilidade  É a propriedade que garante a impossibilidade de negar a autoria em relação a uma transição anteriormente feita Conformidade  Propriedade que garante que o sistema deve seguir as leis e regulamentos associados a este tipo de processo.  Quais são as fontes principais de requisitos de Segurança da Informação  Existem três fontes principais de requisitos de SI: Benefícios da NBR ISO/IEC 27002:2013: De acordo com o especialista, Gustavo Martins Pereira, seguir a norma NBR ISO/IEC 27002:2013 para uma gestão de riscos de segurança da informação reflete nos seguintes benefícios:  Gestão de riscos unida à segurança da informação  Quando se fala em gestão de riscos em relação à segurança da informação é necessário compreender que cada empresa irá aplicar rotinas diferentes, mesmo que se embase na mesma norma como a 27002.  O gestor de segurança da informação precisa conhecer a sua empresa e aplicar uma orientação personalizada, que esteja alinhada com o processo de gestão de riscos corporativos. Dessa forma, é necessário uma abordagem sistemática de gestão de risco de segurança da informação, para se identificar as necessidades da organização em relação aos requisitos de segurança da informação e para a criação do SGSI. A gestão de riscos de segurança da informação é um processo contínuo, parte integrante das atividades de gestão de segurança da informação, aplicada à implementação e à operação cotidiana de um SGSI. Nesse contexto, o processo de gestão de riscos envolverá a aplicação sistemática de políticas, procedimentos e práticas para as atividades de comunicação e consulta, estabelecimento do contexto e avaliação, tratamento, monitoramento, análise crítica, registro e relato dos riscos.  ______________________________ Além dos tópicos mencionados acima, o webinar da ESR ainda auxilia os participantes a estabelecerem o contexto para aplicação de uma gestão de riscos de segurança da informação com dicas práticas, além de caracterizar ativos de informação como um serviço crítico da organização que deve ser monitorado ao ponto de refletir em ações imediatas para que ele não produza um impacto negativo na instituição.A partir disso, o gestor de risco da segurança da informação entende quem está envolvido nesse processo, levando em consideração a pirâmide essencial desse conceito – pessoas, processos e tecnologia. ; Para assistir ao evento online na íntegra e ficar por dentro dessas dicas práticas clique aqui! Sobre a Escola Superior de Redes (ESR) A Escola Superior de Redes criou uma trilha completa de treinamentos práticos em segurança da informação, com cursos voltados para capacitar profissionais a proteger sistemas e dados críticos com eficácia. O melhor de tudo: você pode acessar tudo em um só clique. Com parcerias estratégicas com líderes globais como CompTIA e Ascend, a ESR oferece uma formação robusta, baseada nas necessidades reais do mercado e nas últimas tendências de cibersegurança. Essa trilha foi desenvolvida com uma metodologia própria, que prepara o aluno para identificar riscos, agir preventivamente e responder rapidamente a incidentes, garantindo a segurança digital da sua organização.o. Como expandir meu conhecimento sobre gestão de riscos na segurança da informação?  A ESR promove o curso “Gestão de Riscos de Segurança da Informação e Privacidade”, que dá ao aluno a capacidade de propor controles de segurança da informação para tratar e mitigar os riscos nas organizações.  No treinamento o participante aprende a identificar ameaças, vulnerabilidades e riscos associados à segurança da informação e a aplicar em sua organização a metodologia de gestão e análise de riscos. Confira outros detalhes sobre essa capacitação exclusiva ESR aqui!


    16/09/2022
  • Segurança de redes
    Segurança

    Guia Segurança de Redes: o que é, para que serve e tipos existentes.

    A segurança de redes é uma das atividades mais importantes da área da tecnologia da informação por garantir a proteção de qualquer rede contra os diversos tipos de ataques cibernéticos, a instabilidade de dados e o acesso não autorizado.  Em suma, essa área envolve ferramentas, tecnologias, rotinas e protocolos que garantem a conformidade da nuvem, afastando quaisquer, ou, o maior número possível, de ameaças e garantindo que a rede opere continuamente com seu melhor desempenho.  Ao longo do tempo, com o aumento exponencial do mercado digital e a migração acelerada de grande parte das transações cotidianas para a rede, os cuidados com falhas precisaram ser redobrados. Principalmente agora com os contextos de  teletrabalho e computação em nuvem. Como as vulnerabilidades estão presentes em qualquer lugar, as abordagens de segurança de rede precisam prevê-las com maleabilidade, atuando de ponto a ponto, nas bordas da rede e, também, internamente – camada a camada.  Independente do segmento ou do tamanho da empresa, a segurança da rede é um tópico indispensável para a perpetuação da marca do mercado.  Afinal, ativos (dados) e infraestrutura de rede corrompidos refletem diretamente em diversos prejuízos para as organizações, desde o financeiro ao de mau branding e descredibilização frente aos consumidores.  Portanto, segurança de redes é um assunto imprescindível para qualquer profissional de TI, a qualquer momento. Confira um guia breve sobre o tema logo abaixo.  O que é segurança de rede? Como dissemos anteriormente, segurança de redes é a reunião de ferramentas, protocolos, tecnologias e rotinas configuradas para frear, impedir ou barrar ameaças, vulnerabilidade dos dados e também acessos indesejados ou não permitidos.  Assim como existem diversas possibilidades de falhas na nuvem, há também diversos tipos de segurança de redes capazes de amenizar o complexo cenário de cibercrimes.  Um dos principais pontos relacionados à segurança de rede é que as soluções escolhidas pelas organizações nesse sentido devem, primeiro, se adaptar às demandas de cada empresa e, segundo, abranger a maior quantidade de ameaças possíveis, visando integração e automação das plataformas e ferramentas.  Como a segurança de rede funciona? De forma superficial pode-se dizer que a segurança de redes opera por meio de hardware e software alinhados no gerenciamento ao acesso e no impedimento à instalação de diferentes ameaças na rede. São diversas camadas de defesa combinadas na borda da rede para permitir acesso somente a usuários autorizados, e bloquear aqueles que têm potencial para executar ações indevidas. Por aqui na ESR já descrevemos todo o caminho percorrido por qualquer tipo de segurança de rede, em um conteúdo exclusivo, para você acompanhar as etapas e detalhes dessa sistemática. Basta seguir este link! 4 Tipos de segurança de rede Reiterando, existem inúmeros tipos de segurança de rede, que podem ser executados ou implementados de acordo com a demanda das empresas. Por isso, avalie e estude a melhor opção para o seu negócio.  Abaixo apresentamos 4 exemplos que podem te auxiliar nesse processo. Confira:  Firewalls  Esse tipo de segurança de rede é um dos mais tradicionais, sendo representado por um hardware, software ou os dois.  É uma solução que executa uma barreira entre a rede interna (de confiança) e as redes externas (não confiáveis). Em outras palavras, o firewall define o tráfego como desejável para seguir o caminho padrão ou tráfego indesejável que necessita ser bloqueado.  Resumidamente, é uma observação de porta/protocolo que, ao longo do tempo, tem passado por ajustes e avanços para se adaptar aos ataques que se sofisticam. O objetivo é garantir que a conexão da rede, Internet e firewall sejam seguras.  VPN Apesar de não ser um dos recursos mais conhecidos quando o assunto é segurança de redes, esta ferramenta é essencial para cuidar dos dados pessoais e garantir a segurança das informações digitais dos usuários. As VPNs são tecnologias capazes de criptografar, em tempo real, o tráfego de internet e esconder uma identidade online. De forma prática, enquanto o usuário navega online, o servidor VPN se torna um fonte dos dados capaz de ocultar o acesso de terceiros a informações dos sites que estão sendo acessados e dos dados que estão sendo baixados. Com isso, as informações e a privacidade dos usuários ficam protegidas. Entretanto, é importante lembrar que as VPNs não funcionam como soluções antivírus, uma vez que elas não protegem o computador de intrusões externas. IPS A sigla IPS significa sistemas de prevenção de intrusão e diz respeito ao modelo de segurança de rede que identifica atividades fora do padrão, reportando-as aos administradores de redes e, ao mesmo tempo, iniciando etapas preventivas contra os possíveis ataques.  Dentre os exemplos de ação preventiva que o IPS pode implementar estão a configuração de outras ferramentas de segurança e ajustes nas políticas de segurança da organização.  Dessa forma, essa solução atua de forma prática alertando sobre o ataque e agindo sobre o mesmo. Além disso, ajusta as políticas de segurança corporativa impedindo que os colaboradores se associem com atividades suspeitas. Segurança em redes sem fio  Outro conteúdo da ESR que aborda um modelo de segurança de rede se relaciona ao cenário “sem fio”.  O principal benefício de implementar as melhores práticas de segurança em redes sem fio é a proteção de informações contra ataques cibernéticos. As redes de computadores, em especial aquelas wireless, precisam ser monitoradas e protegidas contra o acesso de pessoas não autorizadas para evitar o roubo de dados e demais invasões maliciosas que possam prejudicar a sua empresa. Confira o artigo na íntegra aqui  Qual a importância da proteção de acessos e redes? Parece claro que garantir a segurança da rede seja uma tarefa essencial para qualquer negócio, certo?  Entretanto, muitas empresas ainda têm defasagem nessa área e estão propensas a sofrerem ataques cibernéticos mais cedo ou mais tarde.  A exemplo disso, a empresa Fortinet, de soluções em segurança cibernética, apresentou um levantamento sobre o cenário do cibercrime no Brasil no primeiro semestre de 2022.  De acordo com o estudo, só nesses primeiros seis meses deste ano foram detectados mais de 30 bilhões de tentativas de ataques à redes de empresas no país. O número é 94% maior do que o observado no período de 2021. Dessa forma, um dos principais benefícios e a importância de se investir em segurança de redes é blindar a empresa dos crescentes e, cada vez mais sofisticados, cibercrimes.  Além disso, a segurança de redes é capaz de proteger a reputação das instituições, impedir que as vulnerabilidades se transformem em vazamentos de dados ou em infraestutura corrompida, manter a saúde financeira do negócio, uma vez que o mesmo não precisará arcar com custos de sanções ou chantagens dos cibercriminosos, e, também, contribuir para um relacionamento mais transparente com os consumidores, parceiros e fornecedores.  Cursos na área de Segurança de Rede. Diante da importância do tema “segurança de redes” e da sua incidência no cotidiano da tecnologia, a Escola Superior de Redes (ESR) elabora e atualiza uma trilha de conhecimentos específica desta área.  Neste link você tem acesso a 28 cursos, com diferentes abordagens, para profissionais iniciantes ou experientes,  que irão garantir a plena capacitação técnica e prática sobre segurança de redes.  Acesse e escolha o seu! 


    02/09/2022
  • Protocolo de roteamento OSPF
    Administração e Projeto de Redes

    6 aprendizados do Webinar “Roteamento OSPF: Fundamentos e Projeto”

    A compreensão dos protocolos de roteamento é parte essencial da fundamentação teórica de qualquer profissional da tecnologia da informação. Por isso, para contribuir com a sistematização do tema, a Escola Superior de Redes (ESR) abordou um deles em um novo webinar gratuito – Roteamento OSPF: Fundamentos e Projetos.  De forma geral, o Protocolo de Roteamento OSPF (Open Shortest Path First) faz referência ao processo de “escolher o caminho mais curto primeiro”, em uma análise de informações de diversos roteadores conectados entre si.  O objetivo desse modelo é observar dentre esses elementos interconectados qual apresenta um melhor trajeto e desempenho para  entregar um pacote de rede, representando um trabalho mais efetivo. Dessa forma o Protocolo de roteamento OSPF é um protocolo de roteamento dinâmico, eficiente e não-proprietário, projetado para operar dentro de um sistema autônomo, e, portanto, atuando como um protocolo do tipo IGP (Interior Gateway Protocol).  Ao contrário do protocolo RIP (Routing Information Protocol), que adota o algoritmo vetor-distância (distance vector), o protocolo OSPF baseia-se no algoritmo estado de enlace (link-state) para propagar e processar as informações de roteamento.  Embora seja considerado bastante efetivo, para que seus benefícios sejam extraídos, o projeto de redes OSPF deve ser cuidadoso, além de demandar antecipação para seu planejamento e também a devida documentação durante toda a sua implementação.  Neste contexto, o Professor universitário Gledson Elias foi o convidado do novo webinar da ESR, que objetivou a apresentação dos fundamentos do protocolo OSPF, entrelaçando e discutindo os benefícios e desafios associados à adoção do protocolo no projeto de redes grandes e complexas. Veja os principais tópicos abordados abaixo.  O que é o Protocolo OSPF?  Como dissemos anteriormente, o protocolo OSPF é um protocolo de roteamento dinâmico.  De forma geral, podemos compará-lo com um GPS que observa as rotas para se chegar a um determinado destino e opta por aquela que será concluída em menor tempo ou sem trânsito.  Inclusive, diversos mecanismos do Google, que têm o objetivo de avaliar rotas de mapas e trânsito, utilizam este algoritmo para oferecer ao usuário uma resposta mais assertiva.  O protocolo OSPF consegue analisar, interpretar e registrar dados dos roteadores conectados à rede, para, posteriormente, escolher um melhor caminho para entregar os pacotes da rede.  É considerado pertencente à classe dos protocolos de roteamento dinâmico.  Todos os protocolos que priorizam a observação da quantidade de roteadores até chegada do destino são conhecidos como de vetor distância, como RIP, RIPv2 e EIGRP, enquanto os que priorizam chegar mais rápido de acordo com a banda são chamados de protocolos link state (estado de link), como o OSPF e IS-IS.  Dessa forma, o Protocolo OSPF é aquele do tipo link state que, antes de tomar qualquer decisão, irá avaliar a topologia de todos os roteadores integrados aos seus processos, optando pela jornada mais curta para encaminhamento dos pacotes. Em tempo, já abordamos o funcionamento do Protocolo OSPF de forma detalhada em outro artigo (você pode acessá-lo por aqui).  6 Aprendizados do Webinar “Protocolo de Roteamento OSPF” De acordo com o Professor Gledson, o Protocolo de Roteamento OSPF se apresenta em duas versões similares, com uma diferença em seu tipo de endereçamento – uma operando pelo IPv4 e outra para o IPv6. Além disso, o profissional destacou alguns outros pontos importantes em relação ao Protocolo de Roteamento OSPF, os quais você confere logo abaixo na sistematização dos aprendizados do evento online! 1) Características do Protocolo OSPF  Dentre suas principais características, destacam-se: Algoritmo de estado de enlace (link-state): esse protocolo utiliza o algoritmo link-state para fazer a propagação das informações de roteamento, favorecendo a rápida convergência das tabelas de roteamento. Quando comparado ao modelo de vetor de distância, utilizado no protocolo RIP, por exemplo, se apresenta como mais vantajoso em relação à sua velocidade, pois, ao invés de propagar toda a tabela de roteamento, o algoritmo propaga apenas a informação sobre as interfaces dos roteadores. Este processo ganha o nome de “inundação”, pelo qual rapidamente as informações do estado dos enlaces são propagadas para todos os roteadores da rede, resultando em uma rápida convergência das tabelas de roteamento.  Algoritmo SPF: proposto por Dijkstra, este algoritmo calcula as rotas de menor custo dentro da rede. É bastante conhecido e, embora seja um pouco pesado, é utilizado por diversos softwares que buscam melhores rotas de mapa, por exemplo. Quanto maior uma determinada rede, mais nós e enlaces ela terá em seu grafo, o que consome recursos de processamento e memória. O OSPF dedica uma boa parte de suas funcionalidades à melhorias que vão acelerar o processo de cálculo dessas rotas, tentando, a todo momento, minimizar as informações divulgadas, para que o grafo fique mais enxuto e para que se consiga  executar o algoritmo SPF de forma mais rápida. Estrutura de roteamento hierárquica: o protocolo de roteamento OSPF divide a rede em regiões, chamadas de áreas, e executa o algoritmo SPF nessas áreas. Essa característica transforma o protocolo em uma solução mais adequada para redes de médio a grande porte 2) Diferenças entre Protocolo OSPF e Protocolo RIP OSPF: Adota o algoritmo do estado do enlace (link-state)  RIP: Adota o algoritmo vetor de distância (distance vector) OSPF: Propaga informações na inicialização e após mudanças na rede para todos os roteadores  RIP: Propaga tabela de roteamento de forma periódica para roteadores vizinhos  OSPF: Rápida convergência da tabela de roteamento  RIP: Lenta convergência da tabela de roteamento – demora a detectar falhas  OSPF: Não impõe limite no tamanho da rede RIP: Limita a rede a 15 saltos (hops)  OSPF: Métrica das rotas é baseada no custo dos enlaces  RIP: Métrica das rotas é baseada no número de saltos (hops) Ambos suportam o endereçamento classless e VLSM (Variable Length Subnet Mask)  OSPF: Adota estratégia de roteamento hierárquico  RIP: Adota estratégia de roteamento plano  OSPF: Suporta múltiplas rotas de custos iguais  RIP: Sem suporte a múltiplas rotas  OSPF: Opera diretamente sobre o protocolo de rede IP  RIP: Opera sobre o protocolo de transporte UDP  OSPF: Adotado em redes de médio e grande portes  RIP: Adotado em redes de pequeno porte    OSPF: Configuração requer conhecimento de conceitos do protocolo  RIP: Configuração mais simples  3) Hierarquia de roteamento Para reduzir a quantidade de informações que o algoritmo SPF utiliza para calcular os caminhos, o protocolo OSPF divide a rede em áreas, onde cada área é composta por um conjunto de roteadores e redes contíguas.  As áreas estão interconectadas de acordo com uma topologia exigida dentro do próprio OSPF – uma área central (backbone) e áreas auxiliares ao entorno do backbone. Estas últimas precisam estar conectadas fisicamente ao backbone, formando uma topologia estrela entre as regiões.  Além disso, cada área tem um identificador de 32 bits, em uma representação na qual o backbone se configura como área 0. Nessa dinâmica, uma instância do algoritmo SPF é executada dentro de cada área.  Com isso, todos os roteadores dentro de cada área divulgam suas informações das redes e roteadores e, por estarem interconectados, todos os roteadores recebem as mesmas informações e anúncios, possuindo, portanto, o mesmo banco de dados topológico (LSDB). Isso significa dizer que a topologia de uma área é completamente abstraída para outra área, simplificando o trabalho do SPF pois o mesmo só precisa encontrar uma rota dentro de uma área.  Os roteadores, por sua vez, desempenham diferentes funções, dependendo de onde estão inseridos (backbone router, internal router, area border router e AS border router). Cada roteador pode participar de várias áreas, mas cada interface participa apenas de uma área.  Por fim, a estrutura hierárquica possibilita diferentes tipos de rotas anunciadas no OSPF: Rota intra-área – origem e destino dentro da mesma área Rota inter-area – origem e destino em áreas diferentes Rota externa – redistribuída para dentro do OSPF de outro sistema autônomo, podendo ser do “Tipo 1” (custo externo + interno) ou do “Tipo 2” (apenas custo externo). A prioridade de escolha das rotas se dá da seguinte forma: Intra-área > Inter-area > Externa Tipo 1 > Externa tipo 2 4) Tipos de áreas Backbone: distribui informações de roteamento  Stub: ABR não distribui rotas externas na área  Not-So-Stubby (NSSA): área stub que permite ASBR distribuir rotas externas na área  Totally Stub / NSSA: distribui apenas rota default via ABR  5) Bancos de Dados Topológicos  Tipos de LSAs (anúncios)  -Router LSA (link-state advertisement): descreve o estado e o custo de uma interface do roteador na área -Network LSA: descreve os roteadores conectados a enlaces multiacesso -Summary LSA: ABR informa uma rede em outra área -AS/NSSA External LSA: ASBR informa uma rede externa 6) Funcionamento do Protocolo de Roteamento OSPF Fechando o Webinar, o professor Gledson Elias aborda o funcionamento prático de um OSPF, que poder ser compreendido dentro das etapas abaixo:  Descoberta de vizinhos baseada no Protocolo Hello;  Estabelecimento de adjacência via sincronização dos bancos de dados topológicos usando pacotes OSPF;  Cálculo da tabela de roteamento usando algoritmo SPF – o custo da rota é o custo cumulativo dos enlaces ao longo do caminho; Propagação de mudanças nos estados dos enlaces para todos os roteadores da área via flooding de LSAs Outros detalhes sobre o funcionamento do Protocolo de Roteamento OSPF você confere por aqui no nosso primeiro artigo sobre o tema.  Recorde os pontos do Webinar Protocolo de Roteamento OSPF  Dessa forma, temos que o Webinar produzido pela ESR abordou o Protocolo de Roteamento OSPF com riqueza de detalhes, a fim de fornecer bases teóricas e práticas para que qualquer profissional de TI se especialize sobre o tema.  Vamos recordar os principais pontos abordados?  O OSPF é um protocolo de roteamento dinâmico, efetivo e não-proprietário; Possui autenticação dividida em 3 tipos (nula, senha simples e criptografia MD5); Foi projetado para operar dentro de um sistema autônomo e, portanto, atua como um protocolo intra-AS; Baseado no algoritmo estado de enlace (link-state) para propagar e processar as informações de forma rápida; Configuração de redes grandes e complexas requer conhecimento de conceitos e funcionalidades do protocolo; Projetos de redes OSPF devem ser planejados e documentados  de forma bastante cuidadosa e antecipada;  _____________________________________ Ao longo do tempo o protocolo de roteamento OSPF passou por melhorias, como é o caso do protocolo fast hello, que identifica o erro em um roteador de forma mais rápida, ou do BFD (bidirectional forwarding detection), um protocolo de teste de conectividade que monitora enlaces entre roteadores e detecta falhas em dezenas ou centenas de milissegundos Esse modelo se adapta bem para redes de médio a grande porte e é um importante conhecimento para quem deseja atuar na área de TI.  No webinar sobre o tema, os participantes ainda aprendem a calcular os custos dos enlaces e a entender aplicações práticas para o OSPF.  Para assisti-lo na íntegra, clique aqui! Sobre a Escola Superior de Redes (ESR) A Escola Superior de Redes (ESR) promove a capacitação, o desenvolvimento profissional e a disseminação de conhecimento de tecnologias da informação para todo o Brasil há mais de 16 anos.  Durante a sua trajetória já atendeu mais de 1100 instituições, além de ter contribuído para a capacitação de mais de 31 mil alunos. A escola, única parceira do maior instituto de cibersegurança do mundo, o Sans, oferece mais de 100 cursos, distribuídos em diferentes trilhas de conhecimento.  Sobre o Professor Gledson Elias Gledson Elias é doutor em Ciência da Computação (UFPE) e mestre em Informática (PUC-Rio), atuando, desde 1993, como professor universitário inicialmente na UFRN, e, a partir de 2004, na UFPB.  Na UFRN foi responsável pela implantação da Internet no Rio Grande do Norte Já na UFPB leciona e orienta na graduação e pós-graduação nas áreas de redes de computadores, sistemas distribuídos e engenharia de software.  Atuou como colaborador técnico da RNP, de 1991 até 1993, cuja contribuição na Rede Acadêmica Brasileira e na Internet no Brasil foi reconhecida através da distinção Construtores da Internet.br, em 2017. De 2005 até o presente, atua como coordenador local da unidade João Pessoa da ESR-RNP, local onde também leciona diversos cursos, incluindo: arquitetura e protocolos de rede TCP/IP, gerência de redes de computadores, IPv6 básico, protocolos de roteamento IP, tecnologias de redes sem fio, segurança em redes sem fio, e virtualização de servidores. _________________________________________ Curtiu? Compartilhe esse conteúdo com  quem é fã de tecnologia e, logo depois, siga conosco por esse universo.  Principais softwares para virtualização de servidores Web 3.0: o que é, impactos e benefícios da nova era da Internet


    25/08/2022
  • Hipervisor
    Administração e Projeto de Redes

    Hipervisor de A a Z: o que é, papel e tipos

    Você já conhece os benefícios da virtualização em nuvem e o que se espera de um profissional de TI que mexa com esta área. Porém, o conceito do que é um hipervisor e sua aplicação está sedimentado por aí?  Neste conteúdo você vai encontrar a explicação sobre o que são hipervisores e quais os seus tipos com riqueza de detalhes.  Até porque para executar uma virtualização em nuvem, necessariamente você irá contar com a presença desses softwares. Vamos lá?  O que é um hipervisor Durante a sua prática profissional você provavelmente teve contato com diversos hipervisores ou hypervisors.  Afinal, quem mexe com datacenters sabe que eles são muitos no mercado e de diferentes marcas, como é o caso do Oracle, VMWare, Hyper-V da Microsoft e KVM.  De maneira direta, os hipervisores, ou monitores de máquina virtual, são softwares, firmware ou hardwares, gratuitos ou licenciados, capazes de criar e rodar máquinas virtuais (VMS). Este é o conceito básico. Entretanto, para compreender o papel de um hipervisor na prática é preciso ir até a base do funcionamento de uma máquina. É o que você confere abaixo.  Qualquer equipamento que tenha o mínimo de inteligência tem também os componentes abaixo:  Sistema Operacional CPU – processador Memória RAM Memória não volátil Entradas (teclado, mouse, sensores de um carro, etc) e saídas (monitor, luz do painel do carro, tela do tablet, por exemplo) Esses componentes se relacionam da seguinte forma:  O CPU é iniciado >>> a partir disso há uma busca na memória não volátil >>> posteriormente a informação ali encontrada é passada para a memória RAM >>> e, assim, há o processamento de programas e instruções >>> depois disso as informações passam das entradas para a saída.  Relaxe, estamos chegando lá!  Caminhe conosco: depois dessa pincelada teórica sobre o funcionamento de uma máquina, pedimos para que você imagine o desenvolvimento de um software para esse sistema, ok?  Você já sabe que existe uma maneira específica para que haja uma comunicação entre as entradas e saídas. Isso quer dizer que cada máquina tem esses componentes de forma singular e individualizada, mesmo que haja um mínimo padrão entre eles. Por esse motivo, desenvolver um software para cada um dos tipos de entradas e saídas e demais componentes é bastante complexo e pouco rentável. Para facilitar a compreensão deste tópico, vamos pensar agora em conjuntos matemáticos. O CPU, Memória RAM, Memória não Volátil, as Entradas e Saídas estão contidos no Sistema Operacional, que, por sua vez, “empacota todos esses elementos”. Há, assim, a criação de uma camada entre as aplicações e o hardware em si.  O sistema operacional é o elemento que se preocupa em se comunicar com todas as peças e todos os hardwares.  Quando o fabricante faz uma nova placa de rede, ele cria o driver para o sistema operacional e não para o Chrome ou Microsoft Office, por exemplo. Quem desenvolve também desenvolve para o sistema operacional, como é o caso do Libreoffice para o Windows.  Ou seja, um fabricante de sistema operacional faz um gerenciamento, traduzindo esse processo, e servindo como um “benjamin” mágico, que vai permitir que quem desenvolve um programa não tenha que se preocupar com cada tipo de hardware e, por sua vez, quem fabrica hardware não precisará se preocupar com cada tipo de aplicação.  Em suma, essa é a função de um sistema operacional, abstrair o hardware. Quem desenvolve o Chrome precisa entender o Windows e Linux, por exemplo, para saber como enviar uma requisição de informação para eles.    De maneira geral, estes sistemas operacionais de desktop e servidor são idênticos, tendo alteração somente sob ponto de vista da forma como se faz a sintonia fina de cada um deles.  Sistema operacional Desktop – roda mais coisa em background  Sistema operacional Servidor – requisições vem via rede Portanto, o sistema operacional garante que haja comunicação entre as  aplicações internamente. Indo além, devemos refletir agora sobre a possibilidade de se colocar vários serviços dentro de um mesmo servidor. Essa ação é interessante até certo ponto, pois a partir de determinado momento ela pode se tornar insustentável e, até mesmo, oferecer riscos de segurança. Para suprir essa defasagem, existe a possibilidade dos servidores dedicados – um servidor para apenas uma aplicação, rodando apenas os softwares necessários e na versão adequada para essa aplicação.  O problema dessa opção é que ela requer uma grande quantidade de máquinas, ocasionando gasto de energia, espaço, além de maior consumo de licenças. É neste complexo cenário que o hypervisor aparece como uma solução a esse desafio. Afinal ele atua como outro software, além do sistema operacional, que fica em cima do hardware, entrando no lugar do sistema operacional e “fingindo” ser o hardware.  Quando instalamos o hypervisor podemos colocar diversos sistemas operacionais rodando na mesma máquina (sem que eles sejam os mesmos), pois cada um deles irá enxergar uma máquina fantasma.  O hipervisor tem o controle do hardware e dá uma atenção exclusiva para cada sistema operacional, dividindo o tempo de operação. Quando cada sistema operacional precisa acessar as placas de rede, o hypervisor pega essas requisições e as joga para as placas de rede efetivamente.  Portanto o hipervisor funciona como o sistema operacional, garantindo a comunicação de outros sistemas com o hardware e vice-versa.  Mesmo que nestes caso ainda haja a necessidade de licenças e seja também necessário um maior consumo de CPU, essa tecnologia guarda algumas vantagens: Criação de vários servidores – cada um rodando o seu próprio banco de dados   Sem hardware adicionais  Não precisam ser os mesmos sistemas operacionais Menor desperdício de recursos  Permite monitorar e controlar os sistemas operacionais Isolamento entre os sistemas operacionais (cada S.O pode ter seu próprio administrador, um não vê o outro) Facilidade de migração (transferir serviços ou replicá-los de um servidor para o outro sem comprometimento) Em caso de problema de um servidor, automaticamente o outro assume a sua posição Resumindo o hypervisor é uma tecnologia que garante a virtualização, mesmo que esse conceito tenha sido estendido e enquadrado, por exemplo, uma virtualização de desktop. Já a virtualização de servidor é uma forma de otimizar o uso de recursos dentro de um datacenter com múltiplas aplicações. O hypervisor é a base dessa virtualização. Tipos de hipervisores Existem 2 modelos de hipervisores que garantem essa integração entre hardware e sistema operacional, o TIPO 1 e o TIPO 2.  • Hipervisor TIPO 1:  É o hipervisor conhecido também como hipervisor nativo ou bare-metal.  Esse modelo roda no hardware “host” gerenciando os sistemas operacionais “guest” de uma maneira que o hipervisor substitua  o sistema operacional host. Além disso, os recursos da máquina virtual são programados diretamente no hardware pelo hipervisor. O Tipo 1 é comum em data centers empresariais ou em ambientes baseados em servidor. Alguns exemplos desse hipervisor são o KVM, Microsoft Hyper-V e VMware vSphere • TIPO 2 O hipervisor Tipo 2 ou hosted funciona como uma camada de software ou aplicação em um sistema operacional convencional.  Neste modelo há a abstração de um sistema operacional guest do sistema operacional host. Os recursos de máquina virtual são efetuados em sistema operacional host, que é efetivado no hardware.  É o tipo indicado para situações em que se deseja executar vários sistemas operacionais em um mesmo computador, como é o caso da máquina pessoal, por exemplo.  Exemplos: VMware Workstation e Oracle VirtualBox  ——————————————— O profissional de TI que visa ter mais espaço no mercado precisa compreender o processo de virtualização e seus componentes. Este é um assunto tendência no segmento e também de grande demanda. Na ESR você encontra diversos conteúdos sobre o tema que podem garantir a sua inicialização na área.  >> Webinar: Papel de um administrador de sistemas na área de virtualização  >> Principais softwares para virtualização de servidores  >> 6 benefícios de aprender virtualização em nuvem  Entretanto, é somente com uma especialização e certificação certa que as oportunidades de emprego podem se concretizar.  Um dos cursos mais buscados na ESR é o de Virtualização de Servidores, com emenda desenvolvida cuidadosamente para times de TI que desejam ir além.  Saiba mais sobre o curso aqui!   Curtiu este conteúdo? Compartilhe com seus colegas de profissão e leve o conhecimento adiante! 


    18/08/2022
  • o que é metaverso
    Temas Diversos

    Metaverso: o que é e quais os impactos dessa tecnologia nas relações sociais.

    Metaverso, NFT, identidade digital, criptomoeda, blockchain e outros diversos termos relacionados à tecnologia têm ganhado projeção em paralelo às evoluções e transformações digitais.  Entretanto, embora sejam populares, as aplicações desses recursos ainda geram dúvidas entre os entusiastas deste segmento.  Pensando nisso, a Escola Superior de Redes (ESR) realizou o Webinar “Metaverso e o futuro das relações sociais”, com o ator e empresário Gabriel Borgongino, proprietário da marca “Meu NFT”, para debater como o conceito do que é metaverso pode refletir no cotidiano virtual e offline das pessoas.  Abaixo você acompanha os principais tópicos abordados na palestra introdutória, além de outras informações pertinentes sobre o tema, O que é o metaverso?  Em 2021, Mark Zuckerberg, dono do então Facebook, aqueceu o mercado da tecnologia ao anunciar grandes mudanças para a marca – a transformação do nome para “Meta” e a promessa de um investimento de cerca de US$ 50 milhões para a criação de um metaverso ao qual o Facebook e outras possibilidades de consumo e relacionamentos estariam associados.  Em linhas gerais, esse metaverso mencionado pelo empresário representa uma camada paralela que integra experiências digitais com as do “mundo real”.  Através de recursos de realidade virtual e aumentada esses novos ambientes são criados e disponibilizados para que os usuários criem ou reproduzam experiências em formato de nuvem.  Mesmo que o assunto tenha se popularizado com o anúncio da gigante da tecnologia, o conceito de “metaverso” já é debatido há mais tempo.  Em 1992 o livro de ficção científica, “Snow Crash”, cunhou o termo ao contar a história de um entregador de pizza que na realidade virtual adotava outra “personalidade” e características.  A partir disso e, principalmente, com a evolução da tecnologia, várias iniciativas foram desenvolvidas com esse pano de fundo, como é o caso dos videogames, Habbo, do conhecido Second Life e, agora, das populares NFTs (non fungible token, ou, em português, token não fungíveis).  Atualmente, as empresas Horizon Worlds, Sandbox, Decentraland e VR Chat são as que mais se destacam neste mercado e aproveitam de um universo que ainda é pouco explorado enquanto oportunidade de negócio, mas promete bastante rentabilidade. A aposta é que o metaverso ganhe cada vez mais adeptos e os recursos digitais que permitem aos usuários fazer parte dele sejam barateados de acordo com os avanços técnicos necessários.  Portanto, o metaverso é um espaço virtual utilizado por usuários reais que pode servir a diversos propósitos, como entretenimento, educação, trabalho remoto, saúde, entre outros.  Como o metaverso impacta as relações sociais?  De acordo com o empresário Gabriel Borgongino, o metaverso já é observado em diversas práticas sociais da atualidade e tende a ser inserido em inúmeras outras em velocidade acelerada, uma vez que proporciona avanços para áreas importantes, como é o caso da saúde e educação.  No webinar, o profissional elenca alguns exemplos que demonstram como o metaverso e seus recursos podem ser associados às práticas sociais.  Confira abaixo os três principais ramos mencionados por Gabriel Borgongino:  1) Medicina  Por meio de realidade virtual, com uso de óculos para projeção de cenários, e também da realidade aumentada, o metaverso pode ser uma proposta bastante interessante para a área da saúde. Com esses recursos seria possível treinar cirurgias sem a necessidade de corpos reais, visualizar o corpo humano em formato de holograma, fazer consultas virtuais imersivas, dinamizar aulas de medicina, além de reunir profissionais de diversas regiões em uma sala de conferência ou cirurgia, na realidade virtual, sem que eles precisem se deslocar.  Mesmo que as discussões sobre as oportunidades que o metaverso pode proporcionar à medicina ainda sejam iniciais, profissionais já utilizam dessa nova camada para discutir cirurgias e debater o que vem por aí.  Recentemente o tema foi debatido pelo Fisweek, fórum digital de lideranças na saúde.  2) Educação Na educação é fácil visualizar como o metaverso pode agregar valor às jornadas de conhecimento de alunos e professores.  Nesse contexto, por se tratar de uma realidade imersiva, as trilhas de conhecimento podem, primeiro, ser acessadas por pessoas de qualquer lugar, como se elas estivessem de fato presente em um ambiente físico, e, segundo, as disciplinas passam a contar com recursos digitais que dinamizam a forma de se apresentar um conteúdo. Assim como na medicina, há diversas possibilidades de mesclar a realidade virtual e aumentada a fim de se potencializar a absorção de conhecimento e a sua democratização.  A exemplo disso, as barreiras geográficas, que já foram suplantadas com o modelo remoto, podem ser dissolvidas por completo neste cenário, pois o metaverso permite que um ambiente real seja reproduzido/criado na nuvem.  3) Turismo Outro exemplo de impacto do metaverso nas relações sociais, dado por Gabriel Borgongino, se relaciona ao turismo.  Segundo o empresário, a realidade virtual e aumentada podem elevar a experiência de visita a cidades e espaços turísticos.  No metaverso o usuário poderá ter acesso à informações que não estão projetadas na realidade, como hologramas, dados históricos, fotos do local em determinada época, entre outras possibilidades.  A ideia é que as vivências sejam potencializadas.  __________________________________ Uma pesquisa realizada pelo Instituto Gartner, Metaverse Hype, identificou que até 2026 mais de 25% da população terá experiências no metaverso, passando pelo menos 1 hora nessa realidade digital-real.  Ou seja, esse é um cenário que já se apresenta como uma oportunidade de investimentos e negócios e vai nortear o futuro das relações sociais a partir de agora.   Para  continuar debatendo o assunto e conferir os demais exemplos de impacto dessa tecnologia na vida humana, assista ao Webinar “Metaverso e o futuro das relações sociais” na íntegra.


    11/08/2022
  • Gestão de identidade e de acesso
    Segurança

    Gestão de Identidade e de Acesso (IAM): saiba se você realmente entende esse conceito!

    A gestão de identidade e de acesso faz parte da segurança da informação e permite, além da diminuição dos riscos cibernéticos, um melhor aproveitamento da nuvem.   Embora os processos para implementar a IAM, sigla em inglês de Identity and Access Management, muitas vezes sejam complexos, são extremamente necessários.  Isso ocorre pois o cenário de acelerada transformação digital amplia (ou redefine) os perímetros de segurança da informação nas instituições e inaugura novas demandas de barreiras contra cibercrimes e demais ameaças. Por isso, estratégias disruptivas têm sido implementadas e recomendadas em diferentes ambientes  corporativos, como é o caso do modelo de confiança zero.  Neste artigo você irá aprender mais sobre esse modelo, bem como irá destrinchar o que está por trás da gestão de identidade e de acesso. Continue conosco para desenvolver os seguintes tópicos:  O que é identidade digital?  Uma identidade nada mais é do que a representação de uma entidade capaz de identificá-la em um contexto particular. Sendo que tal identidade pode representar qualquer coisa existente no mundo real, tal qual uma pessoal, máquina, aplicação, objeto físico, empresa, entre outras possibilidades.  Ela é composta por um conjunto de informações que representa a entidade em diferentes contextos.Uma pessoa, por exemplo, pode ter múltiplas identidades, indicando a importância deste elemento para o acesso a serviços. Nesse último caso podemos usar como ilustração as identidades atreladas ao acesso a bancos, aquela de uso para caráter profissional, a de cidadão, a identidade que mostra alguma posse no mundo offline, as identidades de redes sociais, ou, ainda, as que mostram que alguém tem posse de algum dispositivo IoT.  Ou seja, a identidade digital representa uma entidade, a qual pode ser uma pessoa, uma coisa da IoT, um serviço, etc.  É composta por um conjunto de informações que pode se dispor da seguinte forma:  Por fim, podemos dizer que a identidade ajuda a provar quem você é quando você deseja acessar serviços e recursos online, sendo considerada, muitas vezes, o ponto de partida dessa relação.  O que é Gestão de Identidade e de Acesso (IAM)?  A Gestão de Identidade (IdM) e de Acesso (IAM) pode ser definida como um conjunto de processos, políticas e tecnologias capazes de garantir a identidade de uma entidade, a qualidade das informações de uma identidade, além da autenticação, autorização, responsabilização e auditoria em ambientes online.  Colocar em prática uma gestão de identidade e de acesso requer a criação de uma infraestrutura de autenticação e autorização (AAI), com as seguintes etapas:  Antes da próxima etapa, é válido ressaltar que existem várias formas de utilizar a autenticação, entretanto a caracterização descrita abaixo é a mais comum.  -Algo que você sabe. Ex: Login (identificador) – Senha (password)  -Algo que você possui. Ex: cartão magnético e smartcard -Algo que você é (característica única). Ex: íris e impressão digital Atualmente, uma tendência do mercado de tecnologia é usar neste momento a combinação de fatores de autenticação, para dar  mais robustez a este processo.  Dessa forma, quando uma credencial é comprometida, como uma senha por exemplo, um segundo fator de autenticação minimiza o vazamento.  Ou seja, é pertinente utilizar essa prática, desde que a autenticação seja ativada por meio de duas ou mais categorias diferentes, como o diálogo de confirmação para acesso a e-mails no qual há uma solicitação de autenticação no smartphone do usuário.  Além desses aspectos mencionados acima, outro ponto importante na implementação do IAM é o mapeamento e classificação de todos os recursos que se deseja proteger.  Quanto mais granulado se deseja um controle de acesso, mais especificados deverão ser os direitos de acesso.  Dessa forma, percebemos que uma gestão de identidade e de acesso é uma tarefa complexa, que necessita de acompanhamento por todo o ciclo de vida da gestão de identidade.  Um processo que envolve o provisionamento dessa identidade digital (criação, definição de grupos, contas) e a operação do uso dessa identidade nos sistemas para autenticação e autorização, aqui sendo importante  que ferramentas e serviços ofereçam redefinição de senha, gerenciamento de grupos, perfis, papéis e regras de acesso.  É uma prática que requer granularidade fina, flexibilidade para os sistemas dinâmicos existentes, recursos novos acrescidos aos ambientes de TI, execução automatizada, profissionais capacitados que não insiram regras inadequadas e, quando possível, grande visibilidade.  Vantagens da uma gestão de identidade e de acesso para as empresas  Existem inúmeros benefícios relacionados à implementação de IAM, principalmente, no que tange a melhoria da experiência dos usuários.  Mas, a prática vai muito além disso e contribui para outras frentes organizacionais, tais quais:  E quando a gestão de identidade e de acesso é executada de forma incorreta?  Mesmo diante de tantas vantagens da gestão de identidade e de acesso, algumas empresas ainda têm essa área defasada e com pouco investimento.  Com isso, a segurança da informação e a conformidade com as demandas legais frente ao uso de dados ficam comprometidas e podem acarretar em prejuízos significativos, tanto para a organização quanto para seus clientes. É o caso dos grandes vazamentos de dados vistos nos últimos anos.  1) Yahoo Data: 2003 3 bilhões de contas atingidas  2) Alibaba  Data: 2019 1,1 bilhões de pedaços de dados do usuário 3) Linkedin Data: 2021 700 milhões de usuários impactados  4) Sina Weibo  Data: 2020 538 milhões de contas atingidas  5) Facebook  Data: 2019 533 milhões de usuários atingidos  6) Marriott International (Starwood)  Data: 2018 500 milhões de consumidores atingidos  Em todos eles, os vazamentos dessas contas, senhas e credenciais também impactaram na absorção de informações e atributos de identidade do usuário, que ficaram à disposição para serem utilizadas em outros tipos de ataques.  Paralelamente a isso, uma recente pesquisa realizada pela PSafe, desenvolvedora dos aplicativos dfndr, identificou um cenário alarmante no qual 1 em cada 5 brasileiros já foi vítima de roubo de identidade na Internet.  Desafios de cibersegurança que impactam na IAM Os desafios emergentes em cibersegurança aumentam a complexidade da implementação de soluções e processos de gestão de identidade e de acesso. Por isso, é importante identificar e conhecer alguns deles. Veja abaixo:  Modelos de Gestão de identidade e de acesso Há diversos modelos que respondem a uma prática de gestão de identidade e de acesso – uns mais eficientes que outros.  Neles, há a participação de diferentes atores ou sujeitos, como usuários, identidades, provedores de identidade, provedores de serviços. Conheça abaixo os modelos de IAM Modelo tradicional (Silo):  Uma única entidade (o provedor de identidade e de serviço) faz a gestão, o provisionamento da identidade e autenticação. Reúne as seguintes características: Cada provedor de serviço é responsável pelo processo de identificação de seus usuários (IdP + SP), com o usuário criando uma identidade para cada SP.  Modelo Centralizado  É mais robusto, sendo utilizado, por exemplo, pelo Google, ou instituições de ensino que objetivam a gestão completa da vida acadêmica.  São implementados usando diferentes tecnologias e contemplam os aspectos abaixo:  Modelo de identidades federadas  É o modelo que se mostra mais adequado para ambientes multi institucionais e colaborativos, no qual cada domínio administrativo tem um provedor de identidade, que pode ou não ter provedores de serviço disponibilizados nesse contexto da federação.  Um domínio administrativo representa empresas, universidades, etc (Composto por usuários, diversos SPs e um único IdP). Compreende as qualificações abaixo:  Os profissionais que desejam constituir a federação nesse tipo de modelo precisam se atentar para:  Além desses três modelos, a gestão de identidade e de acesso também pode seguir o script do “centrado no usuário” e a novidade do “modelo de identidade descentralizada e auto soberana” – focada no conceito de blockchain. O que é Confiança Zero? Na lógica de uma gestão de identidade e de acesso, o modelo de “Confiança zero” é uma estratégia de segurança resumida na frase “nunca confie, sempre verifique” ou “confiança por exceção”.  O modelo se adapta às complexidades do ambiente moderno, que não tem um perímetro de segurança delimitado e possui características únicas como a força de trabalho móvel.  O confiança zero protege dispositivos, aplicativos e dados onde quer que eles estejam e tem como princípios básicos:  Está alinhado com a privacidade de dados pessoais, contribuindo para a segurança dos mesmos. Como implementar o modelo de confiança zero?  No webinar “Gestão de Identidade e de Acesso (IAM): como implantar o modelo de confiança zero?”, realizado pela ESR, Michelle Wangham, assessora de Pesquisa, Desenvolvimento e Inovação (PD&I) na Rede Nacional de Ensino e Pesquisa (RNP) e professora da Universidade do Vale do Itajaí (UNIVALI), arremata todas as informações condensadas neste artigo e orienta os profissionais de TI para as práticas de tal implementação.  Descubra mais sobre todos esses tópicos assistindo ao Webinar na íntegra aqui. 


    08/08/2022