Cadastre-se

CADASTRO

Em caso de não possuir CPF, por favor entre em contato conosco clicando aqui.

Ao informar meus dados, eu concordo com a Política de Privacidade

ReCaptcha
Entrar
Escola Superior de Redes

Blog da ESR

  • Orquestração de containers Kubernetes
    Administração de Sistemas

    Guia: a orquestração de containers Kubernetes pode ajudar a minha organização?

    Uma das ferramentas que mais ganham aderência e popularidade no mercado de TI está relacionada com a orquestração de containers em nuvem e com o desenvolvimento consistente da infraestrutura de cloud computing nas empresas. Já ouviu falar de orquestração de containers por meio de Kubernetes? Esse sistema representa uma peça-chave no portfólio de qualquer profissional da TI moderna, por causa da sua popularização para atender à demanda de cada vez mais aplicações nativas e modernas em nuvem.  De maneira geral, podemos dizer que o Kubernetes – também conhecido como K8s – é um sistema de código aberto (open-source) para automatizar a implantação, o escalonamento e o gerenciamento de aplicativos containerizados. Dessa forma, o Kubernetes representa uma das principais soluções de orquestração de container, originalmente, desenvolvidas pelo Google, mas que hoje é mantido pela Cloud Native Computing Foundation.  Por entender a importância do tema, separamos, neste guia, os principais pontos acerca dessa tecnologia. Leia conosco!  Necessidades das organizações modernas O crescimento da tecnologia da orquestração de containers Kubernetes ocorre no contexto de uma grande migração de workloads para ambientes de cloud. Essa demanda por clouds – públicas, privadas ou híbridas – representa uma transformação significativa no panorama da TI, que prioriza investimento em ambientes da nuvem e também no paradigma de desenvolvimento de aplicações.  É cada vez mais interessante às organizações que exista uma preocupação com a portabilidade e com a capacidade de se evitar o vendor lock-in. Além disso, pela maior hibridização dos métodos de implantação dos servidores, os negócios precisam se adaptar sempre de forma rápida aos cenários heterogêneos. Somado a isso, as empresas ainda enfrentam um ambiente de negócios altamente competitivo e dinâmico, que exige inovações constantes e novas aplicações com mais rapidez e eficiência. Tudo isso requer um ambiente de TI ágil e escalável, que possa suportar a implantação de novas aplicações em uma variedade de ambientes de nuvem. É nesse contexto que a orquestração de containers com Kubernetes se torna uma necessidade para as organizações atuais, permitindo que os negócios implementem aplicações de forma mais rápida e eficiente e reduzam o time to market.  A tecnologia também é capaz de assegurar que as organizações gerenciem e escalonem as suas aplicações de forma mais eficiente, tendo a alta disponibilidade para os usuários finais como um diferencial-chave. O Kubernetes oferece recursos avançados de gerenciamento de múltiplos clusters, que asseguram que as organizações implantem e administrem aplicações de forma consistente em todos os ambientes cloud. O que são containers e quais as suas diferenças em relação à VMs? Os containers, popularizados pelo Docker (2013), são uma unidade-padrão de software com artefatos leves e que contêm políticas de segurança e isolamento próprias, além de código-fonte e todas as dependências necessárias para operar de forma rápida e confiável nos mais diversos ambientes, sejam eles de desenvolvimento, homologação ou produção. Essa tecnologia se diferencia das demais máquinas virtuais (VMs) e das práticas de virtualização tradicionais por ser uma alternativa menos “pesada”, com artefato em nível de aplicação, e não mais em nível de infraestrutura.  Na virtualização tradicional, é comum encontrar algumas desvantagens, como a VM Sprawl (expansão ou proliferação de VMs) e a necessidade de limpeza dessa multiplicação de máquinas. Quando ocorre esse problema, por causa da criação de máquinas virtuais sem um planejamento adequado, há sobrecarga dos recursos do servidor físico e, possivelmente, queda no desempenho do sistema, aumento da latência ou até mesmo falhas. Outro desafio da virtualização tradicional pode estar alocado na redundância de recursos, uma vez que algumas operações podem ser duplicadas sem necessidade, algo que também sobrecarrega o sistema. Além disso, há a ocorrência de falhas na sincronicidade de portabilidade entre ambientes e bibliotecas. Às vezes, quando uma aplicação é movida de um ambiente virtual para outro, bibliotecas ou outras dependências necessárias para que ela funcione adequadamente não estão integralmente disponíveis ou são diferentes no novo ambiente. Com isso, a compatibilidade é comprometida e pode afetar o funcionamento correto da aplicação.  Por outro lado, nos containers, o kernel e os recursos básicos são compartilhados, mesmo que estejam rodando diferentes aplicações, o que leva a benefícios como:  Ainda assim, como em qualquer outra estratégia de virtualização, essa também possui desafios:  Dessa maneira, uma das principais diferenças entre a conteinerização e as VMs se dá na esfera da gerência. Os containers podem ser administrados por meio de ferramentas de orquestração, como o Kubernetes, que permite implantar, escalar e monitorar vários deles ao mesmo tempo, enquanto as VMs exigem uma abordagem mais tradicional de gerenciamento, que envolve a alocação de recursos de hardware para cada uma delas.  O que é orquestração de containers e que problemas ela visa resolver? A orquestração de containers é um processo de gerenciamento automatizado que inclui o provisionamento, a implantação, o escalonamento e o monitoramento de vários containers. A atividade é realizada por meio de ferramentas de gerenciamento de containers, como o Kubernetes, que ajudam as organizações a automatizá-los e gerenciá-los de forma mais eficiente. O objetivo da orquestração é resolver problemas que surgem quando as organizações começam a utilizar containers em escala, como os elencados a seguir:  Veja também o webinar gratuito  “Como a orquestração de containers com Kubernetes pode ajudar minha organização?” ______________________________________ Entre os outros diferenciais da tecnologia, a orquestração de containers ainda permite que as organizações os gerenciem em escala, garantindo que as aplicações estejam disponíveis para os usuários finais o tempo todo. Também garante que as organizações implantem aplicações em múltiplos ambientes de nuvem, incluindo nuvens públicas, privadas e híbridas, o que torna a orquestração de containers essencial para as empresas que buscam uma estratégia de nuvem escalável e eficaz. Ou seja, o potencial de escalabilidade da virtualização por meio de containers e de Kubernetes é o que destaca essa tecnologia no mercado.  Por ser uma plataforma de código aberto mantida pela Cloud Native Computing Foundation (CNCF), há uma grande comunidade de desenvolvedores e usuários, o que significa que há boa quantidade de recursos disponíveis para ajudar as organizações a adotar e implementar o Kubernetes. Embora a tecnologia também encontre desafios que precisam ser superados dia a dia pelo profissional de TI, ela representa uma solução eficaz para gerenciar containers em escala nos ambientes de nuvem. Como escolher entre serviços gerenciados de Kubernetes ou a implantação do próprio cluster A escolha entre um serviço gerenciado de Kubernetes ou a implantação do próprio cluster depende de diversos fatores, incluindo a experiência da equipe. Para esse caso, é necessário que o time compreenda que o gerenciamento de cluster Kubernetes é a forma pela qual uma equipe de TI é capaz de administrar estrategicamente um grupo de clusters do Kubernetes, ou seja, deter o conhecimento acerca de vários deles e fazer com que esse sistema performe no melhor ao pior dos cenários. Além disso, antes de tomar essa decisão, os gestores precisam refletir sobre os requisitos de recursos, a complexidade do projeto, os custos e os objetivos de negócio. Listamos, a seguir, alguns pontos a serem considerados para ajudar nessa decisão. 1) Experiência e conhecimento Serviço gerenciado: se a equipe não possui muita experiência com Kubernetes, um serviço gerenciado pode ser uma escolha mais vantajosa, pois muitas tarefas de manutenção e administração são tratadas pelo provedor. Implantação própria: se você tem uma equipe experiente em Kubernetes e está confortável com a configuração, implantação e manutenção de clusters, então implantar o próprio cluster pode ser uma opção. 2) Complexidade do projeto Serviço gerenciado: para projetos menores ou de médio porte, um serviço gerenciado pode ser mais simples de configurar e gerenciar. Implantação própria: para projetos mais complexos ou personalizados, em que você precisa de controle total sobre a configuração do cluster, a implantação própria pode ser mais adequada. 3) Recursos financeiros Serviço gerenciado: normalmente, serviços gerenciados envolvem um custo mensal, mas podem ser mais econômicos para equipes que não têm recursos para manter infraestrutura própria. Implantação própria: implantação própria pode ser mais custosa em termos de tempo, pessoal e recursos financeiros. É necessário considerar os custos de hardware, largura de banda e energia, além do tempo investido pela equipe.  De maneira geral, essa análise está diretamente ligada à existência prévia ou não de infraestrutura na organização-alvo, sendo uma condição importante para a decisão de infraestrutura gerenciada ou self managed. 4) Manutenção e atualizações Serviço gerenciado: atualizações e patches são, geralmente, tratados pelo provedor, o que reflete na redução da carga de trabalho operacional da equipe. Implantação própria: manutenção e atualizações ficam sob responsabilidade da equipe, o que pode demandar mais tempo e recursos. 5) Conformidade e segurança Serviço gerenciado: alguns serviços gerenciados oferecem recursos de segurança e conformidade integrados, sendo importantes para projetos que lidam com dados sensíveis e têm dificuldade em se adaptar às regulamentações desses quesitos. Implantação própria: há maior controle e gerência sobre as medidas de segurança, permitindo uma atuação personalizada, de acordo com os requisitos específicos. A carga gerencial nesses casos é significativa, portanto, é realmente um ponto em que a opção por serviços gerenciados se torna muito mais simples em termos de implantação. A opção por essa modalidade vai variar de acordo com a experiência das equipes e a disponibilidade de recursos e capital, bem como as especificidades de cada projeto.   Cinco exemplos de provedores de serviços Kubernetes 1) Amazon Kubernetes  Também chamado Amazon Elastic Kubernetes Service (EKS), esse serviço se diferencia por permitir a execução, a iniciação e o dimensionamento de aplicativos Kubernetes na nuvem AWS e também localmente. O Amazon EKS substitui, gradualmente, o ECS, além de automatizar tarefas importantes de gerenciamento do Kubernete, como provisionamento de nós, aplicação de patches e atualizações:  2) Docker Enterprise Embora a Docker Enterprise tenha sido adquirida pela Mirantis, empresa especializada em serviços K8s e Open Stack, o produto de código aberto continuou com a Docker Inc. Ainda assim, a Mirantis lançou atualizações importantes para o produto, mantendo o nome Docker Enterprise. Tais inovações objetivam auxiliar o recurso a competir melhor com os principais players de nuvem híbrida:  3) Google Kubernetes  Caracterizado por ser o primeiro serviço de Kubernetes baseado em nuvem do mercado, o Google Kubernetes Engine é um ambiente gerenciado para escalonamento, implantação e administração de aplicativos em contêineres em uma infraestrutura segura do Google.  Considerado uma das plataformas disponíveis mais avançadas de Kubernetes, o Google Kubernetes Engine, atualmente, chama a atenção por alguns pontos de destaque: 4) IBM Kubernetes Disponível, desde 2017, como IBM Cloud Container Service, representa uma das primeiras ofertas Kubernetes gerenciadas totalmente na nuvem. No ano seguinte, foi renomeada IBM Cloud Kubernetes Service como forma de marcar o investimento estratégico da gigante no Kubernetes e também registrar que ela é fundadora do CNCF K8s Conformance Testing. Entre suas características, estão: 5) Oracle Container Engine for Kubernetes Este é um serviço totalmente gerenciado, que pode ser utilizado para a criação de clusters Kubernetes, por meio de um console baseado em navegador e também APIs REST. Possui como diferenciais: Além desses, outros serviços são bem conhecidos para essa finalidade, como Rancher, Alibaba Kubernetes, Linode Kubernetes, DigitalOcean Kubernetes e Azure Kubernetes. ____________________________________________________________ Dominar o conhecimento da tecnologia de conteinerização por meio de Kubernetes e também do gerenciamento de clusters de Kubernetes inaugura um nicho de atuação no mercado de TI cada vez mais necessário e popular.  Aposte no seu futuro neste setor: inscreva-se no curso EaD da ESR “Orquestração de containers com Kubernetes”


    06/09/2023
  • Trilhas ESR
    Temas Diversos

    Que curso de tecnologia é feito para mim? Conheça as Trilhas ESR e descubra sua jornada de aprendizagem ideal

    Até 2025, o Brasil deve gerar cerca de 420 mil novas vagas no setor de TI. As oportunidades são reflexo das inúmeras transformações digitais, como inteligência artificial, machine learning e migração para nuvem, entre outras que demandam, por sua vez, profissionais ainda mais capacitados.   Saber como se manter atualizado e buscar as qualificações ideais passa a ser uma exigência para quem quer se destacar no segmento.  De acordo com a Associação Brasileira das Empresas de Tecnologia da Informação e Comunicação (Brasscom), a demanda anual por profissionais no país é de, em média, 159 mil pessoas. Entretanto, o Brasil só forma 53 mil na área por ano. Nesse contexto, preencher alguma dessas vagas pode ser um plano distante, a menos que a especialização faça parte da rotina de um candidato.   Vamos mostrar, no decorrer deste artigo, todas as Trilhas ESR – cursos e conteúdos exclusivos desenvolvidos pela Escola Superior de Redes (ESR), unidade de serviço da Rede Nacional de Ensino e Pesquisa (RNP), criada para promover a capacitação, o desenvolvimento profissional e a disseminação de conhecimento em tecnologia da informação.  São 17 anos de atuação, mais de 1.100 instituições clientes e aproximadamente 40 mil alunos capacitados.  Você pode ser o próximo a estudar quando e onde quiser, em mais cem cursos que contam com possibilidade de customização conforme sua necessidade e um corpo docente formado por especialistas.  Conheça as Trilhas de Aprendizagem ESR e escolha a sua!  Quais são as Trilhas ESR?  A ESR trabalha com diversas Trilhas de Conhecimento para a tecnologia, em que abordam diversas áreas e especializações. Cada uma delas conta com cursos presenciais e remotos para se adaptarem às especificidades dos alunos. Além disso, os treinamentos são divididos por níveis, do básico ao avançado.  Do básico ao avançado, veja a Jornada de Aprendizagem das Trilhas Educacionais da ESR: Governança de TI Cada vez mais estratégica para as organizações, a qualificação em Governança de TI é o diferencial competitivo dos profissionais que almejam posições de destaque nesse mercado. A Governança de TI está relacionada com o desenvolvimento de um conjunto estruturado de competências e habilidades para profissionais de TI responsáveis pelo planejamento, implantação, controle e monitoramento de programas e projetos de governança. Conheça os cursos da Trilha ESR de Governança em TI Administração e Projeto de Redes Aprenda a projetar, operar, administrar e gerenciar uma rede TCP/IP conectada à internet, com cursos sobre roteamento, protocolo de redes TCP/IP, projeto e gerência de redes e projeto de redes sem fio (wireless). Conheça os cursos da Trilha ESR de Administração e Projeto de Redes  Segurança A metodologia da ESR visa capacitar o aluno para pensar preventivamente e tratar os incidentes quando não for possível evitá-los. As atividades práticas refletem a realidade do analista de segurança ao lidar com incidentes de segurança e investigações forenses, tornando-o um profissional valorizado nas corporações. Conheça os cursos da Trilha ESR de Segurança  Administração de Sistemas Uma formação completa para administradores de sistemas, com cursos que abrangem desde as funções básicas da administração de sistemas até a instalação e configuração de uma rede TCP/IP e configuração dos serviços de internet. Conheça os cursos da Trilha ESR de Administração de Sistemas  Desenvolvimento de Sistemas Por meio dos cursos da ESR para essa trilha, você conhece parte importante do universo de desenvolvimento de sistemas.  A capacidade de processar informações já não está mais restrita aos computadores, sendo possível também em tablets, celulares e outros dispositivos. Muitos são, inclusive, considerados inteligentes, já que incorporam software (ou programa de computador) capaz de controlar seu funcionamento e interação com o usuário e outros dispositivos. Ou seja, é um universo enorme, com inúmeras linguagens de programação, metodologias, ambientes, padrões e ferramentas de apoio para desenvolvimento, testes e manutenção desses softwares. Na ESR, você se prepara para qualquer uma dessas possibilidades. Conheça os cursos da Trilha ESR de Desenvolvimento de Sistemas  Métodos Ágeis e Inovação A área de Métodos Ágeis e Inovação da ESR oferece cursos a profissionais que atuam ou desejam atuar como facilitadores e como equipe na condução dos projetos. Os cursos são focados nas metodologias mais utilizadas na atualidade, com conteúdo teórico voltado para a prática, além de muitas dinâmicas e interações.  A qualificação em Métodos Ágeis e em Processos de Inovação traz um forte diferencial competitivo para os profissionais que almejam posições de destaque no mercado atual, cada vez mais veloz e assertivo.  A proposta dessa trilha é capacitar os alunos na prática de diversos frameworks e métodos, com o objetivo de criação de valor para as organizações. Conheça os cursos da Trilha ESR de Métodos Ágeis  Computação em Nuvem “A computação pode, algum dia, ser organizada como uma utilidade pública, assim como o sistema telefônico é de utilidade pública”, disse o professor John McCarthy durante a celebração do centenário do MIT, em 1961. Posteriormente, o termo cloud computing surgiu pela primeira vez em 1997, em uma palestra acadêmica ministrada por Ramnath Chellappa.  Desde então, cada vez mais as empresas migram suas operações para um modelo de computação em nuvem capaz de fazer negócios.  Com menor número de demandas de infraestrutura e maior flexibilidade para membros da equipe, profissionais certificados com conhecimento comprovado em computação em nuvem são muito visados. Conheça os cursos da Trilha ESR de Computação em Nuvem Diferenciais da ESR _____________________________________________ A capacitação é a decisão mais lógica do profissional de TI que busca uma carreira sólida e com verdadeiras chances de contratação. Para isso, é imprescindível adquirir treinamento e cursos qualificados e certificados oferecidos por empresas que sejam referência no mercado de aprendizagem nesse segmento.  Acompanhe as turmas da ESR para aprimorar seu desenvolvimento profissional com quem realmente entende do setor!


    28/08/2023
  • OSPF vs BGP
    Administração e Projeto de Redes

    OSPF vs. BGP: 10 principais diferenças dos protocolos de roteamento

    Uma das principais demandas de conhecimento técnico para um profissional de TI, sobretudo para os que atuam no campo das redes de computadores, está associada à compreensão dos protocolos de roteamento e também de suas diferenças. Inclusive, você sabe quais delas se aplicam quando se observa uma dinâmica OSPF vs. BGP?  Essa é a resposta que vamos trabalhar neste artigo. Para isso, é importante destacarmos que os protocolos são a base para projetar, configurar e otimizar redes, que impactam diretamente no desempenho, na eficiência e na escalabilidade dos sistemas. Além disso, dominar o funcionamento de protocolos de roteamento garante que o profissional seja capaz de trabalhar estrategicamente a confiabilidade, segurança e interoperabilidade das redes, bem como facilita a resolução de problemas e acompanha a evolução tecnológica. Ou seja, essa tecnologia habilita que os especialistas de TI tenham uma atuação pautada na conquista de vantagem competitiva para enfrentar os desafios do cenário de redes, em constante mudança. A seguir, vamos abordar as características de dois protocolos essenciais para o dia a dia da tecnologia da informação, OSPF e BGP, bem como destacar suas discrepâncias de operação.  Continue conosco!  Para que servem os protocolos de roteamento? Os protocolos de roteamento estão conectados diretamente à evolução da internet. Em linhas gerais, foram idealizados como uma resposta ao crescimento da rede e à sua demanda por comunicação efetiva entre diversos dispositivos, diferente do que era necessário nos primórdios dessa tecnologia.  No começo, a internet representava uma rede experimental, chamada Arpanet, que continha um núcleo único para toda a sua operação, com roteadores do núcleo e roteadores externos – as instituições de ensino, que se comunicavam através de  Gateway to Gateway Protocol (GGP).  Quando a rede expandiu e abandonou a modalidade originária, “acadêmica”, o núcleo centralizado passou a não fazer sentido, assim, o crescimento exigiu uma descentralização da rede. Nesse contexto, a solução para driblar o desafio do aumento da rede e a necessidade de comunicação entre ela foi criar um sistema autônomo.  Em relação a esse assunto, o RFC 1930, documento em formato acadêmico que registra como funciona a internet, é responsável por discriminar o que é um sistema autônomo (AS) de forma bastante detalhada, de modo que seu conhecimento é imprescindível ao profissional de TI.  Com isso, a comunicação entre o AS deu origem ao que conhecemos hoje como internet.  Para que os dados sejam transmitidos entre esses sistemas, também foi necessário a existência de uma política de roteamento capaz de definir como essa atividade ocorreria.  Assim, os ASs se comunicavam através do Exterior Gateway Protocol (EGP). Entretanto, por ser fruto de um desenvolvimento inédito, o protocolo apresentou deficiências, como loops de roteamento e pouca flexibilidade para os ASs definirem suas políticas de roteamento. Por isso, outros protocolos foram desenvolvidos e passaram a se destacar no mercado.  O que é um protocolo OSPF?  Em tradução livre, Open Shortest Path First (OSPF) significa escolher o caminho mais curto primeiro. Por isso, entender como ele funciona faz parte das premissas de quem se interessa pela área da tecnologia ou já é um profissional do mercado.  Cunhado em 1988 pelo grupo de trabalho de Interior Gateway Protocol (IGPs), da Internet Engineering Task Force (IETF), o protocolo de roteamento utiliza o tipo link-state para  observar as informações de vários roteadores conectados entre si e escolher qual o melhor trajeto para entregar um pacote de rede, de forma mais efetiva. É um protocolo de roteamento no modelo dinâmico, que pode ser comparado com um GPS, que observa as rotas para chegar a determinado destino e opta por aquela que será concluída em menor tempo ou sem trânsito.  Assim, o protocolo OSPF consegue analisar, interpretar e registrar dados dos roteadores conectados a um servidor, para, posteriormente, escolher um melhor caminho para entregar os pacotes da rede. É considerado pertencente à classe dos protocolos de roteamento dinâmico.  Todos os protocolos que priorizam a observação da quantidade de roteadores até a chegada do destino são conhecidos como de vetor distância, como RIP, RIPv2 e EIGRP, enquanto os que priorizam chegar mais rápido de acordo com a banda são chamados protocolos link state (estado de link), como o OSPF e IS-IS.  Dessa forma, o protocolo OSPF é aquele do tipo link state que, antes de tomar qualquer decisão, vai avaliar a topologia de todos os roteadores integrados a seus processos, optando pela jornada mais curta para encaminhamento dos pacotes. Características do protocolo OSPF  Protocolo de roteamento interior, construído para ser usado dentro do AS e para substituir o Protocolo RIP (Routing Information Protocol). Padronizado pela RFC 2328 de 4 de abril de 1998. Utiliza o algoritmo Shortest Path First (SPF) para determinar a melhor rota.    É chamado protocolo de estado de enlace. Usa métrica de custo de saída da interface. Promove a convergência rápida da tabela de rotas, compatibilizando-a. É utilizado em redes de médio a grande portes.    Possui hierarquias de roteamento dentro do AS.  Objetiva reduzir o tráfego. Área 0 (zero): backbone OSPF | Todas as áreas se conectam ao backbone.       Cada área tem uma cópia independente do OSPF. Quando ligado, o roteador executa a seguinte sequência: inicializa as estruturas de dados do protocolo; determina as interfaces funcionais, aquelas que têm agrafamento; executa o protocolo Hello para conhecer seus vizinhos e tenta formar adjacências com eles. ➡️ Leia também: Como funciona o protocolo OSPF? O que é protocolo BGP?  Por sua vez, o Border Gateway Protocol (BGP) é a tecnologia que permite que a internet funcione plenamente, ou seja, é um protocolo de integração de sistemas e informação.   Não à toa, o especialista Douglas Comer define tal ferramenta como “a cola que mantém a internet unida e permite a interconexão universal”.”.   Como dissemos anteriormente, a rede é formada por diversas sub-redes, também chamadas sistemas autônomos (AS), que precisam se conectar e trocar informações entre si. Quem garante que isso ocorra na prática são os protocolos BGP, por meio da troca de informações de roteamento e acessibilidade entre roteadores de borda.  É por meio da utilização de protocolos de roteamento BGP que há o que denominamos popularmente “correio da internet”.  Quando há o envio de dados pela internet, o protocolo BGP é capaz de avaliá-los, observar todos os caminhos existentes na nuvem e ainda escolher a rota mais eficiente para que um tráfego de IP viaje de um ponto a outro. Dessa forma, é como se os sistemas autônomos (autonomous systems ou AS) fossem agências individuais dos correios e o protocolo BGP, o correio em si.  Para os iniciantes na área, é importante compreender que o protocolo BGP, embora seja um dos mais complexos, é também um dos mais importantes, sendo responsável por garantir a troca de informações entre roteadores, com avaliação da melhor rota e também da mais eficiente.  Características do Protocolo BGP-4  O BGP foi o sucessor do EGP, ou seja, é um protocolo exterior. É padronizado pela RFC 4271 de janeiro de 2006. Utiliza como algoritmo o vetor caminho (path vector – rota que atravessa menos ASs). Depende do OSPF como seu protocolo interior.   Precisa ser formalmente apresentado aos vizinhos. Não tenta descobrir quais são. O administrador deve configurar os endereços nos BGPs para que os roteadores se comuniquem.       Assume a existência de um protocolo IGP. Não calcula a tabela de rotas. O banco de informações de roteamento (Routing Information Base – RIB) armazena todas elas. Estabelece a conexão TCP entre os roteadores.  Envia a tabela de rotas completa só uma vez.       Atualiza parcialmente a tabela (incremental).      Conta com mensagens de keepalive para manter a sessão aberta. ➡️ Leia também: Protocolo de roteamento BGP para iniciantes: o que é e como usar  10 diferenças dos protocolos OSPF e BGP-4 Agora que você já conhece o funcionamento e as características de cada um desses protocolos, fica mais fácil compreender suas principais diferenças.  1) Em relação ao modelo de algoritmo: BGP: Vetor de caminho (path vector).  OSPF: Estado de enlace (link-state). 2) Em relação à forma de propagação da informação de rotas:   BGP: Atualização parcial da tabela de rotas e mensagens de keepalive. OSPF: Propagação de informações na inicialização e depois de mudanças na rede para todos os roteadores. 3) Em relação à velocidade de convergência da tabela de rotas:   BG: Rápida.  OSPF: Rápida     4) Em relação ao tamanho da rede:   BGP: Não tem limite de número de saltos.  OSPF: Não tem limite do tamanho da rede. 5) Em relação às métricas das rotas:  BGP: São baseadas no número de ASs e na configuração dos atributos BGP.  OSPF: São baseadas no custo dos enlaces.  6) Em relação às estratégias de roteamento:  BGP: Usa roteamento plano.  OSPF: Usa roteamento hierárquico.  7) Em relação às rotas:  BGP: Suporta rotas alternativas e balanceamento de tráfego.  OSPF: Suporta múltiplas rotas de custos iguais.  8) Em relação à operação:   BGP: Usa o protocolo de transporte TCP.  OSPF: Age diretamente sobre o protocolo de rede IP.  9) Em relação à indicação de uso:  BGP: É adotado no roteamento entre ASs. OSPF: É adotado em redes de médio e grande portes dentro do AS. 10) Em relação à complexidade de configuração:  BGP:  Requer muito conhecimento dos atributos do BGP.  OSPF: Requer conhecimento de conceitos de protocolo.  Como entender essas diferenças na prática? Se você é um profissional de TI preocupado com o aprendizado contínuo, a Escola Superior de Redes é uma verdadeira aliada. Focada no ensino de qualidade sobre tecnologia, a instituição ajuda você a construir uma carreira de sucesso e que conquiste espaço no mercado.  Para discriminar o funcionamento dos protocolos de roteamento, a ESR convidou o especialista Luiz Carlos Lobato para liderar um evento on-line focado nas explicações práticas sobre as aplicações da tecnologia, as diferenças entre OSPF e BGP e os usos comuns de ambos, além de outras curiosidades. Assista ao vídeo gratuitamente aqui!  Curte tecnologia ou é profissional da área? Compartilhe o conteúdo com um amigo. Logo depois, siga conosco por esse universo: Principais softwares para virtualização de servidores Web 3.0: o que é, impactos e benefícios da nova era da internet


    16/08/2023
  • Importância da programação
    Desenvolvimento de Sistemas

    A importância da programação para o futuro do trabalho

    A programação é um elemento-chave para o presente e o futuro do mercado de trabalho, seja para os profissionais de TI, seja para as empresas que contratam esse tipo de mão de obra por já estarem focadas na manutenção de suas vantagens competitivas diante da concorrência. Somente por meio dessa atividade é possível dar continuidade à rápida evolução da Internet das Coisas (IoT), da inteligência artificial (IA) ou tornar o ambiente corporativo em nuvem devidamente sustentável para a quantidade cada vez maior de dispositivos conectados à rede.  Além disso, a programação é capaz de solucionar, de maneira bastante ágil, problemas relacionados com a jornada de compra omnichannel de clientes, ou seja, aquela em que o cliente consome um produto ou serviço e converge a solução por meio de vários canais de forma integrada. Por conhecer os pontos críticos da comunicação virtual da empresa –de processos internos ou externos –, a programação sabe como mitigá-los. Em linhas gerais, a programação é descrita como o ato de escrever e estruturar um conjunto de instruções (código) para que um computador ou sistema possa executar tarefas específicas. Tais instruções são escritas em uma linguagem de programação compreensível pelos profissionais e, em seguida, traduzidas para uma linguagem que o computador interprete, como Javascript ou C++ e Python, entre outras. Neste artigo, vamos abordar a importância dessa especialização de TI, tanto para profissionais do setor como para empresas que priorizam a inovação e a sustentabilidade do negócio.  O cenário da programação no Brasil em 2023 Uma das melhores formas de compreender a importância da programação para o futuro do mercado é conferir os números dessa área de atuação na TI.  Apesar das taxas expressivas de layoffs no início do ano, “codar” – ou seja, programar usando códigos – ainda é uma carreira com vantagens e espaço.  De acordo com uma matéria do G1, o setor de tecnologia cresceu 34,3% entre janeiro e outubro de 2022 e contou com mais de 70 mil novas oportunidades abertas. Já a pesquisa salarial do canal Código Fonte TV, desenvolvida entre os dias 30 de janeiro e 24 de abril de 2023, com 17.818 profissionais da área, reuniu informações importantes sobre esse tema, como:  A maior média salarial de programadores, aqueles que responderam ao questionário da pesquisa, encontra-se no estado de São Paulo, com salário de R$ 8.862,02, enquanto Roraima representou a média mais baixa, com salário de R$ 4.682,32; 45,5% dos profissionais estão satisfeitos com o salário; 24,8% estão cursando alguma graduação;    13,8% têm entre quatro e seis anos de experiência na área; A especialidade de maior atuação é Web (44,25%), seguida de Back-end (28,79%), enquanto a de menor é IoT (0,18%). Assim, os números do setor, tanto os compilados neste estudo quanto na matéria do grupo O Globo, demonstram que a programação é uma carreira com oportunidade de crescimento e de especialização em diversos segmentos.  Na perspectiva das empresas que contratam TI, as vantagens da programação são inúmeras, entre as quais a de maior destaque é a adaptabilidade a um cenário que integra os ambientes virtual e físico de maneira cada vez mais fluida.   Quais são as áreas de atuação de um profissional de programação? Como dissemos no início deste artigo, um profissional de programação – ou, como também é chamado, um desenvolvedor (dev) – é responsável por escrever e testar códigos para o funcionamento de aplicativos, sites e programas de computador. Em outras palavras, a programação é essencial para que todas as funções do dia a dia sejam executadas, como é o caso de um pagamento digital, do uso de um aplicativo de mobilidade urbana, de troca de mensagens etc. Em resumo: o profissional de programação transforma as aplicações presenciais reais em aplicações úteis e reais também no meio digital.   No contexto da transformação digital, impulsionada, sobretudo, depois das implicações do isolamento social, e da maior conectividade já experimentada pela humanidade, a área de TI será cada vez mais demandada, inclusive no que diz respeito aos programadores.  Segundo a Associação de Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais, a estimativa é que, até 2025, faltem 797 mil profissionais de TI no mercado brasileiro. Por isso, é interessante observar as possibilidades de um colaborador de TI nesse cenário. Veja algumas abaixo: Programador back-end – profissional que desenvolve códigos que permitem a execução das funcionalidades de um sistema operacional e de sua segurança. É o responsável pela operação do “bastidor”.  Programador front-end – tem foco na construção e checagem de códigos que permitem ao usuário visualizar as funcionalidades de um site, software, aplicativo etc. É o contato com o usuário.  Programador full-stack – é um profissional que domina tanto as habilidades de um back quanto de um front-end. Entende como funciona o desenvolvimento web e é capaz de orientar a empresa acerca de estratégias e práticas recomendadas.  Nesses três campos de atuação, os programadores podem ainda construir carreiras em diversas áreas, como:  Desenvolvimento web; Desenvolvimento de softwares; Análise de sistemas; Engenharia da computação; Engenharia de dados; Administração de banco de dados; Ciência de dados.  👉 O que é preciso para começar uma carreira de TI? Por que as empresas devem investir em programação? Nove motivos  Existem diversas razões estratégicas e operacionais para uma empresa investir em profissionais de programação e tecnologia da informação (TI).   1) Inovação tecnológica Profissionais de programação e TI são essenciais para impulsionar a inovação nas empresas. Eles têm a capacidade de desenvolver novos produtos, serviços e soluções tecnológicas que podem melhorar a competitividade da empresa no mercado.  2) Eficiência e automação  A programação contribui para processos de automação de tarefas, o que pode aumentar significativamente a eficiência operacional das empresas, reduzindo custos e liberando recursos para atividades de maior valor agregado.  3) Adaptabilidade às mudanças   O mundo está em constante evolução tecnológica. Por isso, profissionais de programação permitem que as empresas se adaptem mais rapidamente às mudanças do mercado, às novas tendências tecnológicas e às demandas dos clientes. 4) Análise de dados e tomada de decisões informadas Profissionais de TI podem criar sistemas que coletam, processam e analisam dados relevantes para a tomada de decisões estratégicas. Já os programadores podem transformar os insights de informações advindos dessa lógica em possibilidades reais de melhorias nos sistemas operacionais, na comunicação com o usuário, na disponibilidade e acessibilidade de sites, softwares, aplicativos e as demais plataformas.  Tudo isso permite que as empresas tenham uma visão mais profunda de seu desempenho, mercado e clientes, resultando em decisões mais informadas.  5) Segurança cibernética  Com o aumento das ameaças cibernéticas, investir em profissionais de segurança da informação e programadores pode ajudar a proteger os ativos digitais da empresa e a evitar riscos associados a violações de dados e ataques cibernéticos.  6) Desenvolvimento de aplicativos e softwares personalizados  Talvez essa seja a vantagem de investir em programação mais conectada ao futuro do mercado de trabalho.  Empresas que contam com profissionais de programação podem criar aplicativos e softwares personalizados para atender às necessidades específicas de seus negócios e clientes, melhorando a experiência geral do usuário e adotando uma postura de personalização de experiências, o que representa a principal tendência do mercado atual.  7) Crescimento de setores emergentes  Setores emergentes, como a Internet das Coisas (IoT), realidade virtual/aumentada e inteligência artificial, têm potencial para transformar muitos setores. Assim, os profissionais de programação são fundamentais para aproveitar essas oportunidades de crescimento.  8) Redução da dependência a fornecedores externos  Optar pela contratação de profissionais de programação e TI possibilita que as empresas desenvolvam soluções internamente, reduzindo a sujeição a fornecedores externos e os custos associados.  9) Atração e retenção de talentos  O mercado de trabalho para os profissionais de programação e TI é altamente competitivo. Ao adotar uma estratégia de priorização de talentos internos, as empresas podem atrair e reter os mais habilitados, criando uma equipe altamente qualificada e engajada. 👉 Como liderar times remotos de TI? Como contratar adequadamente profissionais de programação?  Um dos principais desafios dos gestores de RH no atual cenário do trabalho é se adaptar às demandas do mercado, dos usuários e dos próprios colaboradores – todos mais exigentes.  Assim, além de entender a importância de um colaborador programador para o dia a dia da empresa, o RH precisa também adotar estratégias e operações focadas na contratação e retenção desses talentos bastante específicos.  O trabalho remoto é outro elemento que apresenta desafios para a dinâmica da empresa, com isso, acertar nas etapas de seleção e na contratação de profissionais, observando as diferenças que cada vaga desempenha no resultado final do negócio, se torna essencialmente complexo.  A Escola Superior de Redes (ESR), líder em ensino para a tecnologia, possui um serviço para tornar todo esse processo mais assertivo e menos oneroso para as organizações. Na Consultoria Educacional da ESR, as empresas têm acesso a um serviço já consolidado no mercado que oferece estratégias de aprendizagem corporativas, desenvolvidas de acordo com os objetivos e as necessidades de cada empresa.  O projeto auxilia gestores de TI e de RH a otimizarem os recursos investidos no desenvolvimento profissional das equipes, entenderem quando e como contratar mais colaboradores, como, no caso, os programadores, e gerar resultados mais assertivos e alinhados aos objetivos da empresa.  ➡️ Entre em contato com um de nossos especialistas  para entender como a Consultoria Educacional pode otimizar os processos de gestão de pessoas em sua empresa. 


    03/08/2023
  • Computação em nuvem
    Computação em Nuvem

    Computação em nuvem: a tecnologia indispensável para empresas programadas para o futuro

    A computação em nuvem é indispensável para empresas que desejam se manter no mercado a longo prazo. Você sabe o porquê?  Desde que os dados passaram a ser o principal destaque de diversas organizações ao redor do mundo, as iniciativas que pesquisam as melhores formas de tratá-los (armazená-los, interpretá-los e mantê-los seguros) cresceram.  Há algum tempo, já não há uma vida on-line e uma vida offline. As duas se entrelaçam constantemente, dando espaço para novas formas de consumo, trabalho e desenvolvimento da sociedade.  Por isso, as soluções voltadas para o combate ao cibercrime e também as constantes atualizações da rede estão cada vez mais sofisticadas e antenadas às demandas dos usuários e dos profissionais de tecnologia.  É nesse cenário que a computação em nuvem está inserida – na necessidade de as empresas se adaptarem ao mercado e, por isso, buscarem escalabilidade diante do crescimento de dispositivos conectados e da consequente maior geração de dados. Pensando na importância e na realidade de mercado desse tema, vamos abordar, ao longo deste artigo, os principais destaques acerca da tecnologia de computação em nuvem para TI, sobretudo suas vantagens para a área e para os negócios que priorizam a inovação.  O cenário da computação em nuvem no Brasil No Brasil, de acordo com a Associação Brasileira de Empresas de Software (ABES), em um estudo realizado em parceria com a International Data Corporation (IDC), os gastos com serviços de cloud computing (computação em nuvem) devem crescer  41%  até o fim de 2023. Esse número representa uma performance de mais de US$ 4,5 bilhões.  Além disso, o contexto pandêmico fez com que uma das principais necessidades das empresas se tornasse a busca pela disponibilização de recursos on-line em um formato remoto.  Como resultado desse contexto, os números de servidores BPM (business process management) deram um salto de quatro a cinco vezes ao longo dos primeiros dez meses de quarentena.  Se para os usuários e as empresas essa é uma prática que garante segurança e praticidade, para os profissionais de TI, a computação em nuvem representa uma vasta área de atuação, com possibilidade consistente de crescimento de carreira.  Afinal, o que é computação em nuvem? De maneira geral, a computação em nuvem, ou cloud computing em inglês, é uma tecnologia que proporciona acesso digital a serviços, arquivos e recursos em ambientes virtuais, possibilitando uma dinâmica de controle local de todos os ativos para a contratação de serviços. Em outras palavras, é usar uma infraestrutura de servidor alocado na nuvem para migrar seus dados para esse espaço.  Cada vez mais comum e popular, o termo indica a reunião de ferramentas e funcionalidades que permitem acesso a conteúdos e à execução de tarefas diversas sem a necessidade da instalação de aplicativos terceiros nos dispositivos eletrônicos. O nome “em nuvem” sinaliza que a forma de armazenamento desses arquivos garante o anywhere access e maior possibilidade de segurança de backup de conteúdos importantes, além de mais praticidade por não requerer nenhuma outra ação, como a de baixar apps. Em resumo, é uma referência a algo que “está no ar”, fazendo uma correlação com os sistemas que não ficam hospedados em servidores físicos, mas, sim, na internet. Ou seja, basta estar conectado à internet para fazer uso dessa tecnologia. Segundo definição do  National Institute of Standards and Technology (NIST), a computação em nuvem é basicamente:  “Um modelo para habilitar o acesso por rede ubíquo, conveniente e sob demanda a um conjunto compartilhado de recursos de computação (como redes, servidores, armazenamento, aplicações e serviços) que possam ser rapidamente provisionados e liberados com o mínimo de esforço de gerenciamento ou interação com o provedor de serviços.”   Por meio da computação em nuvem, as organizações conseguem se planejar melhor diante do cenário de Capex e Opex, ou seja, suprimem a necessidade de investir na aquisição (Capex) e manutenção (Opex) de data centers ou servidores físicos, por exemplo, para o planejamento específico de contratação de serviços sob um modelo de pagamento pelo uso sob demanda. Modalidades de serviço em computação em nuvem Existem três principais modalidades de serviço que podem ser ofertadas pela computação em nuvem (cloud computing):  Software como Serviço (Software as a Service – SaaS) – oferta de aplicações de software baseadas na nuvem com acesso por meio de login e senha pela internet. Plataforma como Serviço (Platform as a Service – PaaS) – disponibilização de infraestrutura em nuvem para instalação de soluções ou aplicativos do consumidor. Infraestrutura como Serviço (Infrastructure as a Service – IaaS) – infraestrutura completa de computação oferecida na nuvem, como armazenamento, processamento e comunicação em rede. Onze vantagens da computação em nuvem para empresas Quando se fala em computação em nuvem, é preciso entender que esta é uma tecnologia totalmente adaptável e personalizada, sendo essas características seus principais diferenciais.  A ferramenta pode ser moldada de acordo com as necessidades de cada negócio, tornando-se um investimento que pode ser transformado mediante as mudanças de sua organização.  Esses já seriam benefícios importantes apresentados pela tecnologia, entretanto, a cloud computing guarda outros. Segundo a Pesquisa Global de Software, empresas que decidiram investir em ambientes tecnológicos que fazem uso da nuvem, conforme a demanda de seus negócios, tiveram cerca de 21% a menos de custo em comparação com aquelas que focaram investimentos em grandes data centers e preferiram hospedar boa parte de seus aplicativos no local. Nesse contexto, essa vantagem competitiva se mostra também como importante benefício da computação em nuvem.  Veja, abaixo, outras vantagens que podem ser citadas quando se opta por essa tecnologia:   Agilidade – uma vez que proporciona acesso facilitado a várias tecnologias, ao utilizar a internet, a computação em nuvem oferece grande agilidade e velocidade às novas implementações. Dessa forma, otimiza-se tempo no desenvolvimento de funcionalidades aderentes às necessidades de negócios.  Maior produtividade – em decorrência de maior agilidade, a inovação ganha força, permite acesso rápido a resultados de testes e chance de correção de falhas dentro do tempo disponível. A partir daí, a produtividade vem como consequência. Como a computação em nuvem permite fazer muito mais em menor tempo, as equipes se dedicam a aspectos mais estratégicos e menos operacionais com mais frequência. Escalabilidade e implantação global –  com a capacidade de crescer atendendo às demandas, sem perda de qualidade e com agregação de valor, a implementação de novos sistemas e serviços ganha muito em velocidade quando se fala no uso da computação em nuvem (cloud computing). Isso se reflete diretamente na facilidade de ampliação das atividades de sua empresa, ao disponibilizar serviços para novas regiões geográficas, por exemplo, em questão de minutos e com poucos cliques. Segurança e confiabilidade – outra grande vantagem que a computação em nuvem (cloud computing) oferece é a segurança e a confiabilidade dos acessos aos dados. Como a cloud computing provê serviços especializados em segurança cibernética, com a utilização de alta tecnologia para a proteção de dados, a redução de falhas de segurança é aprimorada. Desenvolve um ambiente digital mais saudável – por ter como uma de suas bases mais sólidas o cumprimento de uma série de políticas de controle e segurança específicas, a computação em nuvem contribui para a proteção dos dados e da infraestrutura como um todo. Além disso, possui práticas que facilitam e reduzem custos na realização de backups de dados e na manutenção de sua integridade.  Otimização dos recursos profissionais – a adoção de cloud computing elimina as tarefas que antes exigiam tempo e esforço dos colaboradores de TI, como ações recorrentes de manutenção de infraestrutura física do data center proprietário. Assim, os profissionais podem ser alocados de forma muito mais estratégica, visando ao atendimento das necessidades diretas do negócio.  Monitoramento – a cloud computing permite maior monitoramento de recursos das aplicações, por meio de serviços em nuvem de automatização para análise e controle de atividades de processamento, armazenamento e comunicação. Dessa forma, a tomada de decisão acerca dos próximos passos das empresas é mais estratégica e com antecipação de tratamento de eventuais dificuldades.    Conectividade – entre os benefícios e as facilidades da computação em nuvem está o fato de um sistema digital poder ser acessado de qualquer lugar, a qualquer momento. Esse diferencial faz complemento direto ao da “implantação global”, citado anteriormente. Alta disponibilidade – alta disponibilidade implica a manutenção de acesso a todos os recursos conforme as necessidades do negócio, isto é, no local e no momento requeridos. Para fazer isso em um modelo físico, são necessários muitos recursos e investimentos, por isso optar por uma solução em cloud computing, que já tem opções de serviço com alta disponibilidade e armazenamento em diferentes locais com acesso exclusivo, é um grande benefício.  Backup de dados – um dos mais óbvios benefícios da computação em nuvem é a possibilidade de deixar registrados em rede dados e informações relevantes para o negócio. Isso indica que, caso ocorra alguma indisponibilidade, os dados poderão ser recuperados.  Provisionamento automático de recursos – a computação em nuvem também auxilia na manutenção de planejamentos financeiros mais assertivos. De acordo com a necessidade de aplicação durante o uso, por meio de orquestração, os próprios sistemas conseguem dimensionar os recursos de forma automática. Além disso, o sistema também tem potencial de atuar na configuração de ambientes para instalação de softwares, que, ao fazê-la automaticamente e de acordo com a solicitação do usuário, cria um ambiente com todos os recursos necessários para o desenvolvimento de sites.  Benefícios da computação em nuvem para a área de TI Especificamente para a área de TI, somam-se aos benefícios anteriores algumas outras vantagens:  Otimização de processos de TI; Planejamento mais eficaz de recursos e de investimento necessários para a área; Motivação da equipe, uma vez que os colaboradores poderão trabalhar mais de forma proativa e menos reativa; Conexão e maior interação entre os colaboradores, que poderão atuar em qualquer local. Como começar na área da computação em nuvem para TI? Como dissemos anteriormente, a computação em nuvem representa oportunidades para os negócios se desenvolverem e também para os profissionais de TI se destacarem em suas carreiras.  Portanto, é essencial para o profissional de TI a adoção de uma postura de aprendizado constante, que esteja alicerçada em capacitação e qualificação. Afinal, a área muda sempre!  A Escola Superior de Redes (ESR), líder em ensino para o setor de tecnologia, possui uma trilha de conhecimento completa acerca da computação em nuvem que objetiva, sobretudo, capacitar profissionais de maneira integral e robusta, com conteúdos do básico ao avançado. Nela, você encontra treinamentos de diferentes níveis para se especializar e garantir lugar de destaque no mercado.  Inscreva-se na trilha de conhecimento sobre computação em nuvem da ESR, a escola de referência em aprendizado em tecnologia.


    28/07/2023
  • Ataques Phishing
    Segurança

    O que são ataques de phishing e como evitá-los?

    De acordo com o  relatório “Spam e phishing em 2022”, da Kaspersky, o Brasil é o país mais atacado por phishing pelo WhatsApp do mundo, com mais de 76 mil tentativas de fraude na plataforma. O cenário fica ainda mais alarmante quando o estudo destaca que a distribuição de mensagens maliciosas pelo aplicativo de comunicação cresceu vertiginosamente, sendo a maior parte delas lançadas no WhatsApp (82,71%), Telegram (14,12%) e Viber (3,17%).  Embora tais apps liderem a posição no mau desempenho do país nesse quesito, o phishing pode ocorrer em diversas outras plataformas, como SMS, e-mail e até por telefonemas.   Neste artigo, vamos conversar sobre o que é phishing, seus principais tipos e como uma capacitação em segurança da informação pode otimizar a carreira de um profissional de TI que deseja se especializar nesse ramo.   Para que serve a segurança da informação? Para falar de um dos principais riscos da segurança da informação, é preciso compreender seu conceito. De maneira geral, a segurança cibernética representa o conjunto de ferramentas e estratégias digitais que garantem a segurança dos dados virtuais de uma empresa. Portanto, são as maneiras encontradas ou mecanismos usadospara minimizar os riscos de ameaça digital, além de estratégias para garantir a plena vida dos dados de uma organização sem que estes sofram influências externas, como vírus, invasões e outras formas de ataque cibercriminoso.  Para isso, ou seja, para uma boa segurança da informação e um resguardo eficiente de dados, tais articulações se valem de alguns pilares essenciais que você confere logo abaixo.  Pilares da segurança da informação Confidencialidade  Quando se fala em segurança da informação e em como evitar os riscos de desestabilização da cibersegurança, deve-se compreender que ela tem a confidencialidade como pilar desenvolvedor.   De forma direta, o termo refere-se à garantia de que agentes sem autorização não terão acesso aos dados institucionais. Disponibilidade   Significa dizer que os dados devem estar disponíveis de acordo com a necessidade. Sempre que a demanda existir, deve ser possível acessá-los.  Integridade   Funciona como um tipo de certificação de que uma informação, uma vez armazenada, não poderá sofrer quaisquer tipos de alteração. Autenticidade  O último pilar que envolve a cibersegurança é a capacidade de assegurar que a informação é verdadeira. Ou seja, a garantia de que certa informação pertence a A ou a B e determinar uma autoria específica, provando que o objeto avaliado não tenha passado por alguma alteração indevida.  O que são fraudes cibernéticas? As fraudes cibernéticas, dentre as quais o phishing está enquadrado, podem envolver tanto brechas nos processos externos quanto internos. De maneira resumida, elas representam ataques às informações exclusivas do negócio ou de seus clientes, parceiros ou colaboradores. Por exemplo, há a possibilidade de documentos internos serem alterados e ocorrer fraude por parte dos próprios funcionários da organização. Por outro lado, os clientes e colaboradores podem ter seus dados corrompidos por meio de phishing e malwares.   Portanto, fraudes cibernéticas são alterações de informação ou subtração de dados e identidade on-line de qualquer agente envolvido com a empresa, por meio de práticas ilícitas que ameaçam a segurança de rede das organizações.   Afinal, o que são ataques phishing?  O phishing, palavra derivada de “fishing”, em inglês, e que em português é lida como “pescaria”, é um risco de segurança da informação no qual o agente mal-intencionado elabora uma isca para que os usuários executem ações maliciosas sem se darem conta.  Normalmente, a prática ocorre por meio do disparo de e-mails ou, como vimos anteriormente, em aplicativos de mensagens instantâneas, redes sociais ou páginas falsas de web, que se assemelham à comunicação legítima de empresas, organizações ou indivíduos confiáveis.  O principal objetivo dessa ameaça é captar a atenção do usuário, por intermédio de técnicas de manipulação, e, dessa maneira, conseguir distribuir anexos, além de links maliciosos capazes de executar diversas funções indevidas nos servidores que colocam toda a rede em alerta.  Por meio do phishing, cibercriminosos também podem realizar a extração de informações das contas das vítimas, bem como de credenciais de login usados para fins ilícitos, como roubo de identidade, fraude financeira ou acesso não autorizado a sistemas. Os seis principais tipos de ataque phishing Existem diversas formas para a execução de um ataque phishing, e conhecê-las é a principal ferramenta para driblar esse tipo de ocorrência – seja em uma dinâmica individual, seja como estratégia corporativa.  1) E-mail phishing ou blind phishing  Esta é uma das formas mais comuns de phishing, pela qual os atacantes enviam e-mails falsos que se parecem com comunicação autêntica de empresas conhecidas, organizações financeiras ou serviços on-line. O e-mail geralmente contém links para páginas falsas que solicitam aos usuários que insiram informações pessoais ou credenciais de login. Também é comum que essas mensagens contenham anexos maliciosos que, quando abertos, infectam o sistema do usuário. A metodologia aplicada é enviar o ataque em massa e contar com a probabilidade de algum usuário cair na isca. 2) Spear phishing  Nesse tipo de ataque, os golpistas direcionam seus esforços a um grupo específico de indivíduos, a uma organização ou até a um usuário certo, com o propósito de obter informações privilegiadas e sigilosas.  Para isso, há a personalização de e-mails ou mensagens para parecer, muitas vezes, que o conteúdo ali contido é verdadeiro.  Os cibercriminosos que fazem uso dessa modalidade encontram grande parte das informações sobre os alvos disponíveis publicamente. Com isso, modificam e personalizam textos e imagens para aumentar a probabilidade de sucesso do ataque. 3) Whaling  Esse tipo de ataque de phishing está relacionado com o termo “whale”, que em inglês significa baleia. Em outras palavras, o whaling quer dizer que o cibercriminoso tem como alvo executivos e indivíduos de alto escalão em uma organização.   Os whalings são modelos de ataque sofisticados que visam obter informações valiosas ou acesso privilegiado à empresa, sendo altamente prejudiciais para a segurança corporativa. Normalmente, eles se apresentam como intimações judiciais ou notificações de endomarketing da própria empresa. 4) Pharming  Nesse método, os golpistas comprometem servidores DNS ou usam malwares para redirecionar os usuários para sites falsos, mesmo quando eles digitam corretamente o endereço da página legítima. Assim, os usuários são levados a acreditar que estão visitando um site confiável, quando, na verdade, estão fornecendo informações aos criminosos. 5) Vishing Também conhecido como phishing de voz, esse tipo de ataque é realizado por meio de ligações telefônicas. Nesses casos, os atacantes fingem ser representantes de uma empresa legítima, como bancos ou instituições governamentais, e tentam enganar os usuários para que forneçam informações pessoais por telefone. 6) Smishing  Muito comum, esse tipo de ataque de phishing é realizado por meio de SMS. Geralmente, as mensagens de SMS contêm informações atrativas, como uso de cartão de crédito, dívidas ou oportunidades de emprego, que impulsionam o usuário a clicar no link oferecido. Com isso, os cibercriminosos conseguem extrair informações e até valores dos afetados.  Qual é a postura indicada de um profissional de TI diante dos ataques de phishing?  Nenhuma medida isolada é suficiente para proteger uma empresa ou os funcionários dessa organização contra todas as ameaças de phishing. Por isso, é indicado que os negócios e gestores de TI elaborem uma abordagem de segurança da informação e da rede em camadas, combinando várias estratégias e tecnologia para manter um alto nível de segurança cibernética capaz de driblar essas ameaças cada vez mais sofisticadas.  Embora cada equipe de TI possa desenvolver uma tática própria para lidar com fraudes e as demais ameaças à rede, existem boas práticas que os profissionais da área podem seguir para mitigar o potencial desses incidentes, sobretudo dos ataques de phishing.   Conscientização e treinamento: uma cultura de segurança cibernética dentro da organização é indispensável para barrar qualquer tipo de evento de ameaça. Realizar treinamentos regulares para os funcionários, com abordagem dos conceitos de phishing, de como identificar ataques, evitar clicar em links suspeitos e relatar tentativas de phishing, é uma excelente alternativa. Quanto mais conscientes estiverem os usuários, menor será a probabilidade de um ataque ser bem-sucedido.    E-mails e filtros anti-spam: outra medida importante para as áreas de TI é implementar soluções de filtragem de e-mails e anti-spam para identificar e bloquear mensagens maliciosas antes que elas alcancem as caixas de entrada dos usuários. Muitos ataques de phishing são distribuídos por e-mail, e um bom filtro anti-spam pode reduzir significativamente o número de itens suspeitos.      Verificação de domínios: a configuração de sistemas de autenticação de e-mails, como o Sender Policy Framework (SPF) e o Domain Keys Identified Mail (DKIM), para verificar a autenticidade dos remetentes, pode ajudar a prevenir ataques de spoofing. Nesses casos, os atacantes fingem ser domínios legítimos.    Monitoramento de tráfego de rede: utilizar ferramentas de monitoramento de tráfego de rede para identificar padrões incomuns que possam ser indicativos de ataques de phishing ou tentativas de comunicação com servidores maliciosos. Bloqueio de sites maliciosos: listas de bloqueio de sites maliciosos contribuem para que os usuários não acessem páginas conhecidas por hospedar ataques de phishing ou distribuir malware.        Atualizações de software: é indispensável manter todos os sistemas e softwares atualizados com as últimas correções de segurança. Muitos ataques de phishing exploram vulnerabilidades conhecidas em softwares desatualizados. Assim, criar uma rotina de atualizações e de verificação daquelas que faltam ser realizadas na empresa é uma solução simples e prática contra esse modelo de ameaça. Política de senhas fortes: outro destaque é dado à implementação de uma política de senhas fortes que demanda o uso de palavras-chave complexas e regulares trocas. Isso dificulta o acesso não autorizado a contas por meio de ataques de phishing.  Autenticação multifator (MFA): sempre que possível, é indicado introduzir a autenticação multifator para acessar sistemas e serviços críticos. O MFA adiciona uma camada extra de segurança, mesmo que as credenciais do usuário sejam comprometidas. Monitoramento de contas: um sistema de monitoramento de contas e alertas para detectar atividades suspeitas, como múltiplas tentativas de login, logins de locais não usuais ou acesso fora do horário padrão, é considerado boa prática que um departamento de TI pode adotar. Desenvolver e praticar um plano de resposta a incidentes que inclua procedimentos claros para lidar com ataques de phishing é uma das principais obrigações de times de segurança da informação e de segurança de rede. Com essa ação, há como minimizar o impacto de qualquer evento caso ocorra um incidente. Em resumo  No contexto de um mundo cada vez mais conectado e digital, lidar com ataques de phishing ou outros cibercrimes continua sendo um enorme desafio para as empresas e as áreas ligadas à tecnologia.  Como profissional de TI, você desempenha um papel crucial na mudança desse cenário. Ainda que o objetivo preponderante de uma medida anticrimes virtuais seja a proteção da infraestrutura de TI, a educação contínua dos usuários é igualmente indispensável. Para isso, o departamento de TI deve estar capacitado para liderar abordagens pautadas em um conceito de lifelong learning (aprendizado para toda a vida), direcionadas para os demais setores dos negócios.  Inscreva-se nas turmas de segundo semestre da Escola Superior de Redes (ESR), referência em aprendizagem em tecnologia. 


    25/07/2023
  • programador trabalhando a noite scaled 1
    Segurança

    Reflexos da IA na cibersegurança: você conhece o potencial dessa relação?

    Talvez ainda seja comum associar os reflexos da IA na cibersegurança a um espectro negativo, uma vez que a tecnologia possui pouca regulamentação e se transforma em ritmo acelerado, o que também exige do setor de TI uma adaptação constante. Entretanto, distanciado o senso comum, sabe-se que a inteligência artificial (IA) pode contribuir para uma cibersegurança global mais pujante e que consegue dar conta de problemas que, agora, ultrapassam a capacidade humana de observação e a sua escalabilidade de trabalho.  Os ataques e as ameaças às estruturas de rede organizacionais continuam crescendo e encontrando maneiras de driblar as estratégias e políticas de segurança mais tradicionais. É nesse sentido que apostar em inovação, como a IA, tem se mostrado uma alternativa importante para subverter o problema.  Neste artigo, vamos conversar mais sobre a relação entre a IA e a cibersegurança e os caminhos possíveis para uma nuvem mais harmônica. 6 reflexos da IA na cibersegurança O cenário sem precedentes de ataques, crimes cibernéticos sofisticados e mais pessoas conectadas à rede acendeu um alerta nas equipes de segurança da informação: como adaptar as políticas e ferramentas de segurança a esse ritmo de eventos acelerados  e como identificar com assertividade quais deles são realmente suspeitos?   A resposta está no uso de tecnologias baseadas em IA, as quais são capazes de transformar essa avaliação crítica em um processo automatizado, que analisa uma grande quantidade de dados em velocidade recorde.  Nesse sentido, veja os principais efeitos da IA na cibersegurança na lista destacada a seguir: 1) Um passo além na avaliação big data  A IA e o seu subconjunto ML são ferramentas que operam, como o nome da última indica, por aprendizado. Juntas, ao observarem uma grande quantidade de dados de forma metodológica e automatizada, ou seja, com múltiplos eventos de maneira processual, conseguem identificar novos tipos de ameaça de maneira precisa. Isso ocorre uma vez que a tecnologia, segundo a leitura big data, estabelece um padrão de comportamento e cria perfis de usuários ativos e redes, sendo possível detectar e responder a desvios das normas estabelecidas pela organização. É como se as equipes de segurança saíssem da dinâmica de “apagar incêndios” e pudessem prever quando esses incêndios iriam ocorrer, onde e como impedir que eles sequer começassem.  Aqui você pode se perguntar: do que isso se distingue da análise de dados (AD) já amplamente difundida e utilizada nas empresas? Objetivamente, enquanto a AD não é interativa, tampouco gera autoaprendizado, representando uma análise estática dos dados já estabelecidos, a IA refere-se a tecnologias que podem entender, aprender e agir com base em informações adquiridas e derivadas. Em outras palavras, isso significa dizer que a IA fica “mais inteligente” cada vez que faz a análise de dados, de eventos e ameaças, refinando a sua aplicação e tornando-se autônoma. Com isso, um dos principais reflexos da IA na cibersegurança é levar a análise de eventos e ameaças a outro patamar, otimizando a política de segurança da informação dos negócios. 2) Novas dinâmicas de trabalho para as equipes humanas De maneira geral, a IA é representada por três modelos – inteligência assistida (melhora o que as pessoas e as empresas já fazem); inteligência aumentada (permite às empresas e pessoas fazerem coisas que de outra forma não poderiam) e inteligência autônoma (ainda em desenvolvimento, permitirá que as máquinas possam agir por conta própria). Dentro dessas possibilidades de uso da IA, há a operação de outros elementos, que igualmente tem se popularizado, como aprendizado de máquina (ML – Machine Learning), sistemas especialistas, redes neurais e aprendizado profundo.  Exemplos ou subconjuntos da tecnologia de IA: atualmente, cada um deles é capaz de contribuir distintamente para a análise de informações da rede, aprendendo e melhorando progressivamente o seu desempenho.  A IA automatiza a detecção de ameaças e, quando comparada com abordagens tradicionais baseadas em software, tem a habilidade de responder, de maneira mais eficaz e com maior efetividade, às possibilidades de ataque às informações de uma empresa, por exemplo. Assim, as equipes humanas passam a contar com uma tecnologia que analisa dados e executa a correlação de padrões de milhões a bilhões de sinais relevantes para a superfície de ataque da empresa, de modo que elas podem direcionar os seus esforços para outras demandas. 3) Disponibilização de um inventário preciso de ativos de TI  Como a IA consegue analisar uma enorme quantidade de dados e se tornar autônoma nessa atividade, também reflete a possibilidade de as equipes de segurança da informação mapearam a operação de toda a sua rede em tempo hábil, para barrar incidentes ou ameaças com celeridade.  A IA permite o levantamento de um inventário com informações relevantes e precisas acerca dos dispositivos, usuários e aplicativos com acesso a um sistema de informação, bem como realiza a avaliação da criticidade de cada um dos pontos da rede e do negócio. Com esse relatório em mãos, os gestores de SI podem realizar melhorias nos processos e na política de segurança.  4) Adoção de uma postura preventiva e mais estratégica  Os hackers também acompanham as tendências em tecnologia. Por isso, um dos importantes reflexos da IA na cibersegurança é dar às empresas uma atuação preditiva em relação às ações desses criminosos.   Os sistemas pautados em IA podem indicar quais são as ameaças globais que se destacam em determinado período, além dos setores específicos em cada negócio, auxiliando as empresas a se precaverem de incidentes futuros.  5) Maior efetividade dos programas de segurança já implementados A IA também proporciona melhor entendimento dos pontos críticos, de aprimoramento e de desempenho de um programa Infosec, visto que pode fazer a leitura e interpretação dos padrões estabelecidos na metodologia utilizada até o momento. Dessa forma, implementar a IA na cibersegurança é também apostar na otimização contínua dos programas de segurança de uma empresa.  6) Melhor alocação de recursos de segurança  Por meio do conhecimento e do uso de todos os reflexos da IA na cibersegurança elencados anteriormente, os gestores das áreas de segurança da informação conseguem melhor empregar os recursos destinados à potencialização dos programas de Infosec.  Os sistemas baseados em IA podem prever em que parte é mais provável que a rede de uma organização seja violada. Diante disso, se torna menos complexa e mais estratégica a ação de planejar a aplicação de ferramentas e recursos para as áreas que estão mais frágeis e sofrem mais riscos.  —————————————- Além desses, outros reflexos da IA na cibersegurança são evidentes, como é o caso do aperfeiçoamento das ações de resposta a incidentes e da facilidade na implementação de boas práticas de segurança cibernética, contribuindo para a redução da superfície de ataque e para a mitigação da tradicional e conhecida postura de perseguição de atividades maliciosas.  Ainda assim, embora esse cenário da IA e cibersegurança seja preponderantemente otimista, há desafios que demandam atenção das empresas e dos profissionais de TI.  A exemplo disso, da mesma forma que a inteligência artificial pode ser implementada para ir de encontro aos cibercrimes, pode também ser utilizada para potencializar as ameaças e torná-las capazes de derrotar as defesas criadas.  Dessa forma, à medida que a IA, o ML e os demais subgrupos da inteligência artificial se desenvolvem e se tornam parte integrante da rotina dos usuários, empresas e profissionais de TI precisam estar um passo à frente, assumindo a inovação como alicerce.  A parceria homem-máquina pode encontrar respostas poderosas e inéditas para diversos problemas. Mas, para isso, precisamos aceitar que este é um cenário sem retorno.  Descubra e inscreva-se na trilha de conhecimentos em cibersegurança da ESR, a escola especializada em aprendizado para tecnologia.


    17/07/2023
  • Tendências em Cibersegurança
    Segurança

    Tendências em cibersegurança que indicam como serão os próximos anos para profissionais de TI

    Você realmente está por dentro das tendências em cibersegurança para os próximos anos?  Saber essas informações pode ser um diferencial para quem deseja uma vaga no mercado de trabalho atual. Afinal, entre as oportunidades de desenvolvimento de carreira em Tecnologia da Informação em 2023, a segurança digital, em suas variadas vertentes, continua como destaque.  De acordo com um levantamento realizado pelo Adzuna, que analisou 18 milhões de vagas de emprego nos Estados Unidos no último ano, essa é uma das áreas que continuam crescendo, sobretudo quando associada ao metaverso e à digitalização de empresas e organizações.  Pensando nesse cenário de múltiplas possibilidades, separamos, a seguir, algumas tendências emergentes de segurança cibernética capazes de indicar o futuro da proteção digital.   Tendências emergentes de cibersegurança em duas diferentes áreas   Inicialmente, é importante ressaltar que a cibersegurança pode ser dividida em diversas áreas de especialização, como segurança de rede, aplicativos, dados, identidade e acesso; de dispositivos móveis; segurança em nuvem e em sistemas operacionais, entre outras.  Dificilmente, um profissional de TI vai dominar todos os conceitos desses ramos. Assim, uma das alternativas para se desenvolver no segmento é se aperfeiçoar em um deles, conhecer o que é inovador nesses campos e o que se espera deles.   Com esse objetivo, elencamos algumas especializações e o retorno que elas são capazes de dar.  1) Tendências em segurança de dados  A conformidade é uma das principais preocupações das empresas nos dias de hoje, as quais lidam, sobretudo, com o desafio sempre dinâmico e integrado de garantir a segurança de dados e o cumprimento às regras de proteção de informações.  À medida que os dados continuam se estabelecendo como um dos ativos mais valiosos do mercado, os crimes digitais que interferem ou danificam essas informações também se sofisticam.   Por isso, os times de tecnologia e os jurídicos precisam estar sempre atentos às inovações relacionadas com a tecnologia dedicada à segurança de dados e a uma proteção de data centers físicos.   Nesse sentido, um dossiê do Gartner buscou identificar os cinco principais pontos de destaque para a privacidade até 2024. De acordo com o estudo, até lá, 75% da população global terá seus dados pessoais cobertos pelas regulamentações de privacidade.   Além disso, o Top Trends in Privacy Driving Your Business Through 2024 (Principais tendências em privacidade que impulsionam seus negócios até 2024) elencou outras diretrizes nesse campo, como:  Foco em políticas de privacidade – a estimativa é que o orçamento anual médio em privacidade das grandes organizações exceda a marca de US$ 2,5 milhões até 2024. O planejamento de localização de dados como uma das prioridades nos projetos e aquisição de serviços em nuvem. Técnicas de computação para melhorar a privacidade serão usuais – sobre isso, a análise do Gartner previu que, até 2025, 60% das grandes empresas vão usar, ao menos, uma técnica PEC (computação de aprimoramento da privacidade) em análises, inteligência de negócios e/ou computação em nuvem. Governança de IA – a avaliação é que os dados hoje inseridos nos modelos de aprendizado baseados em inteligência artificial poderão influenciar as decisões tomadas anos depois. Por isso, mais do que nunca, se pensa em uma governança de IA mais robusta, como explica o analista vice-presidente do Gartner, Nader Heinen: “Uma vez que a regulamentação da IA se torne mais estabelecida, será quase impossível desembaraçar dados tóxicos ingeridos na ausência de um programa de governança de IA. Os líderes de TI terão que eliminar os sistemas por atacado, com grande custo para suas organizações e posição.” UX de privacidade centralizado – essa é uma tendência que conversa diretamente com um novo perfil de consumidor. Os usuários agora pesquisam sobre os direitos de seus dados e cobram transparência das empresas. O esperado é que essa relação se torne ainda mais contundente e leve as empresas a uma postura de experiência de usuário de privacidade (UX) centralizada. 2) Tendências em segurança de rede A segurança de redes envolve uma variedade de ações, práticas e metodologias para proteger uma rede de computadores de ameaças cibernéticas que estão por todo lugar.  Noções básicas de firewall, detecção de prevenção de intrusões (IDS/IPS), conexões VPN, autenticação e controle de acesso e registros de logs são apenas alguns conhecimentos que fazem parte dessa área. Entre as estimativas para essa vertente da cibersegurança, encontram-se:  Análise comportamental de rede – essa tendência envolve o uso de técnicas avançadas de análise de tráfego de rede para identificar comportamentos suspeitos ou anômalos. Ao monitorar padrões de tráfego e atividades incomuns, as organizações podem detectar ameaças em tempo real e responder rapidamente a possíveis violações de segurança. Aumento da adoção de soluções de segurança baseadas em nuvem – com a crescente complexidade dos eventos cibernéticos maliciosos, muitas organizações passaram a adotar soluções de segurança baseadas em nuvem, que oferecem maiores flexibilidade, escalabilidade e capacidade de resposta, permitindo uma proteção abrangente da rede contra ameaças em constante evolução. Uso crescente de inteligência artificial e aprendizado de máquina na segurança de rede – como já abordamos por aqui, a inteligência artificial e o aprendizado de máquina são cada vez mais importantes para diversas funções, inclusive as de detecção e prevenção de ameaças. Essas tecnologias podem analisar grandes volumes de dados de tráfego de rede, identificar padrões de comportamento suspeitos e tomar medidas de forma automatizada e proativa para proteger a rede contra esses ataques. Fortalecimento da segurança de dispositivos IoT – a adoção de dispositivos da Internet das Coisas (IoT) faz com que a segurança de rede tenha que se adaptar de maneira ágil para protegê-los. A implementação de medidas de segurança robustas, como autenticação forte, criptografia de dados e gerenciamento de patches, será essencial para mitigar os riscos associados aos recursos IoT conectados à rede. Enfoque na segurança de redes sem fio (Wi-Fi) – com a proliferação de dispositivos móveis e a dependência cada vez maior de redes sem fio, a segurança das redes Wi-Fi se tornará uma prioridade. Isso inclui implementação de autenticação segura, criptografia avançada e monitoramento contínuo das redes sem fio para detectar e responder às atividades maliciosas. Ênfase na privacidade e conformidade regulatória – conectada às tendências de privacidade de dados, a implementação de regulamentações como o GDPR e a LGPD e a conformidade regulatória se tornarão fatores-chave na segurança de rede. As organizações terão que garantir a proteção adequada dos dados do usuário, o gerenciamento de consentimento e a conformidade com as exigências legais relacionadas com a coleta, o armazenamento e o processamento de dados. Aumento das ameaças de ransomware e ataques de phishing direcionados – em um viés negativo, a previsão de alerta para a segurança de redes é que o ransomware continue representando uma ameaça significativa. Com isso, a tendência é que os ataques se tornem mais sofisticados e direcionados. Além disso, estima-se que os ataques de phishing apresentem campanhas cada vez mais personalizadas e enganosas. A segurança de rede terá que se adaptar e adotar medidas proativas para mitigar esses casos. Crescente colaboração entre empresas e compartilhamento de informações de segurança – à medida que as ameaças cibernéticas se sofisticam, as organizações percebem a importância de colaborar e dividir informações de segurança. Isso abrange o compartilhamento de indicadores de comprometimento (IOCs), dados de ameaças e melhores práticas de segurança para otimizar a detecção e resposta a incidentes. 👉 Leia também: Guia Segurança de Redes: o que é, para que serve e tipos existentes. Além dessas duas importantes áreas da cibersegurança e seus destaques, outras, como a segurança de aplicativos, possuem indicação de tendência e estimativa para a realização de suas operações no presente e no futuro. É o caso, por exemplo, da crescente integração de segurança em todas as fases do ciclo de vida do desenvolvimento de aplicativos (DevSecOps) e também da evolução relacionada com a gestão de identidade e acesso, tecnologia blockchain e autenticação multifator (MFA), entre outras.  A verdade é que a cibersegurança é um campo bastante vasto e que demanda capacitação constante. Assim, para profissionais que desejam se aperfeiçoar nesse mercado, a adoção de uma mentalidade de lifelong learning, ou seja, de aprendizado para a vida toda, é essencial.  Na Escola Superior de Redes, líder em educação para tecnologia, você tem acesso a uma trilha completa de cursos e treinamentos sobre os diferentes campos de TI, inclusive segurança de redes.  A metodologia da ESR, que mescla teoria e atividades práticas, capacita o aluno a pensar preventivamente e tratar os incidentes quando não for possível evitá-los.  >> Conheça os cursos da Trilha de Segurança da ESR.


    07/07/2023
  • Tendências em Ciência de Dados
    Ciência de Dados

    4 tendências em ciência de dados que refletem na sua carreira em TI

    As principais tendências em ciência de dados para os próximos anos englobam as rápidas transformações na dinâmica da sociedade e, sobretudo, nas relacionadas com o consumo – de produtos, serviços e informação.  Neste conteúdo, vamos abordar quais ganham mais destaque e como elas serão trabalhadas e aproveitadas, tanto pelo próprio segmento quanto por profissionais de TI que buscam outras oportunidades de trabalho.  Qual o cenário da ciência de dados atualmente?  O mais recente estudo da área no país, State of Data Brazil 2022, realizado em conjunto pela Data Hackers e Bain & Company, analisou, entre 10 de outubro e 28 de novembro de 2022, o panorama do setor até então. Para isso, entrevistou 4.271 participantes, os quais responderam a um questionário responsável por estruturar um relatório completo com diferentes indicadores, como:   Os relacionados com o perfil demográfico de profissionais da área; Formação e atuação no setor; Remuneração, rotatividade e fatores de satisfação no ambiente de trabalho, incluindo o impacto do trabalho remoto nas preferências profissionais, entre outros aspectos.  Compilamos os insights mais relevantes da pesquisa, que nos orientam sobre o cenário do segmento:  “Em relação à edição de 2021, aumentou a diversidade de cursos de ensino superior dos profissionais de dados, indicando maior migração de profissionais de outras áreas para a área de dados, bem como o surgimento de novas posições relacionadas com dados nas empresas.” “O percentual de profissionais abertos a novas oportunidades aumentou de 40,2%, em 2021, para 64,9%, em 2022.” “O modelo preferido de trabalho dos profissionais de dados consolidou-se como o híbrido, com dias flexíveis, com 52,6% de preferência, seguido pelo modelo 100% remoto (39%).” “A remuneração dos profissionais de dados aumentou, em média, cerca de 4% entre 2021 e 2022.” “A falta de diversidade entre os profissionais de dados é um tema relevante, com vários grupos de gênero, cor/raça/etnia e portadores de deficiência sub-representados em relação à população.” 👉 Leia a pesquisa State of Data Brazil 2022 na íntegra. O relatório corrobora a percepção da crescente importância da ciência de dados, uma área que, além de abrir novas vagas, contribui para uma postura preditiva de empresas e de soluções que operam identificando as demandas do mercado e dos usuários de maneira antecipada, com foco na satisfação e na experiência desses agentes.  A ciência de dados é uma das principais responsáveis por utilizar métodos sistematizados para, por meio de coleta, organização, análise e interpretação de grandes conjuntos de dados, extrair insights e conhecimentos valiosos que podem ser aplicados a todas as áreas da vida humana.  De forma geral, é no desenvolvimento dessa ciência que as decisões das empresas se tornam cada vez mais assertivas e estratégicas, além de voltadas para a resolução efetiva de problemas ou para que eles sejam evitados.  Quatro principais tendências em ciência de dados para os próximos anos 1) Sistemas Inteligentes (SI) Objetivamente, a inteligência artificial (IA) é um dos campos da ciência da computação que se concentra no desenvolvimento de sistemas e algoritmos capazes de analisar uma quantidade de dados bastante grande e, com isso, identificar padrões, aprender, tomar decisões e reproduzir respostas automatizadas.  Por meio desses mecanismos, a IA consegue, de maneira ágil, aplicar o conhecimento adquirido de bancos de dados diversos na melhoria de processos e experiências, em diferentes frentes – saúde, marketing, entretenimento, transporte etc.  As abordagens de utilização são inúmeras, como redes neurais; o próprio machine learning, reconhecido instrumento das marcas de consumo; e-commerce e streaming; algoritmos genéticos, entre outros.  Como tendência da área de ciência de dados relacionada com a IA está a profissionalização dos elementos que envolvem essa tecnologia, como o desenvolvimento de uma regulamentação específica para isso, bem como a continuidade dos esforços para a estruturação de processos de transparência e ética no trabalho com os dados. Há também a preocupação com a melhoria dos recursos de interpretabilidade.  Atualmente, a IA está presente em chatbots; nas recomendações de conteúdo; no reconhecimento de voz e na tradução simultânea; em veículos autônomos; nas análises de dados e padrões; em jogos e simulações; na medicina e no diagnóstico, entre outros exemplos, e a estimativa é que ela continue crescendo e, cada vez mais, seja incorporada ao cotidiano popular.   Não só é uma aposta como uma realidade de mercado.   👉 O que é inteligência artificial e como ela é a realidade do momento 2) Ética e privacidade de dados  Principalmente depois das leis de regulamentação do tratamento de dados espalhadas pelo mundo, como a GDPR e a LGPD, a pauta ética, transparência e privacidade ganhou ainda mais destaque no meio corporativo. Agora, além de as empresas se preocuparem com as adequações normativas relacionadas com o tema, os usuários estão mais conscientes do valor de seus dados. Por isso, uma das principais tendências da ciência de dados para os próximos anos é a estruturação de setores responsáveis por políticas sérias de transparência, consentimento e a adequação às leis de tratamento e segurança de dados.  3) Big data ainda mais aprofundado Atualmente, o big data não só é implementado como tem o seu potencial amplamente reconhecido nas empresas de todo o mundo. Aquelas que investem em inovação e no trabalho com dados superam a concorrência e conseguem driblar o constante desafio de interpretar as necessidades e expectativas de clientes que mudam cada vez mais rápido.  O imbróglio, para a maior parte dos negócios, não é mais lidar com o grande número e a geração constante de dados, mas, sim, desvendar a equação acima (comportamento do consumidor) e sair na frente da forte/plural concorrência, além, claro, do enfrentamento das questões de segurança.  Assim, uma das principais tendências de ciência de dados nesse sentido está associada à integração da área com a de DevOps. As práticas ágeis de desenvolvimento; automação de processos; controle de versão e implantação contínua; incidentes sobre bancos de dados expressivos contribuirão para um ciclo de vida veloz dos projetos de dados das organizações.  Outro exemplo de tendência é a aplicação mais incisiva de big data em áreas do marketing, por exemplo, para que as empresas tracem um perfil completo dos seus clientes, cada vez mais conectados à realidade omnicanal de consumo.  4) Internet das Coisas (IoT) A Internet das Coisas se interliga diretamente com as demais tendências em ciência de dados. Conceitualmente, a IoT se refere ao sistema de dispositivos que são interconectados e, por meio disso e da internet, trocam e analisam dados. O objetivo dessa tecnologia é permitir que objetos físicos se comuniquem e interajam uns com os outros, bem como com os usuários, por meio de sensores, redes e tecnologia de comunicação. Nesse contexto, a estimativa é que o recurso forneça cada vez mais integração e seja mais acessível com o passar do tempo.  Hoje em dia, a IoT desempenha um papel fundamental no desenvolvimento de cidades inteligentes; no monitoramento e na manutenção preditiva, com a otimização de processos de logística, por exemplo; na saúde conectada, quando dispositivos médicos e sensores wearable (usados no corpo) são utilizados para monitorar sinais vitais; nas atividades físicas; nos padrões de sono e muito mais, entre outras possibilidades.  ————————- Acompanhar as tendências em ciência de dados pode ser o primeiro passo para o profissional de TI que quer se especializar em alguma de suas vertentes e amplificar suas possibilidades de trabalho. O segundo é investir nas melhores capacitações do mercado.  >> Conheça os cursos e treinamentos da ESR, a líder do mercado em educação e formação para a tecnologia


    30/06/2023
  • executivo femea lendo notas pegajosas scaled 1
    Métodos Ágeis e Inovação

    Como implementar uma mentalidade ágil na sua equipe: 4 práticas essenciais

    Implementar uma mentalidade ágil não é uma prática voltada apenas para os setores de tecnologia e desenvolvimento de software das organizações. Tampouco está relacionada com a utilização isolada de ferramentas digitais e de automação. As metodologias ágeis estão um passo além disso.  Desde que o conceito foi popularizado, em 2001, por meio da publicação do Manifesto Ágil, que elencou diversas diretrizes que contribuíram para que os negócios produzissem mais valor com base em entregas frequentes e adaptativas, a agilidade foi considerada para atender aos mais variados departamentos e peculiaridades das empresas.  Nesse contexto, o RH também se transformou e passou a contrastar duas modalidades de funcionamento: a tradicional e a ágil.  Neste artigo, vamos conversar sobre esses dois modos de operação, além de dar dicas práticas para você implementar uma mentalidade ágil na sua equipe ainda neste mês.  Afinal, o que é metodologia ágil? Como dissemos anteriormente, as bases para um mindset ágil surgiram em 2001, quando um grupo de desenvolvedores de software, insatisfeito com o ritmo em que entregavam a demanda do mercado, propôs mudanças no status quo (“estado atual”).  Nesse contexto, os profissionais elaboraram um Manifesto Ágil, que priorizava entregas de produtos e serviços em ciclos mais curtos, com a devida atenção ao valor produzido para os clientes, sem desprezar processos e ferramentas a fim de obter resultados mais contundentes.  O objetivo por trás dessa ideia era otimizar alguns processos que demandam muito tempo, equipes e investimento, subdividindo-os em projetos com tarefas menores, acompanhados por equipes multidisciplinares.  Para dar certo, portanto, as metodologias ágeis dependem de uma combinação de fatores:  Cultura organizacional voltada para o crescimento e o aprendizado contínuo; Tecnologia;  Acompanhamento e mensuração de dados;  Maleabilidade para adaptação de rotas, produtos e etapas das operações que não performam bem; Orientação por meio de dados;  Profissionais capazes de interpretar dados;  Adoção de ferramentas ou métodos que tornem isso mais fácil, como Scrum, Design Thinking e OKR, entre outros;  Foco no cliente. Ou seja, implementar uma mentalidade ágil depende da tecnologia, mas não é reduzida somente a ela.  De forma geral, o conceito pode ser definido como um conjunto de posicionamentos que priorizam a experiência do cliente, o valor produzido e o alinhamento com a estratégia organizacional. Para isso, projetos são organizados de forma mais enxuta, em ciclos menores, para que pontos falhos sejam revisados em tempo hábil. Atualmente, a mentalidade ágil abrange grande parte dos setores de um negócio, uma vez que a competitividade do mercado é grande, assim como o perfil dos consumidores é outro – mais atento e disposto a comparar. Dessa forma, é necessário que todos os departamentos sejam guiados por esse mindset, inclusive para atuarem de forma integrada e orientada por um único propósito.  Leia também: As habilidades mais valorizadas no mercado de trabalho de Tecnologia da Informação O que significa um RH ágil?  O RH ágil utiliza as premissas do Manifesto Ágil de 2001 para adaptar esse mindset às suas particularidades. Assim, os pilares de redes colaborativas; transparência; adaptabilidade; inspiração e comprometimento; motivação intrínseca e ambição são reconfigurados para as dinâmicas desse departamento, tornando-o diferente do tradicional.  Enquanto o RH tradicional mantém as hierarquias; o zelo pelo sigilo de seu modus operandi; a baixa habilidade para adaptação, principalmente no que diz respeito aos processos seletivos; gestão rígida; foco em retenção a qualquer custo e em execução de obrigações, o RH ágil entende que os colaboradores são a essência para a entrega de um produto ou serviço de qualidade. Por isso, privilegia o trabalho colaborativo, a comunicação sem julgamentos, o desenvolvimento pessoal e profissional constante e uma postura preventiva em relação às necessidades dos times, da empresa e dos clientes.  É uma visão holística de todo o negócio, permeada pela tecnologia de análise de dados e automação, o que permite aos profissionais de RH uma gestão efetivamente estratégica de pessoas e resultados.  Como implementar uma metodologia ágil na sua empresa?  Os setores de RH que desejam adotar uma metodologia ágil na empresa precisam trabalhar as premissas e combinações de fatores sobre as quais comentamos acima. Esse é o primeiro passo.  1) Desenvolva uma cultura organizacional voltada para o mindset ágil Crie um planejamento que contemple metas e objetivos a curto, médio e longo prazos para a construção de uma mentalidade de crescimento contínuo, individual e coletivo. Para isso, cheque novamente as diretrizes que elencamos anteriormente e observe quais pontos demandam mais atenção na sua empresa; quais já estão desenvolvidos; o que será preciso para engajar a equipe nesse projeto; quais os principais desafios de inovação da empresa nesse momento; como o RH pode auxiliar a conquistar os resultados esperados… Essas são algumas perguntas que podem ajudar o RH a estruturar um projeto de disseminação de uma cultura organizacional ágil. 2) Encontre a tecnologia certa As ferramentas e plataformas são verdadeiras aliadas para se implementar uma mentalidade ágil. É fato que, para acelerar processos, descartando aquilo que é desnecessário, é imprescindível contar com a tecnologia adequada. Pesquise softwares de gestão com recursos que atendam à sua organização, softwares de agilidade etc. Enxergue a tecnologia e a automação como bases essenciais para a empresa se tornar realmente ágil. A tecnologia tira do capital humano as responsabilidades por tarefas burocráticas e repetitivas, assegurando que ele seja direcionado à inovação, à criação de novos produtos e às formas de conexão com os clientes. 3) Conheça as abordagens ágeis do mercado Existem diversas abordagens que podem tornar mais simples a implementação de uma mentalidade ágil. É o caso do Scrum, do SFIA e do Design Thinking, por exemplo.  O primeiro se trata de um framework, entre os diversos da metodologia ágil, que prevê a utilização de ferramentas do desenvolvimento iterativo e incremental para otimizar os processos e gerar mais valor para os clientes na ponta final.  Leia também: Certificação Scrum: conheça as principais do mercado Já a Skills Framework for the Information Age (SFIA) é uma organização global sem fins lucrativos que nutre um framework de habilidades e competências para um mundo digital. Além de melhorar a performance dos times, com ela, você pode comparar a sua empresa ou instituição com players de todo o mundo.  Leia também: Ebook  SFIA – conheça o framework e seus benefícios para TI Por fim, o Design Thinking adota uma resolução de problemas que utiliza ferramentas e o funcionamento típico do design para encarar um desafio, por meio de uma visão projetizada com viés criativo, unindo propósito e foco na resolução de problemas. Todas essas ferramentas e abordagens auxiliam o projeto de uma mentalidade ágil, seja no RH, seja nos demais departamentos de uma empresa.  Leia também: As 5 principais etapas do Design Thinking 4) Não tenha medo de recorrer à ajuda Implementar uma mentalidade ágil está condicionado à capacidade de uma empresa reconhecer erros e aperfeiçoá-los. Por isso, não há espaço para certezas imutáveis e saberes cristalizados.  Identifique os pontos críticos do setor de RH ou da empresa e não hesite em buscar soluções no mercado que possam driblá-los. Em outras palavras, peça ajuda quando necessário!  Um bom exemplo para esses casos é a Consultoria Educacional desenvolvida pela Escola Superior de Redes (ESR). O serviço busca orientar as empresas a trilharem caminhos relevantes, capazes de garantir o desenvolvimento dos seus colaboradores em consonância com o que há de mais atual no mercado.  A Consultoria Educacional ajuda gestores de TI e de RH a otimizarem os recursos investidos no desenvolvimento profissional das equipes e gerar resultados mais assertivos e alinhados com os objetivos da organização, focando em uma capacitação de profissionais que é voltada para o enfrentamento de desafios da área de TIC. A consultoria possibilita a entrega de um plano de capacitação para desenvolvimento profissional das equipes das organizações, responsável por apontar áreas de conhecimento a serem exploradas. Além disso, o serviço treina as lideranças de TIC e de RH para a prática de uma gestão mais efetiva, alinhada às necessidades da instituição. Desde 2006, a Escola Superior de Redes já foi responsável por capacitar mais de 30 mil alunos e possui excelência reconhecida pelo mercado em instituições de diversas naturezas, sobretudo por utilizar um dos mais reconhecidos frameworks ágeis do mercado, o mundial SFIA. Solicite uma demonstração da solução aqui e continue esse papo com os nossos especialistas.  Você também pode gostar: 10 motivos para investir constantemente em treinamentos de TI


    26/06/2023
  • Desafios comuns em Projetos de Rede
    Administração e Projeto de Redes

    5 desafios comuns de projetos de rede e como os profissionais de TI podem driblá-los

    Quando se fala nos desafios comuns de projetos de rede, parte-se do entendimento de que essa é uma prática complexa e crucial para o funcionamento estratégico e seguro de sistemas de tecnologia da informação.  Por meio dos conhecimentos multidisciplinares necessários para que um projeto de rede seja bem estruturado se infere a complexidade do tema e de suas questões. Assim, um profissional de TI especialista nessa função precisa compreender as noções básicas de um conjunto de atividades e etapas essenciais para aprimorar uma rede de TI. É o caso, por exemplo, do entendimento de topologia, equipamentos envolvidos nesses trâmites, protocolos, serviços de segurança e compliance, além de ferramentas e metodologias que atendam às necessidades de comunicação e de compartilhamento dos recursos de uma empresa.  Nesse sentido, superar problemas e situações de alerta parece, muitas vezes, um caminho tortuoso para os profissionais de TI. Entretanto, existem formas de clareá-lo.  O presente artigo visa exatamente responder, de maneira objetiva, como profissionais de TI podem se desvencilhar dos desafios comuns de projetos de rede.  Você vai ler aqui: Quais as fases de um projeto de rede;  O que um profissional de projetos de rede deve saber;  4 desafios comuns em projetos de rede e como superá-los. Quais as fases de um projeto de rede?  De maneira geral, embora precisem ser observados à luz das especificidades de cada organização, podendo ser moldados para atender melhor a essas diferenças, os projetos de rede costumam ser estruturados mediante uma abordagem sistemática que envolve etapas como: Análise de requisitos – quando se identifica quais as necessidades de rede da organização; qual o estado da atual rede; o que é essencial em termos de capacidade, disponibilidade, velocidade, alcance geográfico, modalidades de dispositivos, segurança e desempenho. Planejamento – momento em que se traça uma estratégia geral para a rede, indicando qual seria a tecnologia adequada. Por exemplo, observação de cabeamento e as demais ferramentas de rede, tais quais servidores, roteadores e switches. É importante também definir os alicerces da arquitetura de rede, levando em conta tópicos como segmentação, endereçamento IP, redundância etc. Projeto lógico – diagramação e um possível modelo de rede, o qual deve indicar os componentes necessários para que o projeto seja executado na prática, além de suas interconexões. Projeto físico – reflexão, quando necessário, sobre os espaços físicos que receberão os equipamentos de rede, com análise de espaçamento, refrigeração e existência de geradores, entre outras possibilidades. Implementação – fase efetivamente direcionada à aplicação do projeto, ou seja, instalar e configurar dispositivos de rede baseados no projeto. A ação pode incluir a configuração de endereços IP; a criação de VLANs; o estabelecimento de conexões de rede; a configuração de recursos de segurança e de identificação de ameaças; as ferramentas que otimizam a rede na nuvem etc. Mensuração – é necessário checar e testar se o projeto encontra respaldo na prática. Dessa forma, os projetos de rede precisam contar com etapas que verifiquem a rede e garantam que ela esteja operando conforme o esperado pelo escopo do projeto. Há diversos testes que podem ser executados nessa fase, como os de desempenho e conectividade. Registro – por fim, todo projeto de rede deve ser documentado e permitir a gestão de conhecimento do percurso e implementações a fácil acesso, para prevenção de erros futuros e também para abordagem preventiva e não reativa.   Os projetos de rede podem ser direcionados para fins diversos e diferentes, como a construção de uma nova rede, expansão de uma já existente ou sua atualização. Para todos os objetivos, é essencial seguir protocolos e processos estruturados capazes de permitir ao profissional de TI aprimorar constantemente sua metodologia, inserindo, modificando e/ou atualizando o que for pertinente a cada organização.  Quando o projeto de rede é bem estruturado, a rede da organização ganha em desempenho e fica menos suscetível aos crimes cibernéticos. 👉 Leia também: Guia Segurança de redes: o que é, para que serve e tipos existentes Sou profissional de TI e quero me especializar em projeto de rede. Quais conhecimentos preciso buscar?  Como dissemos anteriormente, um projeto de rede aborda diversas áreas da TI, afinal, estrutura a rede de uma empresa.   Por isso, é indicado que o profissional reconheça alguns conceitos como:  Serviços de rede; Segurança de rede; Roteamento; Switching;  Sub-redes; Endereçamento IP; Topologias;  Protocolos de rede. Adquirir especialização em todas essas frentes isoladamente pode não ser possível por causa do alto investimento de tempo e recursos. Por isso, uma alternativa é buscar capacitação e cursos que proponham uma abordagem completa e direcionada para a compreensão prática da área como um todo.  👉 Conheça aqui a trilha otimizada de conhecimentos sobre Administração e Projetos de Redes da Escola Superior de Redes 5 desafios comuns em projetos de rede e como superá-los Por fim, chegamos aos principais desafios relacionados com o exercício da projeção de redes. Confira! 1) Não implementar o mindset DevSecOps Dentre os principais enganos de projetos de rede e da estruturação de operações de TI em geral está a não implementação de uma cultura DevSecOps, na qual tanto desenvolvedores quanto administradores de rede se preocupam com a nova tendência voltada para as plataformas cloud native e cloud computing, bem como as situações fáticas, como a sofisticação dos cibercrimes e de malwares, e a necessidade de adequação das empresas às regulamentações legais.  O grande objetivo de uma mentalidade DevSecOps, ou no mínimo DevOps, é garantir adaptabilidade da TI às demandas velozes de transformação do mercado e à velocidade dos lançamentos.  Unir desenvolvimento e operação em processos integrados e automatizados em um mesmo fluxo, inclusive em uma análise de âmbito de rede, é um grande diferencial dos negócios. Para mitigar esse problema, a empresa pode investir em estratégias de comunicação dessa cultura, promovendo sua absorção. Também pode designar equipes técnicas e especializadas em segurança e desenvolvimento, além de prever e disponibilizar um orçamento específico para a tarefa no início do exercício financeiro. Incentivar a integração das equipes de trabalho também é importante.  2) Planejamento inadequado  Abordamos por aqui que uma das fases do projeto de rede está conectada ao planejamento do que será estruturado.  É comum que essa etapa seja realizada de forma insuficiente ou inadequada, muitas vezes, ignorando/negligenciando pontos importantes, como requisitos, capacidade futura, complexidade e o não detalhamento de possíveis falhas de segurança.  Um caminho para driblar esse que é um dos desafios comuns em projetos de rede é estipular que as fases iniciais do escopo terão mais tempo e serão observadas por mais de um profissional, visando à contribuição plural de percepções acerca de estabilidade, da segurança da rede, de dados e da informação.   3) Incompatibilidade  Quando o projeto de rede é utilizado para a atualização ou expansão de uma rede já existente, é comum o fenômeno da interoperabilidade. Isso significa dizer que pode haver diferentes protocolos, configurações e versões de software disponíveis na rede e, por isso, uma incompatibilidade de funcionamento entre eles.  Uma das possibilidades de reduzir esse desafio comum em projetos de rede é, antes da implantação do escopo, conduzir testes que chequem a interoperabilidade. Ou seja, verificar a compatibilidade de dispositivos, sistemas operacionais e protocolos, por exemplo. É válido lembrar que essa é uma tarefa constante e que demanda atualização persistente para que se tenha certeza de que todos os componentes da rede são capazes de se comunicar adequadamente.  4) Gerenciamento de mudança e desempenho  Com a necessidade de crescimento da rede e da mudança do projeto original, a demanda por adaptabilidade e harmonia entre os componentes também evolui, assim como por largura de banda e pelo alto desempenho.  Lidar com mudanças sem que haja um plano especificado para elas pode ocasionar interrupções e os desafios mencionados acima – incompatibilidade e perdas de dados. Além disso, a latência é comprometida, há congestionamento e perdas de pacotes de informações codificadas, o que pode prejudicar a eficiência e a qualidade do projeto.  Para que isso não ocorra, é indicado manter a documentação do projeto e das mudanças atualizado, bem como é necessário, de fato, ter uma rotina de testes programada. Em outras palavras, monitorar o desempenho, a necessidade de mudança e registrar tudo de forma processual é imprescindível. Ajustar configurações de QoS também pode contribuir para a mitigação dessa problemática.   5) Não se atentar à importância da fase de gerência de rede Um dos principais desafios de projetos de rede é capacitar o profissional responsável para a etapa da gerência de rede.  Depois da implantação de um projeto, é necessário monitorar seu funcionamento e o da rede, sob pena de, caso a etapa seja negligenciada, ocorrerem problemas que comprometam a qualidade do serviço (QoS | Quality of Service) e provoquem uma degradação do funcionamento da rede. Assim, é fundamental ter atenção à fase de monitoramento do comportamento da rede, com adequação das falhas, correção dos processos quando necessário e investimento em melhorias contínuas.  Investir na capacitação profissional é um meio para driblar essa problemática, uma vez que uma equipe técnica será capaz de estruturar a gerência e saber o que fazer quando encontrar uma inconsistência.  ———————————- Para todos os diferentes desafios comuns em projetos de rede há uma dica de ouro: investimento em capacitação técnica para saber reconhecê-los e, com isso, traçar estratégias para superá-los de forma ágil e que cause menos prejuízos à organização.  >> Inscreva-se na Trilha de Conhecimento da ESR sobre Administração e Projetos de Redes ainda este mês! 


    19/06/2023
  • Profissional de Agilidade
    Métodos Ágeis e Inovação

    5 coisas que um profissional de agilidade não deve fazer

    Ao longo dos anos, a agilidade tem se tornado muito importante no meio corporativo, sendo considerada e adotada por diversas empresas como forma de aumentar a eficiência e a produtividade, sem deixar de lado a qualidade do produto ou serviço. Por isso, entender o que um profissional de agilidade não deve fazer em uma organização é essencial para os negócios atuais.   Nesse sentido, é importante lembrar que um profissional que atua nessa área precisa dispor de determinadas competências técnicas e, principalmente, comportamentais para implementar o conceito adequadamente.   Nesse artigo, abordaremos cinco ações que não devem ser reproduzidas por nenhum profissional que se especialize em agilidade.   O que não fazer quando se trabalha com agilidade?  1) Embate metodológico  Um dos princípios fundamentais da agilidade é o foco no cliente. É importante que o profissional esteja sempre atento às necessidades de seu consumidor e estabeleça com ele uma comunicação clara e assertiva.    Uma comunicação eficaz evita mal-entendidos e garante que todos estejam alinhados com o propósito e objetivo do projeto. Por isso, antes de defender determinada ferramenta ou metodologia e impor sua escolha pessoal procure entender, dentro das necessidades do time, o que faz mais sentido para eles e por que faz mais sentido. Um embate saudável, no qual todos são ouvidos e não julgados, para tomar uma decisão coletiva sobre o ferramental utilizado é sempre bem-vindo. Dessa forma, criar um ambiente que não incentive essas trocas é uma das principais dicas do que um profissional de agilidade não deve fazer.  2) Achar que é bala de prata  Cada projeto ou produto é único e possui as próprias necessidades, características e indicadores ideais para mensurar seu desempenho. Nesse contexto, é importante que o profissional de agilidade esteja sempre disposto a adaptar a abordagem para melhor atender às necessidades específicas de cada projeto ou produto.   Afinal, a agilidade não é bala de prata. Nem sempre ela será a resposta unitária para um resultado mais assertivo, sendo necessário ter essa flexibilidade como competência.  3) Entrega por entrega  Um princípio fundamental da agilidade é o compromisso com a qualidade nas entregas. Porém, é comum que, em uma busca por entregas rápidas, esse propósito seja deixado de lado, tornando-se somente mais uma entrega.   Nunca se esqueça de que por trás dessa lógica existe um “por que isso é importante?” e “por que essa determinada entrega foi selecionada?” e se ela está relacionada com as estratégias de negócio da empresa.   A agilidade não é importante porque permite a realização de resultados mais rápidos por meio de suas metodologias e mindset. Ela é importante porque, com isso, a empresa terá um ROI mais rápido e assertivo. E isso faz toda a diferença para os stakeholders. Assim, você terá um equilíbrio entre entregas rápidas e qualidade, provando o verdadeiro valor da agilidade.  Não pensar no propósito e encadeamento das entregas é uma coisa que um profissional de agilidade não deve fazer em um negócio. 4) Não criar segurança psicológica  A mudança de mindset para uma transformação cultural e implementação das metodologias ágeis é intensa.   Você estará diante de pessoas que realizam atividades quase que de forma automática e talvez não estejam dispostas a mudar, afinal, toda mudança traz dor.    As renúncias exigidas pela mudança precisam ser cuidadas pelo profissional de agilidade. A segurança desse colaborador refletirá na segurança da liderança que, por consequência, dará segurança para que o time perceba que, por mais que uma mudança cause dor, ela também resulta em muito crescimento e desenvolvimento.      5) Achar que o MVP é priorização de backlog  O Minimum Viable Product (MVP) é a versão mais enxuta possível de uma solução. É fazer o suficiente para testar sua hipótese de negócio e decidir se deve MUDAR, PERSISTIR ou DESISTIR. Ou seja, é entender se há necessidade de adaptação ou se a empresa deve prosseguir ou abdicar da hipótese testada por meio do MVP.    Um erro muito comum e uma das coisas que o profissional de agilidade não deve fazer é considerar somente as funcionalidades presentes no MVP, em vez de priorizar o foco no propósito daquela determinada hipótese. Assim, o importante é definir se é do desejo e se faz sentido para seu cliente. O “como” e suas funcionalidades vêm depois.   _________________________ Para concluir, pense na agilidade para além do cinto de utilidades do Batman. Observe-a como uma forma de entregar valor que, quando amparada por métodos e um modelo mental, pode levar sua estratégia de negócio para mais perto de seu cliente, alinhando seus propósitos e colocando a empresa em vantagem competitiva com o mercado.  Você também pode gostar: Como os métodos ágeis podem ajudar no dia a dia das empresas? 


    12/06/2023