Cadastre-se

CADASTRO

Em caso de não possuir CPF, por favor entre em contato conosco clicando aqui.

Ao informar meus dados, eu concordo com a Política de Privacidade

ReCaptcha
Entrar
Escola Superior de Redes

Blog da ESR

  • tecnologia e acessibilidade
    Temas Diversos

    Qual a relação entre tecnologia e acessibilidade?

    A tecnologia é capaz de inaugurar configurações de absorção de conhecimento e relacionamento social totalmente inéditas. As ferramentas digitais e eletrônicas, inseridas no cotidiano já de forma natural, integram culturas e produzem inúmeros sentidos através de diferentes fontes. Por isso, é tão importante abordá-la num contexto de acessibilidade.  Tratar de tecnologia e acessibilidade na Internet, é abordar a inclusão digital e permitir que pessoas com deficiência (PCD) não sejam excluídas das novas dinâmicas sócio-econômicas dispostas a partir da Revolução 4.0. Por isso, é importante que usuários, empresas e produtores de conteúdo na Internet estejam alinhados e dispostos a criarem um ambiente digital cada vez mais acessível. Quando falamos em acessibilidade na Internet, compreendemos que um ambiente digital mais acessível leva em consideração diversos fatores, desde limitações técnicas às relacionadas à linguagem e layouts, por exemplo.  De acordo com o Modelo de Acessibilidade em Governo Eletrônico (eMAG), que trata de versão especializada do documento internacional WCAG (Web Content Accessibility Guidelines: Recomendações de Acessibilidade para Conteúdo Web), um sítio pautado na acessibilidade deve “englobar diferentes níveis de escolaridade, faixa etária e pouca experiência na utilização do computador, bem como ser compatível com as diversas tecnologias utilizadas para acessar uma página da Web.” Além disso, os computadores e a web precisam utilizar recursos que tornem a relação entre usuários e equipamentos/tecnologia mais amigável e acessível. É necessária a combinação de tecnologia assistiva com o desenvolvimento de páginas que levem em conta os Web Standards (padrões específicos) e as recomendações de acessibilidade contidas no documento oficial disponibilizado por aqui! É a partir dessa concepção de necessidade de práticas, técnicas, padrões e ferramentas inclusivas, que direitos fundamentais, como mobilidade, informação e educação, se tornam acessíveis a todos. O que é Tecnologia Assistiva? A tecnologia assistiva é desenvolvida para permitir que pessoas com deficiência consigam utilizar o ambiente digital e físico sem desconfortos, com segurança e autonomia. Esses são os três pilares da acessibilidade que devem nortear qualquer prática e proposta inclusiva. A combinação de tecnologia e acessibilidade é pensada para todos e tem impacto positivo não somente para pessoas com deficiência, como para toda a sociedade.  Mais acessibilidade, potencializada com o auxílio da tecnologia, permite um ambiente mais integrado, diverso, com diferentes demandas sociais e projetos de solução.  Nesse contexto, o Comitê de Ajudas Técnicas (CAT), órgão público vinculado à Secretaria dos Direitos Humanos e ligado à Presidência da República, define tecnologias assistivas como:  “Tecnologia Assistiva é uma área do conhecimento, de característica interdisciplinar, que engloba produtos, recursos, metodologias, estratégias, práticas e serviços que objetivam promover a funcionalidade, relacionada à atividade e participação, de pessoas com deficiência, incapacidades ou mobilidade reduzida, visando sua autonomia, independência, qualidade de vida e inclusão social”. (CAT, Ata da Reunião VII, SDH/PR, 2007)” Além disso,  de acordo com o trabalho de pesquisa do Núcleo de Informação e Coordenação do Ponto BR – NIC.br, a Agenda 2030 da ONU, baseada nos direitos humanos, liga-se a esse objetivo por se comprometer com a implementação dos direitos para todas as pessoas, além de tratar o tema de deficiência de forma transversal em seus objetivos e indicadores.  Mais adiante, a relação das TIC com as pessoas com deficiência está diretamente citada em alguns dos Objetivos de Desenvolvimento Sustentável (ODS), como no Objetivo 4 que pretende  “assegurar a educação inclusiva e equitativa e de qualidade, e promover oportunidades de aprendizagem ao longo da vida para todos” (ONU, 2015, p. 23).  No Objetivo 9, sobre “Indústria, Inovação e Infraestrutura”, o qual elenca o aumento do acesso às TIC como prioridade, objetivando um acesso universal, bem como a preços acessíveis à internet. (p. 28). E no Objetivo 10, de Redução das Desigualdades, pelo qual almeja-se o empoderamento e a promoção da inclusão social, econômica e política de todas as pessoas, “independentemente da idade, gênero, deficiência, raça, etnia, origem, religião, condição econômica ou outra” (p. 29).” Portanto, as tecnologias assistivas são os recursos que vão permitir e potencializar as oportunidades de comunicação, aprendizado e mobilidade de pessoas com deficiência e estão nas propostas de diversos documentos oficiais do Brasil e do mundo. Desafios para integrar tecnologia e acessibilidade na nuvem Segundo a pesquisa “Acessibilidade e tecnologias: um panorama sobre acesso e uso de Tecnologias de Informação e Comunicação por pessoas com deficiência no Brasil e na América Latina”, do Núcleo de Informação e Coordenação do Ponto BR – NIC.br, os principais desafios de se pensar em tecnologia e acessibilidade são:   Iniciativas que mesclam tecnologia e acessibilidade  1) Braile Fácil O software Braile Fácil, desenvolvido pelo Núcleo de Computação Eletrônica da Universidade Federal do Rio de Janeiro, realiza transcrição e impressão de textos em braille. Um dos diferenciais da ferramenta é não necessitar de uma compreensão prévia da codificação, transformando a tarefa de imprimir textos em algo mais simples.  Essa é uma das iniciativas que propõe mais acessibilidade para pessoas com baixa visão ou com deficiência visual, uma vez que o braille é um sistema de escrita e leitura tátil. 2) Wheelmap O Wheelmap permite, a partir de uma construção de conhecimento colaborativo, que usuários de cadeira de roda compartilhem o ambiente de uma cidade que possui ou não acessibilidade. Por meio de um mapa é possível classificar locais sob a perspectiva de serem “acessíveis para cadeirantes, parcialmente acessíveis ou inacessíveis”. Isso auxilia que outros cadeirantes tenham uma tomada de decisão sobre como ir a determinado local ou pleiteiem alterações nestes espaços, para que eles possam abraçá-los igualmente no futuro.  —————————————— A tecnologia é capaz de solucionar desafios para o bem-estar da sociedade, como quando direcionada à acessibilidade, e também tem um papel fundamental como facilitadora da vida humana.  Estimular iniciativas que priorizem essa relação, tecnologia e acessibilidade, é uma das formas de assegurar a inclusão e participação de todos os indivíduos nas diferentes demandas da vida econômica e social.  Dentro desse cenário, no dia 10/06, a ESR promoveu um webinar para discutir “A Importância da Adequação e Certificação dos Ambientes Digitais”, como forma de garantir a acessibilidade digital e a interação de cada vez mais usuários e profissionais.  Acessibilidade Digital é o processo pelo qual todo tipo de Aplicação na Web, como Websites, Portais, Sistemas de Ensino, Intranet, CRMs e ERPs, por exemplo, fornecem um maior conforto e facilidade para que milhões de pessoas com deficiência, idosos, crianças em fase de aprendizagem, analfabetos e pessoas com outras questões temporárias, possam ter seu direito respeitado e melhores condições para trabalhar, estudar, cumprir seus deveres sociais e consumir conteúdo e entretenimento por exemplo . Conheça outros detalhes e reveja o webinar aqui!


    09/06/2022
  • Gastos de TI
    Temas Diversos

    Principais necessidades que impulsionam os gastos de TI

    Investir em tecnologia da informação é uma das principais demandas dos negócios atuais. Afinal, é por meio dessa decisão que diversas melhorias são desenvolvidas nos processos internos e externos das empresas.  Nesse contexto, a cibersegurança tem recebido aportes financeiros relevantes dentro desse segmento. Com um maior número de dados na nuvem, crescem também as possíveis fragilidades da rede.  Por isso, para garantir a proteção dos dados e bom funcionamento da rede, há uma nova e constante necessidade de investimentos em recursos e profissionais de TI nas organizações.  Inclusive, um relatório da IDG, Communications Inc., líder global em mídia de tecnologia, dados e serviços de marketing, identificou que mais da metade de CIO’s (Chief Information Officer) diz ter aumentado o orçamento para cibersegurança em 2022; e que para mais de 70% deles a tendência é que este cenário continue evoluindo.  Os principais focos dos investimentos de TI são voltados para segurança de dados, além de conformidade e privacidade desses ativos.  A fim de contribuir para um planejamento financeiro deste setor e para que gestores e CIOs consigam argumentar estrategicamente sobre maiores investimentos em seus departamentos, reunimos abaixo os principais apontamentos deste relatório da IDG, representando a disposição do mercado nesse sentido.  5 Principais necessidades de investimento em TI para 2022 De acordo com o State of the CIO Report, divulgado no início do ano (jan/2022), as transformações advindas do período pandêmico impactaram também as configurações de trabalho do meio digital.  O estudo identificou que esse contexto, somado ao processo de digitalização das empresas e das relações humanas, foi responsável por dar à função do CIO (Chief Information Officer) outra roupagem.  A pesquisa mostrou a evolução do papel dos líderes de TI, bem como a sua importância para garantir inovação, gestão estratégica, além de melhorias operacionais para toda a empresa.  Os seguintes tópicos acerca do que carece de maiores investimentos em TI, segundo esses profissionais, foram retirados do levantamento em questão (que pode ser conferido na íntegra aqui).  1) Segurança  As descobertas do IDG mostraram que, para 49% dos CIOs observados no estudo, a “segurança” é o principal motivador de aumento de orçamento para o setor de TI.  2) Eficiência operacional Outros 46% deram crédito à eficiência operacional como fator responsável pela necessidade de maiores investimentos em TI.  3) Foco no cliente Para melhorar a experiência do cliente, 42% dos CIOs indicaram que esse seria o motivo mais significativo para impulsionar investimentos de TI na sua organização. 4) Transformação dos processos de negócio existentes Para 41% dos profissionais, automação e integração são necessidades primordiais de gastos em TI. 5) Produtividade  O investimento em TI voltado para a melhoria de produtividade de colaboradores é defendido como prioridade para 27% dos CIO’s. Além desses 5 pontos principais, o relatório 2022 State of the CIO identificou outras respostas dos CIOs sobre qual área justificaria investimentos mais substanciais na TI. Confira: Desenvolvimento de novos produtos: 22% Melhoria das tecnologias de trabalho híbridas: 21% Aumentar receitas de primeira taxa para o negócio: 20% Cumprimento dos requisitos de conformidade: 19% Outros estudos, como do Instituto Gartner ou do Info-Tech Research Group, corroboram com os dados aferidos pelo IDG. Ambos apontam para um aumento geral de “gastos” em TI em 2022, quando comparados com anos anteriores, além de foco na experiência do cliente, segurança, funcionalidade dos modelos híbridos e computação em nuvem. _____________________________________________ Nesse novo contexto de demandas e possibilidade de maiores investimentos para TI, os líderes do departamento ou CIOs (Chief Information Officers) têm responsabilidades importantes, que irão impactar as empresas de forma geral.  Os desafios desses profissionais encontram-se em identificar qual área do seu segmento requer maiores gastos, aliando desenvolvimento operacional com avanços tecnológicos, além de atenção à experiência do cliente/usuário.  Para garantir um planejamento financeiro e estratégico do setor, os gestores precisam se capacitar.  A ESR possui o serviço de Consultoria Educacional, já consolidado no mercado, que oferece estratégias de aprendizagem corporativas, desenvolvidas de acordo com os objetivos e necessidades de cada empresa. A Consultoria Educacional ajuda gestores de TI e de RH a otimizarem os recursos investidos no desenvolvimento profissional das equipes e gerar resultados mais assertivos e alinhados aos objetivos da empresa. Entre em contato conosco para conhecer essa solução a fundo!


    03/06/2022
  • composition of businessman touching virtual globe with network of connections scaled 1
    Administração e Projeto de Redes

    Qual é o design de uma rede moderna de computadores?

    Dentre as práticas de capacitação da Escola Superior de Redes encontram-se ricos webinars sobre diferentes temas da tecnologia, tal qual redes modernas de computadores.  Em maio a escola realizou outro deles recebendo, pela segunda vez, Robert McMillen – consultor de rede com mais de 50 certificações técnicas, ex-presidente fundador da All Tech 1 e professor universitário de Administração de Sistemas.  Na ocasião, o webinar online gratuito foi realizado em parceria com a Ascend Education, referência em certificações para a área, sobre os principais componentes de uma rede de computadores atualmente, bem como dicas práticas para o dia a dia de um profissional administrador de redes.  Neste artigo você irá encontrar os principais tópicos deste segundo evento, que também pode ser conferido na íntegra bem aqui!  Principais tópicos do webinar “Redes modernas de computadores e o papel do administrador de sistemas”, com Robert McMillen   Parte fundamental da formação de um profissional de tecnologia da informação é compreender o design das redes modernas e qual é o papel de um administrador de redes na atualidade. Isso foi o que o Professor Robert McMillen se propôs a responder no recente Webinar da ESR, com cerca de 50 minutos.  O especialista apresentou conceitos teóricos e abordou a sua experiência mercadológica em um bate-papo objetivo, repleto de exemplos práticos.  Abaixo você confere um pequeno roteiro do exposto no evento online:  1) Explicação sobre como é o desenho de uma rede moderna Segundo o professor McMillen, uma rede moderna é feita de vários componentes, aos quais nos referimos como redes locais.  O primeiro desses elementos é o chamado de “espinha dorsal”, núcleo da rede ou ainda switch de camada 3.  Antes tal componente se configurava como um fio de cobre espesso que se conectava a todos os servidores físicos de forma “mecânica”. Entretanto, a evolução o transformou primeiro em rede de malhas (tudo conectado com tudo) e depois em uma rede chamada de “Star”.  A rede Star, assim denominada por lembrar uma estrela, comporta outros dois switch de camada 2 para diferentes sub-redes.  Além disso, na rede também se encontram os firewalls, capazes de conectar esse sistema à internet e de impedir que fluxos externos causem dano à rede principal, bem como uma série de servidores diferentes, como AD/DC, DHCP, DNS, Files & Printers junto a um sistema de armazenamento ISCSI San, banco de dados e aplicativos e servidor de e-mails.  Nesta estrutura há ainda uma rede virtual privada (VPN), necessidade de pontos de acesso para internet e impressoras de rede, um possível Phone VOIP, e um software SD Wan que substitui os túneis de internet que conectam um lugar ao outro, funcionando assim como servidores de internet. O serviço de nuvem, IOT e backup também figuram um papel de destaque neste design.  Um profissional de TI deve compreender cada um desses elementos e entender como eles se relacionam e se comunicam.  2) Detalhes sobre roteamento  Ainda no Webinar, Robert McMillen apresenta o uso de roteadores e sua substituição por switches de camada 2. Dentro deste tópico, o professor explica a importância das Vlans (redes de área locais virtuais) para as redes modernas. Elas são os responsáveis por minimizar ruídos entre tráfegos de diferentes segmentos. Ou seja, sub redes que querem conversar umas com as outras.  As Vlans simplificaram o processo de comunicação entre redes, dando mais funcionalidade e possibilidade de controle de acesso para as mesmas.  O dispositivo Vlan roteia cada uma das subredes. 3) Computação em Nuvem Na continuação do Webinar, o professor Robert McMillen explica na prática como fazer uso da cloud computing por meio da Microsoft Azure e Amazon Web Services. O profissional ensina de forma guiada como uma máquina virtual e recursos em nuvem podem ser criados. 4) Dúvidas e comentários Finalizando a trilha de conhecimento as seguintes perguntas são abordadas e respondidas no webinar: Existem diferentes níveis de dificuldades quando se usa determinado software para virtualização em nuvem? Há uma forma mais simples de aprender e começar a fazer máquinas virtuais?  Qual a sua visão da computação em nuvem para a educação? O que fazer para passar da certificação de Az 900 para a Az 104? Quais certificações você indicaria para a área? ————————————– Para conferir as respostas aos questionamentos anteriores e outros detalhes sobre os tópicos mencionados, assista ao Webinar gratuito “Redes modernas de computadores e o papel do administrador de sistemas” na íntegra.  Veja também a primeira edição realizada em abril com o tema de virtualização em nuvem e o que se espera de um profissional de TI nesta área.


    27/05/2022
  • smart technology and global network element of this image are furnished by nasa scaled 1
    Administração de Sistemas

    O que se espera de um administrador de sistemas especialista em virtualização em nuvem?

    A tecnologia tem se desenvolvido a passos largos nos últimos anos. O que antes demandava espaço, energia e condicionamento ideal para uma boa manutenção de hardwares, atualmente é substituído pelo contexto crescente da virtualização de sistemas.  Com isso, os profissionais de tecnologia da informação (TI) também precisaram se adaptar e conquistar conhecimentos que estão além do funcionamento das máquinas físicas ou das máquinas virtuais.  Neste conteúdo você compreende um pouco melhor o papel de um administrador de sistemas frente à crescente tendência de virtualização em nuvem.  O que é virtualização de sistemas?  Provavelmente esse é um tema batido para a sua rotina, entretanto é importante sedimentar o conhecimento para que possamos avançar sobre o que um administrador de sistemas faz frente a este cenário que se configura há quase uma década.  De forma geral, a virtualização de sistemas diz respeito à utilização de uma máquina física, também chamada de host, como hospedeira para um ou mais sistemas operacionais virtuais.  Em termos técnicos, virtualização de sistemas operacionais é a tecnologia de criação de uma máquina virtual para funcionar dentro de um sistema operacional. Essa nova máquina é o que possibilita a execução de sistemas operacionais e softwares distintos que podem ser experimentados e testados pelo usuário. Por meio da virtualização de servidores o profissional consegue otimizar tarefas e, consequentemente, resultados. Por isso, essa é uma das principais apostas do mercado e, cada vez mais, demanda profissionais que saibam detalhadamente os processos da virtualização em nuvem. Existem inúmeras vantagens de se investir neste tipo de tecnologia, como redução de custos operacionais, menor gasto energético, possibilidade de manutenção de alguma etapa do processo sem que todos os servidores sejam afetados, entre outras particularidades.  Ou seja, se antes eram necessários robustos hardwares e espaço adequado para abrigá-los, agora os servidores em nuvem ganham destaque e demandam conhecimento específico para funcionarem em sua melhor performance.  De acordo com Robert McMillen, consultor de rede com mais de 50 certificações técnicas, ex-presidente fundador da All Tech 1 e professor universitário de Administração de Sistemas, a virtualização usa um software para criar uma camada de abstração sobre o hardware do computador que permite que os elementos de hardware de um único computador host sejam divididos em vários virtuais. O computador original é o computador hospedeiro e qualquer máquina virtual que roda por cima do host são referidos como hospedados ou máquinas virtuais.  Para ele, os virtualizadores de sistema precisam entender que tem dois tipos de máquinas virtuais Tipo 1: O que é preferido no mercado, pois dá acesso direto ao hardware, processadores e disco rígido. Ex: VMware, Hyper-V da Microsoft, KVM, Xen. Tipo 2: Aqueles que se apoiam no sistema operacional primeiro e, por isso, demandam que a virtualização funcione com esse sistema operacional que está por trás. Essa situação pode fazer com que o processo se torne mais lento, ou que pare de funcionar. Tratando-se deste caso, não se pode colocar duas máquinas virtuais, mas ela é indicada para ambiente de teste. Ex: Oracle VirtualBox, Parallels utilizado no Macintosh, Qemu, WMWare Workstation. No Webinar, produzido com a ESR, sobre Virtualização em Nuvem, Robert ainda detalha uma nova tecnologia que se pretende a complementar esse universo, solucionando alguns problemas encontrados nas máquinas virtuais, a chamada conteinerização. Os containers são processos como um webserver, que usam um tipo de virtualização mais leve e rodam em computadores Windows ou Linux, por exemplo. A partir dessa tecnologia, é possível a instalação de um aplicativo que vai se integrar com o sistema operacional e também com bibliotecas dinâmicas incluídas no sistema para poder interagir.  Quando há uma necessidade de alta disponibilidade de aplicativos ou de se deslocar os dados de um servidor para outro, essa tarefa pode ser muito complexa no âmbito das máquinas virtuais. Já os containers funcionam separados do sistema operacional, então podem ser deslocados de um computador para o outro ou pra nuvem em um instante. Só precisam de um host para rodar.  Entre as diferenças de máquinas virtuais e containers estão: Máquinas: mais lentas, precisam de muitos recursos. Podem ser bastante disponíveis e com descolamento, mas para isso precisam deslocar todo o sistema operacional. Sendo impossível fazer isso em partes; Containers: mais rápidos, econômicos e podem “pegar” o que precisam.  Portanto, vemos que a virtualização tem desempenhado um papel fundamental no trabalho de um administrador de sistema e tem em seus produtos possibilidades de ser realizada por diferentes fornecedores, além de hospedada tanto na nuvem quanto localmente. O que se espera de um profissional administrador de sistemas e virtualização em nuvem? Algumas características são essenciais para quem deseja se especializar nesta área.  1) Conhecimento técnico  Certamente o conhecimento técnico sobre os servidores disponíveis e sobre o que é uma virtualização em nuvem é indispensável para o profissional de TI que deseja atuar nesta área.  A ESR possui diversos materiais gratuitos e outros pagos que podem te auxiliar a concluir essa trilha de conhecimento. Confira:  Webinar sobre Virtualização de Sistemas com o Robert McMillen (original/inglês e português) Curso realizado em parceria com a referência em certificações Ascend, curso “Virtualização de Servidores Online (EaD)“. Conteúdo “O que é e como fazer Virtualização de Sistemas Operacionais” Conteúdo “Benefícios da Virtualização em Nuvem” 2) Noções sobre legislação e cibersegurança Como os sistemas virtuais são a chave dessa tecnologia, o administrador de redes precisa estar sempre atualizado sobre ferramentas, protocolos e rotinas de cibersegurança, além de ter conhecimento sobre as legislações do universo digital.  Desta forma garante a segurança das máquinas perante a iminente ameaça de violação de dados, fraudes e afins e também assegura a conformidade de suas operações frente aos ordenamentos vigentes, caso seja necessário em alguma etapa.  3) Atualização de mercado Compreender bem as transformações da área e se aprofundar nos conhecimentos técnicos sobre Internet das Coisas, Cloud Computing, tendências tecnológicas, arquiteturas de software sem servidor,  entre outras atividades é passo essencial de um administrador de sistemas inserido na virtualização em nuvem.  Ou seja, um administrador de sistemas agora precisa entender sobre as infraestruturas de rede e da máquina física, e também sobre como resolver eventuais problemas no decorrer dos processos. 4) Atenção à experiência do usuário Com a ampliação de aplicativos, por exemplo, a satisfação do usuário com os sistemas criados passa a ser um ponto importante de avaliação para os profissionais de TI.  Afinal, observar se um desenvolvimento é funcional ou não pode direcionar outras ideias de produtos e soluções em nuvem no futuro.  Assim, um administrador de sistemas que também seja especialista em virtualização em nuvem deve, além de ter conhecimento sobre hardware e software, refletir sobre como o produto desenvolvido é utilizado pelos usuários finais.  5) Conhecimento sobre as tecnologias disponíveis Com conhecimento técnico cristalizado, o profissional administrador de sistemas precisa saber também quais as tecnologias surgem no segmento e estão disponíveis para o desenvolvimento de softwares e aplicativos. Aliar a sua capacidade de observação do cenário, com a técnica e com a noção de quais ferramentas performam melhor para cada situação é um diferencial interessante para o que o mercado de TI demanda.  ———————————————- Diante disso, os profissionais de TI precisam se conectar cada vez mais às urgências de um mercado que se transforma em velocidade recorde.  A virtualização de sistemas é uma realidade que se solidifica com o passar dos anos e se atualiza à mesma medida.  Para compreender mais sobre esse universo, além do passo a passo sobre como os sistemas operacionais funcionam na prática, assista ao webinar com o especialista, Robert McMillen, na íntegra! 


    12/05/2022
  • Dados estruturados, não estruturados e semiestruturados
    Ciência de Dados

    Dados estruturados, não-estruturados e semiestruturados: diferenças e similaridades

    O universo data abre diversas possibilidades para um profissional da tecnologia da informação se especializar. Neste conteúdo você irá conhecer algumas delas ao entender as diferenças e similaridades existentes entre dados estruturados, não-estruturados e semiestruturados. Em um mundo no qual as informações em nuvem são geradas em velocidade recorde e a atenção do público é requisitada na mesma intensidade por diversas marcas e empresas, é importante compreender como hierarquizar suas estratégias de coleta e interpretação de dados.  Além disso, é preciso ter em mente que, cada vez mais, a Internet é regulamentada em consonância com uma tendência global de tornar o ambiente digital mais seguro e transparente.  Por isso, conhecimento se torna a palavra chave para crescimento de carreira na área. Abaixo você encontrará informações que podem te auxiliar na construção desse processo. Vamos lá? Diferenças entre dados estruturados, não-estruturados e semiestruturados. Falar em estrutura de dados se refere à classificação desses ativos. Os dados podem se apresentar na forma de listas, com processos realizados como numa fila operacional; na forma de árvore, quando há estruturação hierárquica (um elemento principal no topo da árvore seguido dos subordinados a ele); como estrutura de dados grafos, que prevê formas diferentes de relacionar dados, com vértices, ou, nós conectados entre si; por meio da Tabelas Hash, que compreende as estruturas das chamadas tabelas de dispersão, associando chaves de pesquisa a valores pré-definidos; além de outras estruturas, e até de forma não estruturada. Assim, é importante saber que existem três formas básicas de classificá-los: dados estruturados, não-estruturados e semiestruturados. É isso que você irá conhecer de forma mais aprofundada abaixo. O que são dados estruturados?  Dados estruturados são aqueles que, desde a elaboração da estrutura, são pensados estritamente com uma finalidade.  Ou seja, possuem estrutura rígida e previamente definida.  A exemplo disso, quando um banco de dados estruturados é estabelecido, isso é feito de forma específica e não aceita informações diferentes.  Ou seja, se foi desenhado para receber dados numéricos, o banco não aceitará outros formatos.  Como o próprio nome indica, tais estruturas são pensadas antes sequer da existência do dado que será carregado por ali, como é o caso de um formulário online e tabelas de bancos de dados relacionais. A forma de análise dos dados estruturados parte de um padrão que já é conhecido, mas ainda assim requer conhecimentos específicos para construir tabelas em bancos de dados relacionais, por exemplo. Este assunto, os modelos que são criados e a etapa de normalização de dados são temas explorados no curso de Modelagem de Banco de Dados da ESR. Além disso, por não possuírem estruturas que mudam com frequência, esses tipos de dados têm uma análise e processamento “mais fáceis” para um volume menor de dados e estruturas, embora o processamento distribuído de grandes volumes de dados estruturados continue sendo algo bem complexo.  De qualquer modo, para a gestão de transações, os dados estruturados se apresentam como uma melhor opção, na medida em que os mecanismos para garantir a Atomicidade, Consistência, Isolamento e Durabilidade (ACID) destas transações são bem conhecidos.  Em decorrência disso, a confiabilidade dos dados é garantida mesmo em situações extremas, como falta de luz.  Para os demais tipos de dados (não e semiestruturados) garantir todas as características ACID em uma  mesma transação é mais complexo. O que são dados não estruturados?  Os dados não estruturados são aqueles que compreendem cerca de 80% deste universo. Diferentemente do primeiro, não requer estruturas bem definidas, ou padronizadas e podem ser compostos por elementos diversos, comuns ao cotidiano das pessoas.  É o caso de fotos, áudios, vídeos, textos, emojis, etc.  Por não ter uma  estrutura padronizada, o uso de dados não estruturados requer uma observação um pouco mais apurada.  De forma geral, qualquer dado tratado por um computador tem uma estrutura. Um texto longo é composto por uma sequência de letras, números, pontuação e espaços em branco que formam palavras, frases e parágrafos de tamanhos variáveis que poderão abordar variados assuntos.  Uma foto também é composta por uma matriz de pontos, cada uma de uma cor e brilho específicos, que juntos formarão uma imagem que pode ser de uma paisagem, pessoa, ou até mesmo de uma página de um livro. O ponto principal é que não é possível saber previamente o tamanho e o conteúdo/significado dos dados não estruturados. Mas, isso está mudando!  É preciso que, para analisar seu conteúdo, se ensine uma máquina a compreender, fazer a interpretação e os cálculos, por meio de equações de matemática, dos padrões aos quais se pretende observar.  Você certamente já ouviu falar de machine learning e da sua importância para esse tipo de análise complexa de dados, certo? Antes era comum dizer que um computador não conseguia entender uma foto. Entretanto,  agora é possível apresentar um conjunto enorme de fotos, por exemplo, de gatos para a máquina. Cada ponto de cada uma destas fotos carrega informações numéricas sobre sua cor, brilho e outras características.A relação de proximidade entre um determinado ponto e os demais que estão à sua volta para cada região da foto também pode ser calculada. Inúmeras equações matemáticas são realizadas e a máquina é capaz de refinar o entendimento dos resultados de todos estes cálculos que correspondem a fotos de gatos.   É por isso que essa técnica é chamada de aprendizado de máquina e já permite que um computador reconheça fotos de gatos e de inúmeros outros animais e objetos (se tiver sido previamente treinada para fazer este reconhecimento).  Portanto, a principal diferença desse tipo de dado não estruturado  para os demais é que  a organização deles é totalmente aberta. Enquanto nele  não é possível saber o tamanho de cada dado e a classificação do seu conteúdo, nos outros tipos a organização dos dados  está presente em maior (estruturados) e menor grau (semiestruturados).  O que são dados semiestruturados? As classificações destinadas aos dados dizem muito sobre seus comportamentos.  Dessa forma, nos semiestruturados há uma combinação de características de dados estruturados e dados não estruturados. É como se falássemos que o dado semiestruturado tem menos controle do que o estruturado e mais rigidez (menos confusão) do que os não estruturados.  A exemplo desse tipo de dados podemos citar o código HTML que, ao mesmo tempo, não limita a quantidade de informações que você quer e pode coletar, e ainda hierarquiza seus documentos por meio de elementos semânticos. Há também, dentro desse espectro, padrões para intercâmbio de dados usando XML e equivalentes. Representa, em comparação a esses outros dois tipos, uma versão que permite maior escalabilidade e flexibilidade que os estruturados e também mais organização que os não estruturados.  Assim, quando se compara a questão de flexibilidade e escalabilidade de dados, os estruturados, por dependerem de esquemas e serem relacionais, não tem flexibilidade mas são mais escaláveis, enquanto os não estruturados são muito flexíveis, mas, menos escaláveis e, por fim, os semiestruturados se enquadram no meio termo.   _________________________________________________ Portanto, dados estruturados, não-estruturados e semi-estruturados representam uma infinidade de possibilidades de análises, interpretações e utilizações.  De acordo com um levantamento realizado pela plataforma de relacionamentos profissionais, LinkedIn, dentre as 25 profissões que estarão em alta ao longo de 2022, continuarão liderando as posições aquelas ligadas à tecnologia, ciência de dados e design. Portanto, especializações na área podem ser um divisor de águas nos projetos de carreira.  No curso Analista de Dados de Negócios, da ESR – referência em treinamentos para a área tecnologia-, você terá uma formação inicial sobre o tema, conhecendo os principais conceitos e ferramentas utilizadas, compartilhando os casos de sucesso e insucesso e explorando a contribuição do analista de dados de negócio neste resultado.  Saiba mais sobre o curso aqui! Continue conosco por outros conteúdos sobre a área:  Acesso o Blog da ESR ou nossos materiais ricos. 


    28/04/2022
  • Big Data
    Desenvolvimento de Sistemas

    O que analisar e como escolher um banco de dados

    O Social Good Brasil – SGB informou que a quantidade de dados produzidos nos últimos anos é maior do que o já visto em toda a humanidade. Por isso, operar no universo Big Data torna-se cada vez mais complexo e essencial. Você sabe como escolher o melhor banco de dados para a realidade do seu negócio ou do local em que trabalha?  Logo abaixo você confere algumas dicas sobre como escolher um banco de dados e relembre alguns conceitos importantes sobre o tema.  Como escolher um banco de dados em 7 passos  Se você chegou até aqui, já está familiarizado com trabalho com dados, sua conceituação, definições e áreas de atuação, certo?  De forma geral, para recordar, os bancos de dados definem-se na “organização e estruturação dos milhares de dados gerados por diferentes fontes de modo a facilitar sua análise e compreensão”.  Daí vem a importância de contar com bancos de dados que sejam capazes de suprir a necessidade das organizações e também estejam em conformidade com as regulamentações legais da Internet.  Para escolher um que se adeque ao seu projeto você deve pensar que ele precisa obedecer à uma função básica: colecionar dados de forma organizada, que possam ser acessados facilmente em outro momento.   Agora sim, vamos às dicas objetivas:  1) Analise as necessidades do seu negócio Antes mesmo de fazer uma avaliação técnica dos diferentes bancos de dados você precisa conhecer o projeto e a empresa aos quais ele será associado.  Entender as necessidades do negócio, além da projeção de crescimento do mesmo, é parte fundamental do processo de escolha de um banco de dados.  2) Observe a infraestrutura digital  Você precisa decidir entre a possibilidade de se customizar um banco de dados ou de optar por um software que faça isso.  Geralmente, quanto mais complexo um banco de dados é, maior a sua necessidade de customização.  Essa etapa de avaliação requer cuidado e atenção. Afinal, ninguém quer implementar um banco de dados que não será capaz de suprir as necessidades da organização ou projeto, e precisará ser substituído no meio do caminho, certo? 3) Certifique-se da segurança dos bancos de dados  Entender como os bancos de dados se enquadram no quesito “segurança” é importante não só para os negócios que mexem com dados sensíveis.  Atualmente, toda a rede, transações e “relações” em nuvem precisam assegurar que o ambiente digital é transparente, seguro e que segue as legislações vigentes.  Por isso, os bancos de dados além de contarem com criptografias para proteção dos ativos, também precisam oferecer   funcionalidades e recursos que permitam e facilitem que a empresa siga a legislação, como a LGPD.  Por sua vez, o profissional responsável pela administração de um banco de dados deve ter esse conhecimento na hora de escolher com qual trabalhar, uma vez que as não conformidades podem ocasionar sanções às empresas.   4) Saiba quais são os bancos de dados existentes Há diversos bancos de dados que podem ser utilizados. Os principais são:  Bancos de dados relacionais (organização de informações estruturadas em tabelas); Bancos de dados orientados a objetos (representação das informações na forma de objetos); Bancos de dados NoSQL (permite o armazenamento e manipulação de dados mistos, não estruturados ou semiestruturados). Data Warehouses / Data Lakes (repositórios de dados para apoiar consultas consolidadas e permitir o uso de novas técnicas, como é o caso do streaming de dados). Para escolher qual a melhor opção é necessário observar os objetivos e as necessidades por trás do uso desses dados coletados.  5) Elabore um mapa visual dos objetivos do negócio Optar por alternativas visuais pode ser uma otimização no processo de escolha de um banco de dados.  Anote, desenhe, enfim, deixe claro alguns pontos importantes da trajetória da organização, tais quais:  Cenário atual da empresa Recursos disponíveis para investimentos  Objetivos esperados e desejados com um banco de dados.  6) Tenha uma equipe capacitada à frente desse processo Se você é o gestor de uma empresa em busca de um banco de dados eficiente, contrate colaboradores que tenham conhecimento específico sobre o tema.  Investir em uma equipe qualificada significa tomadas de decisão mais assertivas e rentáveis.  Agora, se você é um profissional de TI em busca de novas áreas de atuação, invista em capacitação para administração de banco de dados.  Como falamos anteriormente, a demanda do mercado por esse segmento é grande e estar qualificado é um diferencial.  A ESR, por exemplo, oferece o curso “Administração de Banco de Dados (EaD)“ do dia 18/07/2022 a 28/08/2022, em encontro online que prioriza o desenvolvimento das competências necessárias para administrar o PostgreSQL – sistema gerenciador de banco de dados em software livre que é considerado um dos mais completos e robustos do mercado. 7) Entenda que tudo faz parte de um processo e de um planejamento  Assim como um planejamento financeiro ou de ações anuais, escolher um banco de dados e como fazer a sua manutenção deve seguir uma estratégia. O método de tentativa e erro nesse cenário pode ser bastante prejudicial para o negócio Além disso, a governança de dados precisa estar no radar do profissional que administra banco de dados. Ter uma área exclusiva para as tratativas a respeito dos processos de dados é fundamental.  8) Atualize o seu conhecimento  Essa dica sobre como escolher um banco de dados conversa diretamente com a 6ª, pois indica que o profissional de TI deve estar sempre atualizado e preocupado com a absorção de conhecimento sobre a área.  Existem documentos e treinamentos na Internet que podem te auxiliar nesse processo. Confira três deles abaixo:  Administração de banco de dados: o guia completo 10 dicas de como fazer uma boa administração de banco de dados Administração de Banco de Dados (EaD) ——————————————– Escolher um banco de dados é uma curadoria complexa e bastante específica, sendo responsável pelo sucesso ou fracasso de uma empresa no meio digital.  Além disso, é cada vez mais comum ver empresas usando mais de um tipo de banco de dados, já que diferentes áreas/setores da organização podem ter características e demandas específicas. Em uma realidade “hiper conectada”, deter os conhecimentos acerca do que faz esse ambiente funcionar de forma prática e sem grandes intercorrências é interessante para uma carreira na TI.  Ficou interessado em se especializar em bancos de dados?  Relembre os detalhes do Curso Bancos de Dados da ESR!


    25/04/2022
  • Virtualização em nuvem
    Administração de Sistemas

    6 benefícios de aprender virtualização em nuvem

    Por meio da virtualização de servidores você consegue otimizar tarefas e, consequentemente, resultados. Por isso, essa é uma das principais apostas do mercado, cada vez mais, demanda profissionais que saibam detalhadamente os processos da virtualização em nuvem. Implementar essa metodologia de trabalho traz vantagens não somente para o setor da tecnologia da informação de um negócio, como para os demais departamentos.  Abaixo você fica por dentro dos principais benefícios da implementação da virtualização em nuvem e porquê esse conhecimento precisa estar no seu portfólio de atuação enquanto profissional de TI.  Benefícios de aprender virtualização em nuvem  1) A virtualização em nuvem é uma solução com maior segurança  Não é de hoje que alternativas são elaboradas com o objetivo de barrar a sofisticação dos cibercrimes. A virtualização em nuvem tem a capacidade, por meio de firewalls virtuais, de limitar o acesso de dados e garantir maior segurança à rede.  2) A virtualização em nuvem permite a gestão de crises Quando há algum dano, falha ou cibercrime sob um servidor físico, as reparações desse recurso podem levar muito tempo.  Por isso, contar com um sistema que esteja integrado por meio da virtualização em nuvem permite mais flexibilidades às empresas e mobilidade para, enquanto o hardware é analisado, os demais servidores continuem funcionando e, até mesmo, dando suporte à essa situação.  Diante disso, o gerenciamento de crises é mais eficiente e assertivo.  3) A portabilidade é garantida Esse é um dos benefícios que demonstra a importância de se ter um conhecimento técnico sobre a virtualização em nuvem e sobre os softwares de virtualização.  Na virtualização em nuvem as empresas passam a gastar menos tempo e esforço com manutenções de máquinas físicas, e podem gerir seus servidores com times alocados em qualquer lugar (desde que eles tenham sido previamente autorizados).  Assim, além de ser mais rentável para os negócios, as vagas relacionadas à área superam as antigas barreiras geográficas e podem ser mais frequentes.  Portanto, estar capacitado para esse novo contexto é uma das obrigações dos profissionais que desejam se destacar nos próximos meses e anos.  4) Possibilita a execução de testes sem parar os sistemas  A virtualização em nuvem é responsável por integrar várias máquinas a um sistema e, ainda assim, assegurar as individualidades de cada equipamento.  A consequência dessa característica é que as máquinas virtuais, embora conectadas, trabalham de forma individual permitindo mais controle para seu desenvolvimento e testes.  É a partir dessa condição que desenvolvedores podem operar em uma máquina sem influenciar a outra, otimizando tempo e resultado.  5) É uma solução sustentável  Sabendo que a virtualização em nuvem não requer a existência de múltiplos servidores físicos, percebemos que esse é um avanço da tecnologia que preconiza a sustentabilidade e as diretrizes ecológicas das empresas.  As necessidades de servidor em um sistema de virtualização em nuvem, como manutenção, troca, pegada de carbono, se tornam muito menores.  Uma vez que há menos máquinas físicas, há também menor necessidade de gasto de energia. O que torna essa solução mais ecológica.  6) Destaca os profissionais que dominam a área Por ser uma tecnologia que permite tantos benefícios e vantagens competitivas às empresas, a virtualização em nuvem é uma das grandes tendências da tecnologia da informação.  Várias organizações estão em busca de soluções que ofereçam mais segurança, adequação às legislações sobre a rede, e garantam rentabilidade ao seu dia a dia.  Dessa forma, a especialização em virtualização em nuvem e no conhecimento dos softwares de virtualização pode significar um ponto de transformação na sua carreira.  A ESR possui um treinamento que é referência neste tema, em parceria com a conceituada Ascend.  Com sede nos Estados Unidos, a Ascend Education desenvolve capacitação completa de  TI e conta com anos de experiência prática nos campos de treinamento técnico e de certificações. Para o curso “Virtualização de Servidores Online (EaD)“, ESR e Ascend focam na apresentação de conceitos e das boas práticas da virtualização de servidores, para que o aluno domine como funciona a virtualização, o papel e a função de um hipervisor, o papel e a função de uma máquina virtual e como funcionam as redes virtuais.  Os participantes do treinamento terão acesso também às principais soluções de virtualização do mercado, com laboratórios práticos das soluções da Vmware e Microsoft, realizando a configuração das ferramentas existentes, criando e configurando máquinas virtuais e explorando seus recursos. Também são abordados os conceitos da virtualização em nuvem. Gostou? 🚩 Inscreva-se aqui!  ———————————————– Como vimos acima, são inúmeros os benefícios de aprender os detalhes da virtualização em nuvem – desde mais oportunidades no mercado de trabalho até a garantia de soluções mais rentáveis para o seu ou o negócio em que você é colaborador Esse foi um tema de seu interesse? Continue conosco e aprofunde seu conhecimento sobre os principais softwares de virtualização de sistemas. 


    14/04/2022
  • global connections scaled 1
    Administração e Projeto de Redes

    Protocolo de roteamento BGP para iniciantes: o que é e como usar

    Se você é um iniciante ou admirador da área de TI, provavelmente já ouviu falar do protocolo BGP. Mas, você sabe de fato o que significa o Border Gateway Protocol?  De forma resumida, o BGP é o protocolo de integração de sistemas e informações que permite que a Internet funcione.  Disso vem sua relevância e a indicação para que seu conhecimento seja parte das suas especializações na área.  Afinal, se um dado sai de um lugar e chega a outro, isso ocorre graças ao bom funcionamento dos protocolos de roteamento BGP.  Esse é um tema que te interessa? Continue a leitura para descobrir outros detalhes deste universo.  Por aqui você irá encontrar o seguinte roteiro de conteúdo:  O que é Protocolo BGP  Como funciona o Protocolo BGP  Como começar a sua especialização em Protocolo BGP  O que é Protocolo BGP  Como dissemos anteriormente, o protocolo de roteamento BGP é a tecnologia que permite à Internet seu pleno funcionamento.  A rede é formada por diversas sub-redes, também chamadas de sistemas autônomos (AS), que precisam se conectar e trocar informações entre si. Quem garante que isso seja uma realidade são os protocolos BGP, através da troca de informações de roteamento e acessibilidade entre roteadores de borda   É por meio da utilização de protocolos de roteamento BGP que há o que denominamos popularmente de “correio da Internet”.  Quando há o envio de dados pela Internet, o protocolo BGP é capaz de avaliá-los, observar todos os caminhos existentes na nuvem e ainda escolher a rota mais eficiente para que um tráfego de IP viaje de um ponto a outro.  Dessa forma, é como se os sistemas autônomos (Autonomous Systems, ou AS) fossem agências individuais dos correios e o protocolo BGP o correio em si.  Para os iniciantes na área, é importante compreender que o protocolo BGP, embora seja um dos mais complexos, é também um dos mais importantes, sendo responsável por garantir a troca de informações entre roteadores, avaliando a melhor rota e, também, a mais eficiente.  Principais características do Protocolo de roteamento BGP  Segurança  O Protocolo de Roteamento BGP tem como uma de suas principais características a segurança.  Além da necessidade dos roteadores adjacentes serem configurados manualmente, o protocolo BGP também prevê que nas rotas existam filtros diversos que permitam os ISPs (provedores de serviços de Internet) defenderem suas redes e controlarem o que anunciam para concorrentes.   Avaliação completa Os protocolos de roteamento BGP, responsáveis por troca de informação de roteamento, avaliam de forma completa os possíveis caminhos para esse processo. São observadas informações sobre roteadores conhecidos, endereços alcançáveis, e um custo associado ao caminho para cada roteador.  Dessa maneira, os roteadores da rede trocam informações entre si, se atualizam e escolhem a melhor rota de acordo com todos esses elementos.  Cria estabilidade  O protocolo BGP é aquele que encontra, na falha de uma rota, outra igualmente satisfatória.  O BGP irá tomar decisões de roteamento a partir de regras ou políticas de rede definidas por administradores de rede e, assim, conseguirá auxiliar os roteadores a se adaptarem aos erros ou falhas de uma determinada rota.  É usado de forma interna ou externa O protocolo BGP é utilizado como protocolo de roteamento tanto entre os sistemas autônomos (ASs), quanto dentro de grandes redes de ISP.  No primeiro caso ele ganha o nome de BGP externo, já no último de BGP interno.  Como funciona o Protocolo BGP  Você já sabe que o Protocolo de roteamento BGP é utilizado para trocar informações de roteamento e garantir acessibilidade entre sistemas autônomos (ASs), certo?  Existem roteadores internos nesses sistemas AS que encaminham suas transmissões de saída para os roteadores BGP e, a partir disso, o roteamento BGP entra em jogo para levar essas transmissões aos seus respectivos destinos.  Os peers (pares), que representam cada roteador BGP, irão trocar informações de roteamento entre si, como em uma rede de vizinhos, na forma de anúncios de prefixo de rede. Depois disso, o protocolo BGP analisa o pacote de dados e define em conjunto com sua rede peer vizinha qual a próxima parada dessas informações encaminhadas.  Cada peer é responsável por gerenciar uma tabela com todas as rotas que tem conhecimento para cada rede e também por “divulgar” essas informações para os AS vizinhos.  Resumidamente, os protocolos BGPs irão permitir que os ASs coletem as informações de roteamento de seus sistemas autônomos vizinhos e anunciem os dados depois. O protocolo irá divulgar informação interna dentro de seus próprios sistemas. A figura a seguir ilustra a visão da Internet como uma interligação de ASs. Fonte: NIC.br Para completar o processo, com base em elementos do tipo custo, confiabilidade, velocidade, política de roteamento de uma organização, as informações coletadas nessas trocas, o protocolo BGP irá escolher a melhor das rotas para entregar um tráfego de um local ao outro.  Como começar a sua especialização em Protocolo de roteamento BGP  De forma geral, entender de protocolos é uma das bases de trabalho na área da tecnologia da informação.  É por isso que por aqui, há sempre espaço para aprofundarmos os assuntos relacionados a eles, como foi o caso do detalhamento do Protocolo OSPF.  Nesse caminho, a ESR também oferece um treinamento completo para quem deseja se destacar na atuação com protocolos de roteamento BGP.  O curso “BGP Avançado”, da ESR, apresenta a operação do roteamento BGP de um Sistema Autônomo (AS) de uma organização (Campus Acadêmico ou Empresa) que não opera como um ISP (Internet Service Provider) ou PTT/IXP (Internet Exchange Point), de acordo com as melhores e mais atuais práticas operacionais e de segurança. O treinamento tem carga horária de 16 horas divididas em 2 semanas de duração e mais uma semana de encerramento, e com 2 encontros online por semana com o tutor. Os encontros são ao vivo e têm 2 horas de duração. Achou interessante? Inscreva-se aqui!


    07/04/2022
  • Protocolo OSPF
    Administração e Projeto de Redes

    Como funciona o protocolo OSPF?

    Em tradução livre OSPF (Open Shortest Path First) significa “escolher o caminho mais curto primeiro”. Por isso, entender como ele funciona faz parte das premissas de quem se interessa pela área da tecnologia ou já é um profissional do mercado.  Cunhado em 1988, pelo grupo de trabalho de IGPs (Interior Gateway Protocol), da IETF (Internet Engineering Task Force), o protocolo de roteamento utiliza o tipo link-state para  observar as informações de vários roteadores conectados entre si e escolher qual melhor trajeto para entregar um pacote de rede, de forma mais efetiva. Abaixo você compreende um pouco mais sobre esse conceito e sobre como ele ocorre na prática.  O que é um Protocolo OSPF?  Como dissemos anteriormente, o protocolo OSPF é um protocolo de roteamento no modelo dinâmico.  De forma geral, podemos compará-lo com um GPS que observa as rotas para se chegar a um determinado destino e opta por aquela que será concluída em menor tempo ou sem trânsito.  Assim, o protocolo OSPF consegue analisar, interpretar e registrar dados dos roteadores conectados a um servidor, para, posteriormente, escolher um melhor caminho para entregar os pacotes da rede.  É considerado pertencente à classe dos protocolos de roteamento dinâmico.  Todos os protocolos que priorizam a observação da quantidade de roteadores até chegada do destino são conhecidos como de vetor distância, como RIP, RIPv2 e EIGRP, enquanto os que priorizam chegar mais rápido de acordo com a banda são chamados de protocolos link state (estado de link), como o OSPF e IS-IS.  Dessa forma, o Protocolo OSPF é aquele do tipo link state que, antes de tomar qualquer decisão, irá avaliar a topologia de todos os roteadores integrados aos seus processos, optando pela jornada mais curta para encaminhamento dos pacotes. Como funciona o protocolo OSPF?  Para que o Protocolo OSPF consiga executar essas análises ele faz uso de um programa nomeado como algoritmo Dijkstra – nome do cientista que o desenvolveu, Edsger Dijkstra. Tal algoritmo tem como objetivo registrar um banco de dados central/local com mensagens emanadas de todos os roteadores. A partir daí o OSPF lança mão do algoritmo open shortest path first (OSPF) de Dijkstra para criar uma árvore SPF, que preenche uma tabela de roteamento IP conduzindo os pacotes de rede pelos melhores caminhos.  Quando as redes são configuradas fazendo uso deste protocolo, cada roteador tem uma identificação e todos eles trocam alguns tipos de mensagens entre si. A exemplo disso temos Hello, DBD, LSR, LSU e LSAck. As identificações dos roteadores podem ser definidas manualmente, por meio de interface de Loopback de maior IP, ou em caso de falta de interface de loopback configurada, o roteador utilizará o maior IP entre as suas interfaces. Além disso, o Protocolo OSPF usa a menor distância administrativa (AD), ou seja, a confiança (ou preferência) da origem da rota, para enviar os pacotes. O padrão desse processo é de 110. Dando continuidade, o Protocolo OSPF usa o “custo” como métrica. O custo significa, por sua vez, o tempo que uma mensagem gasta para chegar ao seu destino. Assim, quanto menor o custo, melhor o caminho e o OSPF irá sempre optar por esta opção.  É nesse contexto que há a divisão da topologia dos roteadores em diversas áreas para que elas sejam capazes de contribuir com a sumarização das rotas entre eles e melhore o processamento desses roteadores.  Portanto o Protocolo OSPF também atua por meio de hierarquia estruturada através dessas áreas, avaliando nesse processo o melhor caminho entre os roteadores e o servidor. Pode ser utilizado para projetar e construir redes amplas e complexas. _______________________________________ Quer saber mais sobre como funciona o Protocolo OSPF, seus benefícios, como aplicá-lo na prática e gerar novas oportunidades de emprego e negócios?  No curso da ESR OSPF Avançado (EaD) o aluno terá 04 encontros online para descobrir esse universo e também alternativas para trabalhar com a engenharia de tráfego, mostrando como mudar as métricas e forçar o roteamento por caminhos otimizados.  No treinamento apresenta-se também técnicas para controlar a redistribuição de prefixos utilizando mapas de rota (ou route-maps) e sugestões de boas práticas e metodologia para resolução de problemas. Faça a sua inscrição aqui!  Se você busca saber mais sobre protocolos de roteamento, como Protocolo OSPF e outros, também indicamos o curso da ESR sobre Protocolo de Roteamentos IP. Este curso prepara o aluno para projetar esquemas de roteamento para redes de diversos tamanhos, interligadas ou não a redes sob outra administração. Faça a sua inscrição aqui!  Ah, curte tecnologia ou é profissional da área? Compartilhe o conteúdo com alguém e, logo depois, siga conosco por esse universo.  Principais softwares para virtualização de servidores Web 3.0: o que é, impactos e benefícios da nova era da Internet


    24/03/2022
  • Principais softwares para virtualização de servidores
    Administração de Sistemas

    Principais softwares para virtualização de servidores

    Para falarmos dos principais softwares para virtualização de servidores, é preciso que nós recordemos o conceito por trás dessa tecnologia.  De forma simples, o fenômeno do software de virtualização descreve a possibilidade de um sistema abrigar outros sistemas em um só hardware.  Assim, os softwares de virtualização executam mais tarefas e processos usando o mesmo hardware e convertendo um único vetor de trabalho em várias máquinas virtuais.  Além disso, a definição também se estende para o entendimento de produção e acervo de informação eletrônica em um único espaço – a nuvem.  Por aqui já te mostramos como utilizar a virtualização de sistemas operacionais (vale a pena reler). O próximo passo é conhecer os 4 principais softwares para virtualização de servidores.  Vamos lá?  Os 4 Principais softwares para virtualização de servidores  Principais softwares para virtualização de servidores: Hyper-V  Lançado em 2008, esse é um dos softwares para virtualização de servidores que já vem integrado no Windows 10 e Windows 8.1. Por esse motivo é considerado um dos mais práticos virtualizadores, podendo ser empregado no uso corporativo e caseiro. De acordo com o hardware instalado, é bastante expressivo em alcançar bons resultados.  É indicado para profissionais que estejam começando o processo de virtualização. É o seu caso?  > Conheça o curso da ESR que aborda a Virtualização de Servidores Online e ensina na prática a utilização desse e outros softwares populares no mercado.  Inscreva-se!  2) Principais softwares para virtualização de servidores: VMware vSphere ESXi O VMware vSphere ESXi é considerado o líder do mercado de software de virtualização de servidores.  Um de seus diferenciais é o processamento para aplicativos modernos a partir de uma combinação bastante robusta de máquinas virtuais. Sabendo que um dos principais objetivos dos softwares de virtualização de sistema é enxugar custos, utilização de espaço físico desnecessário, bem como a otimização de recursos tecnológicos, gastos e afins, o VMware vSphere atua nessa perspectiva.  Esse modelo age a partir de um conjunto completo de virtualização para virtualizar a partir de servidores de hardware e data centers. > Conheça o curso da ESR que aborda a Virtualização de Servidores Online e ensina na prática a utilização desse e outros softwares populares no mercado. Inscreva-se! 3) Principais softwares para virtualização de servidores: Citrix Hypervisor Com utilidade eficiente tanto para Windows quanto para Linux, o Citrix Hypervisor é outra plataforma de virtualização que tem, inclusive, uma versão gratuita e foi elaborado por meio de um projeto de pesquisa na Universidade de Cambridge, capitaneado por Ian Pratt, fundador da XenSource, Inc.   Em linhas gerais o XenServer é uma das possibilidades de virtualização de servidores aberta, que se diferencia por reduzir custos do datacenter ao transformar datacenters estáticos e complexos em delivery centers mais engrenados e fáceis de gerenciar. Esse modelo possui infraestrutura para a execução de sistemas usando computação em nuvem, além de possuir recursos essenciais de ao vivo e gerenciamento centralizado de múltiplos nodos sem nenhum custo. > Conheça o curso da ESR que aborda a Virtualização de Servidores Online e ensina na prática a utilização desse e outros softwares populares no mercado.   Inscreva-se! 4) Principais softwares para virtualização de servidores: Virtualização em nuvens públicas Embora estejam correlacionados, virtualização e o cloud computing são coisas diferentes.  Isso se explica porque o último utiliza, na maior parte das vezes, a estrutura de servidores do primeiro para funcionar.  Ou seja, a computação em nuvem pode funcionar com base em máquinas físicas (ser virtualização), entretanto isso não é corriqueiro nos dias de hoje.  Seu principal objetivo é assegurar informações digitais em um só lugar, possível de ser acessado de qualquer ponto – desde que haja liberação para tal.  Já a virtualização utilizada para a implementação desse processo irá permitir o alto desempenho de cada máquina de uma empresa, por exemplo. Portanto, será importante para que os negócios otimizem custos, espaço e resultados. > Conheça o curso da ESR que aborda a Virtualização de Servidores Online e ensina na prática a utilização de virtualização para cloud computing em alguns módulos  a se saber:  Inscreva-se! ___________________________________________ Os softwares de virtualização de servidores funcionam como catalisadores de atividades digitais já bastante potentes. Por isso, é uma das apostas da tecnologia da informação.  No curso da ESR você vai dinamizar a sua estrutura de TI com projeto, consolidação e gerência de servidores virtualizados. Durante seis semanas serão apresentados aos alunos os conceitos e as boas práticas da virtualização de servidores, a explicação sobre como lidar com essa tecnologia, além do papel e a função de um hipervisor, o papel e a função de uma máquina virtual e como funcionam as redes virtuais.  A proposta é oferecer um treinamento que mostre as principais soluções de virtualização do mercado, com laboratórios práticos das soluções da Vmware e Microsoft,e realize a configuração das ferramentas existentes, criando e configurando máquinas virtuais e explorando seus recursos.  O curso aborda também os conceitos da virtualização em nuvem. Confira detalhes sobre o curso aqui!


    18/03/2022
  • web 3.0
    Temas Diversos

    Web 3.0: o que é, impactos e benefícios da nova era da Internet

    Em paralelo às regulamentações que buscam tornar a Internet mais transparente para empresas e usuários, ganha força a Web 3.0 – uma proposta de nova estrutura da rede que, por meio da descentralização com blockchain, pretende contribuir para a segurança dos dados digitais, além de outros benefícios.  Neste conteúdo você entende melhor o que é a Web 3.0, os processos de evolução da internet, além dos principais impactos desse modelo para a área de TI.  Acompanhe a leitura e descubra alguns pontos importantes acerca dessa aposta no mercado da tecnologia.  O que é Web 3.0  A enorme produção de dados da modernidade é o pano de fundo da chamada Web 3.0, ou simplesmente Web3. Foi esse contexto que impulsionou os pesquisadores de tecnologia a pensarem em uma estrutura que possa aliar tecnologias avançadas, como inteligência artificial, machine learning e blockchain, à ideia de uma Internet mais segura, interativa e que interprete um maior número de dados. Ou seja, na Web 3.0 a interpretação acompanha a produção desses ativos.  Com o objetivo de superar a estrutura atual, cunhada por muitos como internet de segunda geração, a Web 3.0 não demandará complexos sistemas operacionais e priorizará o armazenamento de suas informações somente em nuvem.  Por esses motivos, essa abordagem é também chamada de “web semântica”, pois pretende conectar exponencialmente máquina e homem, de forma que essa relação seja cada vez mais natural e proporcione melhores experiências de usuário.  Embora tenha se popularizado nos últimos anos, o termo “Web3” se tornou conhecido já em 2014, categorizado pelo britânico Gavin Wood, cofundador da criptomoeda ethereum, e pelo russo-canadense Vitalik Buterin. Desde então, iniciativas, como a Parity Technologies, criada pelo próprio Wood, se empenham em estudar sobre como essa estrutura pode ser implementada, levando em conta que o seu principal foco é a descentralização da Internet.  Em linhas gerais isso significa dizer que uma das propostas da Web 3.0 é reduzir o poder dos conglomerados da Internet, dando mais autonomia aos usuários sobre seus dados.  A evolução das estruturas da Internet Web 1.0 Representando a fase inicial da Internet, a Web 1.0 teve como principal característica a disponibilização de páginas de conhecimento, como endereços institucionais e enciclopédias. Não permitia a interação, tendo páginas estáticas e um usuário passivo – que somente “recebia” o conteúdo. Além disso, somente pequenos grupos tinham acesso à produção de conteúdo.  Web 2.0 Marca a era dos blogs, redes sociais e da democratização da produção de conteúdo em geral. Se antes o conhecimento havia sido compartilhado, agora o seu desenvolvimento também o era.  Esse é o modelo utilizado atualmente e veio como uma proposta de superar o primeiro e oferecer mais liberdade aos usuários.  Com o desenvolvimento das tecnologias e as transformações sociais, a Internet também se viu obrigada a evoluir, mesmo dentro de uma mesma estrutura. Com isso, surgiram mecanismos capazes de assegurar uma melhor navegabilidade, como as técnicas de SEO para blog, por exemplo.  Entretanto, mesmo diante de tantas transformações esse modelo de rede ainda carrega um erro de vício importante: a falta de transparência com os dados – que são gerados em velocidade acelerada a cada ano.  Web 3.0 É nessa ineficiência da Web 2.0 que a Web3 atua. Com a descentralização da Internet será possível quebrar o modelo pelo qual as ações dos usuários são monitoradas por diferentes mecanismos para a coleta de seus dados e, posteriormente, a venda desses itens.  A blockchain, utilizada também em criptomoedas, é a principal tecnologia dessa estrutura, permitindo a criação de blocos e cadeias de dados e, dessa forma, uma rede bastante segura.  Principais características da Web 3.0 Velocidade Os principais pesquisadores de tecnologia do mundo pretendem remodelar a Web para que ela seja mais rápida, mais segura e mais resistente aos riscos do cibercrime. Nova arquitetura Os especialistas da área dizem que a Web 3.0 terá uma arquitetura de rede totalmente nova, que permitirá que os usuários tenham mais controle sobre seus dados, indicando quem os armazena e como o fazem.  Transparência Um dos objetivos da Web 3.0 é que ela tenha mecanismos claros, capazes de avaliar dados, eliminar erros e problemas, como as fake news. Descentralizada Essa talvez seja a principal característica da Web 3.0. Descentralizar o acesso e a concessão de dados torna essa estrutura a aposta do futuro, uma vez que os usuários irão participar das tomadas de decisão e também poderão compartilhar informações de uma forma mais segura.  Assim, desenvolve-se outra característica dessa estrutura: a autonomia do usuário acerca das informações que recebe e concede.  Segurança Ao utilizar a tecnologia blockchain, também presente nas criptomoedas, a Web 3.0 garante que sua estrutura é bastante segura. Prova disso é a blockchain não ter sido invadida ao longo dos últimos 10 anos. Peer-to-peer A Web 3.0 usa essa tecnologia para permitir que exista a troca de recursos de “igual para igual”, entre vários usuários, de maneira direta. Privacidade Outra importante caraterística da Web 3.0 é o seu desejo por evitar as exposições de dados pessoais. Algo realizado por meio das tecnologias comentadas anteriormente. Web Semântica Como já dissemos, a Web 3.0 será capaz de integrar tecnologias para que as máquinas possam interpretar dados de forma mais natural. Dessa forma haverá uma interação mais complexa entre o “insumo” humano e os computadores, os quais conseguirão entender os desejos e perfis dos usuários de forma mais consistente.  Impactos da Web 3.0 para a área da Tecnologia da Informação. É preciso entender que por se tratar de uma iniciativa em construção, não existe um conceito único de Web 3.0. De forma geral a Web 3.0 irá combinar características das suas duas antecessoras, com a adição de inteligência artificial, para um trabalho de construção de informação conjunta: homem + máquina.  A partir dessa equação a promessa é a geração de uma Internet que garanta uma experiência digital mais segura e descentralizada.  Por isso, para a área de T.I isso pode gerar impactos sob duas perspectivas diferentes.  A primeira é a demanda por profissionais que consigam operar na construção dessa engrenagem de máquina e homem, tornando o processo mais eficaz a cada dia.  Já a segunda, está relacionada à necessidade do especialista de observar novas formas de trabalhar os dados das organizações, clientes e projetos – uma vez que a arquitetura da web será totalmente remodelada.  Esse, inclusive, é um desafio também para o setor de marketing, que precisará rever as formas de condução das campanhas.  ________________________________________________ Assim, mesmo que ainda em planejamento, a Web 3.0 tem ganhado cada vez mais espaço.  É inegável que as transformações digitais e as constantes evoluções das tecnologias têm o potencial de inaugurarem novas eras, como a da Internet.  Esteja pronto para as revoluções tecnológicas. Aprofunde esse e outros temas com os cursos da ESR. Se os dados são os “ativos diamante” da era moderna, o conhecimento é o de todas elas. 


    10/03/2022
  • Design Thinking na TI
    Métodos Ágeis e Inovação

    Design Thinking na TI: benefícios e como implementar essa metodologia

    Dentre as metodologias ágeis de trabalho, o design thinking é uma das mais conhecidas. Por ser bastante versátil e adaptável, pode ser aplicada em negócios variados, de portes, setores e segmentos diferentes, como é o caso do uso de design thinking na TI.  Optar por essa ferramenta é também se aliar à inovação e à uma resolução colaborativa de problemas. Se essa é a proposta da sua organização, continue a leitura!  Abaixo você fica por dentro dos benefícios desta prática para a área da Tecnologia da Informação, assim como compreende como implementá-la.  O que é falar de design thinking na TI?  De forma geral, as equipes de TI costumam ser bastante operacionais. Estimular sua criatividade, além de dinamizar as tarefas do dia a dia pode ser um caminho muito favorável para que os colaboradores desse setor se aproximem dos clientes e construam soluções ainda mais efetivas.  A proposta do design thinking na gestão de TI é exatamente essa: proporcionar uma ferramenta suficientemente flexível, visual e que exercite habilidades emocionais, estéticas e cognitivas do time. Como consequência desse processo há uma gestão do departamento muito mais humanizada. Adotar essa metodologia como parte da gestão de TI favorece a cultura de inovação, que deve ser uma característica fundamental da área, e capacita os profissionais para observarem uma demanda do cliente/usuário de forma mais atenta e focada nas suas necessidades.  7 Benefícios de utilizar design thinking na TI  1) Promove o pensamento colaborativo  Como design thinking é uma metodologia que prioriza as soluções construídas em conjunto, é uma ótima prática para aproximar os colaboradores e dar visibilidade às ideias de cada um deles.  Dessa forma, optar por design thinking na TI é também apostar em uma maior integração dos funcionários e possivelmente maior motivação para a execução do trabalho.  2) É uma estratégia adaptável  Já falamos disso no início do conteúdo, mas é preciso pontuar novamente que o design thinking é tão versátil que, dentro de uma mesma área, como a TI, ele pode ser aplicado a diferentes rotinas e atividades.  Qual time de tecnologia não gosta de adaptação e soluções completas?  3) Potencializa resultados Quando se faz uso dessa forma inovadora de se organizar processos corporativos, a organização passa a ter mais robustez para estruturar serviços inteligentes e integrados exatamente à demanda do usuário.  Por isso, os resultados – seja na elaboração de melhores estratégias, soluções e serviços, ou no retorno de investimentos – serão alcançados com maior facilidade.  4) Auxilia nas previsões do setor  Com o design thinking, os gestores deste setor conseguem ter uma visão holística da área.  A metodologia contempla mecanismos que são capazes de auxiliar tomadas de decisão mais assertivas e de contribuírem para o conhecimento das necessidades de melhorias do segmento.  5) Contribui para a cultura de inovação.  Ter uma boa equipe de TI nas empresas já não é um diferencial no ecossistema empreendedor. É preciso que os colaboradores e a área em si sejam inovadores.  É nesse cenário que está alocado um dos principais impactos da utilização do design thinking: a contribuição para a cultura de inovação.  Uma vez que essa metodologia permite o trabalho em conjunto e foca sua operação na demanda do usuário, exercita também, o tempo todo, o pensamento inovador, o compartilhamento de informações e sensação de segurança para que os profissionais ousem mais ao criar estratégias.  6) Possibilita soluções de alto valor agregado  Utilizar design thinking na gestão de TI indica dedicar maiores esforços sobre os desejos, demandas e queixas do usuário.  Assim, a formulação de soluções (novas ou ajustadas) para os clientes tende a ser mais precisa, efetiva e com alto valor agregado.  7) Incentiva a alta performance  Como benefício de usar design thinking na TI também está a melhoria de performance da equipe. O profissional consegue ter uma visão completa da empresa, do seu setor e dos produtos e serviços que desenvolve.  A partir desse conhecimento, melhora a sua performance por compreender exatamente o início e fim dos processos – os que ele faz parte e os que tangenciam a sua área. Além disso, por incentivar a desconstrução da rigidez característica do setor, bem como incentivar a flexibilização e a criatividade, o design thinking leva os times de TI a pensarem fora da caixa.  Como implementar o design thinking na gestão de TI Para implementar qualquer metodologia ágil nas organizações, é necessário preparar um solo fértil para mudanças! É preciso abrir mão do convencional e da ideia do “sempre fiz assim”, para receber a inovação.  Por isso, o time é parte essencial nesse processo. Algumas práticas também são fundamentais, bem como: Remodelar o ambiente de trabalho: criar mecanismos para otimizar o planejamento de processos e compreender que o foco deve ser maior nas necessidades do usuário. Incentivar o olhar ao próximo: como parte principal do design thinking é compreender a demanda do usuário, os especialistas desse setor precisam exercitar a empatia na hora de propor soluções. Por isso, incentivar que eles observem uma demanda como se eles a tivessem gerado, é um exercício indispensável para o sucesso dessa estratégia. Saber o que deve ser resolvido: o planejamento é a combinação perfeita do design thinking. Criar uma etapa de imersão para definir as necessidades do usuário, fazer pesquisas exploratórias ou de referências, identificar o escopo de trabalho do projeto e o seu limite, além de procurar por respostas multidisciplinares para as demandas, é fundamental para a implementação da ferramenta. Investigar: se a empatia for incentivada entre o time de TI, essa etapa fica fácil. Os colaboradores devem se colocar no dia a dia do cliente, desenhar personas, seus desejos e necessidades, com o objetivo de tornar mais clara a visualização das demandas do usuário. Usar a força da equipe: depois da execução dessas etapas e atividades, reúna a equipe a ouça as suas percepções – faça o conhecido brainstorm. Compile as observações e avalie qual faz sentido para o projeto. Testar a solução criada: faça um protótipo das discussões, produzindo um MVP (produto mínimo viável). Dessa forma, a área de TI executa testes com clientes e observa falhas do projeto para poder corrigi-las. Escolher como medir: a mensuração é essencial! Escolha as métricas que irão direcionar a avaliação de resultados da solução desenvolvida por meio do design thinking.  Estar disponível para recomeçar: os métodos ágeis, em geral, preconizam ciclos mais curtos para o desenvolvimento de novos produtos ou funcionalidades – o popular conceito de sprint, que são ciclos que variam entre 1 semana e 1 mês, para garantir a agilidade. Por isso, é importante saber recalcular rotas ou aprofundá-las de acordo com os resultados de cada ciclo. Por exemplo, ao final de cada sprint elaborado com essa estratégia ágil avalie o que deu certo e o que não deu tão certo assim. A partir disso, realize ajustes para um próximo ciclo. Assim como pede uma parte principal do design thinking: se adapte, transforme o que for preciso, redirecione as engrenagens e parta rumo a um novo desafio.  ___________________________________________ Cada vez mais as transformações sociais, digitais e de comportamento requerem serviços que coloquem o ser humano como protagonista!  Por isso, investir em design thinking, seja na TI, ou em qualquer outro setor das empresas, é caminhar ao lado das demandas da atualidade.  As organizações possuem diversos desafios que precisam ser tratados de uma forma diferente, que gere empatia, defina objetivos, crie novas ideias, desenvolva protótipos e realize testes. Com o curso online de Design Thinking da ESR você tem acesso à essa abordagem que permite encontrar soluções inovadoras e atua na mudança para um mindset criativo, que gere valor e inovação.  Confira detalhes sobre o curso aqui!


    04/03/2022