Cadastre-se

CADASTRO

Em caso de não possuir CPF, por favor entre em contato conosco clicando aqui.

Ao informar meus dados, eu concordo com a Política de Privacidade

ReCaptcha
Entrar

Blog da ESR

  • Protocolo OSPF
    Administração e Projeto de Redes

    Como funciona o protocolo OSPF?

    Em tradução livre OSPF (Open Shortest Path First) significa “escolher o caminho mais curto primeiro”. Por isso, entender como ele funciona faz parte das premissas de quem se interessa pela área da tecnologia ou já é um profissional do mercado.  Cunhado em 1988, pelo grupo de trabalho de IGPs (Interior Gateway Protocol), da IETF (Internet Engineering Task Force), o protocolo de roteamento utiliza o tipo link-state para  observar as informações de vários roteadores conectados entre si e escolher qual melhor trajeto para entregar um pacote de rede, de forma mais efetiva. Abaixo você compreende um pouco mais sobre esse conceito e sobre como ele ocorre na prática.  O que é um Protocolo OSPF?  Como dissemos anteriormente, o protocolo OSPF é um protocolo de roteamento no modelo dinâmico.  De forma geral, podemos compará-lo com um GPS que observa as rotas para se chegar a um determinado destino e opta por aquela que será concluída em menor tempo ou sem trânsito.  Assim, o protocolo OSPF consegue analisar, interpretar e registrar dados dos roteadores conectados a um servidor, para, posteriormente, escolher um melhor caminho para entregar os pacotes da rede.  É considerado pertencente à classe dos protocolos de roteamento dinâmico.  Todos os protocolos que priorizam a observação da quantidade de roteadores até chegada do destino são conhecidos como de vetor distância, como RIP, RIPv2 e EIGRP, enquanto os que priorizam chegar mais rápido de acordo com a banda são chamados de protocolos link state (estado de link), como o OSPF e IS-IS.  Dessa forma, o Protocolo OSPF é aquele do tipo link state que, antes de tomar qualquer decisão, irá avaliar a topologia de todos os roteadores integrados aos seus processos, optando pela jornada mais curta para encaminhamento dos pacotes. Como funciona o protocolo OSPF?  Para que o Protocolo OSPF consiga executar essas análises ele faz uso de um programa nomeado como algoritmo Dijkstra – nome do cientista que o desenvolveu, Edsger Dijkstra. Tal algoritmo tem como objetivo registrar um banco de dados central/local com mensagens emanadas de todos os roteadores. A partir daí o OSPF lança mão do algoritmo open shortest path first (OSPF) de Dijkstra para criar uma árvore SPF, que preenche uma tabela de roteamento IP conduzindo os pacotes de rede pelos melhores caminhos.  Quando as redes são configuradas fazendo uso deste protocolo, cada roteador tem uma identificação e todos eles trocam alguns tipos de mensagens entre si. A exemplo disso temos Hello, DBD, LSR, LSU e LSAck. As identificações dos roteadores podem ser definidas manualmente, por meio de interface de Loopback de maior IP, ou em caso de falta de interface de loopback configurada, o roteador utilizará o maior IP entre as suas interfaces. Além disso, o Protocolo OSPF usa a menor distância administrativa (AD), ou seja, a confiança (ou preferência) da origem da rota, para enviar os pacotes. O padrão desse processo é de 110. Dando continuidade, o Protocolo OSPF usa o “custo” como métrica. O custo significa, por sua vez, o tempo que uma mensagem gasta para chegar ao seu destino. Assim, quanto menor o custo, melhor o caminho e o OSPF irá sempre optar por esta opção.  É nesse contexto que há a divisão da topologia dos roteadores em diversas áreas para que elas sejam capazes de contribuir com a sumarização das rotas entre eles e melhore o processamento desses roteadores.  Portanto o Protocolo OSPF também atua por meio de hierarquia estruturada através dessas áreas, avaliando nesse processo o melhor caminho entre os roteadores e o servidor. Pode ser utilizado para projetar e construir redes amplas e complexas. _______________________________________ Quer saber mais sobre como funciona o Protocolo OSPF, seus benefícios, como aplicá-lo na prática e gerar novas oportunidades de emprego e negócios?  No curso da ESR OSPF Avançado (EaD) o aluno terá 04 encontros online para descobrir esse universo e também alternativas para trabalhar com a engenharia de tráfego, mostrando como mudar as métricas e forçar o roteamento por caminhos otimizados.  No treinamento apresenta-se também técnicas para controlar a redistribuição de prefixos utilizando mapas de rota (ou route-maps) e sugestões de boas práticas e metodologia para resolução de problemas. Faça a sua inscrição aqui!  Se você busca saber mais sobre protocolos de roteamento, como Protocolo OSPF e outros, também indicamos o curso da ESR sobre Protocolo de Roteamentos IP. Este curso prepara o aluno para projetar esquemas de roteamento para redes de diversos tamanhos, interligadas ou não a redes sob outra administração. Faça a sua inscrição aqui!  Ah, curte tecnologia ou é profissional da área? Compartilhe o conteúdo com alguém e, logo depois, siga conosco por esse universo.  Principais softwares para virtualização de servidores Web 3.0: o que é, impactos e benefícios da nova era da Internet


    24/03/2022
  • Principais softwares para virtualização de servidores
    Administração de Sistemas

    Principais softwares para virtualização de servidores

    Para falarmos dos principais softwares para virtualização de servidores, é preciso que nós recordemos o conceito por trás dessa tecnologia.  De forma simples, o fenômeno do software de virtualização descreve a possibilidade de um sistema abrigar outros sistemas em um só hardware.  Assim, os softwares de virtualização executam mais tarefas e processos usando o mesmo hardware e convertendo um único vetor de trabalho em várias máquinas virtuais.  Além disso, a definição também se estende para o entendimento de produção e acervo de informação eletrônica em um único espaço – a nuvem.  Por aqui já te mostramos como utilizar a virtualização de sistemas operacionais (vale a pena reler). O próximo passo é conhecer os 4 principais softwares para virtualização de servidores.  Vamos lá?  Os 4 Principais softwares para virtualização de servidores  Principais softwares para virtualização de servidores: Hyper-V  Lançado em 2008, esse é um dos softwares para virtualização de servidores que já vem integrado no Windows 10 e Windows 8.1. Por esse motivo é considerado um dos mais práticos virtualizadores, podendo ser empregado no uso corporativo e caseiro. De acordo com o hardware instalado, é bastante expressivo em alcançar bons resultados.  É indicado para profissionais que estejam começando o processo de virtualização. É o seu caso?  > Conheça o curso da ESR que aborda a Virtualização de Servidores Online e ensina na prática a utilização desse e outros softwares populares no mercado.  Inscreva-se!  2) Principais softwares para virtualização de servidores: VMware vSphere ESXi O VMware vSphere ESXi é considerado o líder do mercado de software de virtualização de servidores.  Um de seus diferenciais é o processamento para aplicativos modernos a partir de uma combinação bastante robusta de máquinas virtuais. Sabendo que um dos principais objetivos dos softwares de virtualização de sistema é enxugar custos, utilização de espaço físico desnecessário, bem como a otimização de recursos tecnológicos, gastos e afins, o VMware vSphere atua nessa perspectiva.  Esse modelo age a partir de um conjunto completo de virtualização para virtualizar a partir de servidores de hardware e data centers. > Conheça o curso da ESR que aborda a Virtualização de Servidores Online e ensina na prática a utilização desse e outros softwares populares no mercado. Inscreva-se! 3) Principais softwares para virtualização de servidores: Citrix Hypervisor Com utilidade eficiente tanto para Windows quanto para Linux, o Citrix Hypervisor é outra plataforma de virtualização que tem, inclusive, uma versão gratuita e foi elaborado por meio de um projeto de pesquisa na Universidade de Cambridge, capitaneado por Ian Pratt, fundador da XenSource, Inc.   Em linhas gerais o XenServer é uma das possibilidades de virtualização de servidores aberta, que se diferencia por reduzir custos do datacenter ao transformar datacenters estáticos e complexos em delivery centers mais engrenados e fáceis de gerenciar. Esse modelo possui infraestrutura para a execução de sistemas usando computação em nuvem, além de possuir recursos essenciais de ao vivo e gerenciamento centralizado de múltiplos nodos sem nenhum custo. > Conheça o curso da ESR que aborda a Virtualização de Servidores Online e ensina na prática a utilização desse e outros softwares populares no mercado.   Inscreva-se! 4) Principais softwares para virtualização de servidores: Virtualização em nuvens públicas Embora estejam correlacionados, virtualização e o cloud computing são coisas diferentes.  Isso se explica porque o último utiliza, na maior parte das vezes, a estrutura de servidores do primeiro para funcionar.  Ou seja, a computação em nuvem pode funcionar com base em máquinas físicas (ser virtualização), entretanto isso não é corriqueiro nos dias de hoje.  Seu principal objetivo é assegurar informações digitais em um só lugar, possível de ser acessado de qualquer ponto – desde que haja liberação para tal.  Já a virtualização utilizada para a implementação desse processo irá permitir o alto desempenho de cada máquina de uma empresa, por exemplo. Portanto, será importante para que os negócios otimizem custos, espaço e resultados. > Conheça o curso da ESR que aborda a Virtualização de Servidores Online e ensina na prática a utilização de virtualização para cloud computing em alguns módulos  a se saber:  Inscreva-se! ___________________________________________ Os softwares de virtualização de servidores funcionam como catalisadores de atividades digitais já bastante potentes. Por isso, é uma das apostas da tecnologia da informação.  No curso da ESR você vai dinamizar a sua estrutura de TI com projeto, consolidação e gerência de servidores virtualizados. Durante seis semanas serão apresentados aos alunos os conceitos e as boas práticas da virtualização de servidores, a explicação sobre como lidar com essa tecnologia, além do papel e a função de um hipervisor, o papel e a função de uma máquina virtual e como funcionam as redes virtuais.  A proposta é oferecer um treinamento que mostre as principais soluções de virtualização do mercado, com laboratórios práticos das soluções da Vmware e Microsoft,e realize a configuração das ferramentas existentes, criando e configurando máquinas virtuais e explorando seus recursos.  O curso aborda também os conceitos da virtualização em nuvem. Confira detalhes sobre o curso aqui!


    18/03/2022
  • web 3.0
    Temas Diversos

    Web 3.0: o que é, impactos e benefícios da nova era da Internet

    Em paralelo às regulamentações que buscam tornar a Internet mais transparente para empresas e usuários, ganha força a Web 3.0 – uma proposta de nova estrutura da rede que, por meio da descentralização com blockchain, pretende contribuir para a segurança dos dados digitais, além de outros benefícios.  Neste conteúdo você entende melhor o que é a Web 3.0, os processos de evolução da internet, além dos principais impactos desse modelo para a área de TI.  Acompanhe a leitura e descubra alguns pontos importantes acerca dessa aposta no mercado da tecnologia.  O que é Web 3.0  A enorme produção de dados da modernidade é o pano de fundo da chamada Web 3.0, ou simplesmente Web3. Foi esse contexto que impulsionou os pesquisadores de tecnologia a pensarem em uma estrutura que possa aliar tecnologias avançadas, como inteligência artificial, machine learning e blockchain, à ideia de uma Internet mais segura, interativa e que interprete um maior número de dados. Ou seja, na Web 3.0 a interpretação acompanha a produção desses ativos.  Com o objetivo de superar a estrutura atual, cunhada por muitos como internet de segunda geração, a Web 3.0 não demandará complexos sistemas operacionais e priorizará o armazenamento de suas informações somente em nuvem.  Por esses motivos, essa abordagem é também chamada de “web semântica”, pois pretende conectar exponencialmente máquina e homem, de forma que essa relação seja cada vez mais natural e proporcione melhores experiências de usuário.  Embora tenha se popularizado nos últimos anos, o termo “Web3” se tornou conhecido já em 2014, categorizado pelo britânico Gavin Wood, cofundador da criptomoeda ethereum, e pelo russo-canadense Vitalik Buterin. Desde então, iniciativas, como a Parity Technologies, criada pelo próprio Wood, se empenham em estudar sobre como essa estrutura pode ser implementada, levando em conta que o seu principal foco é a descentralização da Internet.  Em linhas gerais isso significa dizer que uma das propostas da Web 3.0 é reduzir o poder dos conglomerados da Internet, dando mais autonomia aos usuários sobre seus dados.  A evolução das estruturas da Internet Web 1.0 Representando a fase inicial da Internet, a Web 1.0 teve como principal característica a disponibilização de páginas de conhecimento, como endereços institucionais e enciclopédias. Não permitia a interação, tendo páginas estáticas e um usuário passivo – que somente “recebia” o conteúdo. Além disso, somente pequenos grupos tinham acesso à produção de conteúdo.  Web 2.0 Marca a era dos blogs, redes sociais e da democratização da produção de conteúdo em geral. Se antes o conhecimento havia sido compartilhado, agora o seu desenvolvimento também o era.  Esse é o modelo utilizado atualmente e veio como uma proposta de superar o primeiro e oferecer mais liberdade aos usuários.  Com o desenvolvimento das tecnologias e as transformações sociais, a Internet também se viu obrigada a evoluir, mesmo dentro de uma mesma estrutura. Com isso, surgiram mecanismos capazes de assegurar uma melhor navegabilidade, como as técnicas de SEO para blog, por exemplo.  Entretanto, mesmo diante de tantas transformações esse modelo de rede ainda carrega um erro de vício importante: a falta de transparência com os dados – que são gerados em velocidade acelerada a cada ano.  Web 3.0 É nessa ineficiência da Web 2.0 que a Web3 atua. Com a descentralização da Internet será possível quebrar o modelo pelo qual as ações dos usuários são monitoradas por diferentes mecanismos para a coleta de seus dados e, posteriormente, a venda desses itens.  A blockchain, utilizada também em criptomoedas, é a principal tecnologia dessa estrutura, permitindo a criação de blocos e cadeias de dados e, dessa forma, uma rede bastante segura.  Principais características da Web 3.0 Velocidade Os principais pesquisadores de tecnologia do mundo pretendem remodelar a Web para que ela seja mais rápida, mais segura e mais resistente aos riscos do cibercrime. Nova arquitetura Os especialistas da área dizem que a Web 3.0 terá uma arquitetura de rede totalmente nova, que permitirá que os usuários tenham mais controle sobre seus dados, indicando quem os armazena e como o fazem.  Transparência Um dos objetivos da Web 3.0 é que ela tenha mecanismos claros, capazes de avaliar dados, eliminar erros e problemas, como as fake news. Descentralizada Essa talvez seja a principal característica da Web 3.0. Descentralizar o acesso e a concessão de dados torna essa estrutura a aposta do futuro, uma vez que os usuários irão participar das tomadas de decisão e também poderão compartilhar informações de uma forma mais segura.  Assim, desenvolve-se outra característica dessa estrutura: a autonomia do usuário acerca das informações que recebe e concede.  Segurança Ao utilizar a tecnologia blockchain, também presente nas criptomoedas, a Web 3.0 garante que sua estrutura é bastante segura. Prova disso é a blockchain não ter sido invadida ao longo dos últimos 10 anos. Peer-to-peer A Web 3.0 usa essa tecnologia para permitir que exista a troca de recursos de “igual para igual”, entre vários usuários, de maneira direta. Privacidade Outra importante caraterística da Web 3.0 é o seu desejo por evitar as exposições de dados pessoais. Algo realizado por meio das tecnologias comentadas anteriormente. Web Semântica Como já dissemos, a Web 3.0 será capaz de integrar tecnologias para que as máquinas possam interpretar dados de forma mais natural. Dessa forma haverá uma interação mais complexa entre o “insumo” humano e os computadores, os quais conseguirão entender os desejos e perfis dos usuários de forma mais consistente.  Impactos da Web 3.0 para a área da Tecnologia da Informação. É preciso entender que por se tratar de uma iniciativa em construção, não existe um conceito único de Web 3.0. De forma geral a Web 3.0 irá combinar características das suas duas antecessoras, com a adição de inteligência artificial, para um trabalho de construção de informação conjunta: homem + máquina.  A partir dessa equação a promessa é a geração de uma Internet que garanta uma experiência digital mais segura e descentralizada.  Por isso, para a área de T.I isso pode gerar impactos sob duas perspectivas diferentes.  A primeira é a demanda por profissionais que consigam operar na construção dessa engrenagem de máquina e homem, tornando o processo mais eficaz a cada dia.  Já a segunda, está relacionada à necessidade do especialista de observar novas formas de trabalhar os dados das organizações, clientes e projetos – uma vez que a arquitetura da web será totalmente remodelada.  Esse, inclusive, é um desafio também para o setor de marketing, que precisará rever as formas de condução das campanhas.  ________________________________________________ Assim, mesmo que ainda em planejamento, a Web 3.0 tem ganhado cada vez mais espaço.  É inegável que as transformações digitais e as constantes evoluções das tecnologias têm o potencial de inaugurarem novas eras, como a da Internet.  Esteja pronto para as revoluções tecnológicas. Aprofunde esse e outros temas com os cursos da ESR. Se os dados são os “ativos diamante” da era moderna, o conhecimento é o de todas elas. 


    10/03/2022
  • Design Thinking na TI
    Métodos Ágeis e Inovação

    Design Thinking na TI: benefícios e como implementar essa metodologia

    Dentre as metodologias ágeis de trabalho, o design thinking é uma das mais conhecidas. Por ser bastante versátil e adaptável, pode ser aplicada em negócios variados, de portes, setores e segmentos diferentes, como é o caso do uso de design thinking na TI.  Optar por essa ferramenta é também se aliar à inovação e à uma resolução colaborativa de problemas. Se essa é a proposta da sua organização, continue a leitura!  Abaixo você fica por dentro dos benefícios desta prática para a área da Tecnologia da Informação, assim como compreende como implementá-la.  O que é falar de design thinking na TI?  De forma geral, as equipes de TI costumam ser bastante operacionais. Estimular sua criatividade, além de dinamizar as tarefas do dia a dia pode ser um caminho muito favorável para que os colaboradores desse setor se aproximem dos clientes e construam soluções ainda mais efetivas.  A proposta do design thinking na gestão de TI é exatamente essa: proporcionar uma ferramenta suficientemente flexível, visual e que exercite habilidades emocionais, estéticas e cognitivas do time. Como consequência desse processo há uma gestão do departamento muito mais humanizada. Adotar essa metodologia como parte da gestão de TI favorece a cultura de inovação, que deve ser uma característica fundamental da área, e capacita os profissionais para observarem uma demanda do cliente/usuário de forma mais atenta e focada nas suas necessidades.  7 Benefícios de utilizar design thinking na TI  1) Promove o pensamento colaborativo  Como design thinking é uma metodologia que prioriza as soluções construídas em conjunto, é uma ótima prática para aproximar os colaboradores e dar visibilidade às ideias de cada um deles.  Dessa forma, optar por design thinking na TI é também apostar em uma maior integração dos funcionários e possivelmente maior motivação para a execução do trabalho.  2) É uma estratégia adaptável  Já falamos disso no início do conteúdo, mas é preciso pontuar novamente que o design thinking é tão versátil que, dentro de uma mesma área, como a TI, ele pode ser aplicado a diferentes rotinas e atividades.  Qual time de tecnologia não gosta de adaptação e soluções completas?  3) Potencializa resultados Quando se faz uso dessa forma inovadora de se organizar processos corporativos, a organização passa a ter mais robustez para estruturar serviços inteligentes e integrados exatamente à demanda do usuário.  Por isso, os resultados – seja na elaboração de melhores estratégias, soluções e serviços, ou no retorno de investimentos – serão alcançados com maior facilidade.  4) Auxilia nas previsões do setor  Com o design thinking, os gestores deste setor conseguem ter uma visão holística da área.  A metodologia contempla mecanismos que são capazes de auxiliar tomadas de decisão mais assertivas e de contribuírem para o conhecimento das necessidades de melhorias do segmento.  5) Contribui para a cultura de inovação.  Ter uma boa equipe de TI nas empresas já não é um diferencial no ecossistema empreendedor. É preciso que os colaboradores e a área em si sejam inovadores.  É nesse cenário que está alocado um dos principais impactos da utilização do design thinking: a contribuição para a cultura de inovação.  Uma vez que essa metodologia permite o trabalho em conjunto e foca sua operação na demanda do usuário, exercita também, o tempo todo, o pensamento inovador, o compartilhamento de informações e sensação de segurança para que os profissionais ousem mais ao criar estratégias.  6) Possibilita soluções de alto valor agregado  Utilizar design thinking na gestão de TI indica dedicar maiores esforços sobre os desejos, demandas e queixas do usuário.  Assim, a formulação de soluções (novas ou ajustadas) para os clientes tende a ser mais precisa, efetiva e com alto valor agregado.  7) Incentiva a alta performance  Como benefício de usar design thinking na TI também está a melhoria de performance da equipe. O profissional consegue ter uma visão completa da empresa, do seu setor e dos produtos e serviços que desenvolve.  A partir desse conhecimento, melhora a sua performance por compreender exatamente o início e fim dos processos – os que ele faz parte e os que tangenciam a sua área. Além disso, por incentivar a desconstrução da rigidez característica do setor, bem como incentivar a flexibilização e a criatividade, o design thinking leva os times de TI a pensarem fora da caixa.  Como implementar o design thinking na gestão de TI Para implementar qualquer metodologia ágil nas organizações, é necessário preparar um solo fértil para mudanças! É preciso abrir mão do convencional e da ideia do “sempre fiz assim”, para receber a inovação.  Por isso, o time é parte essencial nesse processo. Algumas práticas também são fundamentais, bem como: Remodelar o ambiente de trabalho: criar mecanismos para otimizar o planejamento de processos e compreender que o foco deve ser maior nas necessidades do usuário. Incentivar o olhar ao próximo: como parte principal do design thinking é compreender a demanda do usuário, os especialistas desse setor precisam exercitar a empatia na hora de propor soluções. Por isso, incentivar que eles observem uma demanda como se eles a tivessem gerado, é um exercício indispensável para o sucesso dessa estratégia. Saber o que deve ser resolvido: o planejamento é a combinação perfeita do design thinking. Criar uma etapa de imersão para definir as necessidades do usuário, fazer pesquisas exploratórias ou de referências, identificar o escopo de trabalho do projeto e o seu limite, além de procurar por respostas multidisciplinares para as demandas, é fundamental para a implementação da ferramenta. Investigar: se a empatia for incentivada entre o time de TI, essa etapa fica fácil. Os colaboradores devem se colocar no dia a dia do cliente, desenhar personas, seus desejos e necessidades, com o objetivo de tornar mais clara a visualização das demandas do usuário. Usar a força da equipe: depois da execução dessas etapas e atividades, reúna a equipe a ouça as suas percepções – faça o conhecido brainstorm. Compile as observações e avalie qual faz sentido para o projeto. Testar a solução criada: faça um protótipo das discussões, produzindo um MVP (produto mínimo viável). Dessa forma, a área de TI executa testes com clientes e observa falhas do projeto para poder corrigi-las. Escolher como medir: a mensuração é essencial! Escolha as métricas que irão direcionar a avaliação de resultados da solução desenvolvida por meio do design thinking.  Estar disponível para recomeçar: os métodos ágeis, em geral, preconizam ciclos mais curtos para o desenvolvimento de novos produtos ou funcionalidades – o popular conceito de sprint, que são ciclos que variam entre 1 semana e 1 mês, para garantir a agilidade. Por isso, é importante saber recalcular rotas ou aprofundá-las de acordo com os resultados de cada ciclo. Por exemplo, ao final de cada sprint elaborado com essa estratégia ágil avalie o que deu certo e o que não deu tão certo assim. A partir disso, realize ajustes para um próximo ciclo. Assim como pede uma parte principal do design thinking: se adapte, transforme o que for preciso, redirecione as engrenagens e parta rumo a um novo desafio.  ___________________________________________ Cada vez mais as transformações sociais, digitais e de comportamento requerem serviços que coloquem o ser humano como protagonista!  Por isso, investir em design thinking, seja na TI, ou em qualquer outro setor das empresas, é caminhar ao lado das demandas da atualidade.  As organizações possuem diversos desafios que precisam ser tratados de uma forma diferente, que gere empatia, defina objetivos, crie novas ideias, desenvolva protótipos e realize testes. Com o curso online de Design Thinking da ESR você tem acesso à essa abordagem que permite encontrar soluções inovadoras e atua na mudança para um mindset criativo, que gere valor e inovação.  Confira detalhes sobre o curso aqui!


    04/03/2022
  • Desinformação na Web
    Temas Diversos

    Desinformação na web: como analisar o fenômeno usando a ciência de dados

    Infoxicação, comunicação horizontal, FOMO (Fear of Missing Out), Efeito Dunning-Kruger… você está familiarizado com esses termos? Todos eles permeiam a consolidação de um fenômeno cada vez mais presente no mundo em rede: a desinformação na web.  De acordo com o Reuter Institute Digital News Report, em 2018, o Brasil ocupava a 3ª colocação no ranking global de países que mais consomem e compartilham informações falsas no planeta. Dois anos depois, em 2020, a organização global de cibersegurança, Kaspersky, em parceria com a empresa de pesquisa CORPA, na América Latina, identificou que o cenário permanecia preocupante, uma vez que os dados apontavam que 62% dos brasileiros não conseguiam reconhecer uma notícia falsa. Diante desse contexto e de um cenário no qual a geração de dados cresce desordenadamente, a ESR realizou, recentemente, o webinar “Desinformação na Web – Análise de Dados, resultados e desafios”, com a pesquisadora Jussara M. Almeida, do Departamento de Ciência da Computação da Universidade Federal de Minas Gerais, para amplificar a discussão sobre o assunto.  Abaixo você confere os principais pontos abordados na palestra e desvenda como a ciência de dados é capaz de atuar como uma aliada na compreensão, interpretação e na solução desse desafio.   O que é a desinformação na web?  Segundo a pesquisadora Jussara M. Almeida, a desinformação na web é um termo genérico que faz referência a vários fenômenos particulares com propriedades específicas de compartilhamento de mensagens ou conteúdos que não condizem com o que é real!  A exemplo disso temos as fake news, os rumores, trotes ou em inglês hoaxes, as revisões falsas e os spams.  Essas modalidades de desinformação precisam ser avaliadas ainda de acordo com outras diferenças centrais, tais quais: serem intencionais ou não intencionais, serem fatos ou opiniões, por exemplo.   Além disso, é preciso compreender que, embora haja escalabilidade com o desenvolvimento das tecnologias, o ato de se compartilhar desinformações não é recente e é respaldado por características inerentes aos seres-humanos. É o que apresenta a pesquisa “Desinformação na Web – Análise de Dados, resultados e desafios”. Como ocorre o compartilhamento da desinformação na web? De acordo com esse estudo, que teve como objeto de pesquisa a análise de dados e comportamental dos usuários que compartilham notícias e informações falsas, existem “efeitos de amplificação” capazes de contribuir com esse “dominó” de desinformação. São eles:   Comprovado cientificamente, humanos não conseguem diferenciar facilmente uma informação falsa da verdadeira; A sobrecarga de informação na rede, cunhada em 1996 como infoxicação, por Alfons Cornella, designa uma realidade na qual qualquer usuário está diante de mais informações do que seu organismo é capaz de processar. A partir disso, é difícil filtrar o que é válido ou não para o consumo, sendo necessário a criação de atalhos psicológico para processar as informações. “Uma riqueza de informação cria uma pobreza de atenção” (Herbert Simon) Além desses efeitos e levando em conta os estudos de Daniel Kahneman, a pesquisa, tema central do webinar da ESR, entendeu também a operacionalização do cérebro humano como um dos fatores principais para a ocorrência desse fenômeno.  Para o estudioso, o cérebro funciona de forma lenta e rápida. A lenta leva à racionalização ponderada, as decisões mais demoradas, enquanto a rápida leva à heurística e às escolhas mais rápidas.  O grande “x” dessa questão na atualidade é que, diante do cenário virtual em evolução, da geração de dados e informações em abundância, cada vez mais, as pessoas se apoiam no modelo rápido para tomadas de decisão.  Isso tem impacto direto no compartilhamento de desinformação na web, pois leva a processos cognitivos que são erros sistemáticos em julgamento, realizados de forma consistente quando há apoio nesse tipo de modelagem.  Dentre esses erros notam-se alguns vieses e codex de comportamento mais presentes nesse universo de desinformação e compartilhamento da informação falsa:  VIÉS de CONFIRMAÇÃO – ferramenta utilizada pelo cérebro como forma de buscar uma informação ou interpretá-la com o intuito, quase inconsciente, de confirmação dos seus conceitos já estabelecidos previamente. Leva à permanência numa mesma bolha.  EFEITO “MANADA” – quanto mais gente acredita em determinada coisa, é mais provável que seu cérebro te indique essa como sendo uma informação verdadeira.  CASCATA DE DISPONIBILIDADE – processo de auto reforço. A crença coletiva leva à plausibilidade de determinada pauta. Quando se vê uma informação em várias fontes (twitter, blog, mídia, etc), se cria auto reforço e a possibilidade de uma informação mais credível aos olhos do público. INFLUÊNCIA CONTINUADA – tendência em acreditar em uma desinformação mesmo depois de se saber que ela é falsa. Aqui, a retratação de uma informação falsa tem menor poder do que a desinformação inicial.  DATA VOIDS – a ausência de informações sobre algo pode possibilitar que, maliciosamente, informações falsas ganhem espaço na rede.  BOTS – contas falsas criadas para envio de informação em larga escala.   Dessa maneira, a pesquisa indicou que os vieses cognitivos individuais levam aos vieses sociais, ou, às chamadas câmaras de eco, polarizando e reduzindo a capacidade cerebral de checagem de fatos e, consequentemente, resultando no espalhamento de desinformação  Nessa equação os vieses em algoritmo reforçam os anteriores. Resultados da pesquisa Desinformação na web Para associar a ciência de dados a essa análise comportamental, a pesquisa em questão passou pelas observações generalistas acima e se debruçou sobre um objeto de pesquisa específico – grupos de acesso público no WhatsApp.  Dessa forma, não avaliou conversas privadas ou grupos que não tinham link de convite disponibilizado. A partir disso, a metodologia da pesquisa seguiu o percurso abaixo:  Realizou uma Consulta com urls específicas/padrão dos grupos de WPP + palavras de um dicionário relacionado a temas políticos; Fez a seleção de grupos válidos;  Coletou e anonimizou os dados dos grupos; Avaliou imagens, textos e áudios compartilhados durante 2018 A ideia foi observar em qual momento os conteúdos subiram na Internet e em qual momento apareceram no WhatsApp, vice-versa.  A partir disso, foi possível identificar que os usuários muitas vezes pertenciam a grupos disseminadores de desinformação, mas ainda eram menos impactantes do que a reunião de usuários que compartilhavam um mesmo conteúdo. As chamadas COMUNIDADES.  Por meio dessa possibilidade de se comparar o momento de formação da desinformação na web e no WhatsApp, a pesquisa identificou também o aplicativo de mensagens instantâneas como uma das fontes de desinformação, que, posteriormente, a espalha para outras plataformas.  Outros pontos descobertos pela pesquisa foram:  Há heterogeneidade de condução dessa desinformação de acordo com o seu formato (imagem, áudio ou texto) Uma desinformação se espalha mais rápido que outros conteúdos, por exemplo. Texto e áudio ficam mais tempo no ar do que uma informação não checada em imagem. Para desinformação em áudio há o surgimento de sensações negativas em quem ouve. Esse formato se vale da citação de fontes como forma de dar credibilidade, muito embora, as fontes mencionadas sejam quase sempre duvidosas. Há o uso de CTAs para que os usuários façam ações imediatamente após ouvirem o conteúdo. É menos amigável. A estrutura de rede onde estão os usuários que mais compartilham desinformação, BACKBONE DA REDE, indicam que agrupamento de usuários que enviam o mesmo conteúdo repetidamente, de forma tão frequente, não agem de maneira aleatória, mas sim, coordenada Desafios da Desinformação na web Dentre os principais desafios que esse fenômeno da desinformação na web apresenta estão a sua complexidade, a heterogeneidade, a dinamicidade, o volume de geração de informações e a sofisticação desses conteúdos, o uso de machine learning para tapear a detecção de informação falsa, além do ruído de comunicação ocasionado por ele.  Para a pesquisadora Jussara M. Almeida, responsável pela condução do webinar “Desinformação na Web – Análise de Dados, resultados e desafios”, precisamos entender o fenômeno antes de tentar combatê-lo.  A profissional defende que um caminho para mudarmos esse cenário encontra-se no desenvolvimento de um fact-checking efetivo e escalável, como o visto no First Draft – organização que divulga essa pauta.  Bem como na compreensão de que qualquer solução efetiva para esse problema está além da tecnologia.  A educação e conscientização digital, ou seja, fazer as pessoas entenderem o que é consumir informação online, permitirá que elas saibam distinguir fatos de histórias e que elas criem um bom nível de criticidade, impactando diretamente a cadeia da desinformação na web.  Assista ao webinar completo: Desinformação na Web: Análise de dados de aplicações, Resultados e Desafios! Confira também os treinamentos da ESR para a utilização das potencialidades da rede de forma mais segura e otimizada, aqui!


    17/02/2022
  • Consultoria Educacional
    RH

    Consultoria Educacional: como ela pode transformar equipes de TI

    A Consultoria Educacional é um serviço que busca orientar as instituições por caminhos relevantes para o seu desenvolvimento, em consonância com o que há de mais atual na capacitação de profissionais para enfrentar os desafios da área de TIC. Possibilita a entrega de um plano de capacitação para desenvolvimento profissional das equipes das organizações, focado em apontar áreas de conhecimento a serem exploradas. Nesse sentido, a Consultoria Educacional capacita as lideranças de TIC à prática de uma gestão mais efetiva, alinhada às necessidades da instituição. Desde 2006, a Escola Superior de Redes da RNP já foi responsável por capacitar mais de 30 mil alunos e possui excelência reconhecida pelo mercado em instituições de diversas naturezas. Para a implementação da nova Consultoria Educacional, a ESR está utilizando o Framework mundial SFIA (Skills Framework for the Information Age). A seguir, veremos com mais detalhes os diferenciais e metodologia da Consultoria Educacional da ESR. Problemas no modelo tradicional A  parceria entre ESR e SFIA ocorreu através da constatação de certas limitações dos modelos de capacitação tradicionais aplicados pelas organizações. Esses formatos, muitas vezes, são construídos sem o alinhamento a um planejamento estratégico e a análise das competências individuais dos membros da equipe a ser qualificada. Entre alguns problemas identificados no modelo tradicional, podemos citar: Atendimento de necessidades pontuais:  não há uma visão de longo prazo para o desenvolvimento das competências dos colaboradores e, por consequência, da instituição, dificultando a elaboração de um plano de capacitação ou de ações de educação continuada; Dificuldade na mensuração dos resultados: inexistência de KPIs e de formas de acompanhamento das ações, dificultando a mensuração dos resultados atingidos; Capacitação descolada das necessidades do aluno: os treinamentos podem não estar adequados ao nível de complexidade que o colaborador necessita, gerando desmotivação; Foco em treinamento: o cenário atual do mercado privilegia uma cultura de lifelong learning nas instituições, ou seja, além de cursos formais, há o incentivo pela busca de outras maneiras de desenvolver Competências, Habilidades e Atitudes (CHA), visando o progresso contínuo dos colaboradores; Como funciona a Consultoria Educacional da ESR A união com um parceiro global, somada às ferramentas e recursos da ESR, é a solução ideal para gestores que buscam otimizar os recursos investidos no desenvolvimento profissional de suas equipes e gerar resultados mais focados em objetivos estratégicos. A SFIA é uma organização global sem fins lucrativos que nutre um método de habilidades e competências para um mundo digital.  [E-book] Baixe aqui nosso e-book completo e gratuito sobre o framework SFIA Além de melhorar a performance dos seus times, a utilização desse framework torna possível comparar sua empresa ou instituição com players de todo o mundo. A consultoria educacional da ESR funciona em sprints, seguindo o modelo abaixo: Sprint 1: Mapeamento da Organização  Como primeiro processo da Consultoria Educacional, é realizado o mapeamento global da organização, com o entendimento de sua estrutura, compreensão dos objetivos, valores e missão da instituição, além da priorização das funções a serem analisadas utilizando a estrutura do framework de habilidades profissionais da SFIA. Sprint 2: Identificação das competências e nível de autonomia através do framework SFIA Nessa etapa, ocorre a análise das funções da organização com o uso do framework SFIA, onde são identificadas as habilidades aderentes às atividades dos profissionais. O resultado dessa investigação levará ao desenho de ações educacionais que subsidiarão o desenvolvimento das estratégias de Educação Corporativa, com o foco na obtenção dos melhores resultados para a organização; Sprint 3: Medição do nível de aderência e autonomia dos colaboradores frente ao framework SFIA No terceiro passo, os colaboradores da instituição realizarão uma autoavaliação onde irão definir o nível de adequação e aderência de suas funções às habilidades mapeadas no framework da SFIA e o nível de maturidade em relação ao seu desempenho pessoal; Essa etapa é realizada através de questionários disponibilizados pela ESR. Sprint 4: Definição das ações educacionais Nessa fase, ocorre a consolidação de todo o mapeamento inicial. A equipe acadêmica da ESR recolhe todas as informações e desenha as ações educacionais que serão realizadas, com o alinhamento das necessidades de treinamento de cada setor e função analisados, fazendo um diagnóstico detalhado dos caminhos a serem seguidos de acordo com as estratégias da organização. Sprint 5: Execução do plano de capacitação Nesse estágio, a equipe da ESR orienta a realização do plano de capacitação, utilizando cronogramas e indicadores com a finalidade de acompanhar a execução, controle e monitoramento, alimentado sempre pelas informações colhidas nos passos anteriores Sprint 6: Mensuração dos resultados Finalmente, utilizando os indicadores estabelecidos, ocorrerá a mensuração dos resultados, voltando aos sprints anteriores, para ajustes dos pontos que necessitem ser aprimorados, de acordo com as medições. Quer saber mais detalhes sobre a mais nova versão do framework SFIA e como ele é utilizado em nossa Consultoria Educacional? Assista ao nosso webinar gratuito sobre o tema. Entre em contato conosco aqui para saber mais informações e descubra como nossa Consultoria Educacional pode auxiliar na melhoria contínua de desempenho da sua organização.


    14/02/2022
  • cibersegurança
    Segurança

    10 principais tendências de cibersegurança para se atentar em 2022!

    Já te falamos há algum tempo sobre os principais riscos da segurança da informação para empresas, lembra? Com os constantes desenvolvimentos da tecnologia e usos sofisticados de ferramentas por parte dos criminosos digitais, esse é um assunto que continua em alta!  Abaixo você fica por dentro sobre quais são as principais tendências de cibersegurança para 2022, para preservar seus dados e de seus clientes.  O Cenário no qual a cibersegurança está inserido em 2022 Com a pandemia da Covid-19, a adoção do trabalho remoto ou híbrido e o avanço em larga escala de múltiplas tecnologias, cresceram também as vulnerabilidades digitais individuais ou organizacionais.  Em um cenário inédito, muitos funcionários e usuários se viram sem conhecimento digital adequado e, por isso, ficaram mais expostos aos golpes e crimes variados. A exemplo disso, uma pesquisa realizada pela PSafe, uma das principais empresas de segurança digital da América Latina, identificou que o número de credenciais vazadas durante os primeiros seis meses de 2020 foi de mais de 4,6 bilhões. O que representa um aumento de 387% em comparação com o todo o ano de 2019. Além disso, o estudo divulgou que em janeiro, fevereiro e setembro de 2021 cerca 600 milhões de dados foram vazados em três grandes ataques cibernéticos no Brasil.  Outras 44,5 milhões de tentativas de estelionato virtual ocorreram e houve 41 milhões de bloqueios de arquivos programados para invadir redes das empresas e roubar ou sequestrar dados. Ou seja, se você ainda não está por dentro do que o mercado espera para a cibersegurança em 2022, essa é a leitura essencial do dia!  Tendências em Cibersegurança para 2022 1) Ransomware ainda é motivo de alerta!  Esse risco para a segurança da informação organizacional permanece como uma das tendências em 2022.  De acordo com um estudo do ‘2021 Ransomware Study’, do IDC, cerca de 37% de empresas ao redor do mundo disseram ter sofrido esse tipo de ataque no último ano.   É por meio dessa instabilidade que diversos documentos acessíveis e armazenados em nuvem podem ser infectados, causando grandes prejuízos para as instituições. O mercado entende que esse tipo de ataque não só permanecerá entre a rotina das corporações, como terá crescimento – uma vez que quase tudo foi adaptado para existir no formato digital durante o período 2020-2021.  A principal dica para se evitar que essa seja uma realidade no seu negócio é instruir e educar os funcionários sobre o uso consciente de conteúdo digital. Dessa forma, há a possibilidade de se evitar que eles caiam no conhecido “phishing”.  2) Demanda por profissionais de cibersegurança  Assim como as soluções digitais se tornam mais frequentes e as sofisticações de crimes virtuais também cresceram, era de se esperar que a demanda por profissionais especializados em deter tais ameaças fosse uma das tendências de cibersegurança para 2022.  Essa é uma profissão que requer atualizações constantes e possibilita atuações diversificadas. Uma das formas de se capacitar sobre o assunto e se destacar na área é por meio de webinars gratuitos, como o realizado entre a Escola Superior de Redes (ESR), o Centro de Atendimento a Incidentes de Segurança (CAIS) da RNP e o Instituto SANS. Neste conteúdo são elencadas as maiores necessidades das equipes profissionais nesse contexto, além de ser abordado como os novos cursos do SANS, agora disponíveis no Brasil por meio da ESR, podem ser uma peça importante na construção das carreiras e dos times de segurança.  Além disso, na ESR existem diversos treinamentos focados exatamente nessa área que podem transformar a sua carreira. Confira alguns abaixo:  Cibersegurança EaD (parceria oficial Ascend): Este treinamento tem como objetivo melhorar seu conhecimento sobre análise e interpretação de dados, detecção de ameaças, gerenciamento de vulnerabilidades, resposta a incidentes e arquitetura de segurança. Formação em Segurança Cibernética: Curso para formação de profissionais em segurança de redes e sistemas. >>> Outros 25 treinamentos compõem a trilha de conhecimento de Cibersegurança da ESR. Escolha o seu favorito e comece a sua próxima especialização agora! <<< Análise Forense: Seja um investigador capaz de coletar evidências digitais e conduzir uma análise em sistemas comprometidos. FOR608 – Resposta a incidentes de classe empresarial e busca por ameaças (18 CPEs): O curso de Resposta à incidentes de classe empresarial e busca por ameaças é concentrado no desenvolvimento de habilidades e técnicas necessárias para responder a invasões em grande escala de diversas redes empresariais. >>> Outros 37 treinamentos compõem a trilha de conhecimento da parceria entre ESR e o gigante do mercado SANS. Escolha o seu favorito e comece a sua próxima especialização agora! <<< 3) Efeitos da LGPD no Brasil Espera-se que com o primeiro ciclo de fiscalização da LGPD, que teve início em janeiro, os dispositivos da lei auxiliem à potencialização de uma cibersegurança mais eficiente.  Por isso, além de ser uma tendência do segmento para os próximos meses, essa é também uma obrigação das corporações – a de se adequar às solicitações da norma.  O objetivo desse processo é que usuários e instituições respaldem sua relação na transparência e segurança de dados.  Para isso, a Lei Geral de Proteção de Dados, que entrou em vigor em agosto de 2021, se vale de diversos dispositivos normativos que, além de promoverem o uso de dados de forma consciente e com objetivos esclarecidos, servem também para a segurança da informação de usuários consumidores e prestadores de serviços.  O principal objetivo desse ordenamento é dispor sobre o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado, para proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural. Ao decorrer dos próximos meses, portanto, é essencial que as empresas estejam de acordo com a regulamentação e, assim, evitem sanções.  Na ESR, o curso “LGPD na Prática” oferece, de forma dinâmica e objetiva, ferramentas e o conhecimento necessário para essa adequação. É hora de liderar essas adaptações da LGPD na sua organização. 4) Utilização de pautas do dia a dia para phishing  Como uma das tendências de cibersegurança para 2022 está a utilização de contextos do mundo factível, como Covid-19 ou outros tipos de emergências, para criação de conteúdos muito similares aos legítimos, que contenham links perigosos.  A partir disso, o usuário será capturado pelo phishing para os mais variados usos – roubo de dados, informações confidenciais, senhas e etc.  Para conter essa intimidação há sempre a possibilidade de capacitação do time profissional, para que ele reconheça quando estiver diante dessa ferramenta maliciosa.  5) Outras ameaças à vista: cryptojacking Embora menos agressivo que o ransomware, esse é um tipo de ataque que também chega aos computadores organizacionais ou pessoais por meio de phishing.  O objetivo dessa forma recente de malware é se ocultar em dispositivos (móveis ou físicos) para roubar recursos do aparelho infectado, a fim de minerar moedas online valiosas, como Bitcoin, sem gastar com equipamento para isso. Diferentemente de outras ameaças, essa é uma das que permanece oculta por mais tempo, de forma quase imperceptível, tornando imensurável o custo da invasão.  Entretanto existem alguns sinais de infecção: computador mais lento, que usa a ventoinha mais do que o normal e uma conta de energia mais alta. Essa é uma das tendências da cibersegurança em 2022 uma vez que que criptomoedas também encontram-se valorizadas no mercado.  De acordo com a SonicWall, houve um aumento de 21% no cryptojacking no terceiro trimestre de 2021, além de uma elevação de 461% em toda a Europa. 6) Inteligência Artificial utilizada para sofisticação de crimes  O deepfake, técnica de síntese de imagens ou sons humanos baseada em leituras de inteligência artificial, já é bastante conhecido no mundo dos memes, comédias e de sátira política.  Provavelmente você já viu algum vídeo com o rosto e vozes de personalidades conhecidas dizendo algo que claramente não teriam dito na vida offline.  A tendência de cibersegurança de 2022 relacionada a esse assunto aborda a preocupação com a utilização dessa ferramenta para a prática de crimes que visem burlar acessos biométricos, por exemplo. Alguns riscos esperados com essa ferramenta:  Uso de deepfake para burlar acessos de biometria Uso das vozes dos CEOs das empresas para solicitar ordem de transferências financeira ou de dados aos funcionários (que não percebem se tratar de uma voz falsa) Uso de imagens falsas para criação de roteiros embaraçosos com o objetivo de chantagear quem estiver no conteúdo audiovisual.  Segundo dados da startup Deeptrace, essas peças, as deepfake, cresceram 330% de outubro de 2019 a junho de 2020.  Portanto, é um assunto para se estar atento!  7) Reuniões online deverão seguir uma conduta de segurança  O trabalho remoto ou híbrido tende a se tornar o modelo adotado por boa parte das corporações.  Nesse contexto, o uso de ferramentas variadas para reuniões online continuará no escopo de muitos funcionários e gestores.  É aqui que uma nova ameaça precisa ser contida – invasões desses canais de comunicação por criminosos que pretendem ouvir os dados confidenciais dos encontros ou terem acesso a documentos e apresentações da empresa.  Para não cair nessa armadilha algumas boas práticas podem ser seguidas, como: a limpa na lista de convites, proteção das videochamadas com senha ou permitir a entrada dos membros manualmente, por exemplo.  8) Atenção para o 5G e IoT Com a popularidade da Internet das Coisas (IoT) e as promessas de possibilidade de integração do 5G, os cibercriminosos têm também um novo ambiente para atacarem a sua infraestrutura. Esses dispositivos em sua maioria não possuem proteção adequada ou que seja capaz de barrar ferramentas maliciosas.  Entretanto, espera-se que a partir do desenvolvimento dessa tecnologia, desenvolva-se também a atualização de ferramentas que protejam e detectem riscos para as redes interligadas.  9) O trabalho híbrido veio para ficar  Nesse contexto em que as corporações não serão capazes de monitorar o acessos de seus funcionários, ferramentas para expandir essa avaliação e cuidado serão mais necessárias do que em qualquer outra época.  Assim, como tendências de cibersegurança em 2022 estão:  Estudo desses acessos simultâneos realizados fora das empresas e planejamento de gestão de risco. Capacitação da equipe profissional para que os funcionários não sejam reféns de crimes cibernéticos.  10) A crescente do seguro cibernético  Essa é uma tendência que indica também uma oportunidade de mercado. Com a maturidade dos gestores, empresas e profissionais acerca do assunto cibersegurança a procura por seguros desse segmento torna-se comum.  Dessa forma, as empresas que oferecem o serviço devem, cada vez mais, impor condições de cobertura mais rígidas.  __________________________________________________________ Para todas essas tendências de cibersegurança em 2022, seja para potencializar o uso em rede ou se precaver os ataques criminosos, uma ação se faz essencial no seu negócio: capacitação profissional.  Na ESR você e seus funcionários podem caminhar por uma trilha de conhecimentos sobre o tema, realizada em parceria com uma das empresas mais conceituadas do ramo no mundo – o SANS.  Descubra um universo de treinamentos sobre cibersegurança, aqui!  Referências:  Linkadas https://cio.com.br/noticias/7-tendencias-quentes-de-seguranca-cibernetica-e-duas-esfriando/ https://www.binarionet.com.br/blog-tendencias-e-desafios-da-ciberseguranca-para-2022/ https://canaltech.com.br/seguranca/veja-quais-sao-as-10-tendencias-de-ciberseguranca-para-2022-206614/


    03/02/2022
  • inteligência artificial
    Ciência de Dados

    O que é inteligência artificial e como ela é a aposta do presente

    Faz algum tempo que pensar no futuro se desconectou da ideia de carros voadores! Se antes os filmes futuristas de ficção-científica previam esse como o cenário tecnológico mais avançado já visto, os dados digitais, inteligência artificial, machine learning, entre outras facetas do mundo em nuvem provaram outra coisa.  Primeiro, que o futuro já é agora! Temos mais dados gerados, armazenados e compartilhados do que nunca e entender como gerenciá-los faz parte de um dos desafios do “agora”.  É nesse contexto que a Inteligência Artificial se desenvolve a cada dia e oferece uma oportunidade de avanços incríveis para os próximos tempos, além de uma excelente área de atuação profissional. Algo que você confere ainda nessa leitura. Afinal, você sabe o que é Inteligência Artificial? Continue pelo guia prático sobre esse assunto para descobrir. Você vai encontrar:  O que é inteligência artificial? Dúvidas frequentes sobre Inteligência artificial  Qual a relação entre Inteligência Artificial e Ciência de Dados?  O que é Inteligência Artificial?  Inteligência artificial, IA ou AI (em inglês artificial intelligence), é um conjunto de ferramentas digitais que permite que sistemas eletrônicos simulem “inteligência e comportamentos humanos”, por meio de análise e compreensão de dados e seus padrões.  De forma resumida, falar em Inteligência Artificial é pensar na capacidade, cada vez mais avançada, de máquinas e dispositivos gerarem interações dos mais diferentes tipos, para os mais diferentes fins, com base em dados coletados de fontes variadas.  O objetivo da IA é atuar para além da observação simples desses dados e da programação de ordens específicas.É ser capaz de perceber o ambiente ao qual se está inserida, para gerar resultados significativos, de forma independente, e totalmente conectada com esse universo enorme de dados. Para isso, são usados Machine Learning, Deep Learning, Processamento de Linguagem Natural, dentre outros avanços tecnológicos. A Inteligência Artificial se empenha, portanto, na possibilidade de dar às máquinas a habilidade de reproduzir competências, como raciocínio, planejamento, criatividade, aprendizagem e, até mesmo, interações humanas. Aqui, é importante ressaltar que mesmo que esse termo tenha se popularizado nos últimos anos, como identificado pelo Google Trends nas pesquisas no Google sobre IA que cresceram 4 vezes nos últimos 5 anos, a Inteligência Artificial já foi cunhada há algum tempo.  Mais exatamente, falou-se pela primeira vez nesse avanço tecnológico, mesmo que em outros contextos e condições, em 1955, quando o professor John McCarthy, de matemática do Dartmouth College, o apresentou ao mundo. Desde então a Inteligência Artificial evolui a passos largos. Em 1960 o primeiro chatbot ganhou vida, o nome de Eliza e funções ainda limitadas de processamento da linguagem natural humana.  Pouco tempo depois, nos anos 90, o supercomputador da IBM, chamado Deep Blue, ganhou destaque por vencer uma partida de xadrez contra o maior enxadrista da época, Garry Kasparov.  Já atualmente, os algoritmos inteligentes permitiram uma evolução ainda mais significativa da Inteligência Artificial, que agora oferece soluções mais integradas, completas e independentes.  Do Teste de Turing ao que vivemos hoje, a IA comprova que a tecnologia nunca para de avançar! Dúvidas frequentes sobre inteligência artificial Onde encontramos Inteligência Artificial atualmente?  Você pode não perceber, mas toda a sua rotina é cercada por Inteligência Artificial.  Os chatbots “automatizados” dos e-commerces, por exemplo, operam por meio dessa tecnologia e, assim, otimizam os processos de compra e venda do consumidor e da empresa.  As ferramentas de personalização de oferta de conteúdo como as vistas nos streamings, pelos quais são indicados os próximos filmes, músicas e séries baseados no gosto do usuário e no que ele já assistiu/ouviu, também são parte de uma atuação da Inteligência Artificial.  Os carros autônomos, aqueles que se locomovem sem a necessidade de um motorista, representam Inteligência Artificial. E, além disso, outras ferramentas como a Siri, Alexa, televisores que ajustam sua imagem e som automaticamente de acordo com o ambiente no qual estão inseridos, são possíveis graças à Inteligência Artificial.  Ou seja, ela está entre nós o tempo todo.  A Inteligência Artificial irá substituir o trabalho humano?  É preciso desmistificar essa pergunta!  Apesar de simular os comportamentos e inteligência humana, a IA é desenvolvida com o objetivo de potencializar, não substituir, as relações do homem em seus vários níveis (pessoal e laboral, por exemplo).  A partir daí, a ideia do avanço dessa tecnologia, combinada com a atuação humana, principalmente daquele profissional que entende a ciência de dados, é permitir que se haja otimização de processos, tempo para a execução funções mais criativas, uma rotina mais prática, planejada e com menores riscos, além de agilidade e ações escalonadas. É nesse contexto que a profissão de “cientista de dados” é uma das que mais cresce no mundo, uma vez que seus representantes são capazes de contribuir com o desenvolvimento dessa potente mudança tecnológica da área da ciência da computação. Segundo o Future of Jobs, do Fórum Econômico Mundial, a carreira de “cientista de dados” aparece em primeiro lugar na lista de profissões em alta demanda para os próximos anos.  Enquanto isso, de acordo com o levantamento da Intera, HRtech de recrutamento digital, parte do Cubo Itaú, especialistas em Data Analytics, Data Engineer e Data Science foram os mais recrutados por empresas de inteligência de dados ao longo da pandemia, representando um crescimento de aproximadamente 485% em comparação ao mesmo período de 2020.  Se interessou pela área? Conheça a trilha de cursos sobre Ciência de Dados da ESR Quais os benefícios da Inteligência Artificial? Além dos já citados anteriormente, a Inteligência Artificial pode potencializar diversas áreas fundamentais da vida humana, como a saúde. De acordo com a European Parliamentary Research Service, a IA tem contribuído para o combate à Covid-19, por exemplo, ao ser utilizada no sistema de controle térmico em ambientes coletivos, além de auxiliar o reconhecimento da infeção por meio de radiografias computadorizadas da tomografia dos pulmões e de fornecer dados para localizar a propagação do vírus. Outro ponto de destaque de benefícios da Inteligência Artificial, e conectado às demandas atuais, é a criação de mecanismos capazes de identificar um conteúdo falso, as chamadas fake news, combatendo a desinformação e suas consequências. Qual a relação entre Inteligência Artificial e Ciência de Dados? Como explicamos anteriormente, a Inteligência Artificial é possível por meio da combinação de big data, bons modelos de dados e computação em nuvem. Ou seja, ela depende integralmente de dados e da sua interpretação.  Por isso, o profissional que domina essa ciência é tão necessário nos dias de hoje. Aliar a capacidade da máquina de reproduzir comportamentos humanos às expertises de profissionais da área, é o que garantirá a constante evolução dessa tecnologia.  Se você chegou ao final desse conteúdo com interesse em se destacar nesse segmento da tecnologia, comece a sua especialização. Conheça a trilha de cursos sobre Ciência de Dados da ESR.


    31/01/2022
  • Linux
    Administração de Sistemas

    Como se tornar um especialista em Linux?

    O sistema operacional Linux atingiu níveis sem precedentes de implementação em ambientes corporativos, de acordo com um estudo recente encomendado pela empresa SUSE, divulgado pelo Canal Tech. As principais razões para a adoção do Linux incluem baixo custo total de propriedade (TCO, na sigla em inglês), maior desempenho e o desejo dos clientes de evitar a dependência de fornecedores. Em 30 anos após sua introdução no mercado, o Linux é hoje um software amplamente aceito e considerado seguro pela maioria dos ambientes de servidores corporativos.  O estudo apontou que 83% dos entrevistados estão rodando Linux em seus servidores, e mais de 40% estão usando Linux como seu sistema operacional ou como uma das suas principais plataformas. As aplicações mais populares executadas em Linux são banco de dados e inteligência de negócio, cada uma delas representando 17% do total. Servidores web (14%), sistemas de CRM (12%), armazenamento de dados (12%) e aplicativos personalizados/verticais (8%) também se destacam entre os mais executados. Quase 60% dos participantes da pesquisa concordam que mudar para plataformas de software livre como o Linux garantirá que as organizações evitem a dependência de fornecedores.  Outra pesquisa, agora compartilhada no site Softpedia, mostra um infográfico que explicita como o sistema operacional Ubuntu Linux é usado em todo o mundo. Desde usuários comuns às grandes empresas, são muitos os que usufruem dos serviços do sistema operacional livre. A usabilidade desse sistema vai desde grandes empresas como Netflix, PayPal, eBay, Bloomberg, Spotify e Sky, que usam o Ubuntu para executar suas operações de tecnologia global, às redes de satélite 5G da Agência Espacial Européia. Portanto, o Ubuntu está sendo usado em todos os lugares, incluindo carros autônomos, blockchain e todo tipo de robótica. Em maio de 2020, o Ubuntu respondeu por 64,98% de todas as instalações do Linux, enquanto uma entrada genérica do “Linux” representa mais de 33%, de acordo com os dados do NetMarketShare. Esses números demonstram que os sistemas de código aberto têm um lugar cativo no mercado, seja na iniciativa privada ou em instituições públicas, devido à excelente relação de custo x benefício para o cliente e também por causa da flexibilidade e versatilidade de aplicações Linux. Isso resulta em um mercado ávido por profissionais qualificados para gerir sistemas e controlar infraestruturas para as mais diversas finalidades. O ramo é bastante receptivo para profissionais que conhecem bem o sistema e dominam certas áreas técnicas, envolvendo servidores, redes, entre outras. Outro fato que comprova esse avanço são os dados do Relatório de Emprego da Linux, do ano de 2015, o Linux Jobs Report 2015. Nesse estudo a empresa aponta para como de fato os profissionais que têm conhecimento em configurações de servidores do Linux são mais valorizados e cobiçados pelo mercado de um modo geral. Segundo o documento, para uma organização que deseja muito ter em seus quadros um dos melhores profissionais do ramo em matéria de Linux, o ideal é procurar dar meios para que este profissional se sinta bem e se sinta atraído pela ideia de permanecer. Seja um especialista em Linux!  Para isso, queremos te apresentar o curso de administração de sistemas da ESR!  O treinamento apresenta os conceitos básicos, história e arquitetura do sistema operacional Linux, com práticas de instalação, configuração e administração do sistema.  Ao final do curso o aluno estará apto a realizar atividades como a criação e administração de parâmetros, senhas e contas de usuários, backup, serviço de impressão, registro de eventos, monitoramento de usuários, contabilidade de processos, configuração do núcleo do sistema operacional, aplicação de noções básicas de segurança, entre outras atividades relacionadas à maior comunidade de software livre do mercado. Afinal, o profissional responsável pela instalação, configuração e manutenção de sistemas Linux precisa ter habilidades avançadas em administração de sistemas operacionais Linux, o que é requisito também para outras funções mais avançadas na hierarquia do setor de TI de grandes empresas. Ser usuário de Linux é uma excelente maneira de começar. Poucas pessoas possuem o hábito de utilizar sistemas operacionais Linux em seus computadores pessoais, se comparado ao Windows ou Mac. Essa vivência acaba desenvolvendo uma bagagem necessária para se tornar um Administrador de Sistemas Linux. Ou seja, para ser um bom administrador, é preciso ser também usuário do sistema. Mas, se você busca crescimento no mercado e uma boa posição em empresas é preciso se tornar um especialista em Linux, e a ESR está aqui para te ajudar nisso!  Investindo na administração de sistemas da ESR ao final do curso o aluno será capaz de: Executar atividades de administração no ambiente Linux, incluindo gerenciamento de usuários, grupos e processos; Gerenciar os sistemas de arquivos e políticas de backup; Administrar serviço de impressão e logs de registro de eventos; Gerenciar ferramentas de administração de sistemas Linux. A Escola oferece formação completa para administradores de sistemas. Os cursos abrangem desde as funções básicas da administração de sistemas à instalação e configuração de uma rede TCP/IP e configuração dos serviços Internet. Como já mencionado, a demanda por profissionais especializados em sistemas operacionais Unix/Linux é uma realidade no mercado de trabalho, que exige uma capacitação completa na formação de administradores de sistemas que tenham visão ampla desde a infraestrutura à configuração de sistemas em ambientes virtualizados e que utilizam docker. Nos cursos de Administração de sistemas da ESR, o aluno aprende a instalar e administrar e configurar sistemas e serviços para Internet aplicando as devidas regras de segurança considerando o ambiente no qual o serviço será instalado. Se ainda há dúvidas se o curso é para você entenda a quem se destina: Profissionais da área TI que desejam conhecer e aprofundar o conhecimento nos sistemas Linux; Profissionais de TI que atuam com sistema Linux e pretendem aperfeiçoar a configuração dos sistemas e ofertar serviços na internet de forma segura; Profissionais de TI que possuem projetos ou atuam com virtualização de infraestrutura; Profissionais de TI que possuem projetos ou atuam com gestão de infraestrutura e sistemas de forma ágil utilizando a metodologia DevOps. Abaixo você confere ainda outros motivos para escolher essa área de investimento, por meio de projeções que ela pode garantir à sua carreira tecnológica. Saiba porque é vantajoso se tornar um especialista Linux.  Vantagens de ser um especialista em Linux 1. Segurança da informação como início da Carreira em TI A questão da segurança está cada dia mais no centro das atenções do mundo da tecnologia e as empresas não param de contratar profissionais nessa área. Quem domina Linux tem uma grande vantagem para conquistar um bom emprego. Isso porque muitos softwares de segurança, como os programas de simulação de ataque, de análise de dados ou de servidores web, são construídos com base em Linux. Sendo mais uma oportunidade para quem se torna um especialista em Linux com a ESR.  2. Administração de banco de dados Banco de dados é o centro nervoso de uma empresa, em analogia é como o coração de qualquer administração moderna. É no banco de dados que estão armazenadas as informações corporativas. Por isso, precisa ser cuidado por profissionais competentes e capacitados. A questão é que boa parte dos bancos de dados atuais rodam com o sistema Linux. É o caso do PostreSQL e o MySQL, por exemplo. Como esses bancos de dados são muito populares, é comum encontrar empresas em busca de profissionais especializados em Linux para administrá-los da melhor maneira possível. Um administrador de banco de dados realiza diversas atividades em sua rotina. Entre elas, gerenciar níveis de acesso dos usuários, desenvolver a documentação do sistema, testar e monitorar a performance do banco e analisar o desempenho dos servidores. Eis, portanto, outra vantagem de ser um especialista Linux.  3. Atendimento ao cliente como carreira em TI Com o desenvolvimento e a disseminação da internet, muitos programas de computador atualmente são vendidos na estrutura de cloud computing (nuvem). Dessa forma, as empresas ganham em escala e conquistam muito mais consumidores. Para dar conta da demanda e prestar um serviço de qualidade, as empresas precisam oferecer um suporte altamente especializado a seus clientes. Isso é bom para os profissionais de Linux. Muitos desses softwares que rodam na nuvem funcionam em servidores de base Linux. Quem conhece o sistema operacional tem muito mais facilidade em atender a demanda dos clientes e solucionar qualquer problema que possa chegar até o suporte, tornando-se mais uma vantagem competitiva.  ___________________________________   Agora que você conhece ao menos 3 áreas que estão ligadas a esse sistema operacional revolucionário, só falta começar a sua especialização e ir para o mercado preparado.  Seja um especialista em Linux e garanta novas oportunidades de mercado para 2022. Clique aqui e conheça as opções na ESR!  Referências:  https://www.3way.com.br/blog/2014/11/14/4-dicas-para-se-tornar-um-especialista-em-linux/ https://e-tinet.com/linux/carreira-linux-4-motivos/  https://e-tinet.com/linux/carreira-em-ti-profissional-linux/  https://www.impacta.com.br/blog/por-que-se-especializar-no-sistema-operacional-linux/


    20/01/2022
  • Machine Learning
    Ciência de Dados

    O que é Machine Learning e qual a sua importância?

    Você sabe o que é Machine Learning? Em tradução livre do inglês, o termo carrega o significado de “aprendizado de máquina”, que pode ser entendido como um método de análise de dados que automatiza a construção de modelos analíticos.  A partir dessa aplicação, compreende-se que o conceito está diretamente ligado a um ramo da inteligência artificial baseado na ideia de que sistemas podem aprender com dados, identificar padrões e tomar decisões com o mínimo de intervenção humana. À exemplo do que  algumas plataformas digitais, sistemas de internet das coisas e outras inovações já conseguem fazer.  De modo geral, pode-se dizer que o Machine Learning é uma tecnologia onde os computadores têm a capacidade de aprender de acordo com as respostas esperadas, por meio de associações de diferentes dados, os quais podem ser imagens, números e tudo que essa tecnologia possa decodificar.  Graças às novas tecnologias computacionais, o machine learning de hoje também tem se atualizado, mesmo que se trate de uma criação recente. Afinal, o conceito nasceu do reconhecimento de padrões e da teoria de que computadores podem aprender sem serem programados para realizar tarefas específicas; pesquisadores interessados em inteligência artificial queriam saber se as máquinas poderiam aprender com dados.  O aspecto iterativo do aprendizado de máquina é importante porque, quando os modelos são expostos a novos dados, eles são capazes de se adaptar independentemente. Eles aprendem com computações anteriores e são capazes de produzir decisões e resultados confiáveis, passíveis de repetição. Isso não é uma ciência nova – mas uma ciência que está ganhando um novo impulso e novas aplicações mediante ao avanço da ciência da computação e das tecnologias.  Embora diversos algoritmos de machine learning existam há muito tempo, a capacidade de aplicar cálculos matemáticos complexos ao big data automaticamente – de novo e de novo, mais rápido e mais rápido – é um desenvolvimento moderno. Eis alguns exemplos bem conhecidos de aplicações de machine learning, sobre os quais você já deve ter ouvido falar: 1. Machine Learning na Netflix, Spotify e Amazon Prime Video: o que consumir agora? Nos três serviços de streaming, o machine learning é usado principalmente na personalização. A tecnologia aprimora constantemente os algoritmos de recomendação, além de moldar o catálogo de filmes, séries, podcasts e músicas de acordo com a resposta do usuário. Sim, cada um desses serviços oferece, de forma exclusiva e personalizada, opções que combinam com você a partir de dados  coletados com base nas suas preferências e padrões de consumo  dentro das próprias plataformas.  No caso da Netflix e da Amazon Prime Video, a quantidade de dados gerada por milhões de assinantes em diferentes países do mundo é usada para direcionar a produção de filmes e séries originais. A informação é usada em modelos preditivos baseados no histórico de visualizações e nas avaliações dos usuários. O machine learning ainda é empregado para otimizar a codificação de vídeo e áudio, a seleção de bitrate e a rede de entrega de conteúdo. Em 2021, a Netflix superou a marca de 200 milhões de assinantes, enquanto a Amazon Prime Video passou de 150 milhões de usuários ativos em todo o mundo. Já o Spotify conta com 320 milhões de usuários ativos e 144 milhões de assinantes. Mostrando que a personificação do conteúdo a partir de machine learning não é o futuro, é o presente e pode sim ser extremamente lucrativo.   2. Uber: o melhor caminho a seguir, graças ao machine learning Este exemplo de machine learning também se baseia em modelos preditivos. É graças ao aprendizado de máquina que o aplicativo do seu smartphone sinaliza o tempo estimado de chegada (estimated time of arrivals, ETA, na sigla em inglês) do motorista e o horário em que o usuário estará em seu destino, por exemplo.  O machine learning também é usado para garantir a segurança de motoristas e passageiros, ao analisar em tempo real as viagens realizadas diariamente pelo aplicativo. A ferramenta, inclusive, bloqueia viagens consideradas potencialmente mais arriscadas. A Uber, inclusive, se tornou uma das pioneiras do setor a disponibilizar uma plataforma open source de machine learning, a Michelangelo, que permitiu a escalabilidade da nova tecnologia  para nível global. No ano passado, a Uber realizou mais de 16 milhões de viagens e entregas por dia no mundo. 3. Google Adwords, Facebook Ads e Instagram Ads: anúncios bem segmentados com machine learning Os anúncios em buscadores e redes sociais funcionam na base de leilões, já que são patrocinados. Dessa forma, são propagandas que colocam os que pagam mais em primeiras posições de “aparição”. Ou seja, o vencedor terá seu anúncio exibido ao usuário. Como os leilões ocorrem de maneira incessante todos os dias, o machine learning otimiza o processo a partir de lances inteligentes. A estratégia torna as campanhas mais lucrativas, por meio de taxas de cliques (CTR) preditivas e estimativas de conversão com base no comportamento do usuário. Com o machine learning, empresas de todos os tamanhos veem aumentar o retorno do investimento (ROI) nas plataformas de anúncio. 4. Google Tradutor: máquinas que aprendem outros idiomas Criado em 2006, o Google Tradutor tem a proposta de transcrever e traduzir frases de forma instantânea em mais de 100 idiomas. Você lembra de como eram as primeiras traduções? Elas se tornaram cada vez mais precisas graças ao machine learning. A tecnologia permitiu que a ferramenta aprendesse de acordo com as pesquisas dos usuários. Hoje, o Google Tradutor consegue traduzir textos contidos em imagens por meio da câmera do smartphone, por exemplo, mostrando a evolução desse aprendizado a partir da utilização de um sistema com coleta de dados.  5. Lu da Magalu e o exemplo de machine learning em assistentes virtuais Se você faz compras online, já deve ter se deparado com a Lu. A assistente virtual do Magazine Luiza interage de maneira cada vez mais natural com os usuários com a ajuda do machine learning. A Lu da Magalu, aliás, já é considerada um case de sucesso de branded content, por ter aumentado o engajamento entre a marca e o público. O sistema de chatbot por trás da Lu foi desenvolvido principalmente para atender os clientes no pós-venda. Ele aprende de forma autônoma como entender a linguagem natural, como gírias e até erros de português. O aprendizado de máquina permitiu que a Magazine Luiza oferecesse atendimento de forma constante aos clientes, além de ter um sistema integrado diretamente aos dados da empresa, sem precisar de uma interface humana para a consulta. A marca fechou 2020 com o maior faturamento de sua história: R$ 43,5 bilhões. Hoje a Magazine Luiza é a líder brasileira do varejo multicanal e do e-commerce formal. Tendências do mercado com Machine Learning  Grandes mudanças estão em andamento no mundo do marketing, da tecnologia e das grandes corporações que buscam inovação e avanços significativos no mercado. Essas mudanças estão em grande parte relacionadas com o poder do machine learning. Seu impacto é tão grande que 97% dos líderes acreditam que o futuro do marketing consistirá em profissionais experientes que trabalharão em colaboração com entidades de automação baseadas em aprendizagem de máquinas. As técnicas machine learning são usadas para resolver uma série de problemas diversos, e as empresas podem beneficiar seu negócio à medida que avançamos para um mundo de dados, canais, conteúdo e contextos de convergências extremas. Para a equipe de marketing moderna, machine learning é encontrar peças de conhecimento preditivo nos dados estruturados e não estruturados, e usá-los ao seu favor. A capacidade de responder de forma rápida e precisa às mudanças no comportamento do cliente é a aposta do mundo de hoje. Necessidade de se atualizar e acompanhar os avanços do mercado  Exatamente por já ser o presente e estar em praticamente todos os momentos conectados dos usuários, a área demanda capacitações constantes. É preciso buscar atualização e reconhecimento sobre os processos de machine learning a partir de cursos e treinamentos.  Uma das opções mais completas que servem a esse propósito atualmente é o curso de Introdução à Ciência de Dados da ESR.  Nele são ofertados conteúdos introdutórios que exploram desde a evolução histórica desses motores, Analytics & Big Data, além de explorarem questões éticas sobre Ciência de Dados, LGPD, machine learning e muito mais.   Outro material de pesquisa relevante é o Webinar sobre Ciência de Dados realizado pela ESR. O material surge com o intuito de permitir uma experiência de aprendizado ampla na área, para os diferentes papéis que compõem um time de Analytics, introduzindo as principais pautas que cercam a Ciência de Dados e, a partir disso, motivando o espectador a se aprofundar na temática.  Ao longo da exposição são abordadas pautas como: Conceitos Básicos de Analytics & Big Data, Estratégia e Inovação com Inteligência Artificial, Os desafios do uso de Ciência de Dados de forma Profissional e alguns casos de uso. Fique por dentro: assista o evento completo! 


    13/01/2022
  • Ciência de Dados
    Ciência de Dados

    O que é Ciência de Dados?

    A ciência de dados combina vários campos, incluindo estatísticas, métodos científicos, inteligência artificial (IA) e análise de dados, para extrair valor dos dados coletados em ambientes digitais.  Aqueles que praticam a ciência de dados são chamados de cientistas de dados e agregam uma variedade de habilidades para analisar dados coletados da web, smartphones, clientes, sensores e outras fontes com o objetivo de se obter insights acionáveis. A ciência de dados abrange a preparação de dados para análise, incluindo limpeza, agregação e manipulação de dados, que irão gerar análises de dados avançadas. Os aplicativos analíticos e os cientistas de dados podem então revisar os resultados para descobrir padrões e permitir que os líderes de negócios obtenham percepções com informações relevantes. Além disso, é a principal ciência para definição de tendências, comportamentos e análises profundas.  O que é Ciência de dados Ciência de dados é um dos campos que mais cresce atualmente por utilizar informações reais e coletadas de ações para criar mecanismos, tecnologias, aplicações em plataformas digitais, auxiliando no aperfeiçoamento de ações automatizadas.  Como a tecnologia moderna permitiu a criação e armazenamento de quantidades crescentes de informações, os volumes de dados “pipocaram”. Estima-se que 90% dos dados do mundo tenham sido criados nos últimos dois anos. A título de exemplificação podemos citar o caso do Facebook, pertencente a empresa Meta, que possui um carregamento de 10 milhões de fotos a cada hora por seus usuários. A questão principal é que a riqueza de dados coletados e armazenados por essas tecnologias pode trazer benefícios transformadores para organizações e sociedades em todo o mundo. Entretanto, tais vantagens só são palpáveis se pudermos executar a interpretação desses dados coletados. É aí que entra a ciência de dados. A ciência de dados revela tendências e produz as informações que as empresas podem usar para tomar melhores decisões. Além disso, também cria produtos e serviços mais inovadores. E, talvez, o mais importante da área seja que ela permite que os modelos de machine learning (ML) aprendam com as grandes quantidades de dados que são fornecidos a eles, ao invés de dependerem exclusivamente de analistas de negócios para gerar descobertas a partir dos dados. A informação é a base da inovação, mas seu valor se origina nos dados que os cientistas podem extrair e depois transformar em insumo. Como a ciência de dados transforma os negócios As organizações estão usando equipes de ciência de dados para transformar os dados em uma vantagem competitiva, refinando produtos e serviços. Os casos de uso de ciência de dados e machine learning incluem: Determinar a rotatividade de clientes, analisando os dados coletados nos call centers, para que o marketing possa tomar medidas para retê-los; Melhorar a eficiência analisando padrões de tráfego, condições meteorológicas e outros fatores para que as empresas de logística possam catalisar as velocidades de entrega e reduzir custos; Melhorar o diagnóstico de pacientes ao analisar dados de exames médicos e sintomas relatados para que os médicos possam diagnosticar doenças mais cedo e possam tratá-las com mais eficácia; Otimizar a cadeia de abastecimento, prevendo quando o equipamento irá quebrar Detectar fraudes em serviços financeiros, reconhecendo comportamentos suspeitos e ações anômalas; Melhorar as vendas criando recomendações para clientes com base em compras anteriores. Muitas empresas priorizaram a ciência de dados e o forte investimento no setor. Na pesquisa recente do Gartner, com mais de 3.000 Diretores de Informações (CIOs), os entrevistados classificaram o business intelligence e a análise avançada como o principal diferencial de tecnologia para as suas corporações. Os Diretores de Informações (CIOs) entrevistados consideram essas tecnologias as mais estratégicas para suas empresas e estão investindo de acordo.   O que faz um cientista de dados? Como especialidade, a ciência de dados é jovem. Ela cresceu a partir dos campos de análise estatística e mineração de dados (data mining). O Data Science Journal estreou em 2002, publicado pelo Conselho Internacional para Ciências: Comitê de Dados para Ciências e Tecnologia. Em 2008, o título de cientista de dados foi cunhado e a área decolou rapidamente. uma escassez de cientistas de dados vem sendo percebida desde então, com diversas faculdades e universidades  começando a oferecer graduação em ciência de dados. As funções de um cientista de dados podem incluir o desenvolvimento de estratégias para analisar dados, preparar dados para análise, explorar, analisar e visualizar dados, construir modelos com dados usando linguagens de programação, como Python e R, e a implementação de modelos em aplicativos. O cientista de dados não trabalha sozinho. Na verdade, a ciência de dados mais eficaz é feita em equipes. Além de um cientista de dados, essa equipe pode incluir um analista comercial que define o problema, um engenheiro de dados que prepara os dados e como eles são acessados, um arquiteto de TI que supervisiona os processos e a infraestrutura subjacentes e um desenvolvedor de aplicativos que implementa os modelos ou os resultados da análise em aplicativos e produtos. Se você busca uma profissionalização nessa área ou quer entender melhor sobre essa carreira que cresce no Brasil e no mundo, conheça o curso da ESR.  Afinal, a Ciência de Dados é o assunto do momento, muitas organizações estão mudando seus modelos de gestão para serem orientadas aos dados. Porém, para construir uma instituição verdadeiramente centrada nesses insumos, se faz necessário definir uma estratégia que contemple dimensões que são apresentadas de maneira única no curso da ESR.  Ainda precisa de um aprofundamento antes de tomar sua decisão? A ESR possui um Webinar sobre o assunto para tirar todas as dúvidas e mostrar outras aplicações e detalhes sobre a Ciência de Dados. Confira aqui! 


    06/01/2022
  • Plano Diretor de TI
    Governança de TI

    Plano Diretor de TI (PDTI): entenda o que é e quais são os seus benefícios

    O  Plano Diretor de Tecnologia da Informação (PDTI) é um documento que detalha os processos de TI que uma organização usa para gerenciar suas operações. Ou seja, ele serve como um guia para a tomada de decisões relacionadas aos processos integrados e permite que se priorize e se implementem tarefas de acordo com as estratégias previamente formuladas. Além dessa função de gestão, o PDTI também orienta as organizações no que tange a formulação de estratégia de TI de tais empresas de uma forma mais assertiva. Como resultado direto dessa combinação, está o sucesso do negócio, em especial, após o aprimoramento do digital e a decisão mais efetiva de se investir em treinamentos e desenvolvimento de TI, além de suas áreas correlatas.  De modo simplificado, o plano descreve áreas nas quais a tecnologia da informação pode contribuir, evidenciando as vantagens competitivas da corporação ao fazer o melhor uso dos recursos das tecnologias disponíveis. Nesse contexto, na busca por uma administração que preze pela melhor gestão dos recursos e maior qualidade na prestação de serviços, torna-se essencial a realização de um bom planejamento de TI, que viabilize e potencialize a melhoria contínua da performance organizacional. Em um recorte numérico, o setor de tecnologia da informação mostra-se em crescimento constante. No segundo trimestre de 2021, o mercado registrou faturamento de mais de U$300 milhões, o que representa um crescimento de 13,5% em relação aos meses de abril, maio e junho do ano passado. Os dados fazem parte do estudo Enterprise Infrastructure Q2 2021, realizado pela IDC Brasil, que avalia o desempenho do mercado de soluções de armazenamento, servidores e networking do país. Entre os setores estudados pela IDC Brasil, destaca-se o de armazenamento, que cresceu 11,1% graças a grandes projetos sonhados anteriormente e finalizados no segundo trimestre. Outra área que cresceu dois dígitos – alta de 28,5% em relação ao 2º trimestre de 2020 – foi a de networking, sendo que o segmento de redes de acesso foi o que mais avançou, enfatizando a busca das empresas por soluções que ajudem a suportar uma densidade maior de dispositivos conectados dentro do modelo de trabalho híbrido e remoto.  Esses dados ajudam a compreender a importância de olhar com esmero para as novas tecnologias digitais que embarcam na realidade de todos os negócios e áreas de atuação.  Componentes de um PDTI Destacadas as principais características de um Plano Diretor de TI é preciso enfatizar ainda alguns componentes que são essenciais e devem estar no PDTI de sua empresa. O plano diretor de TI deve descrever: Ações que planejem, de forma escalonada, alcançar os objetivos de negócio da organização. Normalmente, o primeiro passo é começar a revisar o plano estratégico da empresa, o que ajuda a identificar as áreas em que o uso da tecnologia pode melhorar as operações. Análises dos seus pontos fortes, fracos, as oportunidades e as ameaças que o negócio apresenta com o objetivo de identificar fatores internos e externos que podem afetar a capacidade da TI de contribuir para o sucesso da organização. Esse processo também ajudará a analisar onde o departamento de TI está naquele momento e o que ele deseja alcançar. Caso essa área ainda não exista dentro da empresa, será o momento de entender onde ela se encaixa diante das divisões já existentes. Finalmente, é importante que o PDTI seja claro sobre seus objetivos finais. Assim, é essencial a presença de uma lista, que o departamento de TI considere prioridade, com investimentos em tecnologia que irão contribuir com o sucesso da organização. Ademais, o plano deve incluir avaliações do orçamento atual de TI da empresa e alocar recursos e responsabilidades específicas do projeto para atender a esses objetivos. Em resumo, elaborar um PDTI é pensar na história e desenvolvimento do negócio com estratégias digitais que serão importantes indicadores na geração de resultados e lucratividade das empresas.   Segundo o Gartner, a modernização e aderência da maioria dos setores ao digital exige que os líderes de TI pensem de forma diferente sobre o planejamento estratégico.  No cenário atual de constantes mudanças, o PDTI é uma importante ferramenta de apoio à tomada de decisão para o gestor, habilitando-o a agir de forma proativa e preventiva, contra as ameaças, e a favor das oportunidades. O PDTI é normalmente feito com projeção de 2 ou 3 anos, dependendo dos planos de crescimento das outras áreas da empresa, e vai te auxiliar a listar e otimizar suas necessidades. Afinal, toda organização deve, além de definir suas atribuições, ter clareza sobre o rumo a seguir. Para isso, é indispensável explicitar quais objetivos a organização deseja atingir a curto, médio e longo prazo. Como elaborar um Plano Diretor de TI Esclarecida a importância e relevância de se possuir um PDTI em sua empresa, é hora de começar o investimento nessa área! A dica é capacitar os profissionais que irão elaborar o plano, uma vez que, bem desenvolvido e formulado, ele poderá definir orçamentos e rumos importantes para a instituição.  > O curso da ESR é o que você precisa nesse momento para atender a essa demanda! <  A capacitação, assinada pela Escola Superior de Redes, apresenta conhecimentos essenciais, de forma prática, para o desenvolvimento de um plano diretor de tecnologia da informação (PDTI).  Ou seja, atua a partir das informações do planejamento e da gestão de TI nas organizações, a fim de proporcionar aos interessados uma visão estratégica bem definida.  Durante o desenvolvimento aborda-se a metodologia necessária para que haja um alinhamento entre as estratégias e ações da TI, com as estratégias organizacionais.  Como já foi exposto, o PDTI é o instrumento que permite nortear e acompanhar a atuação da área de TI, definindo direcionamentos calculados e um plano de ação específico para implantá-los.  Por isso, o foco do curso está no desenvolvimento de competências práticas, a partir do alinhamento teórico de boas ideias para o desenvolvimento do PDTI, com as diretrizes da estratégia de TI. Dentro do programa do curso o cliente irá compreender todas as principais fases de preparação do plano diretor de TI, como:  Fase de Preparação; Fase de Diagnóstico: Conhecendo a Realidade da TI; Fase de Diagnóstico: Avaliando os Recursos de TI; Fase de Planejamento: Definindo Metas e Ações; Fase de Planejamento: Terminando o PDTI. Ficou interessado e quer ver na prática como implementar um Plano Diretor de Tecnologia da Informação? Conheça outras características do curso da ESR, aqui!  Referências: Página do curso de PDTI na ESR: https://esr.rnp.br/cursos/elaboracao-de-pdti-ead https://www.portnet.com.br/o-que-e-pdti-plano-diretor-de-tecnologia-da-informacao https://www.profissionaisti.com.br/o-que-e-pdti-plano-diretor-de-tecnologia-da-informacao https://fj.com.br/o-que-e-pdti-e-para-que-serve


    23/12/2021