Cadastre-se

CADASTRO

Em caso de não possuir CPF, por favor entre em contato conosco clicando aqui.

Ao informar meus dados, eu concordo com a Política de Privacidade

ReCaptcha
Entrar
Escola Superior de Redes

Blog da ESR

  • Desenvolvimento low-Code
    Desenvolvimento de Sistemas

    Desenvolvimento com frameworks low-code: o que é, quais vantagens e desafios para iniciantes?

    O desenvolvimento low-code (desenvolvimento com baixo código) promete dar às empresas o que a transformação digital exige todos os dias: agilidade e eficiência na produção de suas soluções.  Trata-se de uma ferramenta que funciona à base do mecanismo de arrastar e soltar (drag and drop), permitindo que o desenvolvimento de softwares e aplicações se torne mais simples. Isso ocorre porque a tecnologia low-code (ou, em português, baixo código) minimiza a necessidade de uma codificação manual convencional, otimizando a entrega de aplicativos. Cada vez mais as organizações migram para as chamadas Low Code Development Platform (LCPD), por enxergarem nessa evolução uma oportunidade de escalar suas operações. Continue neste artigo e descubra o universo low-code e por que essa é uma competência interessante para iniciantes.  Você também pode gostar – O que é e como aprender lógica de programação de uma vez por todas O que é desenvolvimento low-code? O desenvolvimento low-code é realizado por meio de uma interface gráfica simplificada e intuitiva que substitui, em grande parte, a necessidade de codificação manual. Ou seja, em vez de escrever linhas e mais linhas de código, o desenvolvedor utiliza elementos pré-programados em uma interface visual, compondo as funcionalidades desejadas por meio do mecanismo de arrastar e soltar para realizar a criação das aplicações. Dessa forma, a elaboração de softwares é não só facilitada como democratizada, permitindo que profissionais iniciantes ou com pouco conhecimento técnico em programação possam criar aplicativos e soluções digitais. Além disso, quando se fala em low-code, é importante compreender que se trata de uma tecnologia especialmente útil em projetos que demandam rapidez, como é o caso do desenvolvimento de MVPs (produtos mínimos viáveis), aplicações internas e ferramentas de automação empresarial. Para esses casos, tais soluções podem ser facilmente modificadas ou escaladas conforme necessário, algo fundamental em um ambiente de transformação digital, que está em constante movimento. Você também pode gostar –As 5 linguagens de programação mais utilizadas no mercado em 2023-2024 Como o low-code funciona na prática? Na prática, o low-code utiliza componentes visuais pré-programados que representam funcionalidades específicas, como formulários, conexões com o banco de dados e integrações com APIs (interface de programação de aplicações). Ao selecionar e posicionar esses elementos na interface, o desenvolvedor cria um fluxo lógico de funcionamento, que pode ser testado e ajustado em tempo real. O processo ainda é facilitado por recursos como templates prontos, guias de integração e uma série de módulos funcionais que já trazem a lógica de programação embutida. É o caso, por exemplo, do uso da inteligência artificial, recentemente adotada na construção das estruturas de código. Outro ponto interessante do low-code é a sua capacidade de integração com sistemas legados e APIs. Por meio dessa característica, é possível conectar dados e funcionalidades de diversas plataformas em uma mesma aplicação. Com isso, as empresas mantêm a continuidade operacional enquanto incorporam novos recursos, o que é bastante útil para quem precisa modernizar processos rapidamente. Você também pode gostar: O que você precisa saber para se especializar em linguagem de programação? Quais são as plataformas low-code mais populares? Existem diversas plataformas low-code populares no mercado, cada uma com suas particularidades e objetivos específicos. Detalhamos abaixo algumas delas. Essas plataformas são projetadas para facilitar o desenvolvimento, sendo uma excelente escolha para empresas que desejam acelerar sua transformação digital ou para profissionais iniciantes. Vantagens do low-code para iniciantes O low-code é particularmente atrativo para iniciantes por uma série de motivos: 1) Curva de aprendizagem reduzida Graças à sua interface intuitiva e ao modelo de arrastar e soltar, o low-code permite que iniciantes possam criar aplicações em menos tempo, enquanto amadurecem o seu conhecimento técnico. 2) Rapidez no desenvolvimento Como o low-code minimiza a codificação manual, o tempo necessário para concluir um projeto é consideravelmente menor, o que facilita a entrega rápida de protótipos e MVPs. 3) Menor necessidade de recursos  Com o low-code, mesmo equipes menores conseguem desenvolver aplicações quase completas, uma vez que muitos dos recursos são automatizados ou fornecidos pela própria plataforma. 4) Facilidade na integração de funcionalidades Como a maioria das plataformas oferece integrações automáticas com APIs e sistemas externos, os iniciantes conseguem criar aplicações mais robustas de uma forma mais fácil. Por esses e outros motivos, o low-code se torna uma escolha estratégica para iniciantes que desejam atuar na área de desenvolvimento e inovação. Enquanto criam aplicações por meio dos recursos drag and drop, esses profissionais podem, aos poucos, aprofundar sua expertise em linguagens de programação. Você também pode gostar: 8 dicas para iniciar na carreira de programação! E quais são os desafios do low-code para iniciantes? É importante que os iniciantes também estejam cientes de alguns desafios que acompanham o uso de plataformas low-code: Limitações de personalização Embora o low-code ofereça diversas funcionalidades prontas, ele pode limitar a personalização e a flexibilidade do projeto. Quando este exige uma lógica complexa ou funcionalidades muito específicas, esse ponto pode se tornar um obstáculo. Dependência da plataforma Outra preocupação é a dependência que as empresas podem desenvolver em relação à plataforma escolhida, o que pode gerar custos de licenciamento e dificultar a migração para outras soluções no futuro. Questões de segurança e conformidade Como o código não é totalmente controlado pelo desenvolvedor, pode ser mais trabalhoso garantir que a aplicação esteja em conformidade com todas as normas de segurança, especialmente em setores altamente regulamentados. Para superar esses desafios, é essencial que iniciantes se dediquem a estudar a plataforma que desejam utilizar, compreendendo suas limitações, e que busquem aprender os fundamentos de desenvolvimento e lógica de programação. Dessa forma, aos poucos e com a “mão na massa”, você complementa o conhecimento adquirido e passa de iniciante a um desenvolvedor com aptidões mais técnicas. Você também pode gostar: A importância da programação para o futuro do trabalho A ESR pode ajudar você nesse processo! Há mais de 15 anos no mercado de ensino e aprendizado para TI, a Escola Superior de Redes (ESR) desenvolveu uma metodologia exclusiva, capaz de aliar verdadeiramente a teoria à prática. São cursos distribuídos por trilhas de conhecimento nas mais diversas áreas de TI, desde desenvolvimento até cibersegurança, com material atualizado constantemente e ministrado por profissionais reconhecidos no mercado. Dê um passo a mais na sua carreira de TI: conheça todos os cursos da ESR aqui!


    14/11/2024
  • Requisitos de rede para Inteligência Artificial
    Administração e Projeto de Redes

    Inteligência artificial para redes: requisitos e conceitos da tecnologia

    Você sabe como são os requisitos de rede para inteligência artificial? Ou, melhor: a inteligência artificial (IA) realmente atende aos requisitos de rede? É o que vamos descobrir neste conteúdo.  Para isso, inicialmente, precisamos observar a abrangência dessa tecnologia ao longo dos anos. Se observarmos os estudos publicados tanto sobre IA quanto machine learning na última década, iremos concluir que, nesse curto lapso temporal, a aplicação dessas ferramentas passou a estar presente em todos os domínios científicos, crescendo exponencialmente em cada um deles. Em um recente webinar da Escola Superior de Redes (ESR), o especialista e pesquisador do IMDEA Networks Institute, Marco Fiore, aborda exatamente as transformações digitais e as de paradigma que possibilitaram que a IA permeasse pesquisas em campos tão diferentes.  Para se ter uma ideia, de acordo com Fiore, se a nuvem de palavras pinçadas dos principais papers publicados em 2015 apresentava como resultado termos específicos de domínio, como rede, dados móveis e roteamento, em 2024, o cenário foi outro. ‘Nesse momento, a nuvem de palavras formulada com base na observação das pesquisas desenvolvidas ao redor do mundo não se limita apenas a domínio ou rede, tendo estabelecido “aprendizagem” como o ponto central, ou seja, agora, os termos das pesquisas convertem no sentido das aplicações de IA e ML. Em quase dez anos, a comunidade foi impactada significativamente por esses dois recursos, inclusive no quesito “redes”! Para esse cenário, a inteligência artificial e os algoritmos de machine learning proporcionam a otimização das redes, viabilizando que esses ambientes digitais acompanhem as demandas fluidas da modernidade, quais sejam: Neste conteúdo, vamos explorar mais essa relação entre IA e redes, segundo os pontos discutidos no webinar da ESR que mencionamos anteriormente: “A IA atende aos requisitos de rede?”, com o expert Marco Fiore.  Você também pode gostar – Inteligência artificial na TI: como a ferramenta atua no contexto da cibersegurança?  O que é inteligência artificial para rede? A IA para redes refere-se ao uso de algoritmos avançados de machine learning e técnicas de inteligência artificial para gerenciar e otimizar as operações de rede. Esses algoritmos são projetados para automatizar processos, detectar anomalias, prever falhas e gerenciar o tráfego de dados em ambientes cada vez mais complexos. Com a crescente demanda por redes de alto desempenho, a integração de IA tornou-se fundamental para garantir que as redes possam lidar com o aumento do tráfego e a necessidade de resposta em tempo real. Quando essas tecnologias são aplicadas às redes, têm a capacidade de aprender e se adaptar com o tempo, fazendo ajustes automáticos para melhorar a eficiência e a segurança. O resultado? Menor latência, maior confiabilidade e redução de falhas. Aprofunde-se por aqui – Machine learning e inteligência artificial na área de TI: o que esperar do futuro? A IA atende aos requisitos de rede? Apesar dos avanços, as redes ainda apresentam desafios únicos para a IA. As exigências específicas – como baixa latência, alta resiliência e gerenciamento de uma quantidade crescente de dispositivos e dados – impõem restrições que não são comuns em outros campos em que a IA é aplicada. O aprendizado de máquina, por exemplo, é visto como uma ferramenta instrumental para automatizar a operação de redes. No entanto, para que a IA seja eficaz em ambientes de rede, é necessário um design dedicado de modelos de machine learning que possa lidar com a complexidade e o dinamismo dos ambientes digitais modernos. Isso inclui desafios como: Você também pode gostar:O que é Machine Learning e qual a sua importância?O impacto da realidade aumentada na educação e no treinamento em TI  Conclusão A IA tem potencial para revolucionar a operação de redes, mas atender aos requisitos específicos de latência, escalabilidade e desempenho continua sendo um desafio para as empresas. Para saber mais sobre essas questões e ver exemplos práticos de como a IA está sendo integrada às redes modernas, recomendamos que você assista ao webinar completo da ESR. Nele, Marco Fiore apresenta uma visão aprofundada sobre como a IA pode transformar a maneira como gerenciamos e operamos redes. Assista ao webinar da ESR na íntegra


    11/12/2025
  • Requisitos de rede para Inteligência Artificial
    Administração e Projeto de Redes

    Inteligência artificial para redes: requisitos e conceitos da tecnologia

    Você sabe como são os requisitos de rede para inteligência artificial? Ou, melhor: a inteligência artificial (IA) realmente atende aos requisitos de rede? É o que vamos descobrir neste conteúdo.  Para isso, inicialmente, precisamos observar a abrangência dessa tecnologia ao longo dos anos. Se observarmos os estudos publicados tanto sobre IA quanto machine learning na última década, iremos concluir que, nesse curto lapso temporal, a aplicação dessas ferramentas passou a estar presente em todos os domínios científicos, crescendo exponencialmente em cada um deles. Em um recente webinar da Escola Superior de Redes (ESR), o especialista e pesquisador do IMDEA Networks Institute, Marco Fiore, aborda exatamente as transformações digitais e as de paradigma que possibilitaram que a IA permeasse pesquisas em campos tão diferentes.  Para se ter uma ideia, de acordo com Fiore, se a nuvem de palavras pinçadas dos principais papers publicados em 2015 apresentava como resultado termos específicos de domínio, como rede, dados móveis e roteamento, em 2024, o cenário foi outro. ‘Nesse momento, a nuvem de palavras formulada com base na observação das pesquisas desenvolvidas ao redor do mundo não se limita apenas a domínio ou rede, tendo estabelecido “aprendizagem” como o ponto central, ou seja, agora, os termos das pesquisas convertem no sentido das aplicações de IA e ML. Em quase dez anos, a comunidade foi impactada significativamente por esses dois recursos, inclusive no quesito “redes”! Para esse cenário, a inteligência artificial e os algoritmos de machine learning proporcionam a otimização das redes, viabilizando que esses ambientes digitais acompanhem as demandas fluidas da modernidade, quais sejam: Neste conteúdo, vamos explorar mais essa relação entre IA e redes, segundo os pontos discutidos no webinar da ESR que mencionamos anteriormente: “A IA atende aos requisitos de rede?”, com o expert Marco Fiore.  Você também pode gostar – Inteligência artificial na TI: como a ferramenta atua no contexto da cibersegurança?  O que é inteligência artificial para rede? A IA para redes refere-se ao uso de algoritmos avançados de machine learning e técnicas de inteligência artificial para gerenciar e otimizar as operações de rede. Esses algoritmos são projetados para automatizar processos, detectar anomalias, prever falhas e gerenciar o tráfego de dados em ambientes cada vez mais complexos. Com a crescente demanda por redes de alto desempenho, a integração de IA tornou-se fundamental para garantir que as redes possam lidar com o aumento do tráfego e a necessidade de resposta em tempo real. Quando essas tecnologias são aplicadas às redes, têm a capacidade de aprender e se adaptar com o tempo, fazendo ajustes automáticos para melhorar a eficiência e a segurança. O resultado? Menor latência, maior confiabilidade e redução de falhas. Aprofunde-se por aqui – Machine learning e inteligência artificial na área de TI: o que esperar do futuro? A IA atende aos requisitos de rede? Apesar dos avanços, as redes ainda apresentam desafios únicos para a IA. As exigências específicas – como baixa latência, alta resiliência e gerenciamento de uma quantidade crescente de dispositivos e dados – impõem restrições que não são comuns em outros campos em que a IA é aplicada. O aprendizado de máquina, por exemplo, é visto como uma ferramenta instrumental para automatizar a operação de redes. No entanto, para que a IA seja eficaz em ambientes de rede, é necessário um design dedicado de modelos de machine learning que possa lidar com a complexidade e o dinamismo dos ambientes digitais modernos. Isso inclui desafios como: Você também pode gostar:O que é Machine Learning e qual a sua importância?O impacto da realidade aumentada na educação e no treinamento em TI  Conclusão A IA tem potencial para revolucionar a operação de redes, mas atender aos requisitos específicos de latência, escalabilidade e desempenho continua sendo um desafio para as empresas. Para saber mais sobre essas questões e ver exemplos práticos de como a IA está sendo integrada às redes modernas, recomendamos que você assista ao webinar completo da ESR. Nele, Marco Fiore apresenta uma visão aprofundada sobre como a IA pode transformar a maneira como gerenciamos e operamos redes. Assista ao webinar da ESR na íntegra


    09/12/2025
  • Como alavancar a carreira de TI
    Temas Diversos

    Como alavancar a carreira no atual cenário de TI? 3 Dicas essenciais!

    Você procura um guia sobre como alavancar a carreira de TI no atual cenário das transformações digitais? Continue conosco para acessá-lo! Um  levantamento do Google for Startups identificou que o Brasil passará por um déficit de 530 mil profissionais de tecnologia até 2025. Esse número reflete as peculiaridades de um setor que demanda especialistas sempre atualizados e que ainda consigam se manter em movimento de forma compassada com as tecnologias emergentes e com as suas transformações.  A exemplo disso, outro estudo, dessa vez do Instituto Global Mckinsey, traçou um panorama sobre as profissões do futuro e concluiu que todas elas têm uma ligação íntima com a automação do trabalho.  O relatório fruto dessa pesquisa sugeriu que, até 2030, o período em que profissionais das mais variadas áreas passam utilizando tecnologias avançadas aumentará em 50%, além disso, as habilidades de programação serão 90% mais visadas nesse cenário. Ou seja, uma vez que todas as disciplinas convergem para o uso cada vez mais consistente das tecnologias avançadas, tais quais inteligência artificial (IA), realidade aumentada e virtual (RA e RV), machine learning e computação quântica, entre outros exemplos, o profissional de TI é obrigatoriamente convocado para estar à frente desse processo de transição de modelos laborais.  Na prática, trata-se de um alerta claro: é hora de os profissionais da área e os interessados se prepararem para o futuro, adquirindo as habilidades e os conhecimentos que o mercado valoriza. Você também pode gostar – Computação Quântica: o que está por trás dessa tecnologia e quais suas tendências?  Como alavancar a carreira de TI: quais são os cargs do futuro?  O conceito de profissão do futuro envolve a expectativa de valorização da área e da especialidade.   Para isso, são observados alguns panos de fundo, como a aposta no bom desempenho de certas atividades em comparação com outras e a sua interconexão com as transformações digitais e com o movimento da sociedade, além da estimativa de surgimento de novos mercados, nichos e empresas que possam demandar certas atuações de trabalho. Nesse sentido, estudar quais serão as carreiras, inclusive de TI, com chances de despontar a médio e longo prazo demanda uma análise que leve em consideração não só esses pontos, como também o que é reverberado nos principais fóruns e comunidades.  A exemplo disso, no último levantamento do Fórum Econômico Mundial, “The Future of Jobs”, lançado ainda em 2023, o contexto moderno do trabalho foi previsto como digital, rotativo e inédito. Segundo esse documento, dos 673 milhões de postos de trabalho analisados, 83 milhões serão eliminados, enquanto 69 milhões devem ser criados nos próximos anos, sendo a inteligência artificial o principal foco de alteração dessas relações. A ferramenta, uma das tendências em tecnologia para todos os mercados, desencadeia a urgência da adaptação e destaca a importância da educação voltada para habilidades digitais. De acordo com o fundador e CEO da Code.org, em outra matéria, também publicada pelo Fórum Econômico Mundial, o risco relacionado com a IA ainda se encontra com ponto focal no ser humano, e não na máquina. Isso porque não se espera que as pessoas percam os seus empregos para a IA, mas, sim para outras pessoas que sabem como utilizar a ferramenta.  “Não é que o trabalhador seja substituído apenas por um robô ou uma máquina na maioria dos casos, especialmente para trabalhos de secretaria. É que algum trabalhador melhor ou mais instruído pode fazer esse trabalho porque pode ser duas vezes mais produtivo ou três vezes mais produtivo com a IA” – tradução das “6 tendências de trabalho e local de trabalho a serem observadas em 2024” Ou seja, o verdadeiro desafio do mercado de trabalho atual encontra-se na capacitação e adaptação humana, e não na substituição pura e simples de seres humanos por máquinas. Além disso, o Fórum Econômico Mundial, por meio do The Rise of Digital Jobs, prevê o aumento da empregabilidade em áreas digitais globais para cerca de 92 milhões de vagas e uma mudança de cerca de 23% dos empregos nos próximos cinco anos. “Com a previsão de que 23% dos empregos mudem nos próximos cinco anos, conforme o Relatório sobre o Futuro do Emprego, milhões de pessoas terão de transitar entre empregos em declínio e em crescimento” – tradução das “6 tendências de trabalho e local de trabalho a serem observadas em 2024” Quais são as 10 profissões do futuro de acordo com o Fórum Econômico Mundial? Nesse contexto, as profissões consideradas como promissoras para o futuro abrangem na sua grande maioria especialidades de TI:   Você também pode gostar – Qual a responsabilidade prática da TI na era do Big Data?  Como se destacar nesse contexto de trabalho em TI? 3 principais dicas. Domine ou ao menos conheça as tecnologias emergentes No mercado atual, as tecnologias emergentes têm um papel fundamental na transformação digital das empresas. Conhecer os seus conceitos e aplicações pode alavancar a sua carreira e abrir portas em diferentes áreas de TI. Separamos algumas delas para você colocar no seu radar: Aprofunde-se por aqui – Machine learning e inteligência artificial na área de TI: o que esperar do futuro? Aprofunde-se por aqui: O que é Edge Computing e qual a sua finalidade? Conhecer o básico sobre Qubits, superposição e entrelaçamento quântico pode posicioná-lo à frente no campo de computação de alta performance. Aprofunde-se por aqui: Afinal, você sabe o que está por trás da computação quântica? Aprofunde-se por aqui: Qual a diferença entre realidade aumentada, virtual e mista?   Ser um especialista de ao menos uma dessas tecnologias é uma excelente estratégia de carreira. Além dessas tecnologias emergentes, existem diversas outras, bem como outros temas interessantes para a TI atual. É o caso da arquitetura de malha cibernética, das pautas de ESG (Environmental, Social and Governance) e o sempre presente big data. 2) Estude sobre o potencial das metodologias ágeis de trabalho As metodologias ágeis revolucionam a maneira como os times de TI trabalham, pois possibilitam entregas mais rápidas e eficientes, com foco na colaboração contínua e na adaptação às mudanças.  Se você ainda não se debruçou sobre esses conceitos, experimente adotá-los na sua rotina a partir das principais abordagens:  Scrum Refere-se a uma das metodologias ágeis mais populares do mundo corporativo, permitindo a gestão de projetos em sprints curtos, com ciclos de feedback constantes. Times que usam Scrum podem entregar funcionalidades de forma incremental, ajustando o escopo conforme necessário. Kanban: Muito utilizado no desenvolvimento de software e em operações de TI, o Kanban visa aumentar a eficiência por meio da visualização de tarefas em um quadro, permitindo que equipes gerenciem fluxos de trabalho de forma contínua e sem sobrecarga. Lean:  O Lean Development é inspirado na manufatura enxuta e foca na eliminação de desperdícios, otimização de processos e aumento da entrega de valor para o cliente final. 3) Mapeie quais soft skills são visadas pelo mercado e trace um plano de desenvolvimento Habilidades técnicas são cruciais, mas cada vez mais as soft skills são fatores determinantes para o sucesso de um profissional de TI. A capacidade de colaborar, comunicar e liderar equipes, especialmente em ambientes remotos ou híbridos, tornou-se imprescindível há algum tempo. Nesse sentido, certas competências aparecem como relevantes para a solidez de uma carreira na área, como:  __________________________________ Além dessas, diversas outras dicas podem te ajudar a alavancar a carreira em TI. Para isso: Fique por dentro de outras novidades de TI no nosso blog (toda semana produzimos um novo tema)!


    31/10/2024
  • Privacidade e segurança de dados em TI
    Segurança

    Práticas de privacidade e segurança de dados em TI: considerações e como fazer!

    A cibersegurança tem se tornado uma das principais áreas da TI, sobretudo por causa do crescimento acelerado das ameaças virtuais no meio corporativo. Por isso, adotar práticas de privacidade e segurança de dados eficientes passa a ser uma prioridade para a maior parte das empresas. Você sabe como fazer isso? De acordo com o relatório da Uni42, unidade de pesquisa da Palo Alto Networks, o Brasil registrou o maior índice de ataques cibernéticos da América Latina em 2023, destacando-se como o epicentro dessas práticas criminosas na região. O estudo identificou, ainda, que o país foi o mais vulnerável a ataques hackers entre os representantes latinos pelo terceiro ano consecutivo, com o registro do aumento dessas inconsistências em 56,4% de 2021 a 2023. Entre as inúmeras formas de comprometimento das tecnologias dos negócios, sejam elas em superfície física ou em nuvem, algumas chamam a atenção dos especialistas pela sofisticação e escalabilidade. É o caso, por exemplo: Diante desse cenário, os times de TI precisam desenvolver, com agilidade, uma gestão de dados e compliance robusta, adequando as atividades das empresas ao que orienta as principais regulamentações do mercado, como a LGPD, DORA, GDPR, CCPA, SOX, PCI e HIPAA, entre outras. Além disso, um bom exemplo dessa exigência é a inteligência artificial (IA) e seus contornos, tendo em vista que ela não representa mais uma tecnologia do futuro, já que está transformando vidas e negócios agora, no presente. Mais de 25% das organizações já utilizam cinco ou mais aplicativos de IA diariamente, desse modo, para as equipes de tecnologia, é necessária uma atenção plena às novas tecnologias e demandas de mercado. Como se sabe, a inteligência artificial (IA) e a proteção de dados estão intimamente relacionadas, pois o treinamento de algoritmos de IA muitas vezes demanda grandes volumes de dados, incluindo dados pessoais. Assim, o objetivo por trás da estratégia de fortalecer esses campos – o da privacidade e ética no uso de dados, além da segurança da informação – é claro: minimizar os prejuízos que as organizações enfrentam quando passam por eventos cibernéticos adversos.  Segundo o estudo Global Cybersecurity Outlook 2024, do World Economic Forum, mais de um terço das organizações sofreu um incidente cibernético causado por malfeitores em 2023. Empresas que possuem a proteção de dados e o respeito à privacidade e ética dos dados consolidados, tendo a tecnologia da informação (TI) como parceira, usufruem de uma série de benefícios em relação àquelas que não se preparam para o novo contexto digital. Agora, os usuários estão mais atentos a como os negócios utilizam suas informações, assim como há um aumento exponencial das superfícies de ataque e dos pontos de vulnerabilidade suscetíveis aos mais variados cibercrimes. Ou seja, privacidade, ética e adequação no uso de dados, além de campos em ascensão na TI – como a inteligência artificial –, são a demanda do presente e do futuro dentro das empresas. Neste conteúdo, vamos conversar mais sobre regulação, gestão e segurança de dados, além da privacidade dessas informações. Por que é importante que empresas e profissionais de TI se especializem em privacidade, segurança e ética no uso de dados? Ter um olhar cuidadoso para a privacidade e a ética no uso das tecnologias, sobretudo as relacionadas com o tratamento de dados, é uma demanda urgente dos negócios. As novas dinâmicas sociais, que se destacaram com a transformação digital acelerada pela pandemia de Covid-19, não só exigem um posicionamento das organizações diante do uso de dados, como enfraquecem o branding de empreendimentos que não possuem políticas de transparência em suas operações.  A partir de 2020 e da necessidade de distanciamento social, a digitalização das empresas e das transações cresceu de forma exponencial. De acordo com a 33ª edição da Pesquisa Anual sobre o Mercado Brasileiro de TI e Uso nas Empresas, divulgada pela FGV, por exemplo, a antecipação do processo de transformação digital por causa dos contornos da crise sanitária foi o equivalente ao esperado para o período de um a quatro anos. Na época, computadores, notebooks, tablets e smartphones superaram, somados, a expressiva marca de 447 milhões de unidades no país. Ou seja, a demanda por redes e soluções digitais cresceu significativamente. Com isso, foi preciso viabilizar novos modelos de negócios que exigiam também investimento em TI. Diante de tantas mudanças, as empresas passaram a ser cada vez mais confrontadas com a demanda de adaptação a políticas de uso e tratamento de dados adequadas. Afinal, esses insumos agora apresentavam-se em quantidades inéditas e impressionantes. Assim, ao optar por caminhar com as transformações do contexto, priorizando processos, ações, planejamento estratégico e indicadores voltados para a ética, a transparência e a proteção de dados, as empresas gozam de inúmeras vantagens, como:  Além dos benefícios previamente mencionados, o reconhecimento e a ênfase na privacidade, na ética e na segurança da informação resultam na preservação de ativos valiosos dos negócios, tanto internos quanto externos, mitigando gastos com redução de danos e respostas a incidentes. Nesse contexto, torna-se indispensável contar com setores de TI altamente sistematizados e focados no contínuo desenvolvimento dos princípios de segurança da informação e em sua diferenciação entre privacidade e proteção de dados.  Você também pode gostar – Cloud storage: o que é e qual sua importância para o cenário de dados atual? Qual a diferença prática entre privacidade, proteção de dados e segurança da informação? Ao nos aprofundarmos na essência da “privacidade, proteção de dados e segurança da informação”, é crucial que compreendamos como esses conceitos se entrelaçam e, ao mesmo tempo, se distinguem em práticas cotidianas da TI. A “privacidade”, como destacado anteriormente, refere-se ao direito de um indivíduo de controlar suas informações pessoais e de decidir como, quando e onde essas informações podem ser acessadas e compartilhadas. É um conceito intimamente associado à proteção dos dados pessoais, especialmente no contexto das tecnologias digitais.  Na prática, seus principais aspectos incluem: Já a “proteção de dados pessoais (ou privacidade de dados)” é definida como um subconjunto da privacidade, que se concentra especificamente na proteção das informações pessoais identificáveis (PII). É regida por legislações específicas, como a General Data Protection Regulation (GDPR), na Europa, e a Lei Geral de Proteção de Dados (LGPD), no Brasil, e tem como aspectos essenciais os discriminados a seguir:  Por fim, a “segurança da informação” envolve a proteção dos dados contra ameaças, garantindo a integridade, confidencialidade e disponibilidade da informação. Abrange a implementação de medidas e práticas que assegurem que os dados sejam acessados somente por pessoas autorizadas e que estejam protegidos contra perdas ou modificações. Seus três principais pilares são conhecidos pela sigla CIA: Além disso, a segurança da informação também envolve gestão de riscos, plano de resposta a incidentes e auditorias de segurança, estratégias para minimizar possíveis ameaças e lidar com elas. O entendimento prático desses conceitos contribui para a construção de uma abordagem holística em TI.   Seja para fornecer suporte eficaz aos usuários em suas necessidades de privacidade e proteção de dados, seja para resguardar os ativos mais preciosos de uma empresa, o profissional de TI desempenha um papel estratégico, sendo o responsável por perfectibilizar as ações e políticas de proteção e por estruturar uma segurança da informação eficiente. E como identificar a efetividade da segurança da informação de um negócio? É o que vamos destrinchar agora. Você também pode gostar – Governança corporativa: princípios e boas práticas para adotar em 2024.  Resumo das diferenças e relações entre os conceitos Para detalhar o que conversamos anteriormente, podemos resumir as diferenças e as relações existentes entre os três conceitos: privacidade, proteção de dados pessoais e segurança da informação.   Todos os conceitos se interligam, de modo que a privacidade é protegida por meio de boas práticas de segurança da informação, e a proteção de dados pessoais garante que os direitos individuais, em relação aos seus dados, sejam respeitados e assegurados. Você também pode gostar – Previsões de cibersegurança: o que esperar no segundo semestre do ano e início de 2024? As 5 principais regulações do mercado Nessa perspectiva de desenvolvimento de recursos que se preocupam com a privacidade e a segurança dos dados, diversas normatizações e regulamentações globais foram estruturadas, definindo padrões para o tratamento e a proteção de dados pessoais. Conhecê-las é essencial para quem deseja trabalhar com privacidade e segurança de dados. Inspirada no GDPR europeu, a LGPD regulamenta o tratamento de dados pessoais de indivíduos no Brasil, estabelecendo princípios como transparência, segurança e o consentimento dos titulares dos dados. Foi implementada em agosto de 2018, mas entrou efetivamente em vigor em 2020. Desde então, as empresas precisam garantir a conformidade da sua gestão de dados com o que está disposto na norma, principalmente para potencializar a segurança da informação e a não aplicação de penalidades. Uma das regulamentações mais rigorosas do mundo, a GDPR protege a privacidade dos dados pessoais dos cidadãos da UE, impondo severas penalidades a seu não cumprimento e exigindo práticas robustas de confidencialidade da informação. O CCPA é uma lei estadual que oferece aos residentes da Califórnia, por exemplo, o direito de saber como seus dados pessoais são coletados e utilizados, bem como o direito de acessar e excluir suas informações pessoais Os Princípios Atualizados sobre Privacidade e Proteção de Dados Pessoais, como instrumento de soft law interamericano, visam servir aos estados-membros da organização como pontos de referência para o fortalecimento de seus respectivos marcos legais na matéria e orientar o desenvolvimento coletivo da região rumo a uma proteção harmônica e eficaz dos dados pessoais. Essa regulamentação protege informações de saúde sensíveis, exigindo padrões de segurança rigorosos para salvaguardar dados médicos e pessoais, além de estabelecer parâmetros para uso, divulgação e proteção de informações de integridade individualmente identificáveis. Como implementar práticas de privacidade e segurança de dados em TI em conformidade com as regulações? Implementar práticas robustas de proteção de dados, privacidade e segurança de dados é essencial para cumprir as regulamentações e salvaguardar as informações sensíveis de ameaças.  Existem algumas dicas que podem facilitar esse processo, e você encontra todas elas no novo ebook gratuito da Escola Superior de Redes.  >> Baixe agora o ebook “9 passos para implementar práticas de privacidade e segurança de dados em TI em conformidade com as regulações” <<


    24/10/2024
  • Realidade Aumentada
    Métodos Ágeis e Inovação

    O impacto da realidade aumentada na educação e no treinamento em TI

    Há oito anos, o Pokémon Go popularizava os recursos da realidade aumentada (RA) e se preparava para ser um dos games mais rentáveis da história. Depois de seu lançamento por John Hanke, em julho de 2016, o jogo movimentou a bilheteria desse mercado e foi baixado em milhares de smartphones, além de ter envolvido usuários de diferentes faixas etárias na sua narrativa de caça aos personagens da saga japonesa.  De acordo com a última análise de dados sobre o desempenho do aplicativo, publicada em 2022 pela Sensor Tower, o Pokémon Go teria ultrapassado, àquela época, a marca de 6 bilhões de dólares, com uma taxa de rendimento de, em média, US$ 1 bilhão ao ano, desde o seu lançamento. Esse sucesso representou não só uma virada de chave no cenário dos jogos, como deu visibilidade ao potencial da RA nos mais diversos segmentos.  Na prática, a realidade aumentada é descrita como uma tecnologia que sobrepõe imagens digitais no ambiente real como forma de enriquecer a experiência do usuário, mesclando o mundo físico e tátil com elementos virtuais (objetos, personagens etc.) que podem interagir com o espaço ao redor em tempo real. Embora a ferramenta só tenha sido proposta com esse nome – realidade aumentada (RA) – em 1992, por Thomas P. Caudell, durante o desenvolvimento do Boeing 747, suas bases históricas datam de bem antes.  Em 1901, o escritor de O Mágico de Oz, L. Frank Baum, no conto “The Master Key”, descreve um presente dado ao personagem principal da obra – um par de óculos eletrônicos capaz de mostrar informações adicionais sobre as pessoas. Tem-se que essa foi a primeira menção, ainda que de forma futurista e abstrata, do que viria a se tornar o recurso tecnológico. Atualmente, a realidade aumentada e a inteligência artificial são consideradas as grandes tendências do universo da tecnologia, tendo o protótipo Orion Glass, da Meta, como o mais novo avanço relacionado com a primeira inovação. Segundo a Meta, o Orion Glass representa a evolução dos óculos de realidade aumentada, já que une o mundo físico ao virtual com uma projeção de imagens em um cone de até 70º. Com ele, a empresa pretende dar um grande salto na computação orientada para o ser humano, possibilitando experiências digitais que não estão restritas aos limites da tela de um smartphone. Embora ainda se trate de uma versão de teste, o Orion Glass demonstra o potencial de interação que a realidade aumentada vai estabelecer com atividades rotineiras nos mais variados mercados, inclusive no de treinamentos. A seguir, vamos conversar com mais detalhes sobre o uso da RA em um desses nichos: o da educação em TI. Você também pode gostar – Machine learning e inteligência artificial na área de TI: o que esperar do futuro?  O que é realidade aumentada? Como mencionamos anteriormente, a realidade aumentada representa uma tecnologia capaz de integrar um conteúdo virtual ao ambiente real, ou seja, por meio da conexão entre software e hardware, a RA sobrepõe elementos virtuais ao mundo real, proporcionando uma experiência 3D transformadora ao usuário. Trata-se de uma versão aprimorada e interativa do espaço físico, obtido com a ajuda de elementos visuais e sonoros, além de estímulos sensoriais digitais por intermédio de uma tecnologia holográfica. O funcionamento da realidade aumentada demanda, essencialmente, os seguintes componentes:  Componentes Explicação Câmeras, lentes e dispositivos Capturam o ambiente real e integram elementos virtuais à imagem, permitindo que o usuário visualize o conteúdo aumentado e interaja com ele. Sensores Detectam a posição, o movimento e a orientação do dispositivo para alinhar, com precisão, os objetos virtuais ao mundo real. Computação Processa as informações coletadas pelos sensores e câmeras para gerar e renderizar os elementos de RA em tempo real. Gêmeo digital Réplica 3D digital de um objeto, armazenada na nuvem, que pode ser visualizada e manipulada pela RA. Download das informações pelo dispositivo de realidade aumentada O dispositivo baixa os dados necessários (como gêmeos digitais ou informações contextuais) para integrar e apresentar elementos virtuais. Inteligência artificial e dados em tempo real que vêm dos produtos A IA processa dados em tempo real, permitindo que o usuário interaja de forma inteligente e adaptativa com os elementos virtuais. Ficou mais fácil compreender? Além do conceito, é fundamental que os profissionais de TI e os interessados na área reconheçam as diferenças existentes entre realidade aumentada (RA), realidade virtual (RV) e realidade mista (RM). É isso que vamos destrinchar a partir de agora.  Você também pode gostar: 5 dicas para crescer na carreira de governança de TI Qual a diferença entre realidade aumentada, virtual e mista? Vamos abordá-las a partir de agora: 1) Realidade aumentada Recordando o já exposto, sabemos que a realidade aumentada (RA) consiste na sobreposição de elementos digitais ao ambiente físico real. A RA utiliza dispositivos como smartphones, tablets e óculos especiais para integrar gráficos, textos ou outros tipos de dados ao mundo ao nosso redor, enriquecendo a percepção do ambiente. Além do clássico e abordado anteriormente Pokémon Go, em que personagens virtuais são visualizados e interagem com o mundo real por meio da tela do celular, o aplicativo IKEA Place também pode ser enquadrado como representante da RA. Com ele, os usuários podem visualizar móveis e objetos de decoração em seus próprios ambientes antes de comprá-los. 2) Realidade virtual Enquanto isso, a realidade virtual (RV) envolve a criação de um ambiente totalmente digital, no qual o usuário é imerso com a ajuda de dispositivos, como óculos de RV. Diferente da RA, a RV substitui completamente o ambiente físico, propondo que o usuário explore um mundo criado digitalmente e interaja com ele. É comumente utilizada em jogos, simulações de treinamento e experiências imersivas, nos quais a sensação de presença em um ambiente alternativo é fundamental. 3) Realidade mista Já a realidade mista (RM) combina elementos tanto da RA quanto da RV, criando uma interação mais sofisticada entre o mundo real e o virtual. Na RM, objetos virtuais não só aparecem no ambiente real, mas também interagem com ele de maneira mais complexa. Isso significa que um objeto digital pode ser influenciado por condições do mundo físico, como a iluminação ou a presença de outros objetos. Esse tipo de tecnologia é visto em dispositivos avançados, como o Microsoft HoloLens, por meio do qual o digital e o físico se fundem para criar experiências altamente interativas. Cada uma dessas tecnologias tem as próprias aplicações e potencial de transformar setores, como educação, entretenimento, saúde e indústria. Qual a relação entre a RA e a educação? Na educação, a realidade aumentada (RA) apresenta-se como um recurso tecnológico inovador, responsável por proporcionar uma dimensão inédita ao ensino e ao aprendizado. Por intermédio da interação desses campos, o ambiente educacional se torna dinâmico e mais completo, além de atrativo.  A possibilidade de sobrepor elementos virtuais aos localizados na esfera do real resulta no detalhamento de conceitos complexos e em maior interatividade com os estudos teóricos, assim como em maior participação. No trabalho acadêmico “Além da lousa: explorando o potencial da realidade aumentada no ambiente educacional”, os autores reverberam e destacam essa agregação de capacidades:   Um aspecto crucial na aplicação da Realidade Aumentada na educação é a sua capacidade de adaptar-se a diferentes estilos de aprendizagem. ARAPI (Aprendizagem por Realidade Aumentada e Processo de Inovação), por exemplo, é um modelo pedagógico que integra a RA ao processo de ensino e aprendizagem, considerando as características individuais dos alunos e promovendo uma abordagem personalizada (WU, LEE, CHANG, & LIANG, 2013). Essa adaptação à diversidade de estilos cognitivos dos estudantes pode resultar em uma maior eficácia no processo de ensino. Ademais, a Realidade Aumentada não se restringe apenas ao ambiente acadêmico  tradicional. No campo da educação a distância, a RA oferece possibilidades inovadoras, superando as barreiras físicas e promovendo a interação em ambientes virtuais (DUNLEAVY, DEDE, & MITCHELL, 2009). Através de aplicativos e dispositivos móveis, os alunos podem acessar conteúdos enriquecidos pela RA, participando de atividades práticas mesmo a distância (MEROTO et. al, 2024)* *MEROTO, Monique Bolonha das Neves; GUIMARÃES, Christiane Diniz; SILVA, Claudia Kreuzberg da; SILVA, Dinaléia Araújo da; ARAÚJO, Fábio José de; SÁ, Gilmara Benício de; CARVALHO, Ianan Eugênia de; BEZERRA, Olinderge Priscilla Câmara. Além da lousa: explorando o potencial da realidade aumentada no ambiente educacional. Revista Foco, v. 17, n. 1, p. 50, 2023. DOI: 10.54751/revistafoco.v17n1-050. Disponível em: https://ojs.focopublicacoes.com.br/foco/article/view/4114/2891. Acesso em: 16 ago. 2024. Como a realidade aumentada pode ser aplicada e trazer benefícios para o ensino e a aprendizado em TI? Afunilando a análise de interseção entre educação e RA, no campo da Tecnologia da Informação (TI), observamos que a tecnologia oferece um conjunto vasto de possibilidades que podem transformar a maneira como os profissionais aprendem e se desenvolvem. A RA facilita a compreensão de conceitos complexos, aprimora a interatividade durante o aprendizado e proporciona experiências imersivas que são difíceis de reproduzir por meio de métodos tradicionais. Veja alguns exemplos: Em instituições que não dispõem de recursos avançados ou em programas de ensino a distância, em que o acesso a laboratórios físicos pode ser limitado, essa característica é bastante útil. Por exemplo, eles podem ser desafiados a “consertar” uma rede em um ambiente de RA, em que cada etapa superada representa uma fase do jogo, promovendo uma aprendizagem mais divertida e motivadora. A realidade aumentada, ao ser integrada ao ensino e ao aprendizado em TI, promove uma educação prática, interativa e adaptável às necessidades dos profissionais. Uma vez que ela supera antigos desafios de compreensão, apresentando novas possibilidades de ensino, também transforma toda a área de TI, uma forma mais eficaz para enfrentar os percalços do mercado. __________________________________ ESR: a sua fonte de informação atualizada sobre o universo da TI Para conferir o lançamento de cursos, dicas e tendências do mercado de TI acompanhe a Escola Superior de Redes – no site, LinkedIn e Instagram.  Deseja saber mais sobre um tema específico? Indique-o nos comentários! Por aqui publicamos um novo conteúdo por semana. Fique por dentro em: https://esr.rnp.br/blog


    17/10/2024
  • O que é edge computing
    Computação em Nuvem

    O que é Edge Computing e qual a sua finalidade?

    O que está por trás do universo da Edge Computing e por que você deveria saber disso? É o que vamos abordar a partir de agora, por meio do seguinte guia:  A tecnologia Cloud Computing representou uma mudança de paradigma sem precedentes, traduzida na troca significativa dos ativos sistêmicos proprietários por serviços em nuvem. O recurso – cujo termo foi utilizado pela primeira vez em 1996 – oferecia benefícios importantes para os setores de tecnologia e para as empresas em geral, como a redução dos custos e a simplificação de questões de pessoal de TI. Por esse motivo, não demorou para se popularizar e figurar como uma das principais formas de utilização para a sistematização dos processos de negócios do mundo.  A exemplo disso, os gastos com produtos de infraestrutura de computação e armazenamento para implementações em nuvem aumentaram 36,9% no primeiro trimestre de 2024, chegando aos 33 bilhões de dólares (178,5 bilhões de reais). Os dados, divulgados pelo relatório Worldwide Quarterly Enterprise Infrastructure Tracker, da IDC, fizeram a empresa estimar também que os gastos totais com esses recursos serão de 138,3 bilhões de dólares até dezembro, um aumento de 26,1% em relação a 2023. No mesmo sentido, o Relatório Global Tech Trends 2024, da Red Hat, identificou que uma das principais preocupações dos líderes de tecnologia, atualmente, está associada à otimização da nuvem. Na pesquisa do Red Hat mencionada anteriormente, mostrando os cinco principais resultados, essas foram as respostas encontradas para o questionamento: “Nos próximos 12 meses, quais são as principais prioridades de investimento no gerenciamento geral da TI em sua empresa?” Nesse cenário efervescente, a Edge Computing surge como uma resposta à demanda crescente por avanços e inovação tecnológica não apenas para complementar a infraestrutura de nuvem existente, mas para expandir as suas possibilidades. Você também pode gostar – Computação quântica: o que podemos esperar dessa tecnologia e quais suas tendências?  O que é Edge Computing? Uma das principais tendências de tecnologia do mercado, a Edge Computing (Computação de Borda) representa uma perspectiva de computação em nuvem que funciona por meio da descentralização. Por esse motivo, a inovação consegue lidar com uma maior quantidade de dados e dispositivos conectados sem comprometer o seu desempenho. Diferentemente da Cloud Computing tradicional, na qual os dados são enviados para um conjunto de servidores centrais, processados e mandados de volta para o dispositivo utilizado pelo usuário, na Edge Computing, esse recurso ocorre por meio de gateways, ou seja, os gateways operam como “máquinas intermediárias”, posicionadas mais próximas dos locais em que o aparelho se encontra, e são responsáveis por analisar as informações em um tempo de resposta e carga de trabalho dos servidores reduzido. Trata-se, portanto, de um recurso que visa aproximar o processamento de dados dos dispositivos e dos usuários finais, sendo uma excelente alternativa para um contexto permeado cada vez mais por dispositivos e aplicações guiadas pela Internet das Coisas (IoT). Para lidar com o fluxo crescente de informações e pontos conectados à rede, a Edge Computing descentraliza o armazenamento e o processamento de informações, desobstruindo a nuvem. Assim, podemos defini-la como uma arquitetura de computação distribuída que traz o processamento e o armazenamento de dados para mais perto da fonte na qual esses dados são gerados, como sensores, dispositivos IoT ou outros aparelhos conectados. Como resultado, há uma resposta mais rápida e eficiente, além de uma latência otimizada, o que alivia a carga sobre os data centers centrais e a torna ideal para aplicações que exigem processamento em tempo real e alta disponibilidade. Você também pode gostar – 8 etapas para implementar uma estratégia eficaz de computação em nuvem   Quais problemas a Edge Computing visa mitigar?  Para compreender o conceito e a que se propõe a Edge Computing, é necessário observar três aspectos associados ao funcionamento da internet, quais sejam:  Juntos, esses três pontos configuram uma base importantíssima de atenção à condução de negócios, uma vez que a tolerância dos consumidores para o tempo de resposta de uma conexão é de 2 a 3 segundos. Isso significa dizer que, em uma compra on-line, qualquer comprometimento em alguns dos aspectos mencionados anteriormente poderá refletir no abandono da operação, bem como em prejuízos financeiros que podem até ser significativos para as empresas.  Nesse contexto e tendo em vista a implementação do 5G, que possibilita reduzir a latência e torna a internet cada vez mais complexa, mais rápida e eficiente, a Edge Computing promete driblar esses desafios, reduzindo a distância entre a fonte de dados e o processamento, o que minimiza os impactos do congestionamento e da largura de banda limitada. Dessa forma, a experiência do usuário passa a ser priorizada, por meio de uma conexão mais rápida e confiável mesmo em situações de alta demanda.  Além disso, com a Edge Computing, operações críticas, como compras on-line, reconhecimento facial, processamento pesado de vídeos, cirurgias remotas, carros autônomos, etc., podem ser viabilizadas em uma sistemática de funcionamento efetiva e eficiente. Na prática, na “computação de borda”, ao invés de haver um parque de servidores central, o processo é descentralizado e os servidores agora ficam alocados mais próximos de onde os dados são gerados – algo como na figura abaixo:  A edge computing aproxima a fonte de dados e o processamento, resultando em uma conectividade mais consistente, rápida e sem congestionamentos. Objetivos da edge computing  Com a proposta de trazer os servidores para mais perto de quem precisa processar os dados, a Edge Computing reduz a latência, aprimora o desempenho das aplicações e permite maior eficiência em sistemas de TI, especialmente em áreas como IoT e automação industrial.  Veja outros objetivos e benefícios dessa tecnologia:  ● Dar respostas rápidas a problemas complexos; ● Possibilitar o funcionamento de parques industriais com muitas máquinas autônomas que demandam respostas rápidas dos servidores; ● Otimizar as cadeias varejistas que intercalam controle de estoque, promoções em lojas físicas e e-commerce; ● Facilitar o uso de dispositivos IoT ao garantir que, quando conectados, possam operar de forma eficiente e em tempo real, sem depender de conexões de longa distância; ● Aprimorar a segurança dos dados, de modo que informações sensíveis sejam processadas localmente, reduzindo a exposição e os riscos associados ao seu envio para servidores distantes; ● Melhorar a experiência de realidade aumentada e virtual, por meio da latência mínima e do processamento rápido, essenciais para aplicações imersivas; ● Oferecer suporte a redes de veículos autônomos, por meio de uma comunicação rápida e eficiente entre estes e infraestruturas rodoviárias; ● Otimizar as redes de telecomunicação ao distribuir o processamento para aliviar a carga nos data centers centrais, o que melhora a qualidade do serviço; ● Facilitar o monitoramento e o controle do processamento de dados em tempo real; ● Garantir a continuidade de serviços em áreas remotas em que a conectividade à internet pode ser limitada ou intermitente. Qual a diferença entre Cloud Computing e Edge Computing? Embora tanto a Cloud Computing quanto a Edge Computing sejam pilares essenciais na transformação digital e da nuvem, elas se diferenciam, principalmente, em relação a como e onde o processamento de dados ocorre. Além disso, possuem divergências quanto aos seus objetivos quando contratadas por empresas. Enquanto a Cloud Computing oferece uma solução que terceiriza parques de servidores e todas as suas atribuições (segurança, manutenção, pacote de produtos), representando uma mitigação de dados e pessoal, a Edge Computing visa garantir a disponibilidade de servidores parrudos para armazenar e processar dados complexos mais perto de onde eles são capturados/gerados. Essa distinção impacta diretamente aspectos como latência, segurança e eficiência, tornando cada tecnologia mais adequada para diferentes tipos de aplicação. Veja os destaques na tabela abaixo: Cloud Computing Edge Computing Localização do processamento Data centers centralizados e remotos Próximo à fonte de dados Latência Geralmente é maior por causa da distância entre usuário e servidor Menor, pois o processamento ocorre próximo ao usuário Escalabilidade Altamente escalável, com recursos virtualmente ilimitados Escalabilidade limitada ao hardware disponível na borda Segurança Maior risco de exposição durante o trânsito de dados Maior segurança, com processamento e armazenamento local dos dados Conectividade Depende fortemente de uma conexão de internet robusta Pode funcionar em áreas com conectividade limitada ou intermitente Aplicações típicas Processamento de grandes volumes de dados, armazenamento a longo prazo Aplicações em tempo real, IoT, AR/VR, veículos autônomos, etc. Principais diferenças entre a cloud computing e a edge computing Você também pode gostar – Projeto de cabeamento estruturado: por que ele é tão importante para redes de alta velocidade? __________________________________________________ Entendemos, por fim, que o tema Edge Computing representa um avanço significativo na forma como processamos e gerenciamos dados, sendo uma opção efetiva às limitações da Cloud Computing tradicional. Em contextos que exigem baixa latência e processamento em tempo real, por exemplo, é um recurso interessantíssimo, pois é capaz de reduzir a distância entre a origem dos dados e o processamento deles. Além disso, com o crescimento exponencial de dispositivos conectados e a expansão da tecnologia 5G, essa abordagem descentralizada promete continuar transformando setores inteiros, desde o varejo até a indústria automotiva, assegurando operações mais eficientes e uma experiência superior do usuário. Para se ter uma ideia da aposta do mercado na direção dessa tecnologia, de acordo com a Associação Brasileira de Internet (Abranet), em 2024, 60% dos mais de 157 ZB alcançados no universo de dados estarão concentrados nos endpoints e em Edge Computing. Assim, à medida que a internet fica complexa e as demandas por conectividade aumentam, entender e implementar soluções de Edge Computing se torna um processo natural, além de fundamental para que as empresas permaneçam competitivas e inovadoras em um mercado global cada vez mais dinâmico e exigente. ___________________________________ Você está preparado para atuar em um novo setor de TI?  A cada semestre, a Escola Superior de Redes, a maior referência em ensino para o setor há mais de 18 anos, abre novas turmas de aprendizado em TI sobre os mais variados temas. Conheça todas as turmas da ESR e prepare-se para atualizar seu escopo de trabalho.


    10/10/2024
  • Arquitetura zero trust
    Segurança

    Arquitetura Zero Trust: 5 passos para implementar a abordagem na TI

    Uma das importantes e recentes previsões do Gartner sobre cibersegurança envolve a estimativa de que, até 2026, 10% das grandes empresas terão um programa abrangente, maduro e mensurável de confiança zero em vigor, algo mais significativo do que os menos de 1% de hoje. Esse cenário pode ser facilmente explicado por causa da acelerada sofisticação e abrangência dos crimes virtuais que vêm ocorrendo nos últimos anos. De acordo com um relatório da Kaspersky, somente nos primeiros meses de 2024, o Brasil registrou mais de 106 mil detecções de ransomware, com cerca de 6,5 mil dessas tentativas direcionadas para o setor da saúde. Para driblar esse desafio, a Arquitetura de Confiança Zero (Zero Trust) aparece como uma estratégia de segurança cibernética que atua por meio de políticas de segurança aplicadas com base em um contexto estabelecido. Diante disso, o modelo leva em consideração controles de acesso de privilégio mínimo e uma autenticação estrita do usuário. Ou seja, trata-se de uma abordagem pautada na ausência da confiança presumida, que tem como principal expressão a máxima “nunca confie, sempre verifique”.  Neste conteúdo, vamos nos aprofundar no tema e descobrir os passos básicos para implementar uma dinâmica de confiança zero na TI. Boa leitura! Leia também: O que são ataques de phishing e como evitá-los? O que é Arquitetura Zero Trust? Ao demandar flexibilidade, adaptabilidade e agilidade das empresas, a transformação digital abriu espaço não só para que as tecnologias se desenvolvessem em escala, como também os crimes virtuais. Dessa forma, à medida que as ameaças cibernéticas se tornaram mais complexas, e tendo em vista que modelos tradicionais de segurança – aqueles baseados em perímetros protegidos – são insuficientes, as empresas buscaram novas abordagens para garantir a segurança de suas redes e dados. Nesse contexto, a Arquitetura Zero Trust (ou Arquitetura de Confiança Zero) ganha destaque ao adotar o princípio do acesso com privilégio mínimo, assegurando que cada conexão e transação dentro da rede seja validada/autorizada constantemente. O termo foi criado em 2010 por John Kindervag, analista principal e vice-presidente da Forrester Research, com o objetivo de descrever um modelo que compreendesse os riscos à segurança da informação como pertencentes tanto ao interior quanto ao exterior da rede. Em outras palavras, isso significa dizer que a Arquitetura de Confiança Zero tem como ponto de partida a crença de que existem invasores dentro e fora da rede, e que não é estratégico, nem rentável para as organizações confiar automaticamente em uma máquina ou usuário.  Assim, a popular presunção de que “tudo o que está na rede é seguro” abre espaço para um sistema que, na verdade, pressupõe a violação e verifica cada solicitação de acesso como se ela fosse originada de uma rede aberta. Na prática, o modelo de confiança zero autentica, autoriza e criptografa cada solicitação de acesso antes de concedê-la efetivamente, guiando-se pelos seguintes princípios: Princípios da Arquitetura de Confiança Zero Além desses, o National Institute of Standards and Technology (NIST) propõe oficialmente outros seis: Na prática, as análises aprofundadas dos dados que compõem os objetos de estudo da Arquitetura de Confiança Zero possibilitam que a aplicação desses princípios seja realizada, principalmente, por meio de softwares, Machine Learning e inteligência artificial (IA), ou seja, recursos capazes de detectar anomalias em tempo real, além de oferecer insights para que as equipes de TI saibam como agir em relação às inconsistências da rede.  Com essas informações, a equipe de TI pode estabelecer uma política de regras e respostas aos incidentes e, posteriormente, ainda pode automatizá-la dentro da dinâmica do ambiente digital, o que otimiza os processos de cibersegurança. Assim, dizemos que o modelo de Arquitetura de Confiança Zero pode ser definido como uma abordagem abrangente de segurança da informação, direcionado para empresas que abandonam a percepção de que a rede se torna segura depois de uma simples autenticação do usuário. De um lado, uma proteção tradicional de perímetros x, de outro, uma segurança centrada em dados, controles de acesso orientados por políticas e gestão moderna de identidade.  Por fim, nos termos do Oracle, a abordagem de confiança zero representa um modelo de segurança de TI responsável por manter dados sensíveis seguros e por contribuir para a conformidade da rede com novos regulamentos de privacidade. Trata-se, também, de um modelo que atua contra o potencial comprometimento ou roubo de credenciais por um administrador ou aplicação privilegiada. Em um cenário composto por criminosos cibernéticos que sabem como violar firewalls, VPNs, controles de acesso, IDS, IPS, SIEMs e gateways de e-mail, que têm credenciais corretas e admitidas em sites, aplicações ou dispositivos de qualquer rede, a Arquitetura de Confiança Zero oferece uma estratégia inovadora para mitigar os efeitos negativos da confiança implícita nas redes tradicionais. “A confiança zero permite que as organizações regulamentem o acesso a sistemas, redes e dados sem desistir do controle”. – Oracle Por meio dela, a segurança é executada desde o início, além de ser necessária a verificação de todos os usuários que tentam obter acesso aos recursos de uma empresa e rede. Há um processo de validação de identidades de usuários, direitos de acesso associados a um sistema específico e gerenciamento adequado de identidades digitais dos usuários. Para reforçar a autenticação, a Arquitetura de Confiança Zero rastreia as atividades do usuário, cria relatórios sobre essas atividades e aplica políticas para garantir a conformidade delas, além de implementar recursos fundamentados em camadas precisas de controle de acesso: Leia também: Principais tipos de backup e qual é o ideal para a sua empresa Como implementar uma estratégia de Arquitetura Zero Trust? Executar uma Arquitetura de Confiança Zero requer uma abordagem estratégica e coordenada que inclua a integração de tecnologias, políticas e práticas de segurança focadas em proteger cada ativo dentro da rede.  A seguir, estão os principais passos para se criar um ambiente de confiança zero eficaz: 1) Identifique e classifique todos os ativos da organização O primeiro passo está no mapeamento completo dos ativos da organização, incluindo dispositivos, dados, aplicativos e serviços em nuvem. Cada ativo precisa ser identificado e classificado com base em sua sensibilidade e importância para a empresa, o que facilita a criação de políticas de segurança específicas para cada tipo de recurso. 2) Realize uma avaliação de risco Avaliar vulnerabilidades potenciais e as ameaças cibernéticas mais comuns em seu setor ou modelo de negócio é essencial para entender os pontos fracos da rede. Um mapeamento de risco permite que a empresa se prepare para os cenários de ataque prováveis, desenvolvendo controle para minimizar esses riscos. 3) Defina e aplique políticas de segurança e autenticação Estabelecer políticas de acesso claras é um dos pilares da confiança zero. Essas políticas garantem que apenas os usuários autorizados e os dispositivos autenticados possam acessar a rede, levando em conta fatores como localização, horário e o nível de sensibilidade do dado ou recurso acessado. 4) Implemente controles de segurança Utilize ferramentas como firewalls e sistemas de detecção e prevenção de intrusão (IDS/IPS), além da segmentação da rede, para garantir uma proteção robusta. A segmentação minimiza o movimento lateral de invasores dentro da rede, limitando o impacto de um ataque. 5) Monitore continuamente a rede Uma característica fundamental da Arquitetura Zero Trust é a verificação contínua. A rede deve ser constantemente monitorada em busca de anomalias ou ameaças potenciais, por meio de tecnologias como Machine Learning, para detectar comportamentos suspeitos e responder rapidamente a eles. Componentes críticos da implementação a) Ter a identidade como ponto crítico A gestão de identidade é crucial, já que representa a principal porta de entrada para ameaças. Por isso, a verificação contínua de identidades, dispositivos e aplicativos assegura que apenas os recursos autorizados continuem acessando a rede. Técnicas de controle de acesso condicional ajudam a definir regras e ajustar os níveis de risco em tempo real. b) Avaliar a conformidade e a segurança dos dispositivos Dispositivos desatualizados podem ser alvos fáceis para ataques. Assim, é fundamental avaliar a conformidade e a segurança de todos os dispositivos conectados, especialmente em ambientes que adotam práticas de Bring Your Own Device (Byod) e IoT. c) Conhecer os aplicativos utilizados É essencial mapear todos os aplicativos que a empresa utiliza, tanto em nuvem quanto locais, para reduzir os riscos de inconsistência na rede. Um controle rigoroso sobre os aplicativos em uso impede que vulnerabilidades ocultas passem despercebidas. d) Segmentação de rede A segmentação ou microssegmentação limita o alcance de ataques cibernéticos, pois a superfície de ataque é reduzida e os invasores têm menos liberdade para se moverem lateralmente. e) Proteção de dados Os dados, sejam eles estruturados, semiestruturados ou não estruturados, devem ser protegidos com rigor, utilizando criptografia e controle de acesso baseado em políticas. Essa proteção garante que eles permaneçam seguros mesmo que um invasor obtenha acesso à rede. ________________________________________________________________ Conclusão Em resumo, a Arquitetura de Confiança Zero (Zero Trust) é um componente essencial da segurança da informação moderna, que oferece uma solução robusta para enfrentar as ameaças escaláveis do mundo digital. Para implementá-la, é essencial ter conhecimento especializado em segurança cibernética e em gestão contínua e dinâmica das ameaças. Ficou interessado/a? Conheça todos os cursos da Escola Superior de Redes relacionados à trilha de S-E-G-U-R-A-N-Ç-A! 


    03/10/2024
  • Adoção de Redes Wi-Fi 6
    Administração e Projeto de Redes

    Adoção de redes Wi-Fi 6 e 7: o que está por trás dessas tecnologias?

    Com a crescente demanda por conectividade mais robusta e a proliferação de dispositivos Internet das Coisas (IoT), a análise das redes Wi-Fi 6 se tornou essencial para as empresas que buscam melhorar sua infraestrutura sem fio.  Para se ter uma ideia desse cenário, de acordo com dados da pesquisa ISG Provider Lens Internet das Coisas (IoT), mais de 27 bilhões de dispositivos já estão conectados e se conversam no mundo, exigindo estruturas de redes cada vez mais avançadas. Desde a sua implementação original, iniciada em 1997, pela Wi-Fi Alliance, a internet por Wi-Fi se transforma para atender a essas exigências do mercado, incorporando diversas melhorias no seu escopo. Agora, em uma proposta relativamente recente (sexta geração), com padrão baseado no protocolo 802.11ax, a tecnologia tem o propósito de aprimorar/revolucionar a forma como nos conectamos. Na prática, isso significa dizer que as redes Wi-Fi 6 são desenvolvidas para suportar mais dispositivos conectados, mantendo a mesma performance e garantindo a integridade dos pacotes de dados. Além disso, a iniciativa impacta positivamente a eficiência, a flexibilidade e a escalabilidade dos processos cibernéticos, refletindo em avanços significativos para a experiência do usuário. São melhorias associadas à largura de banda ultra-alta, maior capacidade de acesso à rede e redução de mais de 30% no consumo de energia dos terminais. Neste artigo, vamos detalhar o que está por trás das redes de internet sem fio Wi-Fi 6 e como se preparar para as oportunidades de mercado associadas a essa inovação. Vamos também abordar o que se sabe sobre o Wi-Fi 7. Boa leitura!  Você também pode gostar – Computação quântica: o que podemos esperar dessa tecnologia e quais suas tendências?  O que muda com a 6ª geração das redes Wi-Fi? O termo Wi-Fi (abreviação da tecnologia Wireless Fidelity ou fidelidade sem fio, em português) está associado a um grupo de protocolos de rede sem fio baseados no padrão de rede IEEE 802.11. A cada geração, são introduzidas melhorias que visam aumentar a velocidade, confiabilidade e segurança das conexões. Confira as evoluções mais recentes:  De forma resumida, a nova geração de redes Wi-Fi 6 se diferencia por focar na entrega de mais desempenho em ambientes com múltiplos pontos de conexão, como empresas, estádios e aeroportos, entre outros espaços com grandes volumes de dispositivos conectados simultaneamente. Para que isso seja possível, duas tecnologias-chave entram em cena: MU-MIMO e OFDMA. Outras características importantes do Wi-Fi 6 Além de MU-MIMO e OFDMA, o Wi-Fi 6 oferece outras funcionalidades avançadas, como: Podemos, portanto, dizer que as vantagens das redes Wi-Fi 6 são divididas nas seguintes frentes: Benefícios das redes Wi-Fi 6:  Você também pode gostar – Tecnologias emergentes para TI: arquitetura de malha de segurança cibernética  Wi-Fi 6E:  As redes Wi-Fi 6 contam ainda com uma extensão projetada para operar na faixa de 6 GHz. A Wi-Fi 6E possui uma largura de banda ainda mais robusta, menos interferência e maior velocidade de transmissão em comparação com as faixas tradicionais de 2,4 GHz e 5 GHz. Em termos práticos, a Wi-Fi 6E se destaca por proporcionar uma experiência de conectividade bastante eficiente em ambientes congestionados, apresentando-se como uma ferramenta útil para aplicações que exigem altas taxas de transmissão de dados, como streaming em 8K, realidade virtual e ambientes de trabalho colaborativo. Desafios da adoção do Wi-Fi 6 Apesar dos benefícios, a adoção do Wi-Fi 6 ainda enfrenta alguns desafios. Um deles é a compatibilidade dos dispositivos com a nova tecnologia. Embora os roteadores Wi-Fi 6 já estejam amplamente disponíveis, nem todos os dispositivos são compatíveis com ele, o que demanda que as empresas e os consumidores atualizem os seus equipamentos gradualmente. Além disso, o custo dos roteadores e dispositivos compatíveis com o Wi-Fi 6 tende a ser um pouco mais alto em comparação com os modelos anteriores. E quando se pensa em adoção em massa, esse pode ser um obstáculo significativo, principalmente para pequenas empresas e usuários domésticos. Ou seja, há entraves relacionados com a atualização de infraestrutura, compatibilidade com dispositivos mais antigos e os custos envolvidos. Podemos resumir da seguinte forma: 1) Compatibilidade de dispositivos Nem todos os dispositivos existentes no mercado são compatíveis com o Wi-Fi 6, o que significa que as empresas e os consumidores precisam, gradualmente, atualizar os seus equipamentos, como smartphones, laptops, roteadores e outros dispositivos conectados. Muitos aparelhos mais antigos podem não ser capazes de aproveitar as melhorias oferecidas pelo Wi-Fi 6, o que pode resultar em uma experiência limitada até que a transição seja totalmente feita. 2) Custo de equipamentos Os roteadores e dispositivos que suportam o Wi-Fi 6 e o Wi-Fi 6E costumam ser mais caros do que os modelos que utilizam tecnologias anteriores, como o Wi-Fi 5. Esse custo elevado pode ser um obstáculo para pequenas empresas, startups e usuários domésticos que ainda estão se adaptando às novas exigências de conectividade. Da mesma forma, o investimento inicial para atualizar toda a infraestrutura de rede pode parecer significativo, o que contribui para uma implementação mais lenta. 3) Atualização de infraestrutura A transição para o Wi-Fi 6 não se limita apenas à compra de novos roteadores. Para que as empresas maximizem os benefícios dessa tecnologia, muitas vezes, é necessário revisar e adaptar toda a infraestrutura de TI, garantindo que ela seja compatível com velocidades mais altas e maior número de dispositivos conectados simultaneamente. Esse processo pode ser complexo e caro, especialmente para empresas com redes grandes e estabelecidas. E o Wi-Fi 7: onde entra nessa história? Lançado oficialmente em janeiro de 2024, o Wi-Fi 7, também conhecido como IEEE 802.11be Extremely High Throughput (EHT), é o próximo salto em desempenho de redes sem fio. Ele vai utilizar as três bandas de frequência (2.4 GHz, 5 GHz e 6 GHz) para maximizar o uso do espectro.  O objetivo do Wi-Fi 7 é fornecer velocidades surpreendentes e maior eficiência para cada dispositivo conectado. Algumas das suas principais características incluem: Até 4,8 vezes mais veloz que o Wi-Fi 6 e 13 vezes mais rápido que o Wi-Fi 5, estima-se que o Wi-Fi 7 atue tanto na transmissão de vídeos em 8K até em experiências imersivas de realidade virtual (RV). Além disso, ele deve trazer latência ainda mais baixa, o que será crucial para aplicativos críticos, como jogos on-line, automação industrial e telemedicina. Você também pode gostar – Projeto de cabeamento estruturado: por que ele é tão importante para redes de alta velocidade? ___________________________________ Você está preparado para atuar com as novas gerações de redes e com as demandas por infraestruturas atualizadas?  O profissional de TI especialista em administração e projetos de rede precisa, necessariamente, conhecer as novas tecnologias e demandas do mercado, tais quais as recentes gerações de Wi-Fi, e se adaptar a elas. Sabendo disso, a Escola Superior de Redes (ESR), a maior referência em ensino para o setor há mais de 20 anos, abre novas turmas a cada semestre para abordar os mais variados temas. Para a área de infraestrutura e projetos de redes, por exemplo, os cursos da ESR preparam o profissional para enfrentar os desafios diários do suporte a roteadores, switches e estações de trabalho, dominando protocolos e tecnologias usadas para projetar e operar redes corporativas tanto locais (LAN) como de longa distância (WAN), assim como provedores de acesso à internet. São diversos cursos, tanto na modalidade EaD quanto na presencial, como:  Conheça todas as turmas da ESR e prepare-se para atualizar seu escopo de trabalho.


    25/09/2024
  • Gestão de Contratos de TI
    Governança de TI

    Gestão de Contratos: qual a importância dos fiscais para a efetividade dos serviços de TI?

    A contratação pública ou privada de serviços de TI é sempre uma etapa decisiva para o sucesso das empresas. Como normalmente envolvem montantes financeiros significativos e também são associados a grandes expectativas por resultados, os contratos dessa área precisam ser bastante detalhados, com previsibilidade para operação em diversos cenários, e precisam também especificar os níveis de serviços estimados para cada ciclo de trabalho. Na administração pública, por exemplo, esse processo ocorre por meio de uma contratação direta ou indireta, sendo a licitação com edital e termo de referência (instrumentos que indicam o resultado desejado e as regras estabelecidas até o cumprimento obrigacional do contratante e do contratado) o sistema mais utilizado e indicado pela legislação. Nesse contexto de importância dos contratos de TI, manter coesa a equipe de gestão contratual é fundamental. Isso porque esses colaboradores são os responsáveis por fiscalizar todas as fases da execução contratual, minimizando a necessidade de aplicação de sanções ou glosas em caso de execução inadequada ou insuficiente.  A atuação da equipe de gestão contratual na aplicação de sanções e glosas foi tema do novo webinar da Escola Superior de Redes, conduzido pelo especialista em governança de TI, Marco Fragoso. Você confere os principais pontos abordados logo abaixo. Você também pode gostar: 10 cursos que irão intensificar o seu conhecimento em Governança de TI  O que são níveis de serviço? O primeiro passo para realizar uma gestão contratual em TI eficiente é observar qual o nível de serviço específico de cada item contratual, implementado ou desenvolvido. Na prática, o nível de serviço representa um indicador de qualidade e também um acordo firmado entre as partes (contratado e contratante) para determinar como essa qualidade será controlada. Para que esse indicador seja discriminado e acompanhado, é necessário estabelecer alguns componentes específicos, como:  Além disso, os níveis de serviço ainda podem ser discriminados por tipos.  Tipos de nível de serviço  Portanto, sanções e glosas caracterizam-se por serem punições administrativas e/ou pecuniárias em casos de descumprimento obrigacional de um contrato e de um nível de serviço acordado.  Você também pode gostar: Governança corporativa: princípios e boas práticas para adotar em 2024  O que são sanções e glosas? Como dissemos anteriormente, tanto as sanções quanto as glosas representam respostas à inadequação ou inexecução de um serviço. Entretanto, embora possuam o mesmo objetivo pedagógico de reprimir as falhas contratuais, são institutos que não se confundem.  Sanções Quando uma falha na prestação do serviço é identificada, o fornecedor está sujeito a uma sanção, ou seja, a uma represália que é, em regra, estabelecida na própria legislação.  Na nova Lei de Licitação e Contratos da Administração Pública (Lei nº 14133/2021), por exemplo, há dispositivos específicos que indicam o tipo de sanção e a gradação de sua aplicação de acordo com o impacto do descumprimento obrigacional do contrato de serviço analisado. De forma paralela, na Lei nº 13.303/2016 (Lei das Estatais), também há um conjunto definido de sanções que devem ser aplicadas quando um fornecedor não presta o serviço adequado. Na prática, é possível, ainda, ao contratante aplicar uma combinação de sanções previstas em outros dispositivos legais. Veja o que diz a Lei nº 14.133/21 no Título IV “Das irregularidades”: Art. 156. Serão aplicadas ao responsável pelas infrações administrativas previstas nesta lei as seguintes sanções:I – advertência;II – multa;III – impedimento de licitar e contratar;IV – declaração de inidoneidade para licitar ou contratar.§ 1º Na aplicação das sanções, serão considerados:I – a natureza e a gravidade da infração cometida;II – as peculiaridades do caso concreto;III – as circunstâncias agravantes ou atenuantes;IV – os danos que dela provierem para a Administração Pública;V – a implantação ou o aperfeiçoamento de programa de integridade, conforme normas e orientações dos órgãos de controle. Glosas Já as glosas são definidas por um modelo de retenção de pagamento. São uma punição direta ao fornecedor, à medida que o contratante deixa de pagar o valor combinado no contrato em face de um serviço que não atingiu o nível adequado. As glosas são definidas, normalmente, por meio dos próprios contratos, sendo um instituto mais flexível para a administração do que as sanções.  Nesse contexto, o percentual de retenção da glosa precisa ser definido de modo que permita que o fornecedor se mantenha saudável para continuar cumprindo as suas obrigações, mas represente uma punição.  As sanções e glosas podem ser aplicadas simultaneamente ou não. Você também pode gostar: Governança de TI: o que está por trás dos modelos Cobit e Norma 38500?  Papéis dos agentes de fiscalização  Nessa perspectiva de níveis de serviço e de gestão contratual, os agentes de fiscalização têm papel fundamental. Além de atestar a adequação das contratações, evitam que as sanções e glosas precisem ser aplicadas, o que resulta em menor onerosidade para a empresa contratante e celeridade na entrega de resultados com os serviços prestados pelo fornecedor. Entenda a importância de cada cargo nesse processo: ___________________________________ Observa-se, assim, que a gestão de contratos de TI, seja na esfera pública, seja na privada, é uma atividade que exige rigor e clareza para garantir que as expectativas e os resultados sejam alinhados e cumpridos. A definição precisa dos níveis de serviço e a atuação vigilante da equipe de fiscalização são os pilares fundantes de uma execução de serviços eficiente, que minimizam o risco de sanções e glosas. Além disso, a aplicação dessas medidas disciplinares, quando necessária, deve ser conduzida de forma justa e transparente, respeitando as normas legais e contratuais estabelecidas. Por isso, a gestão contratual robusta e bem estruturada reflete em resultados positivos para contratantes e fornecedores. Quando a equipe responsável por esse processo é bem constituída, as organizações asseguram a qualidade dos serviços prestados, protegendo seus investimentos e fortalecendo suas relações com os fornecedores.  Confira o webinar “Atuação da equipe de gestão contratual na aplicação de sanções e glosas” na íntegra! Conheça também os cursos de Governança em TI da ESR.


    19/09/2024
  • Computação Quântica
    Temas Diversos

    Computação Quântica: o que está por trás dessa tecnologia e quais suas tendências?

    A taxa de conhecimento produzido pelo ser humano cresce a uma velocidade exponencial, ou seja, de forma acelerada e em escala. Nunca se desenvolveu tanto e em tão pouco tempo. Nesse cenário, os modelos de processamento e armazenamento de informações tradicionais podem não ser suficientes para lidar com os problemas modernos, essencialmente aqueles associados aos campos do big data, da inteligência artificial e de simulações complexas.  Como resposta a essa necessidade de leitura e armazenamento de uma grande quantidade de dados, a computação quântica tem se tornado objeto de estudo constante dos principais players tecnológicos do mercado.  De forma geral, trata-se de uma área emergente da tecnologia, que se diferencia da computação tradicional por utilizar bits (binary digit) quânticos, e não os clássicos. Os qubits, como aqueles são chamados, operam sob um dos princípios mais importantes da física quântica: a superposição de estado. Assim, em vez de funcionar pela dinâmica de bits, que são executados por meio de portas lógicas em um sistema no qual representam ou 0 ou 1, a computação quântica possibilita que esses mesmos valores (0 ou 1) existam em uma superposição de estado, podendo ser 0 e 1 ao mesmo tempo. Além disso, os qubits também podem ser emaranhados, o que amplifica a capacidade de processamento dos dados. Algo como: 1 qubit 1 bit (consegue armazenar uma única informação) 2 qubits Armazena 4 bits de informação por causa da superposição de estados 3 qubits 8 bits de informação 4 qubits 16 bits de informação … … Na prática, isso se reflete em uma forma de execução de cálculos muito mais rápidos do que a experienciada por computadores clássicos, na possibilidade de quebra de códigos criptográficos em tempo recorde, na simulação de sistemas quânticos com mais robustez etc.  Por isso, a computação quântica é uma das alternativas para a resolução de problemas matemáticos complexos. Neste artigo, vamos dar continuidade ao tema “Computação Quântica”, destacando seu conceito, história, investimentos e apostas para o futuro. Continue conosco. Você também pode gostar – Tecnologias emergentes para TI: arquitetura de malha de segurança cibernética  O que é computação quântica?  De acordo com a Amazon, a computação quântica (ou quantum computing) descreve um campo multidisciplinar que compreende aspectos da ciência da computação, da física e da matemática que utilizam a mecânica quântica para resolver problemas complexos mais rapidamente do que os computadores clássicos. Ou seja, em essência, as bases da mecânica quântica (área da física que estuda o comportamento de partículas em um nível microscópico, como átomos, elétrons, prótons etc.), tais quais a superposição e a interferência quântica, são utilizadas para acelerar a análise de dados e os cálculos de problemas complexos em computadores quânticos.   Para isso, a computação quântica funciona conforme um novo dicionário de termos e de características: Existem ainda outros elementos que definem uma computação quântica:  Você também pode gostar – 16 boas práticas em testes de software para acompanhar agora  A história por trás da computação quântica A história da computação quântica está intimamente ligada ao desenvolvimento da física quântica.  Essas teorias abriram caminho para a compreensão dos fundamentos necessários para a computação quântica, que começou a tomar forma nos anos 1980. Deutsch foi pioneiro ao explorar como um computador quântico poderia superar as limitações dos computadores clássicos usando princípios de superposição e emaranhamento. Com esses avanços teóricos, a computação quântica começou a se desenvolver rapidamente.  Nos últimos anos, grandes empresas de tecnologia e governos têm investido pesadamente em pesquisa e desenvolvimento de computadores quânticos práticos. Você também pode gostar – O que é arquitetura de microsserviços e quais são seus principais benefícios?  Investimentos em computação quântica nos últimos anos Os investimentos em computação quântica têm crescido significativamente na última década. Nos Estados Unidos, por exemplo, a Lei Nacional de Iniciativa Quântica, aprovada em dezembro de 2018, visa fomentar o desenvolvimento da computação quântica no país. Além disso, empresas como Google, IBM e Microsoft estão na vanguarda dessa revolução tecnológica. Acompanhe alguns feitos nesse sentido: Apostas para o mercado em relação à computação quântica O mercado de computação quântica apresenta várias tendências promissoras. A tecnologia pode, inclusive, revolucionar setores inteiros, como o das farmacêuticas, de finanças, segurança cibernética e inteligência artificial. Além disso, à medida que o conceito avança, novos modelos de negócios e aplicações inovadoras deverão emergir, impactando a forma como a sociedade lida com dados e resolve problemas complexos. A exemplo desses avanços e transformações, em 2024, a Microsoft, em parceria com a Quantinuum, anunciou ter desenvolvido um sistema de computação quântica que registrou o menor número de erros já vistos. A empresa utilizou a tecnologia de virtualização de qubits, a menor unidade de processamento quântico, em conjunto com o hardware da Quantinuum, para rodar 14 mil experimentos quânticos sem falhas. Esse resultado representa uma evolução significativa na tecnologia, que supera as limitações dos qubits físicos, que sofrem com alta instabilidade e erros frequentes. Onde a computação quântica pode ser utilizada? Nesse contexto, a computação quântica tem potencial para transformar uma ampla gama de indústrias e aplicações: ___________________________ Leia também: Criptografia quântica vs criptografia tradicional: qual a relação entre elas?_______________________ Limitações da computação quântica Apesar de seu potencial, a computação quântica ainda enfrenta desafios significativos. Entre eles estão a decoerência quântica, que pode causar erros nos cálculos, e a dificuldade de escalar sistemas quânticos para aplicações práticas. Além disso, a necessidade de novas linguagens de programação e algoritmos adaptados à computação quântica é uma barreira que precisa ser vencida. Para superar esses desafios, é necessário o investimento em uma estratégia de especialização dos profissionais de TI. Somente com a capacitação para lidar com tecnologias emergentes é possível impulsionar o progresso nesse campo e no de outras ferramentas que surgem no mercado.  Os treinamentos, certificados e cursos são o principal incentivo para a geração de insights valiosos e para a troca de informações essenciais, além de serem responsáveis por preparar os profissionais para os desafios de uma sociedade em constante transformação.   .____________________________________ ESR: a sua melhor escolha em cursos e capacitação para TI  A Escola Superior de Redes (ESR) é a principal referência em ensino e aprendizagem de TI no Brasil.  Nos seus 18 anos de atuação, dissemina conhecimento sobre o setor para mais de 1.100 instituições, com mais de 43 mil alunos capacitados nas diferentes especialidades de TI, como:  Os cursos possuem as modalidades presencial e EaD, com aulas ao vivo para melhor atender à realidade de cada aluno. Acompanhe as turmas da ESR para aprimorar o seu desenvolvimento profissional com quem realmente entende do setor!


    12/09/2024
  • ESG na TI
    Governança de TI

    Governança em TI e ESG: Como integrar práticas de sustentabilidade em sua estrutura tecnológica

    O tema Environmental, Social and Governance (ESG), ou Ambiental, Social e Governança (ASG), não é uma novidade no mundo corporativo ou na TI, embora venha ganhando cada vez mais popularidade.  Com as urgências climáticas e também com os novos perfis de consumidores, os quais priorizam relações com marcas mais transparentes, com mais diversidade e com um posicionamento sustentável, adotar medidas e indicadores ambientais, sociais e de governança passa a ser uma condição fundamental para a manutenção das empresas no mercado.  Exemplo disso, de acordo com uma pesquisa da Bloomberg Intelligence, é que a agenda ESG representa mais de um terço do total de ativos sob gestão, podendo chegar a um investimento de US$ 53 trilhões (cerca de R$ 273 trilhões) até 2025.  No Brasil, o cenário também é positivo, já que cerca de 71% das organizações declararam implementar alguma prática de ESG, o que representa um aumento de 24 pontos percentuais em relação ao mesmo levantamento de 2023.  Os dados são do Panorama ESG 2024, da Amcham Brasil, Câmara Americana de Comércio para o Brasil, e evidenciam como as empresas do país estão atentas às demandas sociais e ambientais não apenas para atender à pressão regulatória e de mercado, mas também para assegurar sua longevidade e relevância no cenário global.  Nesse contexto, o setor de TI desempenha uma função essencial, tendo em vista que a tecnologia é uma das principais aliadas para viabilizar operações mais sustentáveis, responsáveis e com registros de informações. Por esse motivo, certificados e especializações cujos conteúdos se debruçam sobre a interseção entre ESG e TI, sobretudo entre governança e TI, tornam-se um fator de diferenciação entre os profissionais da área.  Neste texto, vamos conversar mais sobre qual a relevância do conceito de ESG para as empresas, por que o setor de TI representa um ponto-chave para garantir o sucesso dessa pauta no dia a dia e qual curso realizar nesse sentido. Você também pode gostar: Por que uma empresa deve se preocupar com privacidade e ética no uso de dados e qual o papel do profissional de TI nesse cenário?   A importância do conceito de ESG na sociedade moderna  O termo Environmental, Social and Governance (ESG) surgiu em 2004, em uma publicação do Pacto Global em parceria com o Banco Mundial, chamada Who Cares Wins. Na época, o então secretário-geral da ONU, Kofi Annan, pretendia mobilizar, instigar e propor uma provocação a 50 CEOs de grandes instituições financeiras sobre a possibilidade de integração de fatores sociais, ambientais e de governança no mercado de capitais. De lá para cá, a adoção de práticas mais sustentáveis em diversos setores – tanto internas quanto externas, por meio de compromissos expressos com as comunidades – passou a ser observada por consumidores, investidores e parceiros. Ou seja, investir em ESG se transformou em uma necessidade não só para contribuir ativamente para a desmobilização das urgências climáticas e das desigualdades globais sistêmicas, como também para garantir a permanência de uma marca em meio às novas dinâmicas de mercado.  Em sua coluna na Exame, Carlo Pereira, especialista em sustentabilidade e relações institucionais e diretor executivo da Rede Brasil do Pacto Global, desmistificou a sigla, nos ajudando a compreender quais ações práticas estão contidas nesse universo. Para ele, ESG não se define como uma evolução da sustentabilidade empresarial, mas, sim, é a própria sustentabilidade empresarial!  Nesse sentido, compreender o potencial da sustentabilidade e a sua importância nas estratégias de negócios é o primeiro passo para garantir a implementação do conceito no dia a dia das empresas.  “De maneira muito simplista, o que uma empresa precisa fazer é entender, com suas partes interessadas, quais são seus impactos negativos e positivos na sociedade e agir sobre eles. É necessário minimizar os negativos e potencializar os positivos, assim como equacionar os prejuízos já provocados. Além disso, as organizações têm que observar e trabalhar os anseios da população, buscando uma atuação cidadã, no âmbito da empresa e dos líderes empresariais. Isso é o que precisa ser feito hoje e sempre. Então, para os gestores, nada mudou em termos de responsabilidade.  ESG é o olhar do setor financeiro sobre essas questões”. Carlo Pereira para a coluna da Exame.    Você também pode gostar – Estratégia de inovação: por que a ousadia é importante no ambiente corporativo?  Qual a relação da TI com as práticas de ESG?  A implementação de práticas de sustentabilidade e governança dentro das organizações necessariamente envolve uma atuação sistemática e conectada entre TI e ESG.  O setor de Tecnologia da Informação (TI) representa uma engrenagem essencial para a inovação sustentável, auxiliando as empresas a se posicionarem de forma adequada em diferentes frentes:  Além disso, ao contribuir para a evolução do “S” (social) da sigla, a TI desempenha um papel fundamental na diversificação e inclusão na seara dos bancos de dados, promovendo uma representação mais ampla e justa dos diversos grupos sociais.  Na prática, isso representa uma mitigação de desigualdades, uma vez que a TI permite que as organizações coletem e analisem dados de uma maneira que reflita, de forma precisa e inclusiva, a realidade de comunidades distintas, inclusive assessorando novas dinâmicas de recrutamento mais justas e adaptadas a diferente realidades. Por meio de tecnologias avançadas de análise de dados e inteligência artificial, por exemplo, é possível identificar padrões de comportamento e necessidades específicas de grupos que, historicamente, foram sub-representados ou marginalizados. Assim, são estruturadas políticas e práticas empresariais mais equitativas, que levam em consideração as particularidades de diferentes segmentos da sociedade.  Indo adiante, ao utilizar dados de forma responsável e ética, as empresas podem evitar vieses implícitos em suas operações, para que decisões importantes sejam tomadas com base em informações diversificadas e inclusivas. Governança em TI e ESG: como integrar práticas de sustentabilidade em sua estrutura tecnológica  A governança de TI orientada para ESG envolve a criação de políticas e diretrizes claras que alinhem os objetivos tecnológicos da empresa com suas metas de sustentabilidade. Veja alguns exemplos:  1) Políticas de TI sustentável Estabeleça políticas e diretrizes claras que alinhem as operações de TI com os objetivos de sustentabilidade da empresa. Ou seja, defina metas de eficiência energética, gestão de resíduos eletrônicos e uso responsável de recursos, escolha os KPIs adequados e monitore os dados de forma contínua.  2) Eficiência energética em infraestrutura de TI Adote práticas para reduzir o consumo de energia em data centers, como a utilização de sistemas de resfriamento eficientes, servidores de baixo consumo e a transição para soluções de computação em nuvem, que são, geralmente, mais eficientes em termos energéticos. 3) Uso de tecnologia verde Uma das principais funções de um profissional de TI orientado pela pauta ESG é a escolha das tecnologias a serem utilizadas na empresa e no setor. Incorpore tecnologias verdes, como servidores e dispositivos de baixo consumo de energia, softwares de gerenciamento de energia e fontes de energia renovável, para reduzir o impacto ambiental das operações de TI. 4) Gestão responsável de resíduos eletrônicos Implemente práticas de gestão de resíduos eletrônicos para garantir o descarte seguro e responsável de equipamentos obsoletos. Como exemplo, podemos citar programas de reciclagem, reutilização de componentes e parcerias com empresas especializadas em descarte ecológico. 5) Transparência e relatórios de dados Desenvolver uma operação robusta para a prática da agenda ESG é também se preocupar com a transparência e a ética de dados e informações. Por isso, crie sistemas robustos de coleta e gerenciamento de dados para monitorar e relatar o desempenho em ESG. A transparência em relatórios de sustentabilidade permite que os stakeholders acompanhem o progresso da empresa nas práticas ESG e incentiva a responsabilização. 6) Segurança de dados e privacidade Garanta a segurança dos dados e a privacidade dos usuários por meio da implementação de protocolos rigorosos de cibersegurança. Proteger as informações sensíveis é crucial para manter a confiança e cumprir com as exigências de governança. 7) Treinamento e capacitação de equipes Invista em treinamento contínuo para equipes de TI com foco em práticas de sustentabilidade e governança. A capacitação permite que os profissionais estejam atualizados sobre as melhores práticas e regulamentações, além de fomentar uma cultura de responsabilidade e inovação sustentável. 8) Automação e eficiência operacional Utilize a automação para otimizar processos e reduzir o consumo de recursos, o que pode ajudar a diminuir erros, aumentar a eficiência e liberar recursos humanos para atividades estratégicas, alinhando a TI às metas de ESG. 9) Inovação e pesquisa em sustentabilidade Outra forma de implementar a agenda ESG na TI é por meio do fomento à inovação contínua em práticas sustentáveis dentro do setor. Incentive a pesquisa e o desenvolvimento de novas tecnologias e métodos que possam contribuir para a sustentabilidade e responsabilidade social da empresa. __________________________________ Curtiu a interseção entre TI e ESG? Continue aprendendo sobre esse universo. Conheça o novo curso da ESR “Relação entre ESG e governança em TI”. Nele, você vai aprender:  Mais detalhes aqui!


    05/09/2024