Cadastre-se

CADASTRO

Em caso de não possuir CPF, por favor entre em contato conosco clicando aqui.

Ao informar meus dados, eu concordo com a Política de Privacidade

ReCaptcha
Entrar
Escola Superior de Redes

Blog da ESR

  • Lifelong_Learning_na_TI
    Temas Diversos

    Lifelong learning na TI: conceito, benefícios e dicas de aplicação

    O lifelong learning, seja na TI ou nos demais setores do mercado, refere-se a uma metodologia de aprendizado contínuo, que incentiva seus adeptos a atualizar o conhecimento de forma periódica e sistemática.  Em um cenário no qual o acrônimo em inglês VUCA significa “Volatility” (volatilidade), “Uncertainty” (incerteza), “Complexity” (complexidade) e “Ambiguity” (ambiguidade) e abre espaço para uma organização social caracterizada pelo formato BANI (Brittle, Anxious, Nonlinear e Incomprehensible, ou frágil, ansioso, não linear e incompreensível em português), a adaptação passa a ter ainda mais importância. Por isso, o “aprendizado ao longo da vida”, como o termo pode ser lido em português, se transforma em uma ferramenta essencial para que profissionais e equipes de TI consigam evoluir tão rápido quanto as transformações digitais, tecnológicas e humanas. Assim, o conceito de lifelong learning se estabelece, principalmente, sobre a noção de que o conhecimento não tem um fim em si próprio, mas, sim, deve ser absorvido constantemente, com o objetivo de se conquistar uma vida com mais significado. Neste artigo, você vai conhecer o tema e conferir algumas dicas para implementar esse mindset em times de TI. Para isso, você vai percorrer o seguinte guia: Leia também: O home office acabou? Saiba como gerenciar a flexibilidade de trabalho na tecnologia  O que é lifelong learning? Como dissemos anteriormente, o aprendizado ao longo da vida (lifelong learning) representa uma metodologia de ensino, aplicável às mais variadas áreas, que acredita no potencial de um processo de aprendizagem contínuo, capaz de enriquecer o desenvolvimento pessoal e profissional do indivíduo. O termo abrange diversas atividades, propostas e experiências a que um indivíduo tem acesso e se dispõe a cumprir a continuidade do seu processo de construção do conhecimento. Foi elaborado em meados do século XX (na década de 1970), nos Estados Unidos, mas ganhou notoriedade em 2010 com o seu reconhecimento global, por meio do relatório da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco) Educação para o Século XXI, lançado na Conferência Ministerial da Organização para a Cooperação e Desenvolvimento Econômico (OECD). Com isso, a metodologia passou a ter notoriedade e adeptos ao redor do mundo. Nos Estados Unidos, por exemplo, 73% dos americanos se consideram aprendizes contínuos e dizem adotar os pilares da teoria do lifelong learning. Ou seja, o lifelong learning é também um convite para uma carreira qualificada, alicerçada em um propósito que está além da conquista de certificações e da conclusão de cursos. Diz respeito à adoção de uma mentalidade voltada para o investimento na educação não para que determinado fim seja alcançado, mas para que a própria vida e a trajetória profissional tenham mais significado. ❗Leia também: Consultoria Educacional: como ela pode transformar equipes de TI Quais são os pilares da metodologia de lifelong learning? A organização Lifelong Learning Council Queensland (LLCQ), entidade que estuda e dissemina o tema globalmente, passou a institucionalizar e divulgar a abordagem e os seus quatro pilares em 2010. São eles: 1) Aprender a conhecer No lifelong learning, a educação tradicional (a de cursos, por exemplo) se une às novas abordagens de construção do conhecimento. Assim, quem adota essa filosofia deve integrar o aprendizado aos diversos momentos da vida, inclusive àqueles reservados ao lazer. Isso significa que, no lifelong learning, adquirir conhecimento é uma atividade estimulante, não apenas uma obrigação a ser cumprida. Esse pilar enfatiza a importância de valorizar o processo de aprender, cultivando habilidades como curiosidade, pensamento crítico, reflexão e uma postura ativa e questionadora. Aprender a conhecer é aprender a apreciar o caminho do saber. No setor de Tecnologia da Informação (TI), o conceito envolve manter-se atualizado sobre tendências, inovações e as melhores práticas em um setor que evolui rapidamente, buscando conhecimento não só para resolver problemas técnicos, mas também para impulsionar soluções criativas e sustentáveis. 2) Aprender a fazer Não basta acumular conhecimento teórico, é preciso aplicá-lo e testar a sua compreensão na prática. Esse pilar do lifelong learning ressalta a importância da experiência prática como método de aprendizado. Ele se alinha ao conceito “70:20:10”, desenvolvido pelos professores Morgan McCall, Robert Eichinger e Michael Lombardo, que sugere que a aprendizagem eficaz provém de: Assim, o lifelong learner deve estar disposto a aprender tanto em cursos quanto nas vivências cotidianas e nas relações interpessoais, reconhecendo o valor de todos os ambientes de aprendizado. Para um profissional de TI, aprender a fazer significa experimentar e aplicar conhecimentos técnicos a projetos práticos, colaborando com equipes e participando de experiências que ampliam habilidades e aprimoram a prática cotidiana. 3) Aprender a conviver O lifelong learning destaca também o valor das interações humanas e a capacidade de aprender com o outro. Conviver satisfatoriamente, pessoal e profissionalmente, é essencial para quem busca ser um aprendiz ao longo da vida, desenvolvendo habilidades por meio da troca e da colaboração. Além disso, cada vez mais, o mercado valoriza as soft skills, incluindo trabalho em equipe e colaboração. Para o lifelong learner, o convívio e a criação conjunta são práticas fundamentais para o desenvolvimento de competências que enriquecem o aprendizado contínuo. Como parte desse pilar na TI estão o trabalho com equipes multifuncionais, a necessidade de uma comunicação clara e de empresas que priorizem a colaboração entre ambientes diversificados e inclusivos, nos quais o trabalho em equipe e a troca de ideias são elementos-chave para a inovação. 4) Aprender a ser O último pilar do lifelong learning ressalta a importância da autonomia e da responsabilidade pessoal no processo de aprendizagem. Aqui, o indivíduo assume o protagonismo, guiando o próprio desenvolvimento e se apropriando da sua jornada de conhecimento. Aprender a ser é cultivar a autorresponsabilidade, buscando o crescimento pessoal e a realização plena por meio de uma atitude ativa e independente na busca do saber. Em TI, isso também significa assumir o controle da própria formação, por intermédio da exploração de novas áreas e do investimento em autodesenvolvimento para manter-se relevante em um setor dinâmico e competitivo. Entretanto, o pilar não afasta a responsabilidade das empresas e dos setores de RH para que esse processo seja bem-sucedido. Na verdade, organização e colaborador devem adotar a abordagem e compreender o seu potencial simultaneamente, para que os seus pilares sejam efetivamente absorvidos. Leia também: Guia completo: como realizar o recrutamento de times de TI em 9 passos Quais são os benefícios da metodologia lifelong learning para as equipes de TI? A adoção da mentalidade de lifelong learning é essencial para as empresas e os setores de TI que buscam inovação e competitividade. Nesse cenário, as lideranças e equipes de Gestão de Pessoas têm um papel crucial no fomento dessa cultura de aprendizado contínuo, pois são capazes de estruturar mecanismos para incentivar os profissionais a expandir as suas habilidades e acompanhar a evolução constante da tecnologia. Com base nisso, há um reflexo positivo no desenvolvimento individual de cada colaborador, como também há o fortalecimento da capacidade de adaptação e desempenho da equipe como um todo. Com o lifelong learning, as empresas se tornam mais preparadas para enfrentar os desafios de um setor tão dinâmico e têm acesso a inúmeras vantagens, como veremos a seguir. Benefícios do lifelong learning para as equipes de TI: Como implementar uma metodologia lifelong learning nas rotinas de TI em 4 passos A TI representa um setor decisivo para a manutenção das empresas no mercado. Por isso, precisa ser um dos primeiros segmentos a indicar a mudança de paradigma que possa influenciar as operações dos negócios, seja ela relacionada com o surgimento de tecnologias, seja com os modelos de consumo. O lifelong learning prepara os colaboradores de TI para atuar exatamente nesse sentido, deixando-os prontos para as mudanças internas e externas à organização. Veja como aplicar a abordagem por meio de dicas simples: 1) Incentive o diálogo e a participação Crie um ambiente no qual os colaboradores se sintam seguros para compartilhar conhecimento, levantar dúvidas e trocar experiências. Fomentar a cultura do diálogo e da colaboração promove a troca constante de saberes e fortalece a mentalidade de aprendizado contínuo. 2) Elabore uma proposta de desenvolvimento de carreira estruturada e transparente Defina uma abordagem pedagógica de carreira clara para o desenvolvimento de novas competências e habilidades que integre programas de treinamento específicos para TI, como certificações técnicas, workshops e bootcamps. Para isso, pense especificamente em cada carreira de TI da sua empresa e quais certificações e ferramentas são interessantes para cada uma delas e estruture um planejamento com metas e objetivos a serem trilhados tanto pelos colaboradores quanto pela empresa em si. Dessa forma, os profissionais de TI têm um direcionamento claro e recursos adequados para o próprio crescimento. 3) Diversifique as atividades de aprendizado Ofereça formas variadas de aprendizado, como treinamentos práticos, e-learning, mentorias e projetos internos. Essa diversidade permite que os colaboradores explorem diferentes formas de adquirir conhecimento, facilitando a retenção e a aplicação do que foi aprendido. Conheça os cursos da ESR – Escola Superior de Redes – EaD e presenciais.  4) Invista em um acompanhamento humanizado e individualizado Cada profissional possui ritmo e objetivos diferentes. Realize acompanhamentos periódicos e ofereça feedbacks construtivos para alinhar as expectativas e identificar as necessidades específicas de desenvolvimento, promovendo o crescimento personalizado e sustentável da equipe. _______________________ Consultoria Educacional ESR: a melhor escolha para a implementação do lifelong learning nas equipes de TI. A Escola Superior de Redes desenvolveu a Consultoria Educacional focada em oferecer estratégias de aprendizagem corporativas elaboradas de acordo com os objetivos e as necessidades de cada empresa. O programa da ESR ajuda administradores de TI e de Gestão de Pessoas a otimizar os recursos investidos no desenvolvimento profissional das equipes e gerar resultados estratégicos alinhados aos objetivos da empresa. Além disso, a consultoria direciona as instituições em consonância com o que há de mais atual na capacitação de profissionais no âmbito global para enfrentar os desafios da área de Tecnologia da Informação e Comunicação (TIC). Entre em contato com a ESR para saber mais sobre a Consultoria Educacional em tecnologia da informação!


    28/11/2024
  • Back-up e recuperação de dados
    Administração de Sistemas

    Backup e recuperação de dados: estratégias essenciais para administradores de sistemas

    No cenário dinâmico de uma operação em TI, o back-up e recuperação de dados desempenham papéis centrais. Essas tecnologias são responsáveis por garantir que as empresas não sofram com o comprometimento de informações vitais para o andamento de seus negócios. Geralmente, tais estratégias visam mitigar os desafios relacionados com riscos de falhas humanas, inconsistências dos sistemas operacionais e situações adversas, como desastres, falta de energia, catástrofes climáticas e incêndios, entre outros exemplos. Na prática, quando implementado corretamente, um sistema de backup cria cópias periódicas de dados e aplicativos em dispositivos físicos ou na nuvem, permitindo a recuperação dessas informações em momentos de crise. Com isso, as empresas acessam uma série de vantagens, como mostraremos a seguir. Back-up e recuperação de dados: vantagens das práticas no dia a dia Trata-se, portanto, de uma área essencial para a manutenção das empresas no mercado, nos mais variados segmentos e portes. “Atualmente, toda organização depende da disponibilidade dos seus dados, independentemente das circunstâncias. Seja em casos de ataques de ransomware, desastres naturais ou atualizações de segurança equivocadas, a resiliência dos dados é fundamental”,destaca Anand Eswaran, CEO da Veeam, segundo o Gartner, empresa nomeada pela primeira vez como a número 1 em participação de mercado no setor de software de backup e recuperação empresarial. Neste artigo, você vai compreender outros detalhes sobre esse universo, inclusive acessar uma dica incrível para desenvolver uma carreira na área. Interessou? Boa leitura!  Você também pode gostar – Arquitetura Zero Trust: 5 passos para implementar a abordagem na TI Afinal, o que são backup e recuperação de dados?  Inicialmente, é importante destacar que se trata de tecnologias distintas, embora complementares.  O que é backup de dados? O backup de dados refere-se ao ato de criar cópias de segurança de arquivos, bancos de dados ou sistemas inteiros, para garantir, em casos de falha ou perda de dados, que essas informações possam ser recuperadas. Para que esse objetivo seja cumprido, são realizados backups de várias formas, que são adaptados às demandas e especificidades de cada operação em TI. Por exemplo, as cópias (backups) podem ser alocadas em discos rígidos, em servidores físicos dedicados ou em nuvem, em que as informações são armazenadas remotamente. Assim, podemos definir que um backup eficiente segue uma rotina periódica e preferencialmente automatizada, sendo uma ferramenta essencial para reduzir o impacto de problemas como falhas de hardware, erros humanos, ciberataques e desastres naturais. O que é recuperação de dados? Por sua vez, recuperação de dados abrange o processo de restaurar as informações, com base nos backups, depois da ocorrência de um problema que cause a perda, corrupção ou inacessibilidade dos dados. Tal processo inclui a identificação do backup correto, a restauração dos arquivos ou sistemas ao seu estado original e, em alguns casos, a correção de erros ou danos. A eficácia da recuperação de dados está diretamente relacionada com a qualidade do backup, a frequência das cópias e a capacidade de resposta da infraestrutura de TI. Por esse motivo, mesmo que se trate de práticas diferentes, o backup e a recuperação de dados são indissociáveis na rotina de TI. Backup de dados x recuperação de dados: resumo da diferença entre as ferramentas Enquanto o backup refere-se ao processo de copiar dados para um local seguro, a recuperação de dados diz respeito ao ato de restaurar esses dados em caso de perda. Veja as diferenças sistematizadas na tabela a seguir: Termo Definição Backup Processo de criar cópias de dados e aplicativos para evitar a perda em caso de falha ou dano. Recuperação Processo de restaurar dados e aplicativos de backups após um incidente. Que área da TI é indicada para trabalhar com backup e recuperação de dados? Embora todas as áreas de TI comportem as mais diversas especializações, uma vez que se trata de um campo interdisciplinar e interdependente, profissionais que desejam atuar com backup e recuperação de dados podem ter mais facilidade em desenvolver carreiras ligadas à administração de sistemas, segurança da informação e gestão de infraestrutura de TI.  Como essas especialidades exigem um conhecimento detalhado sobre arquitetura de armazenamento, políticas de segurança e soluções de backup e recuperação, podem facilitar o aprendizado de técnicas, ferramentas e planejamento de restauração de ativos críticos para as empresas. Conheça a Trilha de cursos de Administração de Sistemas da ESR – a Escola Superior de Redes, referência em aprendizado para TI há mais de 18 anos.  Qual a importância do backup e da restauração de dados? Com a transformação digital, as empresas dependem cada vez mais da integridade e da disponibilidade dos dados. Isso por si só já explica a relevância de investimentos na área, entretanto, a crescente utilização de soluções virtuais, como Software como Serviço (SaaS), e a ascensão de cibercrimes também intensificam a necessidade de um backup robusto e de um processo assertivo de recuperação de dados. A exemplo disso, de acordo com a Gartner, até 2028, 75% das empresas irão priorizar o backup de aplicativos SaaS como uma exigência crítica, contra apenas 15% em 2024. A tendência e o crescimento gradativo de investimentos voltados para essa área destacam como o mercado observa a seara da proteção de dados, especialmente levando em consideração o aumento dos ataques cibernéticos (cada vez mais sofisticados) e a maior quantidade de pessoas conectadas à rede. Quais são os tipos de backup? Existem diferentes tipos de backup, cada um projetado para atender a cenários específicos e demandas organizacionais variadas. Cada método tem suas vantagens e desvantagens, e a escolha correta depende das necessidades da empresa, da criticidade dos dados e das políticas de recuperação estabelecidas. Backups físicos 1) Unidade de fita O backup em unidades de fita magnética é uma tecnologia mais antiga, mas ainda amplamente utilizada por organizações que precisam armazenar grandes volumes de dados. As fitas são conhecidas por sua capacidade de armazenamento de longo prazo e custo relativamente baixo, tornando-as ideais para backups de arquivos históricos ou dados de conformidade que precisam ser arquivados por anos. No entanto, elas possuem uma desvantagem significativa: a recuperação de dados é mais lenta em comparação com métodos mais modernos, e o processo de restauração pode levar horas ou até dias, especialmente em operações de grande escala. Além disso, como os dados geralmente são armazenados fora do local, o processo de transporte e manuseio também pode impactar a velocidade de recuperação. 2) Unidades de disco rígido (HDDs) e unidades de estado sólido (SSDs) Os discos rígidos (HDDs) e as unidades de estado sólido (SSDs) são opções comuns para backup local por causa da sua velocidade de recuperação e do fácil acesso. Enquanto as HDDs são conhecidas por oferecer maior capacidade de armazenamento a um custo acessível, as SSDs são muito mais rápidas, com tempos de leitura e gravação mais baixos, sendo recomendadas para sistemas nos quais a recuperação rápida é crítica. Por outro lado, as HDDs são mais suscetíveis a falhas mecânicas, enquanto as SSDs, apesar de mais duráveis e rápidas, têm um custo mais elevado por GB de armazenamento. 3) Servidor de backup dedicado Um servidor de backup dedicado refere-se a uma máquina configurada especificamente para receber e armazenar dados de outros sistemas dentro de uma rede. Esses servidores podem ser escalados para incluir várias unidades de armazenamento e são gerenciados localmente pela equipe de TI, que oferece controle completo sobre os dados. Os servidores de backup são altamente flexíveis, o que permite a criação de políticas de backup personalizadas e maior integração com outros sistemas da empresa. Entretanto, eles ainda podem estar sujeitos a falhas de hardware, desastres locais ou interrupções de energia, por isso, geralmente, são usados em conjunto com métodos externos de backup, como o backup em nuvem. Backups em nuvem: O backup na nuvem envolve a cópia de dados e aplicativos para servidores remotos, normalmente gerenciados por um provedor de serviços de nuvem. Esse tipo de backup se tornou a solução preferida para muitas organizações em razão da sua escalabilidade, redundância e facilidade de acesso. Ao contrário dos métodos físicos, que estão sujeitos a falhas de hardware ou desastres locais, o backup na nuvem oferece uma camada adicional de segurança por armazenar os dados em data centers geograficamente dispersos. Nesse contexto, as soluções de backup em nuvem são conhecidas por sua alta capacidade de automação e pela possibilidade de serem configuradas para fazer backups contínuos ou programados, dependendo da política de RPO da empresa. Além disso, o custo é baseado no uso, o que significa que as empresas podem pagar apenas pelo armazenamento e a largura de banda que realmente utilizam. Um ponto negativo para essa dinâmica se estabelece na pauta da velocidade de recuperação, a qual depende da conectividade com a internet, de modo que, para volumes muito grandes de dados, a recuperação completa pode ser ainda mais lenta do que em sistemas locais. A verdade é que a escolha entre backups físicos e em nuvem depende de uma série de fatores, como a quantidade dos dados a serem armazenados, o tempo de recuperação necessário e o orçamento da organização.Em muitos casos, o modelo híbrido – que combina backups locais com backups em nuvem – oferece maior flexibilidade e segurança, garantindo que os dados estejam acessíveis e protegidos de uma ampla gama de ameaças. Como implementar uma estrutura de backup de dados adequada? 3 Dicas 1) Planejamento com foco no RTO e RPO Antes de qualquer implementação de backup, é fundamental entender os Objetivos de Tempo de Recuperação (RTO) e os Objetivos de Ponto de Recuperação (RPO). Esses conceitos definem, respectivamente, quanto tempo a empresa pode ficar sem acessar os dados antes que o negócio sofra um impacto significativo (RTO) e qual a quantidade máxima de dados que a empresa pode perder sem comprometer a operação (RPO). Por exemplo, se a sua empresa pode tolerar até 30 minutos de inatividade e perda de dados, você deve configurar o seu backup para realizar cópias a cada 30 minutos e garantir que o sistema de recuperação consiga restabelecer as operações dentro desse período. 2) Diversificação de métodos de backup A diversificação de métodos de backup é essencial para garantir uma recuperação completa e segura em diferentes cenários de falhas. Usar apenas um método, como backup local, pode deixar a empresa vulnerável a desastres naturais ou erros físicos. Por isso, é recomendável combinar backups locais (on-premises), em nuvem e fora do local (off-site). 3) Automatização e verificação regular A automatização de backups é essencial para assegurar consistência e reduzir a dependência de ações manuais. Porém, automatizar sem verificar regularmente a integridade dos dados e a funcionalidade dos backups é um grande risco. Ou seja, os backups precisam ser testados periodicamente para garantir que a recuperação de dados seja eficaz em caso de necessidade. Você também pode gostar – 8 etapas para implementar uma estratégia eficaz de computação em nuvem  Depois do backup: 5 passos essenciais para um plano de recuperação de dados Depois de garantir um sistema de backup eficiente, é vital ter um plano de recuperação de dados robusto para agir rapidamente em casos de necessidade. Veja, a seguir, cinco etapas que podem ajudar você a garantir uma recuperação ágil e eficaz. 1) Classifique os dados por prioridade Nem todos os dados têm a mesma importância para o negócio. É essencial classificar e definir a prioridade de restauração de diferentes conjuntos de dados. Com essa prática, os ativos críticos para o funcionamento da empresa serão recuperados primeiro. 2) Estabeleça responsabilidades claras Defina quem é o responsável por cada etapa do plano de recuperação, o que envolve desde a equipe de TI até outros departamentos, como setores financeiro e jurídico, dependendo do impacto da perda de dados. 3) Garanta o acesso rápido aos backups Se os backups não estão acessíveis rapidamente durante uma falha, o tempo de recuperação certamente será maior. Por isso, é fundamental assegurar que as cópias de segurança estejam armazenadas em locais que possam ser acessados com rapidez e segurança. 4) Automatize a recuperação de sistemas críticos Automatizar a recuperação de sistemas críticos viabiliza uma resposta mais rápida e eficiente a falhas. Algumas soluções de backup oferecem, inclusive, recursos de orquestração de recuperação que automatizam todo o processo de restauração dos sistemas prioritários. 5) Implemente redundância geográfica No caso de backups físicos, a redundância geográfica é um conceito fundamental para garantir que os dados possam ser recuperados, mesmo em casos de desastres locais. A criação de backups em diferentes locais geográficos reduz o risco de perda total de dados em razão de desastres físicos. ___________________________________ Conclusão Investir em backup e recuperação de dados é essencial para garantir a continuidade das operações em um mundo cada vez mais dependente do digital. Profissionais que se especializam nessas áreas, especialmente com foco em soluções de backup na nuvem, têm um papel crucial nas empresas modernas. Além de protegerem os ativos digitais, eles contribuem para a resiliência do negócio em face de crises. Quer saber mais sobre esse tema e continuar sua jornada de aprendizado? Baixe nosso infográfico gratuito.


    21/11/2024
  • Desenvolvimento low-Code
    Desenvolvimento de Sistemas

    Desenvolvimento com frameworks low-code: o que é, quais vantagens e desafios para iniciantes?

    O desenvolvimento low-code (desenvolvimento com baixo código) promete dar às empresas o que a transformação digital exige todos os dias: agilidade e eficiência na produção de suas soluções.  Trata-se de uma ferramenta que funciona à base do mecanismo de arrastar e soltar (drag and drop), permitindo que o desenvolvimento de softwares e aplicações se torne mais simples. Isso ocorre porque a tecnologia low-code (ou, em português, baixo código) minimiza a necessidade de uma codificação manual convencional, otimizando a entrega de aplicativos. Cada vez mais as organizações migram para as chamadas Low Code Development Platform (LCPD), por enxergarem nessa evolução uma oportunidade de escalar suas operações. Continue neste artigo e descubra o universo low-code e por que essa é uma competência interessante para iniciantes.  Você também pode gostar – O que é e como aprender lógica de programação de uma vez por todas O que é desenvolvimento low-code? O desenvolvimento low-code é realizado por meio de uma interface gráfica simplificada e intuitiva que substitui, em grande parte, a necessidade de codificação manual. Ou seja, em vez de escrever linhas e mais linhas de código, o desenvolvedor utiliza elementos pré-programados em uma interface visual, compondo as funcionalidades desejadas por meio do mecanismo de arrastar e soltar para realizar a criação das aplicações. Dessa forma, a elaboração de softwares é não só facilitada como democratizada, permitindo que profissionais iniciantes ou com pouco conhecimento técnico em programação possam criar aplicativos e soluções digitais. Além disso, quando se fala em low-code, é importante compreender que se trata de uma tecnologia especialmente útil em projetos que demandam rapidez, como é o caso do desenvolvimento de MVPs (produtos mínimos viáveis), aplicações internas e ferramentas de automação empresarial. Para esses casos, tais soluções podem ser facilmente modificadas ou escaladas conforme necessário, algo fundamental em um ambiente de transformação digital, que está em constante movimento. Você também pode gostar –As 5 linguagens de programação mais utilizadas no mercado em 2023-2024 Como o low-code funciona na prática? Na prática, o low-code utiliza componentes visuais pré-programados que representam funcionalidades específicas, como formulários, conexões com o banco de dados e integrações com APIs (interface de programação de aplicações). Ao selecionar e posicionar esses elementos na interface, o desenvolvedor cria um fluxo lógico de funcionamento, que pode ser testado e ajustado em tempo real. O processo ainda é facilitado por recursos como templates prontos, guias de integração e uma série de módulos funcionais que já trazem a lógica de programação embutida. É o caso, por exemplo, do uso da inteligência artificial, recentemente adotada na construção das estruturas de código. Outro ponto interessante do low-code é a sua capacidade de integração com sistemas legados e APIs. Por meio dessa característica, é possível conectar dados e funcionalidades de diversas plataformas em uma mesma aplicação. Com isso, as empresas mantêm a continuidade operacional enquanto incorporam novos recursos, o que é bastante útil para quem precisa modernizar processos rapidamente. Você também pode gostar: O que você precisa saber para se especializar em linguagem de programação? Quais são as plataformas low-code mais populares? Existem diversas plataformas low-code populares no mercado, cada uma com suas particularidades e objetivos específicos. Detalhamos abaixo algumas delas. Essas plataformas são projetadas para facilitar o desenvolvimento, sendo uma excelente escolha para empresas que desejam acelerar sua transformação digital ou para profissionais iniciantes. Vantagens do low-code para iniciantes O low-code é particularmente atrativo para iniciantes por uma série de motivos: 1) Curva de aprendizagem reduzida Graças à sua interface intuitiva e ao modelo de arrastar e soltar, o low-code permite que iniciantes possam criar aplicações em menos tempo, enquanto amadurecem o seu conhecimento técnico. 2) Rapidez no desenvolvimento Como o low-code minimiza a codificação manual, o tempo necessário para concluir um projeto é consideravelmente menor, o que facilita a entrega rápida de protótipos e MVPs. 3) Menor necessidade de recursos  Com o low-code, mesmo equipes menores conseguem desenvolver aplicações quase completas, uma vez que muitos dos recursos são automatizados ou fornecidos pela própria plataforma. 4) Facilidade na integração de funcionalidades Como a maioria das plataformas oferece integrações automáticas com APIs e sistemas externos, os iniciantes conseguem criar aplicações mais robustas de uma forma mais fácil. Por esses e outros motivos, o low-code se torna uma escolha estratégica para iniciantes que desejam atuar na área de desenvolvimento e inovação. Enquanto criam aplicações por meio dos recursos drag and drop, esses profissionais podem, aos poucos, aprofundar sua expertise em linguagens de programação. Você também pode gostar: 8 dicas para iniciar na carreira de programação! E quais são os desafios do low-code para iniciantes? É importante que os iniciantes também estejam cientes de alguns desafios que acompanham o uso de plataformas low-code: Limitações de personalização Embora o low-code ofereça diversas funcionalidades prontas, ele pode limitar a personalização e a flexibilidade do projeto. Quando este exige uma lógica complexa ou funcionalidades muito específicas, esse ponto pode se tornar um obstáculo. Dependência da plataforma Outra preocupação é a dependência que as empresas podem desenvolver em relação à plataforma escolhida, o que pode gerar custos de licenciamento e dificultar a migração para outras soluções no futuro. Questões de segurança e conformidade Como o código não é totalmente controlado pelo desenvolvedor, pode ser mais trabalhoso garantir que a aplicação esteja em conformidade com todas as normas de segurança, especialmente em setores altamente regulamentados. Para superar esses desafios, é essencial que iniciantes se dediquem a estudar a plataforma que desejam utilizar, compreendendo suas limitações, e que busquem aprender os fundamentos de desenvolvimento e lógica de programação. Dessa forma, aos poucos e com a “mão na massa”, você complementa o conhecimento adquirido e passa de iniciante a um desenvolvedor com aptidões mais técnicas. Você também pode gostar: A importância da programação para o futuro do trabalho A ESR pode ajudar você nesse processo! Há mais de 15 anos no mercado de ensino e aprendizado para TI, a Escola Superior de Redes (ESR) desenvolveu uma metodologia exclusiva, capaz de aliar verdadeiramente a teoria à prática. São cursos distribuídos por trilhas de conhecimento nas mais diversas áreas de TI, desde desenvolvimento até cibersegurança, com material atualizado constantemente e ministrado por profissionais reconhecidos no mercado. Dê um passo a mais na sua carreira de TI: conheça todos os cursos da ESR aqui!


    14/11/2024
  • Requisitos de rede para Inteligência Artificial
    Administração e Projeto de Redes

    Inteligência artificial para redes: requisitos e conceitos da tecnologia

    Você sabe como são os requisitos de rede para inteligência artificial? Ou, melhor: a inteligência artificial (IA) realmente atende aos requisitos de rede? É o que vamos descobrir neste conteúdo.  Para isso, inicialmente, precisamos observar a abrangência dessa tecnologia ao longo dos anos. Se observarmos os estudos publicados tanto sobre IA quanto machine learning na última década, iremos concluir que, nesse curto lapso temporal, a aplicação dessas ferramentas passou a estar presente em todos os domínios científicos, crescendo exponencialmente em cada um deles. Em um recente webinar da Escola Superior de Redes (ESR), o especialista e pesquisador do IMDEA Networks Institute, Marco Fiore, aborda exatamente as transformações digitais e as de paradigma que possibilitaram que a IA permeasse pesquisas em campos tão diferentes.  Para se ter uma ideia, de acordo com Fiore, se a nuvem de palavras pinçadas dos principais papers publicados em 2015 apresentava como resultado termos específicos de domínio, como rede, dados móveis e roteamento, em 2024, o cenário foi outro. ‘Nesse momento, a nuvem de palavras formulada com base na observação das pesquisas desenvolvidas ao redor do mundo não se limita apenas a domínio ou rede, tendo estabelecido “aprendizagem” como o ponto central, ou seja, agora, os termos das pesquisas convertem no sentido das aplicações de IA e ML. Em quase dez anos, a comunidade foi impactada significativamente por esses dois recursos, inclusive no quesito “redes”! Para esse cenário, a inteligência artificial e os algoritmos de machine learning proporcionam a otimização das redes, viabilizando que esses ambientes digitais acompanhem as demandas fluidas da modernidade, quais sejam: Neste conteúdo, vamos explorar mais essa relação entre IA e redes, segundo os pontos discutidos no webinar da ESR que mencionamos anteriormente: “A IA atende aos requisitos de rede?”, com o expert Marco Fiore.  Você também pode gostar – Inteligência artificial na TI: como a ferramenta atua no contexto da cibersegurança?  O que é inteligência artificial para rede? A IA para redes refere-se ao uso de algoritmos avançados de machine learning e técnicas de inteligência artificial para gerenciar e otimizar as operações de rede. Esses algoritmos são projetados para automatizar processos, detectar anomalias, prever falhas e gerenciar o tráfego de dados em ambientes cada vez mais complexos. Com a crescente demanda por redes de alto desempenho, a integração de IA tornou-se fundamental para garantir que as redes possam lidar com o aumento do tráfego e a necessidade de resposta em tempo real. Quando essas tecnologias são aplicadas às redes, têm a capacidade de aprender e se adaptar com o tempo, fazendo ajustes automáticos para melhorar a eficiência e a segurança. O resultado? Menor latência, maior confiabilidade e redução de falhas. Aprofunde-se por aqui – Machine learning e inteligência artificial na área de TI: o que esperar do futuro? A IA atende aos requisitos de rede? Apesar dos avanços, as redes ainda apresentam desafios únicos para a IA. As exigências específicas – como baixa latência, alta resiliência e gerenciamento de uma quantidade crescente de dispositivos e dados – impõem restrições que não são comuns em outros campos em que a IA é aplicada. O aprendizado de máquina, por exemplo, é visto como uma ferramenta instrumental para automatizar a operação de redes. No entanto, para que a IA seja eficaz em ambientes de rede, é necessário um design dedicado de modelos de machine learning que possa lidar com a complexidade e o dinamismo dos ambientes digitais modernos. Isso inclui desafios como: Você também pode gostar:O que é Machine Learning e qual a sua importância?O impacto da realidade aumentada na educação e no treinamento em TI  Conclusão A IA tem potencial para revolucionar a operação de redes, mas atender aos requisitos específicos de latência, escalabilidade e desempenho continua sendo um desafio para as empresas. Para saber mais sobre essas questões e ver exemplos práticos de como a IA está sendo integrada às redes modernas, recomendamos que você assista ao webinar completo da ESR. Nele, Marco Fiore apresenta uma visão aprofundada sobre como a IA pode transformar a maneira como gerenciamos e operamos redes. Assista ao webinar da ESR na íntegra


    11/12/2025
  • Requisitos de rede para Inteligência Artificial
    Administração e Projeto de Redes

    Inteligência artificial para redes: requisitos e conceitos da tecnologia

    Você sabe como são os requisitos de rede para inteligência artificial? Ou, melhor: a inteligência artificial (IA) realmente atende aos requisitos de rede? É o que vamos descobrir neste conteúdo.  Para isso, inicialmente, precisamos observar a abrangência dessa tecnologia ao longo dos anos. Se observarmos os estudos publicados tanto sobre IA quanto machine learning na última década, iremos concluir que, nesse curto lapso temporal, a aplicação dessas ferramentas passou a estar presente em todos os domínios científicos, crescendo exponencialmente em cada um deles. Em um recente webinar da Escola Superior de Redes (ESR), o especialista e pesquisador do IMDEA Networks Institute, Marco Fiore, aborda exatamente as transformações digitais e as de paradigma que possibilitaram que a IA permeasse pesquisas em campos tão diferentes.  Para se ter uma ideia, de acordo com Fiore, se a nuvem de palavras pinçadas dos principais papers publicados em 2015 apresentava como resultado termos específicos de domínio, como rede, dados móveis e roteamento, em 2024, o cenário foi outro. ‘Nesse momento, a nuvem de palavras formulada com base na observação das pesquisas desenvolvidas ao redor do mundo não se limita apenas a domínio ou rede, tendo estabelecido “aprendizagem” como o ponto central, ou seja, agora, os termos das pesquisas convertem no sentido das aplicações de IA e ML. Em quase dez anos, a comunidade foi impactada significativamente por esses dois recursos, inclusive no quesito “redes”! Para esse cenário, a inteligência artificial e os algoritmos de machine learning proporcionam a otimização das redes, viabilizando que esses ambientes digitais acompanhem as demandas fluidas da modernidade, quais sejam: Neste conteúdo, vamos explorar mais essa relação entre IA e redes, segundo os pontos discutidos no webinar da ESR que mencionamos anteriormente: “A IA atende aos requisitos de rede?”, com o expert Marco Fiore.  Você também pode gostar – Inteligência artificial na TI: como a ferramenta atua no contexto da cibersegurança?  O que é inteligência artificial para rede? A IA para redes refere-se ao uso de algoritmos avançados de machine learning e técnicas de inteligência artificial para gerenciar e otimizar as operações de rede. Esses algoritmos são projetados para automatizar processos, detectar anomalias, prever falhas e gerenciar o tráfego de dados em ambientes cada vez mais complexos. Com a crescente demanda por redes de alto desempenho, a integração de IA tornou-se fundamental para garantir que as redes possam lidar com o aumento do tráfego e a necessidade de resposta em tempo real. Quando essas tecnologias são aplicadas às redes, têm a capacidade de aprender e se adaptar com o tempo, fazendo ajustes automáticos para melhorar a eficiência e a segurança. O resultado? Menor latência, maior confiabilidade e redução de falhas. Aprofunde-se por aqui – Machine learning e inteligência artificial na área de TI: o que esperar do futuro? A IA atende aos requisitos de rede? Apesar dos avanços, as redes ainda apresentam desafios únicos para a IA. As exigências específicas – como baixa latência, alta resiliência e gerenciamento de uma quantidade crescente de dispositivos e dados – impõem restrições que não são comuns em outros campos em que a IA é aplicada. O aprendizado de máquina, por exemplo, é visto como uma ferramenta instrumental para automatizar a operação de redes. No entanto, para que a IA seja eficaz em ambientes de rede, é necessário um design dedicado de modelos de machine learning que possa lidar com a complexidade e o dinamismo dos ambientes digitais modernos. Isso inclui desafios como: Você também pode gostar:O que é Machine Learning e qual a sua importância?O impacto da realidade aumentada na educação e no treinamento em TI  Conclusão A IA tem potencial para revolucionar a operação de redes, mas atender aos requisitos específicos de latência, escalabilidade e desempenho continua sendo um desafio para as empresas. Para saber mais sobre essas questões e ver exemplos práticos de como a IA está sendo integrada às redes modernas, recomendamos que você assista ao webinar completo da ESR. Nele, Marco Fiore apresenta uma visão aprofundada sobre como a IA pode transformar a maneira como gerenciamos e operamos redes. Assista ao webinar da ESR na íntegra


    09/12/2025
  • Como alavancar a carreira de TI
    Temas Diversos

    Como alavancar a carreira no atual cenário de TI? 3 Dicas essenciais!

    Você procura um guia sobre como alavancar a carreira de TI no atual cenário das transformações digitais? Continue conosco para acessá-lo! Um  levantamento do Google for Startups identificou que o Brasil passará por um déficit de 530 mil profissionais de tecnologia até 2025. Esse número reflete as peculiaridades de um setor que demanda especialistas sempre atualizados e que ainda consigam se manter em movimento de forma compassada com as tecnologias emergentes e com as suas transformações.  A exemplo disso, outro estudo, dessa vez do Instituto Global Mckinsey, traçou um panorama sobre as profissões do futuro e concluiu que todas elas têm uma ligação íntima com a automação do trabalho.  O relatório fruto dessa pesquisa sugeriu que, até 2030, o período em que profissionais das mais variadas áreas passam utilizando tecnologias avançadas aumentará em 50%, além disso, as habilidades de programação serão 90% mais visadas nesse cenário. Ou seja, uma vez que todas as disciplinas convergem para o uso cada vez mais consistente das tecnologias avançadas, tais quais inteligência artificial (IA), realidade aumentada e virtual (RA e RV), machine learning e computação quântica, entre outros exemplos, o profissional de TI é obrigatoriamente convocado para estar à frente desse processo de transição de modelos laborais.  Na prática, trata-se de um alerta claro: é hora de os profissionais da área e os interessados se prepararem para o futuro, adquirindo as habilidades e os conhecimentos que o mercado valoriza. Você também pode gostar – Computação Quântica: o que está por trás dessa tecnologia e quais suas tendências?  Como alavancar a carreira de TI: quais são os cargs do futuro?  O conceito de profissão do futuro envolve a expectativa de valorização da área e da especialidade.   Para isso, são observados alguns panos de fundo, como a aposta no bom desempenho de certas atividades em comparação com outras e a sua interconexão com as transformações digitais e com o movimento da sociedade, além da estimativa de surgimento de novos mercados, nichos e empresas que possam demandar certas atuações de trabalho. Nesse sentido, estudar quais serão as carreiras, inclusive de TI, com chances de despontar a médio e longo prazo demanda uma análise que leve em consideração não só esses pontos, como também o que é reverberado nos principais fóruns e comunidades.  A exemplo disso, no último levantamento do Fórum Econômico Mundial, “The Future of Jobs”, lançado ainda em 2023, o contexto moderno do trabalho foi previsto como digital, rotativo e inédito. Segundo esse documento, dos 673 milhões de postos de trabalho analisados, 83 milhões serão eliminados, enquanto 69 milhões devem ser criados nos próximos anos, sendo a inteligência artificial o principal foco de alteração dessas relações. A ferramenta, uma das tendências em tecnologia para todos os mercados, desencadeia a urgência da adaptação e destaca a importância da educação voltada para habilidades digitais. De acordo com o fundador e CEO da Code.org, em outra matéria, também publicada pelo Fórum Econômico Mundial, o risco relacionado com a IA ainda se encontra com ponto focal no ser humano, e não na máquina. Isso porque não se espera que as pessoas percam os seus empregos para a IA, mas, sim para outras pessoas que sabem como utilizar a ferramenta.  “Não é que o trabalhador seja substituído apenas por um robô ou uma máquina na maioria dos casos, especialmente para trabalhos de secretaria. É que algum trabalhador melhor ou mais instruído pode fazer esse trabalho porque pode ser duas vezes mais produtivo ou três vezes mais produtivo com a IA” – tradução das “6 tendências de trabalho e local de trabalho a serem observadas em 2024” Ou seja, o verdadeiro desafio do mercado de trabalho atual encontra-se na capacitação e adaptação humana, e não na substituição pura e simples de seres humanos por máquinas. Além disso, o Fórum Econômico Mundial, por meio do The Rise of Digital Jobs, prevê o aumento da empregabilidade em áreas digitais globais para cerca de 92 milhões de vagas e uma mudança de cerca de 23% dos empregos nos próximos cinco anos. “Com a previsão de que 23% dos empregos mudem nos próximos cinco anos, conforme o Relatório sobre o Futuro do Emprego, milhões de pessoas terão de transitar entre empregos em declínio e em crescimento” – tradução das “6 tendências de trabalho e local de trabalho a serem observadas em 2024” Quais são as 10 profissões do futuro de acordo com o Fórum Econômico Mundial? Nesse contexto, as profissões consideradas como promissoras para o futuro abrangem na sua grande maioria especialidades de TI:   Você também pode gostar – Qual a responsabilidade prática da TI na era do Big Data?  Como se destacar nesse contexto de trabalho em TI? 3 principais dicas. Domine ou ao menos conheça as tecnologias emergentes No mercado atual, as tecnologias emergentes têm um papel fundamental na transformação digital das empresas. Conhecer os seus conceitos e aplicações pode alavancar a sua carreira e abrir portas em diferentes áreas de TI. Separamos algumas delas para você colocar no seu radar: Aprofunde-se por aqui – Machine learning e inteligência artificial na área de TI: o que esperar do futuro? Aprofunde-se por aqui: O que é Edge Computing e qual a sua finalidade? Conhecer o básico sobre Qubits, superposição e entrelaçamento quântico pode posicioná-lo à frente no campo de computação de alta performance. Aprofunde-se por aqui: Afinal, você sabe o que está por trás da computação quântica? Aprofunde-se por aqui: Qual a diferença entre realidade aumentada, virtual e mista?   Ser um especialista de ao menos uma dessas tecnologias é uma excelente estratégia de carreira. Além dessas tecnologias emergentes, existem diversas outras, bem como outros temas interessantes para a TI atual. É o caso da arquitetura de malha cibernética, das pautas de ESG (Environmental, Social and Governance) e o sempre presente big data. 2) Estude sobre o potencial das metodologias ágeis de trabalho As metodologias ágeis revolucionam a maneira como os times de TI trabalham, pois possibilitam entregas mais rápidas e eficientes, com foco na colaboração contínua e na adaptação às mudanças.  Se você ainda não se debruçou sobre esses conceitos, experimente adotá-los na sua rotina a partir das principais abordagens:  Scrum Refere-se a uma das metodologias ágeis mais populares do mundo corporativo, permitindo a gestão de projetos em sprints curtos, com ciclos de feedback constantes. Times que usam Scrum podem entregar funcionalidades de forma incremental, ajustando o escopo conforme necessário. Kanban: Muito utilizado no desenvolvimento de software e em operações de TI, o Kanban visa aumentar a eficiência por meio da visualização de tarefas em um quadro, permitindo que equipes gerenciem fluxos de trabalho de forma contínua e sem sobrecarga. Lean:  O Lean Development é inspirado na manufatura enxuta e foca na eliminação de desperdícios, otimização de processos e aumento da entrega de valor para o cliente final. 3) Mapeie quais soft skills são visadas pelo mercado e trace um plano de desenvolvimento Habilidades técnicas são cruciais, mas cada vez mais as soft skills são fatores determinantes para o sucesso de um profissional de TI. A capacidade de colaborar, comunicar e liderar equipes, especialmente em ambientes remotos ou híbridos, tornou-se imprescindível há algum tempo. Nesse sentido, certas competências aparecem como relevantes para a solidez de uma carreira na área, como:  __________________________________ Além dessas, diversas outras dicas podem te ajudar a alavancar a carreira em TI. Para isso: Fique por dentro de outras novidades de TI no nosso blog (toda semana produzimos um novo tema)!


    31/10/2024
  • Privacidade e segurança de dados em TI
    Segurança

    Práticas de privacidade e segurança de dados em TI: considerações e como fazer!

    A cibersegurança tem se tornado uma das principais áreas da TI, sobretudo por causa do crescimento acelerado das ameaças virtuais no meio corporativo. Por isso, adotar práticas de privacidade e segurança de dados eficientes passa a ser uma prioridade para a maior parte das empresas. Você sabe como fazer isso? De acordo com o relatório da Uni42, unidade de pesquisa da Palo Alto Networks, o Brasil registrou o maior índice de ataques cibernéticos da América Latina em 2023, destacando-se como o epicentro dessas práticas criminosas na região. O estudo identificou, ainda, que o país foi o mais vulnerável a ataques hackers entre os representantes latinos pelo terceiro ano consecutivo, com o registro do aumento dessas inconsistências em 56,4% de 2021 a 2023. Entre as inúmeras formas de comprometimento das tecnologias dos negócios, sejam elas em superfície física ou em nuvem, algumas chamam a atenção dos especialistas pela sofisticação e escalabilidade. É o caso, por exemplo: Diante desse cenário, os times de TI precisam desenvolver, com agilidade, uma gestão de dados e compliance robusta, adequando as atividades das empresas ao que orienta as principais regulamentações do mercado, como a LGPD, DORA, GDPR, CCPA, SOX, PCI e HIPAA, entre outras. Além disso, um bom exemplo dessa exigência é a inteligência artificial (IA) e seus contornos, tendo em vista que ela não representa mais uma tecnologia do futuro, já que está transformando vidas e negócios agora, no presente. Mais de 25% das organizações já utilizam cinco ou mais aplicativos de IA diariamente, desse modo, para as equipes de tecnologia, é necessária uma atenção plena às novas tecnologias e demandas de mercado. Como se sabe, a inteligência artificial (IA) e a proteção de dados estão intimamente relacionadas, pois o treinamento de algoritmos de IA muitas vezes demanda grandes volumes de dados, incluindo dados pessoais. Assim, o objetivo por trás da estratégia de fortalecer esses campos – o da privacidade e ética no uso de dados, além da segurança da informação – é claro: minimizar os prejuízos que as organizações enfrentam quando passam por eventos cibernéticos adversos.  Segundo o estudo Global Cybersecurity Outlook 2024, do World Economic Forum, mais de um terço das organizações sofreu um incidente cibernético causado por malfeitores em 2023. Empresas que possuem a proteção de dados e o respeito à privacidade e ética dos dados consolidados, tendo a tecnologia da informação (TI) como parceira, usufruem de uma série de benefícios em relação àquelas que não se preparam para o novo contexto digital. Agora, os usuários estão mais atentos a como os negócios utilizam suas informações, assim como há um aumento exponencial das superfícies de ataque e dos pontos de vulnerabilidade suscetíveis aos mais variados cibercrimes. Ou seja, privacidade, ética e adequação no uso de dados, além de campos em ascensão na TI – como a inteligência artificial –, são a demanda do presente e do futuro dentro das empresas. Neste conteúdo, vamos conversar mais sobre regulação, gestão e segurança de dados, além da privacidade dessas informações. Por que é importante que empresas e profissionais de TI se especializem em privacidade, segurança e ética no uso de dados? Ter um olhar cuidadoso para a privacidade e a ética no uso das tecnologias, sobretudo as relacionadas com o tratamento de dados, é uma demanda urgente dos negócios. As novas dinâmicas sociais, que se destacaram com a transformação digital acelerada pela pandemia de Covid-19, não só exigem um posicionamento das organizações diante do uso de dados, como enfraquecem o branding de empreendimentos que não possuem políticas de transparência em suas operações.  A partir de 2020 e da necessidade de distanciamento social, a digitalização das empresas e das transações cresceu de forma exponencial. De acordo com a 33ª edição da Pesquisa Anual sobre o Mercado Brasileiro de TI e Uso nas Empresas, divulgada pela FGV, por exemplo, a antecipação do processo de transformação digital por causa dos contornos da crise sanitária foi o equivalente ao esperado para o período de um a quatro anos. Na época, computadores, notebooks, tablets e smartphones superaram, somados, a expressiva marca de 447 milhões de unidades no país. Ou seja, a demanda por redes e soluções digitais cresceu significativamente. Com isso, foi preciso viabilizar novos modelos de negócios que exigiam também investimento em TI. Diante de tantas mudanças, as empresas passaram a ser cada vez mais confrontadas com a demanda de adaptação a políticas de uso e tratamento de dados adequadas. Afinal, esses insumos agora apresentavam-se em quantidades inéditas e impressionantes. Assim, ao optar por caminhar com as transformações do contexto, priorizando processos, ações, planejamento estratégico e indicadores voltados para a ética, a transparência e a proteção de dados, as empresas gozam de inúmeras vantagens, como:  Além dos benefícios previamente mencionados, o reconhecimento e a ênfase na privacidade, na ética e na segurança da informação resultam na preservação de ativos valiosos dos negócios, tanto internos quanto externos, mitigando gastos com redução de danos e respostas a incidentes. Nesse contexto, torna-se indispensável contar com setores de TI altamente sistematizados e focados no contínuo desenvolvimento dos princípios de segurança da informação e em sua diferenciação entre privacidade e proteção de dados.  Você também pode gostar – Cloud storage: o que é e qual sua importância para o cenário de dados atual? Qual a diferença prática entre privacidade, proteção de dados e segurança da informação? Ao nos aprofundarmos na essência da “privacidade, proteção de dados e segurança da informação”, é crucial que compreendamos como esses conceitos se entrelaçam e, ao mesmo tempo, se distinguem em práticas cotidianas da TI. A “privacidade”, como destacado anteriormente, refere-se ao direito de um indivíduo de controlar suas informações pessoais e de decidir como, quando e onde essas informações podem ser acessadas e compartilhadas. É um conceito intimamente associado à proteção dos dados pessoais, especialmente no contexto das tecnologias digitais.  Na prática, seus principais aspectos incluem: Já a “proteção de dados pessoais (ou privacidade de dados)” é definida como um subconjunto da privacidade, que se concentra especificamente na proteção das informações pessoais identificáveis (PII). É regida por legislações específicas, como a General Data Protection Regulation (GDPR), na Europa, e a Lei Geral de Proteção de Dados (LGPD), no Brasil, e tem como aspectos essenciais os discriminados a seguir:  Por fim, a “segurança da informação” envolve a proteção dos dados contra ameaças, garantindo a integridade, confidencialidade e disponibilidade da informação. Abrange a implementação de medidas e práticas que assegurem que os dados sejam acessados somente por pessoas autorizadas e que estejam protegidos contra perdas ou modificações. Seus três principais pilares são conhecidos pela sigla CIA: Além disso, a segurança da informação também envolve gestão de riscos, plano de resposta a incidentes e auditorias de segurança, estratégias para minimizar possíveis ameaças e lidar com elas. O entendimento prático desses conceitos contribui para a construção de uma abordagem holística em TI.   Seja para fornecer suporte eficaz aos usuários em suas necessidades de privacidade e proteção de dados, seja para resguardar os ativos mais preciosos de uma empresa, o profissional de TI desempenha um papel estratégico, sendo o responsável por perfectibilizar as ações e políticas de proteção e por estruturar uma segurança da informação eficiente. E como identificar a efetividade da segurança da informação de um negócio? É o que vamos destrinchar agora. Você também pode gostar – Governança corporativa: princípios e boas práticas para adotar em 2024.  Resumo das diferenças e relações entre os conceitos Para detalhar o que conversamos anteriormente, podemos resumir as diferenças e as relações existentes entre os três conceitos: privacidade, proteção de dados pessoais e segurança da informação.   Todos os conceitos se interligam, de modo que a privacidade é protegida por meio de boas práticas de segurança da informação, e a proteção de dados pessoais garante que os direitos individuais, em relação aos seus dados, sejam respeitados e assegurados. Você também pode gostar – Previsões de cibersegurança: o que esperar no segundo semestre do ano e início de 2024? As 5 principais regulações do mercado Nessa perspectiva de desenvolvimento de recursos que se preocupam com a privacidade e a segurança dos dados, diversas normatizações e regulamentações globais foram estruturadas, definindo padrões para o tratamento e a proteção de dados pessoais. Conhecê-las é essencial para quem deseja trabalhar com privacidade e segurança de dados. Inspirada no GDPR europeu, a LGPD regulamenta o tratamento de dados pessoais de indivíduos no Brasil, estabelecendo princípios como transparência, segurança e o consentimento dos titulares dos dados. Foi implementada em agosto de 2018, mas entrou efetivamente em vigor em 2020. Desde então, as empresas precisam garantir a conformidade da sua gestão de dados com o que está disposto na norma, principalmente para potencializar a segurança da informação e a não aplicação de penalidades. Uma das regulamentações mais rigorosas do mundo, a GDPR protege a privacidade dos dados pessoais dos cidadãos da UE, impondo severas penalidades a seu não cumprimento e exigindo práticas robustas de confidencialidade da informação. O CCPA é uma lei estadual que oferece aos residentes da Califórnia, por exemplo, o direito de saber como seus dados pessoais são coletados e utilizados, bem como o direito de acessar e excluir suas informações pessoais Os Princípios Atualizados sobre Privacidade e Proteção de Dados Pessoais, como instrumento de soft law interamericano, visam servir aos estados-membros da organização como pontos de referência para o fortalecimento de seus respectivos marcos legais na matéria e orientar o desenvolvimento coletivo da região rumo a uma proteção harmônica e eficaz dos dados pessoais. Essa regulamentação protege informações de saúde sensíveis, exigindo padrões de segurança rigorosos para salvaguardar dados médicos e pessoais, além de estabelecer parâmetros para uso, divulgação e proteção de informações de integridade individualmente identificáveis. Como implementar práticas de privacidade e segurança de dados em TI em conformidade com as regulações? Implementar práticas robustas de proteção de dados, privacidade e segurança de dados é essencial para cumprir as regulamentações e salvaguardar as informações sensíveis de ameaças.  Existem algumas dicas que podem facilitar esse processo, e você encontra todas elas no novo ebook gratuito da Escola Superior de Redes.  >> Baixe agora o ebook “9 passos para implementar práticas de privacidade e segurança de dados em TI em conformidade com as regulações” <<


    24/10/2024
  • Realidade Aumentada
    Métodos Ágeis e Inovação

    O impacto da realidade aumentada na educação e no treinamento em TI

    Há oito anos, o Pokémon Go popularizava os recursos da realidade aumentada (RA) e se preparava para ser um dos games mais rentáveis da história. Depois de seu lançamento por John Hanke, em julho de 2016, o jogo movimentou a bilheteria desse mercado e foi baixado em milhares de smartphones, além de ter envolvido usuários de diferentes faixas etárias na sua narrativa de caça aos personagens da saga japonesa.  De acordo com a última análise de dados sobre o desempenho do aplicativo, publicada em 2022 pela Sensor Tower, o Pokémon Go teria ultrapassado, àquela época, a marca de 6 bilhões de dólares, com uma taxa de rendimento de, em média, US$ 1 bilhão ao ano, desde o seu lançamento. Esse sucesso representou não só uma virada de chave no cenário dos jogos, como deu visibilidade ao potencial da RA nos mais diversos segmentos.  Na prática, a realidade aumentada é descrita como uma tecnologia que sobrepõe imagens digitais no ambiente real como forma de enriquecer a experiência do usuário, mesclando o mundo físico e tátil com elementos virtuais (objetos, personagens etc.) que podem interagir com o espaço ao redor em tempo real. Embora a ferramenta só tenha sido proposta com esse nome – realidade aumentada (RA) – em 1992, por Thomas P. Caudell, durante o desenvolvimento do Boeing 747, suas bases históricas datam de bem antes.  Em 1901, o escritor de O Mágico de Oz, L. Frank Baum, no conto “The Master Key”, descreve um presente dado ao personagem principal da obra – um par de óculos eletrônicos capaz de mostrar informações adicionais sobre as pessoas. Tem-se que essa foi a primeira menção, ainda que de forma futurista e abstrata, do que viria a se tornar o recurso tecnológico. Atualmente, a realidade aumentada e a inteligência artificial são consideradas as grandes tendências do universo da tecnologia, tendo o protótipo Orion Glass, da Meta, como o mais novo avanço relacionado com a primeira inovação. Segundo a Meta, o Orion Glass representa a evolução dos óculos de realidade aumentada, já que une o mundo físico ao virtual com uma projeção de imagens em um cone de até 70º. Com ele, a empresa pretende dar um grande salto na computação orientada para o ser humano, possibilitando experiências digitais que não estão restritas aos limites da tela de um smartphone. Embora ainda se trate de uma versão de teste, o Orion Glass demonstra o potencial de interação que a realidade aumentada vai estabelecer com atividades rotineiras nos mais variados mercados, inclusive no de treinamentos. A seguir, vamos conversar com mais detalhes sobre o uso da RA em um desses nichos: o da educação em TI. Você também pode gostar – Machine learning e inteligência artificial na área de TI: o que esperar do futuro?  O que é realidade aumentada? Como mencionamos anteriormente, a realidade aumentada representa uma tecnologia capaz de integrar um conteúdo virtual ao ambiente real, ou seja, por meio da conexão entre software e hardware, a RA sobrepõe elementos virtuais ao mundo real, proporcionando uma experiência 3D transformadora ao usuário. Trata-se de uma versão aprimorada e interativa do espaço físico, obtido com a ajuda de elementos visuais e sonoros, além de estímulos sensoriais digitais por intermédio de uma tecnologia holográfica. O funcionamento da realidade aumentada demanda, essencialmente, os seguintes componentes:  Componentes Explicação Câmeras, lentes e dispositivos Capturam o ambiente real e integram elementos virtuais à imagem, permitindo que o usuário visualize o conteúdo aumentado e interaja com ele. Sensores Detectam a posição, o movimento e a orientação do dispositivo para alinhar, com precisão, os objetos virtuais ao mundo real. Computação Processa as informações coletadas pelos sensores e câmeras para gerar e renderizar os elementos de RA em tempo real. Gêmeo digital Réplica 3D digital de um objeto, armazenada na nuvem, que pode ser visualizada e manipulada pela RA. Download das informações pelo dispositivo de realidade aumentada O dispositivo baixa os dados necessários (como gêmeos digitais ou informações contextuais) para integrar e apresentar elementos virtuais. Inteligência artificial e dados em tempo real que vêm dos produtos A IA processa dados em tempo real, permitindo que o usuário interaja de forma inteligente e adaptativa com os elementos virtuais. Ficou mais fácil compreender? Além do conceito, é fundamental que os profissionais de TI e os interessados na área reconheçam as diferenças existentes entre realidade aumentada (RA), realidade virtual (RV) e realidade mista (RM). É isso que vamos destrinchar a partir de agora.  Você também pode gostar: 5 dicas para crescer na carreira de governança de TI Qual a diferença entre realidade aumentada, virtual e mista? Vamos abordá-las a partir de agora: 1) Realidade aumentada Recordando o já exposto, sabemos que a realidade aumentada (RA) consiste na sobreposição de elementos digitais ao ambiente físico real. A RA utiliza dispositivos como smartphones, tablets e óculos especiais para integrar gráficos, textos ou outros tipos de dados ao mundo ao nosso redor, enriquecendo a percepção do ambiente. Além do clássico e abordado anteriormente Pokémon Go, em que personagens virtuais são visualizados e interagem com o mundo real por meio da tela do celular, o aplicativo IKEA Place também pode ser enquadrado como representante da RA. Com ele, os usuários podem visualizar móveis e objetos de decoração em seus próprios ambientes antes de comprá-los. 2) Realidade virtual Enquanto isso, a realidade virtual (RV) envolve a criação de um ambiente totalmente digital, no qual o usuário é imerso com a ajuda de dispositivos, como óculos de RV. Diferente da RA, a RV substitui completamente o ambiente físico, propondo que o usuário explore um mundo criado digitalmente e interaja com ele. É comumente utilizada em jogos, simulações de treinamento e experiências imersivas, nos quais a sensação de presença em um ambiente alternativo é fundamental. 3) Realidade mista Já a realidade mista (RM) combina elementos tanto da RA quanto da RV, criando uma interação mais sofisticada entre o mundo real e o virtual. Na RM, objetos virtuais não só aparecem no ambiente real, mas também interagem com ele de maneira mais complexa. Isso significa que um objeto digital pode ser influenciado por condições do mundo físico, como a iluminação ou a presença de outros objetos. Esse tipo de tecnologia é visto em dispositivos avançados, como o Microsoft HoloLens, por meio do qual o digital e o físico se fundem para criar experiências altamente interativas. Cada uma dessas tecnologias tem as próprias aplicações e potencial de transformar setores, como educação, entretenimento, saúde e indústria. Qual a relação entre a RA e a educação? Na educação, a realidade aumentada (RA) apresenta-se como um recurso tecnológico inovador, responsável por proporcionar uma dimensão inédita ao ensino e ao aprendizado. Por intermédio da interação desses campos, o ambiente educacional se torna dinâmico e mais completo, além de atrativo.  A possibilidade de sobrepor elementos virtuais aos localizados na esfera do real resulta no detalhamento de conceitos complexos e em maior interatividade com os estudos teóricos, assim como em maior participação. No trabalho acadêmico “Além da lousa: explorando o potencial da realidade aumentada no ambiente educacional”, os autores reverberam e destacam essa agregação de capacidades:   Um aspecto crucial na aplicação da Realidade Aumentada na educação é a sua capacidade de adaptar-se a diferentes estilos de aprendizagem. ARAPI (Aprendizagem por Realidade Aumentada e Processo de Inovação), por exemplo, é um modelo pedagógico que integra a RA ao processo de ensino e aprendizagem, considerando as características individuais dos alunos e promovendo uma abordagem personalizada (WU, LEE, CHANG, & LIANG, 2013). Essa adaptação à diversidade de estilos cognitivos dos estudantes pode resultar em uma maior eficácia no processo de ensino. Ademais, a Realidade Aumentada não se restringe apenas ao ambiente acadêmico  tradicional. No campo da educação a distância, a RA oferece possibilidades inovadoras, superando as barreiras físicas e promovendo a interação em ambientes virtuais (DUNLEAVY, DEDE, & MITCHELL, 2009). Através de aplicativos e dispositivos móveis, os alunos podem acessar conteúdos enriquecidos pela RA, participando de atividades práticas mesmo a distância (MEROTO et. al, 2024)* *MEROTO, Monique Bolonha das Neves; GUIMARÃES, Christiane Diniz; SILVA, Claudia Kreuzberg da; SILVA, Dinaléia Araújo da; ARAÚJO, Fábio José de; SÁ, Gilmara Benício de; CARVALHO, Ianan Eugênia de; BEZERRA, Olinderge Priscilla Câmara. Além da lousa: explorando o potencial da realidade aumentada no ambiente educacional. Revista Foco, v. 17, n. 1, p. 50, 2023. DOI: 10.54751/revistafoco.v17n1-050. Disponível em: https://ojs.focopublicacoes.com.br/foco/article/view/4114/2891. Acesso em: 16 ago. 2024. Como a realidade aumentada pode ser aplicada e trazer benefícios para o ensino e a aprendizado em TI? Afunilando a análise de interseção entre educação e RA, no campo da Tecnologia da Informação (TI), observamos que a tecnologia oferece um conjunto vasto de possibilidades que podem transformar a maneira como os profissionais aprendem e se desenvolvem. A RA facilita a compreensão de conceitos complexos, aprimora a interatividade durante o aprendizado e proporciona experiências imersivas que são difíceis de reproduzir por meio de métodos tradicionais. Veja alguns exemplos: Em instituições que não dispõem de recursos avançados ou em programas de ensino a distância, em que o acesso a laboratórios físicos pode ser limitado, essa característica é bastante útil. Por exemplo, eles podem ser desafiados a “consertar” uma rede em um ambiente de RA, em que cada etapa superada representa uma fase do jogo, promovendo uma aprendizagem mais divertida e motivadora. A realidade aumentada, ao ser integrada ao ensino e ao aprendizado em TI, promove uma educação prática, interativa e adaptável às necessidades dos profissionais. Uma vez que ela supera antigos desafios de compreensão, apresentando novas possibilidades de ensino, também transforma toda a área de TI, uma forma mais eficaz para enfrentar os percalços do mercado. __________________________________ ESR: a sua fonte de informação atualizada sobre o universo da TI Para conferir o lançamento de cursos, dicas e tendências do mercado de TI acompanhe a Escola Superior de Redes – no site, LinkedIn e Instagram.  Deseja saber mais sobre um tema específico? Indique-o nos comentários! Por aqui publicamos um novo conteúdo por semana. Fique por dentro em: https://esr.rnp.br/blog


    17/10/2024
  • O que é edge computing
    Computação em Nuvem

    O que é Edge Computing e qual a sua finalidade?

    O que está por trás do universo da Edge Computing e por que você deveria saber disso? É o que vamos abordar a partir de agora, por meio do seguinte guia:  A tecnologia Cloud Computing representou uma mudança de paradigma sem precedentes, traduzida na troca significativa dos ativos sistêmicos proprietários por serviços em nuvem. O recurso – cujo termo foi utilizado pela primeira vez em 1996 – oferecia benefícios importantes para os setores de tecnologia e para as empresas em geral, como a redução dos custos e a simplificação de questões de pessoal de TI. Por esse motivo, não demorou para se popularizar e figurar como uma das principais formas de utilização para a sistematização dos processos de negócios do mundo.  A exemplo disso, os gastos com produtos de infraestrutura de computação e armazenamento para implementações em nuvem aumentaram 36,9% no primeiro trimestre de 2024, chegando aos 33 bilhões de dólares (178,5 bilhões de reais). Os dados, divulgados pelo relatório Worldwide Quarterly Enterprise Infrastructure Tracker, da IDC, fizeram a empresa estimar também que os gastos totais com esses recursos serão de 138,3 bilhões de dólares até dezembro, um aumento de 26,1% em relação a 2023. No mesmo sentido, o Relatório Global Tech Trends 2024, da Red Hat, identificou que uma das principais preocupações dos líderes de tecnologia, atualmente, está associada à otimização da nuvem. Na pesquisa do Red Hat mencionada anteriormente, mostrando os cinco principais resultados, essas foram as respostas encontradas para o questionamento: “Nos próximos 12 meses, quais são as principais prioridades de investimento no gerenciamento geral da TI em sua empresa?” Nesse cenário efervescente, a Edge Computing surge como uma resposta à demanda crescente por avanços e inovação tecnológica não apenas para complementar a infraestrutura de nuvem existente, mas para expandir as suas possibilidades. Você também pode gostar – Computação quântica: o que podemos esperar dessa tecnologia e quais suas tendências?  O que é Edge Computing? Uma das principais tendências de tecnologia do mercado, a Edge Computing (Computação de Borda) representa uma perspectiva de computação em nuvem que funciona por meio da descentralização. Por esse motivo, a inovação consegue lidar com uma maior quantidade de dados e dispositivos conectados sem comprometer o seu desempenho. Diferentemente da Cloud Computing tradicional, na qual os dados são enviados para um conjunto de servidores centrais, processados e mandados de volta para o dispositivo utilizado pelo usuário, na Edge Computing, esse recurso ocorre por meio de gateways, ou seja, os gateways operam como “máquinas intermediárias”, posicionadas mais próximas dos locais em que o aparelho se encontra, e são responsáveis por analisar as informações em um tempo de resposta e carga de trabalho dos servidores reduzido. Trata-se, portanto, de um recurso que visa aproximar o processamento de dados dos dispositivos e dos usuários finais, sendo uma excelente alternativa para um contexto permeado cada vez mais por dispositivos e aplicações guiadas pela Internet das Coisas (IoT). Para lidar com o fluxo crescente de informações e pontos conectados à rede, a Edge Computing descentraliza o armazenamento e o processamento de informações, desobstruindo a nuvem. Assim, podemos defini-la como uma arquitetura de computação distribuída que traz o processamento e o armazenamento de dados para mais perto da fonte na qual esses dados são gerados, como sensores, dispositivos IoT ou outros aparelhos conectados. Como resultado, há uma resposta mais rápida e eficiente, além de uma latência otimizada, o que alivia a carga sobre os data centers centrais e a torna ideal para aplicações que exigem processamento em tempo real e alta disponibilidade. Você também pode gostar – 8 etapas para implementar uma estratégia eficaz de computação em nuvem   Quais problemas a Edge Computing visa mitigar?  Para compreender o conceito e a que se propõe a Edge Computing, é necessário observar três aspectos associados ao funcionamento da internet, quais sejam:  Juntos, esses três pontos configuram uma base importantíssima de atenção à condução de negócios, uma vez que a tolerância dos consumidores para o tempo de resposta de uma conexão é de 2 a 3 segundos. Isso significa dizer que, em uma compra on-line, qualquer comprometimento em alguns dos aspectos mencionados anteriormente poderá refletir no abandono da operação, bem como em prejuízos financeiros que podem até ser significativos para as empresas.  Nesse contexto e tendo em vista a implementação do 5G, que possibilita reduzir a latência e torna a internet cada vez mais complexa, mais rápida e eficiente, a Edge Computing promete driblar esses desafios, reduzindo a distância entre a fonte de dados e o processamento, o que minimiza os impactos do congestionamento e da largura de banda limitada. Dessa forma, a experiência do usuário passa a ser priorizada, por meio de uma conexão mais rápida e confiável mesmo em situações de alta demanda.  Além disso, com a Edge Computing, operações críticas, como compras on-line, reconhecimento facial, processamento pesado de vídeos, cirurgias remotas, carros autônomos, etc., podem ser viabilizadas em uma sistemática de funcionamento efetiva e eficiente. Na prática, na “computação de borda”, ao invés de haver um parque de servidores central, o processo é descentralizado e os servidores agora ficam alocados mais próximos de onde os dados são gerados – algo como na figura abaixo:  A edge computing aproxima a fonte de dados e o processamento, resultando em uma conectividade mais consistente, rápida e sem congestionamentos. Objetivos da edge computing  Com a proposta de trazer os servidores para mais perto de quem precisa processar os dados, a Edge Computing reduz a latência, aprimora o desempenho das aplicações e permite maior eficiência em sistemas de TI, especialmente em áreas como IoT e automação industrial.  Veja outros objetivos e benefícios dessa tecnologia:  ● Dar respostas rápidas a problemas complexos; ● Possibilitar o funcionamento de parques industriais com muitas máquinas autônomas que demandam respostas rápidas dos servidores; ● Otimizar as cadeias varejistas que intercalam controle de estoque, promoções em lojas físicas e e-commerce; ● Facilitar o uso de dispositivos IoT ao garantir que, quando conectados, possam operar de forma eficiente e em tempo real, sem depender de conexões de longa distância; ● Aprimorar a segurança dos dados, de modo que informações sensíveis sejam processadas localmente, reduzindo a exposição e os riscos associados ao seu envio para servidores distantes; ● Melhorar a experiência de realidade aumentada e virtual, por meio da latência mínima e do processamento rápido, essenciais para aplicações imersivas; ● Oferecer suporte a redes de veículos autônomos, por meio de uma comunicação rápida e eficiente entre estes e infraestruturas rodoviárias; ● Otimizar as redes de telecomunicação ao distribuir o processamento para aliviar a carga nos data centers centrais, o que melhora a qualidade do serviço; ● Facilitar o monitoramento e o controle do processamento de dados em tempo real; ● Garantir a continuidade de serviços em áreas remotas em que a conectividade à internet pode ser limitada ou intermitente. Qual a diferença entre Cloud Computing e Edge Computing? Embora tanto a Cloud Computing quanto a Edge Computing sejam pilares essenciais na transformação digital e da nuvem, elas se diferenciam, principalmente, em relação a como e onde o processamento de dados ocorre. Além disso, possuem divergências quanto aos seus objetivos quando contratadas por empresas. Enquanto a Cloud Computing oferece uma solução que terceiriza parques de servidores e todas as suas atribuições (segurança, manutenção, pacote de produtos), representando uma mitigação de dados e pessoal, a Edge Computing visa garantir a disponibilidade de servidores parrudos para armazenar e processar dados complexos mais perto de onde eles são capturados/gerados. Essa distinção impacta diretamente aspectos como latência, segurança e eficiência, tornando cada tecnologia mais adequada para diferentes tipos de aplicação. Veja os destaques na tabela abaixo: Cloud Computing Edge Computing Localização do processamento Data centers centralizados e remotos Próximo à fonte de dados Latência Geralmente é maior por causa da distância entre usuário e servidor Menor, pois o processamento ocorre próximo ao usuário Escalabilidade Altamente escalável, com recursos virtualmente ilimitados Escalabilidade limitada ao hardware disponível na borda Segurança Maior risco de exposição durante o trânsito de dados Maior segurança, com processamento e armazenamento local dos dados Conectividade Depende fortemente de uma conexão de internet robusta Pode funcionar em áreas com conectividade limitada ou intermitente Aplicações típicas Processamento de grandes volumes de dados, armazenamento a longo prazo Aplicações em tempo real, IoT, AR/VR, veículos autônomos, etc. Principais diferenças entre a cloud computing e a edge computing Você também pode gostar – Projeto de cabeamento estruturado: por que ele é tão importante para redes de alta velocidade? __________________________________________________ Entendemos, por fim, que o tema Edge Computing representa um avanço significativo na forma como processamos e gerenciamos dados, sendo uma opção efetiva às limitações da Cloud Computing tradicional. Em contextos que exigem baixa latência e processamento em tempo real, por exemplo, é um recurso interessantíssimo, pois é capaz de reduzir a distância entre a origem dos dados e o processamento deles. Além disso, com o crescimento exponencial de dispositivos conectados e a expansão da tecnologia 5G, essa abordagem descentralizada promete continuar transformando setores inteiros, desde o varejo até a indústria automotiva, assegurando operações mais eficientes e uma experiência superior do usuário. Para se ter uma ideia da aposta do mercado na direção dessa tecnologia, de acordo com a Associação Brasileira de Internet (Abranet), em 2024, 60% dos mais de 157 ZB alcançados no universo de dados estarão concentrados nos endpoints e em Edge Computing. Assim, à medida que a internet fica complexa e as demandas por conectividade aumentam, entender e implementar soluções de Edge Computing se torna um processo natural, além de fundamental para que as empresas permaneçam competitivas e inovadoras em um mercado global cada vez mais dinâmico e exigente. ___________________________________ Você está preparado para atuar em um novo setor de TI?  A cada semestre, a Escola Superior de Redes, a maior referência em ensino para o setor há mais de 18 anos, abre novas turmas de aprendizado em TI sobre os mais variados temas. Conheça todas as turmas da ESR e prepare-se para atualizar seu escopo de trabalho.


    10/10/2024
  • Arquitetura zero trust
    Segurança

    Arquitetura Zero Trust: 5 passos para implementar a abordagem na TI

    Uma das importantes e recentes previsões do Gartner sobre cibersegurança envolve a estimativa de que, até 2026, 10% das grandes empresas terão um programa abrangente, maduro e mensurável de confiança zero em vigor, algo mais significativo do que os menos de 1% de hoje. Esse cenário pode ser facilmente explicado por causa da acelerada sofisticação e abrangência dos crimes virtuais que vêm ocorrendo nos últimos anos. De acordo com um relatório da Kaspersky, somente nos primeiros meses de 2024, o Brasil registrou mais de 106 mil detecções de ransomware, com cerca de 6,5 mil dessas tentativas direcionadas para o setor da saúde. Para driblar esse desafio, a Arquitetura de Confiança Zero (Zero Trust) aparece como uma estratégia de segurança cibernética que atua por meio de políticas de segurança aplicadas com base em um contexto estabelecido. Diante disso, o modelo leva em consideração controles de acesso de privilégio mínimo e uma autenticação estrita do usuário. Ou seja, trata-se de uma abordagem pautada na ausência da confiança presumida, que tem como principal expressão a máxima “nunca confie, sempre verifique”.  Neste conteúdo, vamos nos aprofundar no tema e descobrir os passos básicos para implementar uma dinâmica de confiança zero na TI. Boa leitura! Leia também: O que são ataques de phishing e como evitá-los? O que é Arquitetura Zero Trust? Ao demandar flexibilidade, adaptabilidade e agilidade das empresas, a transformação digital abriu espaço não só para que as tecnologias se desenvolvessem em escala, como também os crimes virtuais. Dessa forma, à medida que as ameaças cibernéticas se tornaram mais complexas, e tendo em vista que modelos tradicionais de segurança – aqueles baseados em perímetros protegidos – são insuficientes, as empresas buscaram novas abordagens para garantir a segurança de suas redes e dados. Nesse contexto, a Arquitetura Zero Trust (ou Arquitetura de Confiança Zero) ganha destaque ao adotar o princípio do acesso com privilégio mínimo, assegurando que cada conexão e transação dentro da rede seja validada/autorizada constantemente. O termo foi criado em 2010 por John Kindervag, analista principal e vice-presidente da Forrester Research, com o objetivo de descrever um modelo que compreendesse os riscos à segurança da informação como pertencentes tanto ao interior quanto ao exterior da rede. Em outras palavras, isso significa dizer que a Arquitetura de Confiança Zero tem como ponto de partida a crença de que existem invasores dentro e fora da rede, e que não é estratégico, nem rentável para as organizações confiar automaticamente em uma máquina ou usuário.  Assim, a popular presunção de que “tudo o que está na rede é seguro” abre espaço para um sistema que, na verdade, pressupõe a violação e verifica cada solicitação de acesso como se ela fosse originada de uma rede aberta. Na prática, o modelo de confiança zero autentica, autoriza e criptografa cada solicitação de acesso antes de concedê-la efetivamente, guiando-se pelos seguintes princípios: Princípios da Arquitetura de Confiança Zero Além desses, o National Institute of Standards and Technology (NIST) propõe oficialmente outros seis: Na prática, as análises aprofundadas dos dados que compõem os objetos de estudo da Arquitetura de Confiança Zero possibilitam que a aplicação desses princípios seja realizada, principalmente, por meio de softwares, Machine Learning e inteligência artificial (IA), ou seja, recursos capazes de detectar anomalias em tempo real, além de oferecer insights para que as equipes de TI saibam como agir em relação às inconsistências da rede.  Com essas informações, a equipe de TI pode estabelecer uma política de regras e respostas aos incidentes e, posteriormente, ainda pode automatizá-la dentro da dinâmica do ambiente digital, o que otimiza os processos de cibersegurança. Assim, dizemos que o modelo de Arquitetura de Confiança Zero pode ser definido como uma abordagem abrangente de segurança da informação, direcionado para empresas que abandonam a percepção de que a rede se torna segura depois de uma simples autenticação do usuário. De um lado, uma proteção tradicional de perímetros x, de outro, uma segurança centrada em dados, controles de acesso orientados por políticas e gestão moderna de identidade.  Por fim, nos termos do Oracle, a abordagem de confiança zero representa um modelo de segurança de TI responsável por manter dados sensíveis seguros e por contribuir para a conformidade da rede com novos regulamentos de privacidade. Trata-se, também, de um modelo que atua contra o potencial comprometimento ou roubo de credenciais por um administrador ou aplicação privilegiada. Em um cenário composto por criminosos cibernéticos que sabem como violar firewalls, VPNs, controles de acesso, IDS, IPS, SIEMs e gateways de e-mail, que têm credenciais corretas e admitidas em sites, aplicações ou dispositivos de qualquer rede, a Arquitetura de Confiança Zero oferece uma estratégia inovadora para mitigar os efeitos negativos da confiança implícita nas redes tradicionais. “A confiança zero permite que as organizações regulamentem o acesso a sistemas, redes e dados sem desistir do controle”. – Oracle Por meio dela, a segurança é executada desde o início, além de ser necessária a verificação de todos os usuários que tentam obter acesso aos recursos de uma empresa e rede. Há um processo de validação de identidades de usuários, direitos de acesso associados a um sistema específico e gerenciamento adequado de identidades digitais dos usuários. Para reforçar a autenticação, a Arquitetura de Confiança Zero rastreia as atividades do usuário, cria relatórios sobre essas atividades e aplica políticas para garantir a conformidade delas, além de implementar recursos fundamentados em camadas precisas de controle de acesso: Leia também: Principais tipos de backup e qual é o ideal para a sua empresa Como implementar uma estratégia de Arquitetura Zero Trust? Executar uma Arquitetura de Confiança Zero requer uma abordagem estratégica e coordenada que inclua a integração de tecnologias, políticas e práticas de segurança focadas em proteger cada ativo dentro da rede.  A seguir, estão os principais passos para se criar um ambiente de confiança zero eficaz: 1) Identifique e classifique todos os ativos da organização O primeiro passo está no mapeamento completo dos ativos da organização, incluindo dispositivos, dados, aplicativos e serviços em nuvem. Cada ativo precisa ser identificado e classificado com base em sua sensibilidade e importância para a empresa, o que facilita a criação de políticas de segurança específicas para cada tipo de recurso. 2) Realize uma avaliação de risco Avaliar vulnerabilidades potenciais e as ameaças cibernéticas mais comuns em seu setor ou modelo de negócio é essencial para entender os pontos fracos da rede. Um mapeamento de risco permite que a empresa se prepare para os cenários de ataque prováveis, desenvolvendo controle para minimizar esses riscos. 3) Defina e aplique políticas de segurança e autenticação Estabelecer políticas de acesso claras é um dos pilares da confiança zero. Essas políticas garantem que apenas os usuários autorizados e os dispositivos autenticados possam acessar a rede, levando em conta fatores como localização, horário e o nível de sensibilidade do dado ou recurso acessado. 4) Implemente controles de segurança Utilize ferramentas como firewalls e sistemas de detecção e prevenção de intrusão (IDS/IPS), além da segmentação da rede, para garantir uma proteção robusta. A segmentação minimiza o movimento lateral de invasores dentro da rede, limitando o impacto de um ataque. 5) Monitore continuamente a rede Uma característica fundamental da Arquitetura Zero Trust é a verificação contínua. A rede deve ser constantemente monitorada em busca de anomalias ou ameaças potenciais, por meio de tecnologias como Machine Learning, para detectar comportamentos suspeitos e responder rapidamente a eles. Componentes críticos da implementação a) Ter a identidade como ponto crítico A gestão de identidade é crucial, já que representa a principal porta de entrada para ameaças. Por isso, a verificação contínua de identidades, dispositivos e aplicativos assegura que apenas os recursos autorizados continuem acessando a rede. Técnicas de controle de acesso condicional ajudam a definir regras e ajustar os níveis de risco em tempo real. b) Avaliar a conformidade e a segurança dos dispositivos Dispositivos desatualizados podem ser alvos fáceis para ataques. Assim, é fundamental avaliar a conformidade e a segurança de todos os dispositivos conectados, especialmente em ambientes que adotam práticas de Bring Your Own Device (Byod) e IoT. c) Conhecer os aplicativos utilizados É essencial mapear todos os aplicativos que a empresa utiliza, tanto em nuvem quanto locais, para reduzir os riscos de inconsistência na rede. Um controle rigoroso sobre os aplicativos em uso impede que vulnerabilidades ocultas passem despercebidas. d) Segmentação de rede A segmentação ou microssegmentação limita o alcance de ataques cibernéticos, pois a superfície de ataque é reduzida e os invasores têm menos liberdade para se moverem lateralmente. e) Proteção de dados Os dados, sejam eles estruturados, semiestruturados ou não estruturados, devem ser protegidos com rigor, utilizando criptografia e controle de acesso baseado em políticas. Essa proteção garante que eles permaneçam seguros mesmo que um invasor obtenha acesso à rede. ________________________________________________________________ Conclusão Em resumo, a Arquitetura de Confiança Zero (Zero Trust) é um componente essencial da segurança da informação moderna, que oferece uma solução robusta para enfrentar as ameaças escaláveis do mundo digital. Para implementá-la, é essencial ter conhecimento especializado em segurança cibernética e em gestão contínua e dinâmica das ameaças. Ficou interessado/a? Conheça todos os cursos da Escola Superior de Redes relacionados à trilha de S-E-G-U-R-A-N-Ç-A! 


    03/10/2024
  • Adoção de Redes Wi-Fi 6
    Administração e Projeto de Redes

    Adoção de redes Wi-Fi 6 e 7: o que está por trás dessas tecnologias?

    Com a crescente demanda por conectividade mais robusta e a proliferação de dispositivos Internet das Coisas (IoT), a análise das redes Wi-Fi 6 se tornou essencial para as empresas que buscam melhorar sua infraestrutura sem fio.  Para se ter uma ideia desse cenário, de acordo com dados da pesquisa ISG Provider Lens Internet das Coisas (IoT), mais de 27 bilhões de dispositivos já estão conectados e se conversam no mundo, exigindo estruturas de redes cada vez mais avançadas. Desde a sua implementação original, iniciada em 1997, pela Wi-Fi Alliance, a internet por Wi-Fi se transforma para atender a essas exigências do mercado, incorporando diversas melhorias no seu escopo. Agora, em uma proposta relativamente recente (sexta geração), com padrão baseado no protocolo 802.11ax, a tecnologia tem o propósito de aprimorar/revolucionar a forma como nos conectamos. Na prática, isso significa dizer que as redes Wi-Fi 6 são desenvolvidas para suportar mais dispositivos conectados, mantendo a mesma performance e garantindo a integridade dos pacotes de dados. Além disso, a iniciativa impacta positivamente a eficiência, a flexibilidade e a escalabilidade dos processos cibernéticos, refletindo em avanços significativos para a experiência do usuário. São melhorias associadas à largura de banda ultra-alta, maior capacidade de acesso à rede e redução de mais de 30% no consumo de energia dos terminais. Neste artigo, vamos detalhar o que está por trás das redes de internet sem fio Wi-Fi 6 e como se preparar para as oportunidades de mercado associadas a essa inovação. Vamos também abordar o que se sabe sobre o Wi-Fi 7. Boa leitura!  Você também pode gostar – Computação quântica: o que podemos esperar dessa tecnologia e quais suas tendências?  O que muda com a 6ª geração das redes Wi-Fi? O termo Wi-Fi (abreviação da tecnologia Wireless Fidelity ou fidelidade sem fio, em português) está associado a um grupo de protocolos de rede sem fio baseados no padrão de rede IEEE 802.11. A cada geração, são introduzidas melhorias que visam aumentar a velocidade, confiabilidade e segurança das conexões. Confira as evoluções mais recentes:  De forma resumida, a nova geração de redes Wi-Fi 6 se diferencia por focar na entrega de mais desempenho em ambientes com múltiplos pontos de conexão, como empresas, estádios e aeroportos, entre outros espaços com grandes volumes de dispositivos conectados simultaneamente. Para que isso seja possível, duas tecnologias-chave entram em cena: MU-MIMO e OFDMA. Outras características importantes do Wi-Fi 6 Além de MU-MIMO e OFDMA, o Wi-Fi 6 oferece outras funcionalidades avançadas, como: Podemos, portanto, dizer que as vantagens das redes Wi-Fi 6 são divididas nas seguintes frentes: Benefícios das redes Wi-Fi 6:  Você também pode gostar – Tecnologias emergentes para TI: arquitetura de malha de segurança cibernética  Wi-Fi 6E:  As redes Wi-Fi 6 contam ainda com uma extensão projetada para operar na faixa de 6 GHz. A Wi-Fi 6E possui uma largura de banda ainda mais robusta, menos interferência e maior velocidade de transmissão em comparação com as faixas tradicionais de 2,4 GHz e 5 GHz. Em termos práticos, a Wi-Fi 6E se destaca por proporcionar uma experiência de conectividade bastante eficiente em ambientes congestionados, apresentando-se como uma ferramenta útil para aplicações que exigem altas taxas de transmissão de dados, como streaming em 8K, realidade virtual e ambientes de trabalho colaborativo. Desafios da adoção do Wi-Fi 6 Apesar dos benefícios, a adoção do Wi-Fi 6 ainda enfrenta alguns desafios. Um deles é a compatibilidade dos dispositivos com a nova tecnologia. Embora os roteadores Wi-Fi 6 já estejam amplamente disponíveis, nem todos os dispositivos são compatíveis com ele, o que demanda que as empresas e os consumidores atualizem os seus equipamentos gradualmente. Além disso, o custo dos roteadores e dispositivos compatíveis com o Wi-Fi 6 tende a ser um pouco mais alto em comparação com os modelos anteriores. E quando se pensa em adoção em massa, esse pode ser um obstáculo significativo, principalmente para pequenas empresas e usuários domésticos. Ou seja, há entraves relacionados com a atualização de infraestrutura, compatibilidade com dispositivos mais antigos e os custos envolvidos. Podemos resumir da seguinte forma: 1) Compatibilidade de dispositivos Nem todos os dispositivos existentes no mercado são compatíveis com o Wi-Fi 6, o que significa que as empresas e os consumidores precisam, gradualmente, atualizar os seus equipamentos, como smartphones, laptops, roteadores e outros dispositivos conectados. Muitos aparelhos mais antigos podem não ser capazes de aproveitar as melhorias oferecidas pelo Wi-Fi 6, o que pode resultar em uma experiência limitada até que a transição seja totalmente feita. 2) Custo de equipamentos Os roteadores e dispositivos que suportam o Wi-Fi 6 e o Wi-Fi 6E costumam ser mais caros do que os modelos que utilizam tecnologias anteriores, como o Wi-Fi 5. Esse custo elevado pode ser um obstáculo para pequenas empresas, startups e usuários domésticos que ainda estão se adaptando às novas exigências de conectividade. Da mesma forma, o investimento inicial para atualizar toda a infraestrutura de rede pode parecer significativo, o que contribui para uma implementação mais lenta. 3) Atualização de infraestrutura A transição para o Wi-Fi 6 não se limita apenas à compra de novos roteadores. Para que as empresas maximizem os benefícios dessa tecnologia, muitas vezes, é necessário revisar e adaptar toda a infraestrutura de TI, garantindo que ela seja compatível com velocidades mais altas e maior número de dispositivos conectados simultaneamente. Esse processo pode ser complexo e caro, especialmente para empresas com redes grandes e estabelecidas. E o Wi-Fi 7: onde entra nessa história? Lançado oficialmente em janeiro de 2024, o Wi-Fi 7, também conhecido como IEEE 802.11be Extremely High Throughput (EHT), é o próximo salto em desempenho de redes sem fio. Ele vai utilizar as três bandas de frequência (2.4 GHz, 5 GHz e 6 GHz) para maximizar o uso do espectro.  O objetivo do Wi-Fi 7 é fornecer velocidades surpreendentes e maior eficiência para cada dispositivo conectado. Algumas das suas principais características incluem: Até 4,8 vezes mais veloz que o Wi-Fi 6 e 13 vezes mais rápido que o Wi-Fi 5, estima-se que o Wi-Fi 7 atue tanto na transmissão de vídeos em 8K até em experiências imersivas de realidade virtual (RV). Além disso, ele deve trazer latência ainda mais baixa, o que será crucial para aplicativos críticos, como jogos on-line, automação industrial e telemedicina. Você também pode gostar – Projeto de cabeamento estruturado: por que ele é tão importante para redes de alta velocidade? ___________________________________ Você está preparado para atuar com as novas gerações de redes e com as demandas por infraestruturas atualizadas?  O profissional de TI especialista em administração e projetos de rede precisa, necessariamente, conhecer as novas tecnologias e demandas do mercado, tais quais as recentes gerações de Wi-Fi, e se adaptar a elas. Sabendo disso, a Escola Superior de Redes (ESR), a maior referência em ensino para o setor há mais de 20 anos, abre novas turmas a cada semestre para abordar os mais variados temas. Para a área de infraestrutura e projetos de redes, por exemplo, os cursos da ESR preparam o profissional para enfrentar os desafios diários do suporte a roteadores, switches e estações de trabalho, dominando protocolos e tecnologias usadas para projetar e operar redes corporativas tanto locais (LAN) como de longa distância (WAN), assim como provedores de acesso à internet. São diversos cursos, tanto na modalidade EaD quanto na presencial, como:  Conheça todas as turmas da ESR e prepare-se para atualizar seu escopo de trabalho.


    25/09/2024
  • Gestão de Contratos de TI
    Governança de TI

    Gestão de Contratos: qual a importância dos fiscais para a efetividade dos serviços de TI?

    A contratação pública ou privada de serviços de TI é sempre uma etapa decisiva para o sucesso das empresas. Como normalmente envolvem montantes financeiros significativos e também são associados a grandes expectativas por resultados, os contratos dessa área precisam ser bastante detalhados, com previsibilidade para operação em diversos cenários, e precisam também especificar os níveis de serviços estimados para cada ciclo de trabalho. Na administração pública, por exemplo, esse processo ocorre por meio de uma contratação direta ou indireta, sendo a licitação com edital e termo de referência (instrumentos que indicam o resultado desejado e as regras estabelecidas até o cumprimento obrigacional do contratante e do contratado) o sistema mais utilizado e indicado pela legislação. Nesse contexto de importância dos contratos de TI, manter coesa a equipe de gestão contratual é fundamental. Isso porque esses colaboradores são os responsáveis por fiscalizar todas as fases da execução contratual, minimizando a necessidade de aplicação de sanções ou glosas em caso de execução inadequada ou insuficiente.  A atuação da equipe de gestão contratual na aplicação de sanções e glosas foi tema do novo webinar da Escola Superior de Redes, conduzido pelo especialista em governança de TI, Marco Fragoso. Você confere os principais pontos abordados logo abaixo. Você também pode gostar: 10 cursos que irão intensificar o seu conhecimento em Governança de TI  O que são níveis de serviço? O primeiro passo para realizar uma gestão contratual em TI eficiente é observar qual o nível de serviço específico de cada item contratual, implementado ou desenvolvido. Na prática, o nível de serviço representa um indicador de qualidade e também um acordo firmado entre as partes (contratado e contratante) para determinar como essa qualidade será controlada. Para que esse indicador seja discriminado e acompanhado, é necessário estabelecer alguns componentes específicos, como:  Além disso, os níveis de serviço ainda podem ser discriminados por tipos.  Tipos de nível de serviço  Portanto, sanções e glosas caracterizam-se por serem punições administrativas e/ou pecuniárias em casos de descumprimento obrigacional de um contrato e de um nível de serviço acordado.  Você também pode gostar: Governança corporativa: princípios e boas práticas para adotar em 2024  O que são sanções e glosas? Como dissemos anteriormente, tanto as sanções quanto as glosas representam respostas à inadequação ou inexecução de um serviço. Entretanto, embora possuam o mesmo objetivo pedagógico de reprimir as falhas contratuais, são institutos que não se confundem.  Sanções Quando uma falha na prestação do serviço é identificada, o fornecedor está sujeito a uma sanção, ou seja, a uma represália que é, em regra, estabelecida na própria legislação.  Na nova Lei de Licitação e Contratos da Administração Pública (Lei nº 14133/2021), por exemplo, há dispositivos específicos que indicam o tipo de sanção e a gradação de sua aplicação de acordo com o impacto do descumprimento obrigacional do contrato de serviço analisado. De forma paralela, na Lei nº 13.303/2016 (Lei das Estatais), também há um conjunto definido de sanções que devem ser aplicadas quando um fornecedor não presta o serviço adequado. Na prática, é possível, ainda, ao contratante aplicar uma combinação de sanções previstas em outros dispositivos legais. Veja o que diz a Lei nº 14.133/21 no Título IV “Das irregularidades”: Art. 156. Serão aplicadas ao responsável pelas infrações administrativas previstas nesta lei as seguintes sanções:I – advertência;II – multa;III – impedimento de licitar e contratar;IV – declaração de inidoneidade para licitar ou contratar.§ 1º Na aplicação das sanções, serão considerados:I – a natureza e a gravidade da infração cometida;II – as peculiaridades do caso concreto;III – as circunstâncias agravantes ou atenuantes;IV – os danos que dela provierem para a Administração Pública;V – a implantação ou o aperfeiçoamento de programa de integridade, conforme normas e orientações dos órgãos de controle. Glosas Já as glosas são definidas por um modelo de retenção de pagamento. São uma punição direta ao fornecedor, à medida que o contratante deixa de pagar o valor combinado no contrato em face de um serviço que não atingiu o nível adequado. As glosas são definidas, normalmente, por meio dos próprios contratos, sendo um instituto mais flexível para a administração do que as sanções.  Nesse contexto, o percentual de retenção da glosa precisa ser definido de modo que permita que o fornecedor se mantenha saudável para continuar cumprindo as suas obrigações, mas represente uma punição.  As sanções e glosas podem ser aplicadas simultaneamente ou não. Você também pode gostar: Governança de TI: o que está por trás dos modelos Cobit e Norma 38500?  Papéis dos agentes de fiscalização  Nessa perspectiva de níveis de serviço e de gestão contratual, os agentes de fiscalização têm papel fundamental. Além de atestar a adequação das contratações, evitam que as sanções e glosas precisem ser aplicadas, o que resulta em menor onerosidade para a empresa contratante e celeridade na entrega de resultados com os serviços prestados pelo fornecedor. Entenda a importância de cada cargo nesse processo: ___________________________________ Observa-se, assim, que a gestão de contratos de TI, seja na esfera pública, seja na privada, é uma atividade que exige rigor e clareza para garantir que as expectativas e os resultados sejam alinhados e cumpridos. A definição precisa dos níveis de serviço e a atuação vigilante da equipe de fiscalização são os pilares fundantes de uma execução de serviços eficiente, que minimizam o risco de sanções e glosas. Além disso, a aplicação dessas medidas disciplinares, quando necessária, deve ser conduzida de forma justa e transparente, respeitando as normas legais e contratuais estabelecidas. Por isso, a gestão contratual robusta e bem estruturada reflete em resultados positivos para contratantes e fornecedores. Quando a equipe responsável por esse processo é bem constituída, as organizações asseguram a qualidade dos serviços prestados, protegendo seus investimentos e fortalecendo suas relações com os fornecedores.  Confira o webinar “Atuação da equipe de gestão contratual na aplicação de sanções e glosas” na íntegra! Conheça também os cursos de Governança em TI da ESR.


    19/09/2024