terça-feira, 27 de agosto de 2024

Some IBM Free Courses

https://bundles.yourlearning.ibm.com/skills/learn/#page/VQMMDRZZVEZX255J

O que você precisa saber sobre o blockchain?

Se um "blockchain" é uma “cadeia de blocos”, o que é um bloco?

Um bloco é um grupo de transações que são mantidas em ordem cronológica e codificadas em um blockchain. Cada computador que executa código para um determinado blockchain possui os dados que contêm todas as transações que já ocorreram no blockchain.

Novos blocos são registrados ou extraídos quando novas transações ocorrem. Depois que os blocos são registrados no blockchain, esses registros não poderão ser facilmente apagados ou mudados.

Criando um blockchain

A ilustração a seguir descreve as etapas para construir um blockchain:

O blockchain rastreia o movimento de valores ou ativos digitais do ponto A ao ponto B, usando a tecnologia de livro-razão distribuído. Isso significa que os livros-razão de blockchain são distribuídos entre todos os computadores que executam o seu software.

Qual é a diferença entre a tecnologia de livro-razão distribuído e um banco de dados?

A principal diferença entre um blockchain e um banco de dados é a descentralização. Os registros em um blockchain não são mantidos em algum local central; eles são compartilhados entre os computadores simultaneamente. Cada participante de um blockchain possui uma cópia protegida de todos os registros e de todas as mudanças para que qualquer pessoa possa visualizar o histórico de auditoria dos dados; não há necessidade de uma terceira parte central e confiável para auditar as transações e garantir que tudo esteja correto.

A tecnologia de blockchain requer que todos os nós na rede formem consenso. Isso significa que, quando as transações são transmitidas para a rede (por exemplo, quando seu amigo envia um bitcoin), a rede deve validar essas transações.

Existem diferentes tipos de blockchains?

Geralmente, as blockchains se enquadram na categoria de aberto (público) ou fechado (privado). A principal distinção entre eles está relacionada a quem tem permissão para participar da rede, executar o protocolo de consenso e manter o livro-razão compartilhado.

Blockchains públicos

Distribuem confiança e potência entre todos os participantes na rede, o que significa que qualquer pessoa pode se associar e participar deles. O Bitcoin é uma das maiores redes públicas de blockchain em produção atualmente.

Blockchains privados

Operam em um ambiente “confiável” e são considerados como mais seguros.

Exemplo: Hyperledger Fabric—um mecanismo que se concentra em contratos inteligentes. https://blockgeeks.com/guides/hyperledger/https://www.hyperledger.org/projects/fabric

Para resumir...

Transações de negócios ocorrem a cada segundo de cada dia - pedidos, pagamentos, rastreamento de contas e muito mais. A tecnologia de blockchain oferece novas maneiras de autenticação e autorização de transações no mundo digital. Ela fornece um método de registro e transferência de dados de uma maneira transparente, confiável e demonstrável.

Este gráfico resume os benefícios do blockchain:



Ciência de Dados + IA

 A tarefa do cientista de dados consiste principalmente em analisar grandes volumes de informações brutas para encontrar padrões. A análise pode envolver atividades como processamento prévio de dados, criação de modelos para analisar esses dados ou apresentação de informações usando técnicas de visualização de dados. O propósito da ciência de dados é sempre extrair insights de valor a partir dos dados.

Como aplicamos a ciência de dados?

Desde coisas simples, como pesquisas no Google, jogos e desenvolvimento de produtos, até aplicativos futuristas, como realidade aumentada e publicidade preditiva, a ciência de dados oferece benefícios para quase todos os mercados.

Os cientistas de dados de hoje usam algoritmos e técnicas de aprendizado de máquina para extrair insights dos enormes armazenamentos de dados no mundo.Veja só dois exemplos do que podemos aprender quando o aprendizado de máquina divide grandes quantidades de dados:

A regressão explora como um conjunto de fatos ou números mudará quando outros fatores ou números relacionados mudarem. Por exemplo, o aprendizado de máquina pode estimar o preço de venda apropriado de uma casa nova com base nas vendas de outras casas semelhantes na área.

A classificação identifica grupos ocultos em conjuntos de informações aparentemente aleatórios. Por exemplo, o aprendizado de máquina pode ver vídeos de milhares de câmeras de rua e rastrear os caminhos percorridos por pessoas de um determinado gênero, etnia ou aparência.

Aplicações como essas seriam impossíveis sem o poder da ciência de dados moderna.

segunda-feira, 26 de agosto de 2024

Simplificando a escolha na hora de comprar de serviços de Nuvem (Cloud)

 Os serviços em Cloud são cobrados principalmente por:

  1. Computação
  2. Transporte de dados (nas redes)
  3. Armazenamento
Um bom profissional arquiteto/engenheiro de nuvem vai saber utilizar todos os recursos necessários de maneira otimizada e inteligente sem gastar recursos de maneira desnecessária.

Portanto deve saber configurar configurar corretamente o auto-scaling que vai aumentar ou diminuir os recursos conforme a demanda sem prejudicar o seu processamento, definindo um "mínimo" e um "máximo" de acordo com a nossa vontade de "elasticidade". 

O gerenciamento da necessidade de aumentar ou diminuir do Auto-Scaling é feito pelo Elastic Load Balancing (Balanceamento Elástico de Carga)


Embora o Elastic Load Balancing e o Amazon EC2 (Cloud Computing) Auto Scaling sejam serviços separados, eles trabalham juntos para que as aplicações executadas no Amazon EC2 tenham alto desempenho e disponibilidade. 

Ok com estas informações agora é preciso escolher em qual Região e a Zona de disponibilidade que vamos executar o serviço, o ideal é escolher com base na distância onde haverá maior requisição dos serviços para que os dados não tenham que viajar tanto e cheguem o mais rápido possível!

Contudo, nem sempre escolher uma zona de disponibilidade mais próxima do seu público-alvo é o melhor coisa a se fazer, por exemplo aqui no Brasil você pode pagar muito mais caro por causa de impostos e políticos "Taxades" do que em outros países.

Tá mas e agora? Vou colocar meu "site" em uma Região distante, e ele vai demorar a chegar? Não necessariamente, seu o seu site por exemplo não necessitar de conexão e atualização constante como por exemplo um jogo de tiro ou de corrida onde milésimo importa, o seu site mesmo que contendo vídeos como uma "plataforma de ensino" essa "demora" pode ser imperceptível graças aos serviços de CDN (Content Delivery Network).

Uma rede de distribuição de conteúdo (CDN) é um grupo de servidores geograficamente distribuídos que armazenam conteúdo em cache próximo aos usuários finais. 

Alguns nomes de serviços em alguns serviços de Nuvem são modificados, por exemplo na AWS (Amazon Web Services) o serviço de CDN (Content Delivery Network) é chamado de "Cloud Front" e o serviço de DNS (Domain Name System) é chamado de Route 53 (por causa que a porta de destino para solicitações de servidor DNS, é a porta 53 do TCP ou UDP. Os servidores DNS respondem a consultas na porta 53 e fornecem respostas que direcionam os usuários finais para aplicativos na internet).

O que pode atrapalhar e confundir ainda mais o entendimento do funcionamento de um serviço x ou y fornecido por uma "Nuvem" (AWS, Google, Azure, etc).

Continuando... Agora que eu já escolhi minha nuvem e zona de disponibilidade, como eu acesso ela? Como eu gerencio ela? Basicamente de 3 formas:
  1. O jeito mais simples que é acessando o site/plataforma que tem uma interface gráfica mais ou menos amigável com menus e botões, também chamado de "Console".
  2. O terminal também chamado de CLI (Command Line Interface) que geralmente também pode ser acessado pelo site/plataforma da nuvem escolhida.
  3. SKD's (Software Kit Development) como por exemplo um plugin do vscode ou jetbrains
Ok escolhemos a nuvem, região, serviços, mas como o meu site vai se conectar na internet? 

O site vai ficar em algo que chamamos de VPC (Virtual Private Cloud), ou seja na sua nuvem virtual privada, e o site vai se conectar publicamente através do Gateway de Internet.

Ainda na sua VPC (Nuvem Privada) você vai configurar o que você quer que seja acessível ao público e o que deve ser acessível somente para você ou sua empresa através das: Sub-redes!

Uma sub-rede é uma seção de uma VPC na qual você pode agrupar recursos com base em necessidades operacionais ou de segurança. As sub-redes podem ser públicas ou privadas. 



Uma VPC com três instâncias do Amazon EC2 em uma sub-rede pública e três bancos de dados em uma sub-rede privada.
Sub-redes públicas contêm recursos que precisam ser acessíveis ao público, como o site de uma loja on-line.

As sub-redes privadas contêm recursos que devem ser acessíveis apenas pela sua rede privada, como um banco de dados que contém informações pessoais dos clientes e históricos de pedidos. 

Em uma VPC, as sub-redes podem se comunicar entre si. Por exemplo, um aplicativo que envolve instâncias do Amazon EC2 em uma sub-rede pública que se comunicam com bancos de dados localizados em uma sub-rede privada.

Todo o tráfego (de pacotes de dados) que entra e saí da sua VPC é gerenciado pela ACL (Acess List Control) depois que passa pelo Gateway de Internet, ou seja:

Uma ACL de rede é um firewall virtual que controla o tráfego de entrada e saída no nível de sub-rede.

E dentro de cada sub-rede temos instâncias que possuem uma "barreira de controle" que também gerenciam a entrada e saída de pacotes de dados: grupo de segurança


Bem, isso é o básico, outra coisa importante abordar é sobre "bancos de dados", o "ouro da empresa", eles podem (e se recomenda) que sejam não estejam no EC2, mas que apenas sejam conectados. Na Amazon esse serviço é chamado de: Elastic Block Store (Amazon EBS).



















quinta-feira, 22 de agosto de 2024

Google Cloud Computing Foundations: Data, ML, and AI in Google Cloud (9)

  •  You have the data, but what are you doing with it?










Dataproc is a fast, easy-to-use, fully-managed cloud service for running Apache Spark and Apache Hadoop clusters in a simpler, more cost-efficient way. Operations that used to take hours or days take seconds or minutes instead. Create Dataproc clusters quickly and resize them at any time, so you don't have to worry about your data pipelines outgrowing your clusters.





The Apache Beam SDK is an open source programming model for data pipelines. In Google Cloud, you can define a pipeline with an Apache Beam program and then use Dataflow to run your pipeline.








Quiz
Passing score: 75%
1.Which of these is a managed Spark and Hadoop service that lets you benefit from open source data tools for batch processing, querying, streaming, and machine learning?"
(e)Pub/Sub
(e)Dataflow
(e)BigQuery
(x)Dataproc

2.You can use three basic patterns to load data into BigQuery. Which one involves using SQL statements to insert rows into an existing table or to write the results of a query to a table?
Streaming
(e)Batch load
(x)Generated data

3.Which of Google Cloud’s big data managed services is optimized for large-scale batch processing or long-running stream processing of structured and unstructured data?
(e)BigQuery
(x)Dataflow
(e)Pub/Sub
Dataproc

4.Which of these is not a feature of BigQuery?
BigQuery offers a flexible pay-as-you-go pricing model.
(x)BigQuery runs on your on-premises server.
BigQuery provides built-in machine learning features.
BigQuery offers both data storage and analytics.






















Vertex AI is Google Cloud's next generation, unified platform for machine learning development and the successor to AI Platform announced at Google I/O in May 2021. By developing machine learning solutions on Vertex AI, you can leverage the latest ML pre-built components and AutoML to significantly enhance development productivity, the ability to scale your workflow and decision making with your data, and accelerate time to value.




























sexta-feira, 16 de agosto de 2024

Google Cloud Computing Foundations: Networking & Security in Google Cloud (8)

1. It helps the network

Objectives

Networking in the cloud








A Virtual Private Cloud (VPC) is composed of subnetworks, or subnets, and each subnet must be configured with a private IP CIDR address.

CIDR stands for Classless Inter-domain Routing.







Virtual Private Cloud (VPC) networks allow you to maintain isolated environments within a larger cloud structure, giving you granular control over data protection, network access, and application security.













Quiz
Your score: 80% Passing score: 75%
Congratulations! You passed this assessment.

1.What is used to forward traffic from one instance to another within the same network, across subnetworks, or even between Google Cloud zones, and doesn’t require an external IP address?
  • (x) Routing table
  • Firewall
  • Subnet
  • Load balancer
Good job! That’s the correct answer.

2.What term describes where the Google network is connected to the rest of the internet?
  • Zone
  • IP address
  • Region
  • (x) Point of presence (PoP)
Good job! That’s the correct answer.

3.Which option would you choose if you required cross-regional load balancing for a web application?
  • (x) HTTP(S) Load Balancing
  • SSL Proxy Load Balancing
  • Internal HTTP(S) Load Balancing
  • TCP Proxy Load Balancing
Good job! That’s the correct answer.

4.Select the true statement.
  • VPCs are regional and subnets are zonal.
  • VPCs are regional. Subnets are not used in Google Cloud.
  • VPCs are global and subnets are regional.
  • (x) Both VPCs and subnets are global.
Unlucky! That’s not the correct answer.

5.Which connectivity solution provides a direct connection to Google?
  • Partner Interconnect
  • Direct Peering
  • Carrier Peering
  • (x) Dedicated Interconnect
Good job! That’s the correct answer.

2. Keep an eye on things

Objectives



















Cloud Monitoring provides visibility into the performance, uptime, and overall health of cloud-powered applications. Cloud Monitoring collects metrics, events, and metadata from Google Cloud, Amazon Web Services, hosted uptime probes, application instrumentation, and a variety of common application components including Cassandra, Nginx, Apache Web Server, Elasticsearch, and many others. Cloud Monitoring ingests that data and generates insights via dashboards, charts, and alerts. Cloud Monitoring alerting helps you collaborate by integrating with Slack, PagerDuty, HipChat, Campfire, and more.

the Monitoring and Logging agents
Agents collect data and then send or stream info to Cloud Monitoring in the Cloud Console.

The Cloud Monitoring agent is a collected-based daemon that gathers system and application metrics from virtual machine instances and sends them to Monitoring. By default, the Monitoring agent collects disk, CPU, network, and process metrics. Configuring the Monitoring agent allows third-party applications to get the full list of agent metrics. On the Google Cloud, Operations website, see Cloud Monitoring Documentation for more information.

Quiz
Passing score: 75%
1.Which one of the following provides access to logs created by developers who deploy code to Google Cloud?
  • Service Logs
  • Network logs
  • Agent logs (e)
  • Cloud Audit Logs (e)
2.Where can you store and version-control your Terraform templates?
  • Cloud Trace
  • Cloud Monitoring
  • Cloud Profiler
  • (x) Cloud Source Repositories
3.Which tool ingests metrics, events, and metadata to generate insights through dashboards, Metrics Explorer charts, and automated alerts?
  • Cloud Profiler (e)
  • Cloud Trace
  • (x) Cloud Monitoring
  • Cloud Source Repositories
4.In Cloud Logging, what is the default log retention period for data access logs?
  • 365 days
  • (x) 30 days
  • 400 days
  • 3650 days
















Postagens mais visitadas