Então, o que exatamente é tecnologia da informação?
A TI é essencialmente o uso de tecnologia digital, como computadores na Internet, para armazenar e processar dados em informações úteis. O setor de TI se refere a todo o escopo de todos os empregos e recursos relacionados às tecnologias de computação na sociedade. E há muitos tipos diferentes de empregos nesse campo. Desde engenheiros de rede, que garantem que os computadores possam se comunicar entre si, até técnicos de hardware que substituem e reparam componentes, até a equipe de suporte da área de trabalho, que garante que os usuários finais possam usar seu software adequadamente.
Mas a TI não se trata apenas de construir computadores e usar a Internet, trata-se realmente das pessoas. Essa é a essência do trabalho de suporte de TI. De que adianta a tecnologia ou a informação se as pessoas não conseguem usar a tecnologia ou entender as informações? A TI ajuda as pessoas a resolver problemas significativos usando a tecnologia, e é por isso que você verá suas influências na educação, medicina, jornalismo, construção, transporte, entretenimento ou, na verdade, em qualquer setor do planeta. A TI trata de mudar o mundo por meio das formas como colaboramos, compartilhamos e criamos juntos.
Então, como é o trabalho diário de alguém no suporte de TI?
Bem, isso varia muito dependendo se você está fazendo suporte presencial ou remoto e em uma pequena ou grande empresa, e realmente não existe trabalho diário. Já que os quebra-cabeças e desafios são sempre novos e interessantes. Mas, em geral, os especialistas em suporte de TI garantem que o equipamento tecnológico de uma organização esteja funcionando sem problemas. Isso inclui gerenciamento, instalação, manutenção, solução de problemas e configuração de equipamentos de escritório e de computação.
Também nunca houve tantas oportunidades de entrar no setor de TI do que agora. Além de o campo de TI ser incrivelmente diversificado, as perspectivas de emprego também estão crescendo. A projeção é de que os empregos de TI somente nos EUA cresçam 12% na próxima década. Isso é maior do que a média de todas as outras ocupações.
Get the latest updates from Google
You're already taking control of your career path by enrolling in this course. Now, you can stay ahead of the curve by subscribing to email updates directly from Grow with Google.
You’ll receive:
- Curated career resources and tools. Be among the first to know about new career-related resources from the Grow with Google team, and get tips about making the most of what we have to offer.
- Alerts on the latest courses from Google: Take advantage of the latest learning opportunities and develop new skills to stay competitive in a rapidly changing job market.
- Pro tips to get the most out of AI. Keep up to date and learn how to use AI to help make decisions, solve problems, and boost productivity and creativity.
Build your career identity: Your career identity is the unique value you bring to the workforce. Watch this video to learn about the key components of career identity and write your own career identity statement. Discovering and defining your own career identity makes you better equipped to choose a career path that aligns with your strengths, values, and goals and is more effective in your chosen profession.Pioneers in Computing and IT
Computer technology has come a long way since the first computer was invented. Along the way, many people from diverse backgrounds contributed inventions and innovations that helped us get to where we are today with modern computers. Without these individuals, information technology would not be where it is today.
Early Computer Pioneers
- Ada Lovelace: Ada Lovelace was born in 1815 to Anna Milbanke and the poet Lord Byron. Her mother Anna Milbanke educated her to excel in mathematics. When Lovelace was still young, she was shown the Difference Engine (a mechanical calculator developed by Charles Babbage) and published a set of notes which contained the first computer algorithm for the Analytical Engine in 1843. Lovelace predicted at the time that computers would eventually be used outside of mathematics for things like composing music and made predictions about how technology would influence society.
- Alan Turing: Alan Turing was born in 1912. While completing his degrees, he developed the concept of the Turing machine. Turing proved that there were some yes/no mathematical questions that could never be solved computationally which defined computation and its limitations. These findings would go on to become one of the seeds of computer science and his conceptual Turing machine (so named by his Doctoral advisor) is considered a predecessor of modern computer programs. During the Second World War, Turing developed the Turing-Welchman Bombe which was used to decipher Nazi codes and intercept Nazi messages. After the war, Turing's Imitation Game (now known as the Turing test) was created as a means to evaluate the abilities of artificial intelligence.
- Margaret Hamilton: Margaret Hamilton was born in 1936. While working in the meteorology department at the Massachusetts Institute of Technology, she developed software for predicting weather. Later Hamilton would go on to work on the software that was used in the NASA Apollo command and lunar modules. With her experience writing software, she wanted to ensure that this skill would get its due respect and coined the term “software engineering.” Culminating her experience working on the Apollo missions and moon landings, Hamilton formalized what she learned into a theory that would later become the Universal System Language.
- Admiral Grace Hopper: Grace Hopper was born in 1906. During the Second World War, she joined the US Navy Reserve after taking a leave from her role as a mathematics professor at Vassar College. In the Navy, she was assigned the Bureau of Ships Computation Project at Harvard University where she worked on the programming team for the Mark I computer. After the war and her time at Harvard, she began working on more powerful computers and recommended that a programming language be developed that used English words rather than symbols. This concept would eventually become FLOW-MATIC the first programming language to use English words which also necessitated the invention of the first compiler (a program that translates source code into machine code). Notably, she is also credited with first using the term “computer bug” after a real bug (a moth) flew into a computer she was working on. Later in her career, she was one of the designers of COBOL, a programming language that is still in use today.
NASA and the Human Computers
The following women all worked on various NASA projects. Some even were hired as human computers. They were tasked with completing complex calculations by hand for all sorts of situations from wartime thrust-to-weight ratios to Apollo orbit trajectories. They all went on to have impressive careers in mathematics and computer science.
- Annie Easley developed the energy analytics code used to analyze power technology including the technology that was used in battery technology for Centaur rockets and early hybrid vehicles
- Katherine Johnson was a physicist, mathematician, and space scientist who provided the calculation for important missions like the first orbit of the Earth and the Apollo 11 moon landing.
- Dorothy Vaughan was a mathematician who would eventually become the first African American supervisor of NACA (National Advisory Committee for Aeronautics which would later become NASA) and a FORTRAN expert programmer working on the Scout Launch Vehicle Program (a family of rockets that placed small satellites in orbit).
- Mary Jackson was NASA’s first Black female engineer. She worked on wind tunnel and flight experiments and would go on to earn NASA’s most senior engineering title.
- Melba Roy Mouton was a Head Mathematician at NASA working on Project Echo, the first experiment in passive satellite communication. At NASA, she wrote programs that calculated locations and trajectories of aircraft.
- Evelyn Boyd Granville worked on multiple projects in the Apollo and Mercury programs for NASA. She worked on computer techniques related to concepts like celestial mechanics and trajectory computation.
Innovators in Modern Technology
- Hedy Lamarr: Hedy Lamarr was born in 1914. A movie actress during the golden age of Hollywood, she was also a self-taught inventor. During the Second World War, she read about radio-controlled torpedoes which could potentially be jammed by enemy forces. She and a composer friend proposed and patented an idea for a frequency-hopping radio signal that used existing player piano technology. The principles of this work would eventually be used in familiar technologies like WiFI, Bluetooth, and GPS.
- Guillermo Gonzalez Camarena: Guillermo Gonzalez Camarena was born in 1917. An electrical engineer, in 1940 he patented an adapter that let monochrome cameras use colors. This technology was one of the earliest forms of color television. Camarena’s system would eventually be used by NASA for the Voyager mission and made color images of Jupiter possible.
- Gerald (Jerry) Lawson : Jerry Lawson was born in 1940. Working as a semiconductor engineer for the Fairchild company, he worked on a team that developed the Fairchild Channel F, a color video game console that was designed to use interchangeable game cartridges. Previously, most game systems had built-in programming. He would later be dubbed the “father of the video game cartridge” for this work.
- Mark E. Dean: Mark Dean was born in 1957. An inventor and computer scientist, he is the chief engineer of the IBM team that released the IBM personal computer. He holds three of the nine patents for the PC. He and his team also created the first gigahertz computer chip and he also helped develop the color PC monitor. Along with Dennis Moeller, he developed the Industry Standard Architecture (ISA) bus which was a precursor to modern bus structures like PCI and PCI express.
- Clarence “Skip” Ellis: Clarence Ellis was born in 1943. He was a computer scientist and professor who pioneered in Computer Supported Cooperative Work and Groupware. In fact, while working at Xerox PARC, he and his team developed a groupware system called OfficeTalk. For the first time, this system allowed for collaboration from a distance using ethernet. He also focused on icon-based graphical user interfaces (GUIs) that have become prevalent in modern computing.
- Gladys West: Gladys West was born in 1930. A mathematician, she was hired to work for the US Navy to more accurately model the shape of the Earth. She used algorithms to account for all sorts of variations in the shape of the Earth and her model would eventually be used as the basis for the Global Positioning System (GPS).
These individuals are a few notable examples, but this is by no means a complete list!
Lógica Digital
Um computador simplesmente compara uns e zeros, mas milhões ou bilhões de vezes por segundo. A comunicação que um computador usa é chamada de sistema binário, também conhecido como sistema numérico de base 2. Isso significa que ele fala apenas em uns e zeros. Você pode estar pensando, meu computador só fala em uns e zeros. Como faço para me comunicar com ele? Pense nisso assim. Usamos as letras do alfabeto para formar palavras e damos significado a essas palavras. Nós os usamos para criar frases, parágrafos e histórias inteiras. A mesma coisa se aplica ao binário, exceto que, em vez de A, B, C e assim por diante, temos apenas zero e um para criar palavras às quais damos significado. Em termos de computação, agrupamos o binário em oito números ou bits. Tecnicamente, um bit é um dígito binário.
Historicamente, usamos oito bits porque, nos primórdios da computação, o hardware utilizava o sistema numérico de base 2 para mover bits. Dois a oitavos números nos ofereceram uma faixa de valores grande o suficiente para fazer a computação de que precisávamos. Naquela época, qualquer número de bits era usado, mas eventualmente o agrupamento de oito bits se tornou o padrão da indústria que usamos hoje. Você deve saber que um grupo de oito bits é chamado de byte. Um byte de zeros e uns pode parecer 10011011. Cada byte pode armazenar um caractere e podemos ter 256 valores possíveis graças a um sistema de base 2, dois até o oitavo. Na conversa de computador, esse byte pode significar algo como a letra c. É assim que nasce uma linguagem de computador. Vamos fazer uma tabela rápida para traduzir algo que um computador possa ver em algo que possamos reconhecer. Em que se traduz o seguinte? Você recebeu olá? Muito legal. Ao usar o binário, podemos ter uma comunicação ilimitada com nosso computador. Tudo o que você vê no seu computador agora, seja um vídeo, uma imagem, textos ou qualquer outra coisa, nada mais é do que um ou zero. É importante que você entenda como o binário funciona.
A codificação de Caracteres é usada para atribuir nossos valores binários aos caracteres para que nós, como humanos, possamos lê-los. Definitivamente, não gostaríamos de ver todos os textos em nossos e-mails em páginas da web renderizadas em sequências complexas de zeros e uns. É aqui que as codificações de caracteres são úteis. Você pode pensar na codificação de caracteres como um dicionário. É uma forma de seus computadores pesquisarem qual personagem humano deve ser representado por um determinado valor binário. O padrão de codificação de caracteres mais antigo usado é o ASCII. Ele representa o alfabeto inglês, os dígitos e os sinais de pontuação.
O primeiro caractere na tabela ASCII para binário, um a minúsculo, é mapeado para 01100001 em binário. Isso é feito para todos os caracteres que você pode encontrar no alfabeto inglês, além de números e alguns símbolos especiais. O melhor do ASCII era que precisávamos usar apenas 127 valores dos 256 possíveis. Durou muito tempo, mas, eventualmente, não foi suficiente. Outros padrões de codificação de caracteres foram criados para representar diferentes idiomas , diferentes quantidades de caracteres e muito mais. Eventualmente, eles exigiriam mais de 256 valores que podemos ter. Depois veio o UTF-8 , o padrão de codificação mais usado atualmente. Além de ter a mesma tabela ASCII , ela também nos permite usar um número variável de bytes. O que eu quero dizer com isso? Pense em qualquer emoji. Não é possível criar emojis com um único byte, pois só podemos armazenar um caractere em um byte. Em vez disso, o UTF-8 nos permite armazenar um caractere em mais de um byte, o que significa diversão infinita com emojis. O UTF-8 é construído a partir do padrão Unicode. Não entraremos em muitos detalhes, mas o Padrão Unicode nos ajuda a representar a codificação de caracteres de maneira consistente.
Agora que conseguimos representar letras, números, sinais de pontuação e até emojis, como representamos as cores? Bem, existem todos os tipos de modelos de cores. Por enquanto, vamos usar um modelo básico usado em muitos computadores, RGB ou vermelho, verde e azul. Assim como as cores reais, se você misturar uma combinação de qualquer uma delas, poderá obter toda a gama de cores. Na área da computação, usamos três caracteres para o modelo RGB. Cada caractere representa uma tonalidade da cor e isso muda a cor do pixel que você vê na tela. Com apenas oito combinações de zeros e uns, podemos representar tudo o que você vê no seu computador.
O sistema binário é como nossos computadores contam usando 1s e 0s, mas os humanos não contam assim. Quando você era criança, você pode ter contado usando dez dedos na mão, esse sistema de contagem inato é chamado de forma decimal ou sistema de base dez. No sistema decimal, há dez números possíveis que você pode usar, variando de 0 a 9.
Quando contamos o binário que usa apenas 0 e 1, o convertemos em um sistema que podemos entender, decimal. 330, 250 a 44 milhões, são todos números decimais. Usamos o sistema decimal para nos ajudar a descobrir quais bits nosso computador pode usar. Podemos representar qualquer número existente apenas usando bits. É isso mesmo, podemos representar esse número usando apenas uns e zeros, então como isso funciona?
Vamos considerar esses números, 128, 64, 32, 16, 8, 4, 2 e 1, quais padrões você vê? Espero que você veja que cada número é o dobro do número anterior indo da direita para a esquerda. O que acontece se você somar todos eles?
Você obtém 255, isso é meio estranho, pensei que poderíamos ter 256 valores para um byte. Bem, nós sabemos, o 0 é contado como um valor, então o número máximo de decibéis que você pode ter é 255. O que você acha que o número está representado aqui? Veja onde os 1s e os 0s estão representados? Lembre-se de que, se nossos computadores usarem o 1, o valor estava ativado; se ele vê um 0, o valor estava desativado. Se você somar esses números, obterá um valor decimal. Se você adivinhar 10, então você está certo , bom trabalho, se você não entendeu, tudo bem também, dê outra olhada. O 2 e o 8 estão ligados e, se os somarmos, obtemos 10. Vamos examinar nossa tabela binária ASCII novamente , a letra h em binário é 01101000. Agora vamos dar uma olhada em uma tabela de ASCII para decimal. A letra h e decimal é 104. Agora vamos tentar nosso gráfico de conversão novamente, 64+32+8=104. Olha isso, a matemática está correta. Agora que estamos cozinhando, nossa, examinamos todos os fundamentos básicos da computação e da linguagem de máquina.
Computer Architecture Layer (Camada de Arquitetura de Computadores) - Abstração:
Quando interagimos com nossos computadores, usamos nosso mouse, teclado ou até mesmo uma tela sensível ao toque. Não contamos a ele os zeros e uns reais, ele precisa entender alguma coisa. Mas espere, nós realmente temos. Nós simplesmente nunca precisamos nos preocupar com isso. Usamos o conceito de abstração para pegar um sistema relativamente complexo e simplificá-lo para nosso uso. Use a abstração todos os dias no mundo real e talvez você nem saiba disso. Se você já dirigiu um carro, não sabe como operar a transmissão ou o motor diretamente. Há um volante, pedais, talvez uma alavanca de câmbio. Se você compra um carro de um fabricante diferente, você o opera praticamente da mesma maneira, mesmo que o material sob o capô possa ser completamente diferente. Essa é a essência da abstração. A abstração oculta a complexidade ao fornecer uma interface comum. O volante, os pedais e a alavanca de câmbio engatam em nosso exemplo de carro. A mesma coisa acontece em nosso computador. Não precisamos saber como funciona por baixo do capô. Temos um mouse e um teclado que podemos usar para interagir com ele. Graças à abstração, o usuário médio de um computador não precisa se preocupar com os detalhes técnicos. Usaremos essa metáfora secreta em todo o programa para descrever a área que contém a implementação subjacente de uma tecnologia. Na computação, usamos a abstração para criar um problema muito complexo, por exemplo, como fazer com que os computadores funcionem com mais facilidade. Fazemos isso dividindo-as em ideias mais simples que descrevem conceitos únicos ou trabalhos individuais que precisam ser feitos e, em seguida, os empilhamos em camadas. Esse conceito de abstração será usado ao longo de todo o curso. É um conceito fundamental no mundo da computação. Outro exemplo simples de abstração em uma função de TI que você pode ver com frequência é uma mensagem de erro. Não precisamos vasculhar o código de outra pessoa e encontrar um bug. Isso já foi resumido para nós na forma de uma mensagem de erro. A mensagem de erro simbólica, como arquivo não encontrado, na verdade nos fornece muitas informações e economiza tempo para descobrir uma solução. Você pode imaginar se, em vez de abstrair uma mensagem de erro, nosso computador não fizesse nada e não tivéssemos ideia de por onde começar a procurar respostas. A abstração nos ajuda de muitas maneiras que nem percebemos.
Computer Architecture (Arquitetura do Computador)
As pessoas não precisam entender como um computador funciona para usá-lo, porque a abstração torna as coisas mais simples para nós. Tecnicamente, isso é verdade, mas como você está entrando no mundo da TI, precisa entender todas as camadas de um computador e como elas funcionam. É essencial que você entenda como as diferentes peças interagem para poder resolver quaisquer problemas que possam surgir.
O computador pode ser dividido em quatro camadas principais:
- hardware,
- sistema operacional,
- software
- e usuários.
- A camada de hardware é composta pelos componentes físicos de um computador. Esses são objetos que você pode segurar fisicamente na mão. Laptops, telefones, monitores, teclados. Você entendeu a ideia.
- O sistema operacional permite que o hardware se comunique com o sistema. O hardware é criado por muitos fabricantes diferentes. O sistema operacional permite que eles sejam usados com nosso sistema, independentemente de onde ele veio.
- A camada de software é como nós, humanos, interagimos com nossos computadores. Quando você usa um computador, recebe uma grande quantidade de software com o qual interage. Seja um app para dispositivos móveis, um navegador da web, um processador de texto com um sistema operacional próprio. Posteriormente, aprenderemos como o software é instalado em nossos sistemas e como interagimos com diferentes tipos de software.
- A última camada pode não parecer parte do sistema, mas é uma camada essencial da arquitetura do computador. O usuário, o usuário interage com o computador. A camada do usuário é uma das camadas mais importantes sobre as quais aprenderemos.
Quando você entra na área de TI, pode estar ocupado com os aspectos técnicos. A parte mais importante da TI é o elemento humano. Embora trabalhemos com computadores todos os dias, é a interação do usuário que compõe a maior parte do nosso trabalho, desde responder aos e-mails dos usuários até consertar seus computadores.
Ao final, você também aprenderá a aplicar seu conhecimento de como um computador funciona para corrigir problemas do mundo real que às vezes podem parecer aleatórios e obscuros. Faremos isso aprendendo a utilizar táticas de solução de problemas para identificar problemas e soluções. Há muita coisa pela frente.
Kevin Limehouse (Support Specialist at Google): Advice for the world of IT
Acho que as pessoas têm a ideia errada de que é preciso seguir um caminho tradicional para ter sucesso em TI. Mas acho que o benefício da TI é que, no final das contas, as pessoas só querem saber: se você pode resolver o problema ou não.
Certifique-se de ter fundamentos sólidos. Eles acabam voltando.
Muitas vezes as pessoas pensam que, tipo, eu não vou precisar me preocupar com o que fazer. Por exemplo, eu não preciso saber, entender o modelo IP TCP ou o modelo OSI. Isso é como coisas de baixo nível. Posso me concentrar especificamente nesse aplicativo ou programa específico com o qual vou lidar. Há casos em que você se deparará com problemas. Ter esse conhecimento fundamental será muito importante para resolver o problema.
Desde que você consiga chegar a um ponto em que se sinta confortável trabalhando com usuários, resolvendo seus problemas e apoiando-os da melhor maneira para você e para eles, você sempre será viável no mundo da TI.
Convertendo Binário em Decimal: