Mostrando postagens com marcador informática. Mostrar todas as postagens
Mostrando postagens com marcador informática. Mostrar todas as postagens

terça-feira, 23 de abril de 2013

O que é Bit? 0 e 1??? Não entendi nada...

Muitos artigos na Internet ensinam a transformar bit para byte, mas não explicam claramente o que é o bit e como funcionam realmente os bits. Reinicio aqui uma breve explicação sobre o conceito de bit.

Milhares de 0's e 1's que se juntam, mas o que são e como o computador lê isso?

Bit é a menor unidade de informação que um computador consegue ler. O bit recebe apenas 2 valores: 0 e 1. Tais valores são, na verdade, impulsos elétricos que, por convenção, pode ser Verdadeiro (1) ou Falso (0). Tais impulsos são facilmente enviados pelos circuitos eletrônicos, como vemos na figura abaixo: 

Circuito eletrônico de uma placa, sendo estes os caminhos que transportam conjuntos de 0's e 1's.

Mas na prática, como funcionam os bits? Darei um exemplo muito prático para o melhor entendimento de como funcionam os valores do bit (verdadeiro ou falso).
Um relógio digital tem a forma, como mostra a figura abaixo:
Relógio Digital
Como dá para perceber, cada campo númerico tem uma forma de 2 quadrados empilhados na vertical com 7 "traços" que formam o número. Então os "traços" apagados, na essência, estão com o valor 0 (ou falso), enquanto que os dois "traços" em vermelho, que formam o número 1, estão acesos e possuem o valor 1 (ou verdadeiro). Cada traço ( | ou _ ) de um relógio digital recebe um valor verdadeiro ou falso justamente para mostrar o número, para que o conjunto de números mostrados correspondam a hora.

Lembrando que 1 byte é um conjunto de 8 bits (1 caracter), ou seja, valores como 00000000, 01010101, 10101010, 11111111, 00100101 são valores de 8 bits, que correspondem a 1 byte cada um dos valores binários. Daqui por diante, valendo as transformações de bytes para Kilobytes, de Kilobytes para Megabytes, de Megabytes para Gigabytes, e assim por diante, mas essa é uma explicação para uma próxima postagem. Espero que tenham gostado da explicação dos bits. Até a próxima...

quinta-feira, 30 de julho de 2009

Qual a diferença entre Informática e Computação?


Até o Garfield aprendeu Informática, você também pode...

Essa é uma pergunta muito simples, e para muitos, até fácil de responder. No início da minha saga em informática, perguntei para um aluno quase formado, e ele me disse que era a mesma coisa. Nunca me esqueci disso, até conhecer o Wikipédia, que foi quem me mostrou a verdadeira diferença. Mas para quem não estuda, ou pouco sabe sobre a essência da computação (ou seria da informática), não saberia diferenciar apenas lendo os artigos do Wikipédia. Por isso, vamos ver primeiro a parte teórica:

Informática: O termo informática, sendo dicionarizado com o mesmo significado amplo nos dois lados do Atlântico, assume em Portugal o sentido sinônimo de ciência da computação, enquanto que no Brasil é habitualmente usado para referir especificamente o processo de tratamento da informação por meio de máquinas eletrônicas definidas como computadores.

Computação: A computação pode ser definida como a busca de uma solução para um problema a partir de entradas (inputs) e através de um algoritmo. É com isto que lida a teoria da computação, subcampo da ciência da computação da matemática. Durante milhares de anos, a computação foi executada com caneta e papel, ou com giz e ardósia, ou mentalmente, por vezes com o auxílio de tabelas, ou utensílios artesanais.

Agora vamos falar com uma linguagem bem menos técnica e mais informal. Quando falamos de "processo de tratamento da informação", falamos da programação. É o que faz um computador funcionar, softwares (sistemas que rodam no computador, como Windows, Linux, Word, dentre muitos outros) e hardwares (que são as partes físicas, teclado, mouse, placa de vídeo, mas todos os hardwares rodam pequenos programas para fazer a comunicação entre o mouse e sua mão, por exemplo): isso é a informática. Já a Computação, como a palavra já diz, computar (somar, subtrair, multiplicar, etc) significa fazer operações matemáticas. A computação é a essência da informática. Sem computação não existiria informática. Ou seja, a computação é uma parte da informática. Comparando com algo mais usual, a computação seria como a energia elétrica que passa pelos fios, e a informática é todo o resto (fiação, cabos, registradores, transformadores, etc). Eu sei que a comparação é bem grotesca, mas acredito que explica melhor para um leigo do que o artigo do Wikipédia. Não que o Wikipédia seja ruim, mas para um leigo, ou para aqueles que sabem pouco de informática, é preciso uma explicação mais usual e fácil de entender.

Espero ter ajudado no melhor entendimento nessa área que tanto está crescendo, mas para que muitos neste país ainda é uma incógnita.