Bem Vindo!!! Adicione o blog aos seus favoritos. Toda semana estou apresentando conteudos novos diferenciados. Boa leitura!
Abraço!!!

Antes da Colonização Portuguesa no Rio Grande

Após a Companhia de Jesus abrir a virgem cortina das matas na margem esquerda do Rio Uruguai para levantamento das “reduçoes” missioneiras, nos mesmos territórios que Rafael Pinho Bandeira, Manoel Santos Pedroso e José Borges do Canto, reincorporaram mais tarde, pelas armas ao patrimonio da Colônia Portuguesa, Pinheiro Machado já fora uma das rotas utilizadas por Rafael e seus Dragões, pois esta terra era uma grande estância de Rafael. Antes de 1737, data da ocupação definitiva do Rio Grande do Sul pelos Potugueses, o Município de Pinheiro Machado, pelo que registra, impõe-se a um estudo territórial mais profundo, em razão dos tratados de limites entre Portugal e Espanha, que tiveram grandes influências históricas no município de Cacimbinhas.
Ao analizar os tratados de Madri e de Santo Ildelfonso e suas conseqüências no território do Rio Grande do Sul, notamos que, já existera antes, bulas papais que asseguravam aos Portugueses as terras do Atlântico, entre elas as hoje pertencentes à Pinheiro Machado.
Com o tratado de Madri, lavrado a 13 de janeiro de 1750, planejado por Alexandre Gusmão, grande paulista, e ministro de D. João V, tinha seu início como linha divisória dos territórios portugueses e espanhóis, em Castilho Grande a sudestede Lagoa Mirim, onde 9 de outubro de 1752 foi plantado o primeiro marco e o segundo local, Índia Morta, em 1° de março de 1753, sendo o terceiro, que recebe o nome de Reis, em razão do dia 06 de janeiro de 1753; proseguindo pelo divisor de águas da bacia até o Rio Ibicuí em sua confluência no Rio Uruguai.
Estas divisas vinham da Coxilha Grande no município de Herval do Sul, passando pelo Cêrro da Guarda em Pedras Altas, seguindo pela Coxilha da Tuna, e pela Serra do Velleda, indo passar no local histórico deste município denominado “GUARDA VELHA”, nas proximidades da BR 293, dali rumando pelos divisores de água até o Cêrro do Baú, ainda neste município, e pelo divisor de águas vai a Serra de Santa Tecla, no município de Bagé, ponto em que foram embargados na demarcação pelas forças missioneiras e pelos índios Guaranis, chefiados pelo Cacique Sepé Tiarajú, no histórico forte de Santa Tecla. Esta demarcação só teve prosseguimento depois da morte de Sepé Tiarajú e a total destruição do Forte.
Este território, hoje município de Pinheiro Machado, já em 1750, tinha sua história ligada a história do Rio Grande.
Analisando, posteriormente, o tratado de Sando Ildefonso, lavrado e assinado em 1° de outubro de 1777, e que tinha como divisória entre os dois países uma semi-reta que partia da confluência do Rio Jaguarão, na Lagoa Mirim, rumando a norte em direção as Missões, cortava nosso município do ponto de partida até o Cêrro do Baú, fronteiras que não chegaram a ser demarcadas em razões de novos acordos traçados, que demarcados, deram origem aos traçados, que demarcados, deram origem aos traçados das atuais fronteiras.

Primeiros Habitantes de Cacimbinhas

Indígenas

O vento minuano partindo dos Andes toca nas plagas Riograndense, revolvendo a poeria das gerações passadas e retemperando as gereções presentes.
Mais ou menos, no século XVIII, fim da época missioneira, Cacimbinhas com seu aldeamento indígena na Serra das Asperezas, já figurava na história do Pampa Gaúcho; este aldeamento teve como Cacique da Tribo do índio “IBYTYRUÇU” – “que quer dizer serrania” – que nestas plagas de Cacimbinhas foi o primeiro marco humano de nossa história.
Como é sabido o homem é habitante do território do Rio Grande do Sul há mais de 12.000 anos, isto nos é assegurado pela existência de “SAMBAQUIS”, principalmente nas margens da Lagoa dos Patos.
Nos assegura o historiados João Cezimbra Jacques um dos historiadores mais antigos do Rio Grande do Sul, que nas proximidades de Cacimbinhas, localizando-se entre o Cêrro dos Cachorros, Lagoa Negra e Serra das Asperezas, houve um aldeamento indígena, o que se comprova até hoje, primeiro pelos acidentes geográficos mencionados e segundo, por existirem, ainda, no local marcos com legendas gravadas inelegíveis, pelo tempo que ali estão. Documentado, ainda, a existência desta aldeia nos reportamos a acontecimentos no aldeamento de Cacimbinhas.
No Rio “TAIMBÉ” – que quer dizer “beira das pedras” errava numerosa tribo indígena da valente Nação Minuano, que ali aldearam e que chamaram-na de “IQUYTORY”, que quer dizer “terra alegre”. Era chefe da tribo o valente índio “JAPAGANI” – que quer dizer “Águia Negra” que tinha como esposa a formosa índia “IBITIQUITÔ – que quer dizer “botão de flor”. Esta índia, num banho no Taimbé, deu a luz a uma encantadora índia nascida dentro d’água, que se tornou personagem histórica, sendo batizada com o nome de “YMENBUY” – que quer dizer “filha da água”. Após alguns anos o cacique Japacani recebe chamado do cacique Minuano “TAGUATOBERA” – que quer dizer “gavião dourado” – para comparecer numa “MONOHONGABA” – que quer dizer “Conselho ou Assembléia Indígena”, na Serra de Aceguá em Bagé. Atendendo o chamado acompanhado da esposa e filha, a caravana numerosa ruma a Bagé.
Chegando em Aceguá e após ser informado dos motivos da Assembléia, que era: primeiro ser fim de ano e era costume reunir-se as tribos amigas; segundo os perigos que de todos os lados estavam a ameaçar as tribos, pois desde Montevidéu, onde Emboabas – Portugueses e Espanhóis, rumavam ao Rio Grande do Sul.
Terminadas as reuniões, aplaudidas as resoluções, fica acertada pelo Cacique IQUITORY, uma missão para seu confrade JAPACANY que era ir a IBYTY – que quer dizer “Serra das Asperezas” – informando-o que ficava para o lado da “HIPA” – que quer dizer “Lagoa Negra”, esta com muitas lendas; e cuja missão era convidar o Cacique Tape ali aldeado de nome IBITYRUÇU – que quer dizer “Serrania” – para fazer parte de uma aliança formada pelas três tribos, Taimbé, Aceguá e Asperezas, aliança que fora aprovada em Aceguá, aceita também pelo Cacique das Asperezas tendo sido acertado, de imediato, os detalhes para a aliança; este aldeamento que descrevemos fica a seis quilômetros de distância da Cidade de Pinheiro Machado.
Sabe-se, ainda, que a viagem do Cacique Taimbé de Aceguá até as Asperezas durou três dias; ele veio acompanhado da esposa e da filha, já citadas; sabe-se ainda, que sua filha YMEMBUY deixou registrada no aldeamento das Asperezas um caso de amor, nascido nesta aldeia com um sobrinho do Cacique “IBITYRUÇU”; por todas essas premissas, que já existem no aldeamento dos Tapes na cercania da sede municipal, que nos deixou muitas lendas a nossa história como a do Cêrro dos Cahorros – da Lagoa Negra e mais, ainda o registro do primeiro caso de amor no território cacimbinhense, conhecido.

Dança-de-Fitas

A dança de fitas é uma tradição milenar.
É uma dança ariana antiqüíssima. Uma dança pagã, da árvore de maio, da arqueocivilização européia.
Fazem um pau-de-fita, cujo mastro pe sustentado no centro da dança por um menino. Da ponta do mastro saem pares de fitas que são seguradas por oito ou doze meninas ou meninos ou mesmo homens, para começar a dança.
A dança se realiza dentro das salas ou salões sob a direção do guião, que os comanda no dançar bem como os autoriza a “assaltar” (visitar as casas).

A Dança-de-Fitas

A música que acompanha é, em geral, tocada por sanfona, violões e pandeiros.
Embora seja praticada por ocasião das festas natalinas é uma dança ritualística do passado, rememorando o renascimento da árvore.
Os cantos tradicionais são loas em louvos da natividade. Executam as figurações segurando a ponta das suas fitas dançando ritmadamente. Trançam e destrançam as fitas em tornodo mastro central.
Em Santa Catarina, antes da dança-de-fitas, executam a dança da jardineira, em que pares de dançadores conduzem um arco enfeitado de flores. Fazem diversas figurações com os arcos.
(Extraído de Brasil Folclore Histórias Costumes e Lendas, deAlceu Maynard Araújo, Ed. Três)

Boi-De-Mamão

Seria o boi-de-mamão ou o boi de pano catarinense uma figura desgarrada das touradas ou uma forma de bumba-meu-boi?

Teatro Relogioso

Os jesuítas lançaram mão do teatro religioso popular para catequizar “as gentes do Brasil”.
Dois pontos principais deviam ser ensinados: a conversão e a ressurreição.
A conversão envolve uma filosofia religiosa.
Mas a ressureição é mais fácil, mais popular, está presente na civilização tradicional, na ressureição do vegetal, vivendo portanto no subconsciente coletivo. No bumba-meu boi, no boi-de-mamão o argumento fundamental é a ressureição.
O boi-de-mamão vai do Natal ao Carnaval.

Os Personagens

São muitos os presonagens, alguns fixos como: Mateus vaqueiro, cabrinhas, cavalinhos, médicos, cantadores, tocadores e a bernucia – animal descomunal, síntese de vários monstros que habitaram a mente medieval e chegou até nós. Tem algo do bicho-papão que habita a imaginação infantil. Na representação engole crianças. Felizmente as crianças passaram a brincar de bernuncia e, com um grande saco de aniagem fazem de conta que engolem as outras, sem medo.
(Extraído de Brasil Folclore Histórias Costumes e Lendas, deAlceu Maynard Araújo, Ed. Três)

O RÁDIO APLICADO À SEGURANÇA

Os anos passam e a tecnologia avança pelos campos mais insólitos de nossas vidas, muitas vezes causando surpresa a nós mais velhos.
Se pudéssemos de uma forma qualquer trazer de volta por alguns instantes os grandes inventores do século passado e mesmo os que nos deixaram a algumas décadas como Landel e Marconi, com certeza esses homens teriam um misto de surpresa e por que não dizer de grande satisfação ao se deparar com suas teorias e experimentos sendo aplicados normalmente e desapercebidamente em nosso dia a dia.
Dia desses, meu amigo e companheiro de trabalho J. C. Manzoli apareceu no serviço com uma bobininha e um capacitor de 39 pF e me perguntou o que seria aquilo.
Como o velhinho e eu trabalhamos juntos, e conhecedor de suas habilidades com a eletrônica, fiquei meio desconfiado, mas devido à sua seriedade, dei minha bicuda.
Manza, isso é um circuito sintonizado, ao que ele me retrucou
Isto estava dentro de uma placa de plástico que a vendedora esqueceu de tirar de um casaco que comprei em uma loja de departamento de um grande Shoping em Sorocaba. Ao chegar em casa a coisa não saia nem com reza brava e a único solução encontrada foi o velho martelo, e aí apareceu isso.
A muito tempo, a curiosidade me incomodava e ficava pensando como seria o circuito de detecção das grandes lojas de departamento que usam uma plaqueta para evitar roubos e eis que meu amigo me aparece com a referida bobina para elucidar a charada. Essas plaquetas de acrílico, usam um circuito passivo pois não comportam a possibilidade de se colocar baterias.
Como este boletim chega a milhares de pessoas que não conhecem bem os detalhes da eletrônica voltada às telecomunicações, deixo aqui minha sugestão (não conheço em detalhes o circuito) do que seria o sistema de segurança nas grandes lojas de departamento no Brasil e no mundo.
Como pode ser visto na foto ao lado, a bobina que meu amigo encontrou dentro da placa nada mais é que um circuito sintonizado, fazendo parte de um sistema de transmissão e recepção. A bobina em questão está sintonizada em uma determinada freqüência que, ao ser aproximada de um campo eletromagnético gerado nas proximidades, (normalmente em baixo do balcão de saída da loja) entra em ressonância, comportando-se como um elo fechado de absorção, causando um desequilíbrio entre o transmissor e o receptor. Em palavras fáceis de se entender, a bobina dentro da plaqueta é como se algo tivesse sugando o sinal que teria que chegar ao receptor e agora é drenado e dissipado na bobina.



Para os mais experientes (para não dizer mais idosos) que acompanham o Antique Radio News, muitos se lembrarão dos processos rudimentares de medição de freqüência (na época não existiam os freqüencímetros digitais) em tanque final dos transmissores de Broadcasting ou nos "Deltinhas" de nossos Radioamadores, usando as bobinas de absorção da TRIPLET Americana ou os GRID DIP Meter para sintonizar antenas e bobinas.
O sistema é montado de tal forma que o receptor emite um alarme caso o nível de sinal que está sendo captado seja menor que o previamente ajustado quando a bobina que está colocada na mercadoria à venda se aproxima da central transceptora.
A coisa funciona muito bem pois a maioria das lojas de departamento faz uso desse sistema para barrar os cleptomaníacos.

Upgrade e atualizações

Como você já deve saber todos os componentes de um PC, influenciam diretamente no desempenho global da máquina. Como num carro, onde um único componente de baixo desempenho afeta negativamente todo o conjunto.
Apesar do desejo de todos ser um micro equipado com um processador topo de linha, muita memória RAM, vários Gigabytes de espaço no disco rígido, placa de vídeo 3D, DVD, etc. Nem todos estão dispostos a gastar 2.000 ou 3.000 dólares numa configuração assim. Entra em cena então o fator custo - beneficio: determinar qual configuração seria melhor dentro do que se pode gastar. O objetivo deste tópico final, é justamente este, ajudá-lo a escolher a melhor configuração em termos de custo - beneficio em cada caso. Para isto, estudar-se-á no que cada componente afeta o desempenho e em quais aplicações cada um é mais importante.
A primeira coisa que deve ser levada em conta é a aplicação a que o micro será destinado, ou seja: quais programas serão utilizados nele. Um micro usado em um escritório, onde são usados o Word, Excel e Internet, por exemplo, não precisa de um processador muito poderoso, mas é indispensável uma quantidade pelo menos razoável de memória RAM, e um disco rígido razoavelmente rápido. Enquanto que, num micro destinado a jogos, o principal seria um processador rápido, combinado com uma boa placa de vídeo 3D.

Escolhendo a placa mãe
 
A placa mãe é o componente que deve ser escolhido com mais cuidado, pois uma placa mãe de baixa qualidade colocará em risco tanto o desempenho quanto a confiabilidade do equipamento.
Ao comprar uma placa mãe, verifique quais processadores ela suporta, se possui um slot AGP e se a quantidade de slots PCI é suficiente para a quantidade de periféricos que você pretende instalar.
A questão mais importante é a qualidade da placa. Além dos recursos, este é o principal diferencial entre as várias que você encontrará no mercado. Placas de baixa qualidade além de prejudicarem o desempenho, podem tornar o micro instável, causando travamentos constantes no Windows. Travamentos que freqüentemente são causados por falhas de hardware, e não por bugs do programa.
Procure comprar placas de boas marcas, como Asus, Abit, Gigabyte, Soyo e Supermicro. As placas da Intel também são excelentes, mas preste atenção se a placa realmente foi fabricada pela Intel: muitos vendedores vendem placas com chipsets Intel como “placas da Intel”. Muitos fabricantes usam chipsets Intel em suas placas, mas isto não e garantia de qualidade. Não adianta uma placa de segunda linha possuir um bom chipset.Evite ao máximo comprar placas TX-Pro, VX-Pro, BX-Pro, SX-Pro, PC-100, Viagra, BX-Cel, PC-Chips e placas que não trazem especificado o nome do fabricante. Apesar de serem muito mais baratas, e quase sempre trazerem placas de som, vídeo, modems e até placas de rede on-board, estas placas invariavelmente são de baixa qualidade, sendo fabricadas geralmente pela PC-Chips, especializada em fabricar placas de baixíssimo custo, mas de qualidade duvidosa.
Você pode perguntar por que estas placas são inferiores, já que muitas vezes usam o mesmo chipset de placas de boas marcas. O diferencial é a qualidade da placa de circuito. Uma placa mãe é confeccionada usando-se uma técnica chamada MPCB (multiple layer contact board) que consiste em várias placas empilhadas como se fosse uma só. Acontece que uma placa de circuitos deste tipo tem que ser projetada e fabricada minuciosamente, pois qualquer erro mínimo na posição das trilhas, fará com que surjam interferências, que tornarão a placa instável. Isto também prejudica o desempenho, impedindo que a comunicação entre os componentes seja feita na velocidade normal. A diferença de desempenho de um micro montado com uma boa placa mãe, para outro de configuração parecida, mas usando uma placa mãe de baixa qualidade pode chegar a 20%. Equivaleria a trocar um Pentium III de 1 GHz por outro de 800 MHz!
A fim de cortar custos, diminui-se o tempo de desenvolvimento e apela-se para técnicas mais baratas e menos precisas de produção, criando os problemas que descrevi. Certamente é tentador ver o anúncio de uma placa mãe que já vem com placa de som, placa de vídeo e modem por 100 ou 120 dólares, enquanto uma placa de uma boa marca custa 150, 180 ou mesmo 200 dólares e geralmente não traz nenhum destes acessórios. Mas, lembre-se que esta economia pode lhe trazer muita dor de cabeça, na forma de instabilidade, travamentos e incompatibilidades. Estas placas podem até ser usadas em micros mais baratos, destinados às aplicações leves, onde a economia é mais importante, mas não pense em usar uma em um micro mais parrudo, pois não valerá à pena. Se o problema é dinheiro, prefira comprar um processador mais simples e barato, mas colocá-lo em uma boa placa mãe.

Memória RAM
 
Se o micro possui pouca memória RAM, o processador terá que usar o disco rígido para guardar os dados que deveriam ser armazenados na memória, tornando o sistema extremamente lento. Por outro lado, instalar mais memória do que o necessário será apenas um desperdício, pois não tornará o sistema mais rápido. Você notará que é preciso instalar mais memória quando o micro começar a ficar lento e a acessar intermitentemente o disco rígido em momentos de atividade mais intensa.
Se o usuário trabalha apenas com aplicativos mais leves, como Word, Excel, Internet e não costuma abrir mais de um aplicativo ao mesmo tempo, então 64 MB podem até ser suficientes para alguns, mas o mínimo absoluto recomendável seriam 128 MB. Se, por outro lado, são usados programas mais pesado ou se são abertos vários programas ao mesmo tempo, então o mínimo seriam 256 MB e o ideal 512 MB. 1 GB também são o ideal se o micro se destina principalmente a jogos.
Caso o micro se destine ao processamento de imagens, vídeo ou editoração, então devem ser usados pelo menos 256 MB. Dependendo do tamanho dos arquivos a serem processados, o ideal pode subir para 512 ou mesmo 1 GB. Se você está procurando um micro que seja capaz de manter-se atualizado por bastante tempo, então 2 GB de memória serão um bom investimento, mesmo que não vá precisar de tudo isso no momento.
A instalação de mais memória pode dar um novo ânimo a um micro mais antigo, principalmente se o micro possui apenas 8 ou 16 MB. Mas não exagere, pois mesmo com muita memória será difícil rodar aplicativos mais pesados devido à fragilidade do conjunto. O ideal seriam 16 ou 24 MB em micros 486 e de 32 a 64 MB em micros Pentium ou K6 de 100 a 166 MHz. Com 64 MB de memória, mesmo um Pentium 133 já conseguirá rodar o Windows ME ou 2000 com um mínimo de qualidade.
A quantidade mínima de memória para ter um bom desempenho também varia de acordo com o sistema operacional. Por exemplo, o Windows 95, assim que aberto consome 10 MB de memória. Num micro antigo, que tenha 24 MB de memória, já se teria um desempenho aceitável, pois sobrariam 14 MB para abrir programas antes de o sistema entrar em memória virtual. O Windows 98 SE já é mais pesado, consome cerca de 22 MB de memória. Neste caso, com 24 MB de memória você ficaria sem praticamente nenhuma memória disponível, tornando o sistema bastante lento. O ideal para rodar os programas atuais já seriam pelo menos 128 MB 
Usando o Windows 2000 Workstation, o consumo é ainda mais alto, são necessários quase 44 MB apenas para o sistema operacional. Por isso, para ter o mesmo desempenho que seria obtido com o Windows 98 + 64 MB de memória, seriam necessários 96 MB.

Processador
 
Nem sempre a instalação de um processador mais moderno torna o micro mais rápido. Muitas vezes, aumentar a quantidade de memória ou trocar o disco rígido faz mais efeito. Como sempre, depende da aplicação.
Caso o micro se destine principalmente a jogos, então vale à pena investir em um processador topo de linha, como um Pentium III ou um AMD Athlon, porém apenas depois de comprar uma boa placa de vídeo 3D. Caso o micro de destine ao processamento de imagens ou editoração, um processador topo de linha irá ajudar, mas apenas se o micro possuir bastante memória RAM. Se o dinheiro estiver curto, é preferível comprar um processador médio, como um Celeron ou Duron e investir em mais memória. Evite comprar processadores K6-2, pois além de ultrapassados, você não poderá aproveitar a placa mãe num futuro upgrade.
Finalmente, caso o micro se destine as aplicações leves, então o ideal será adquirir um processador o mais simples possível e investir a economia em um pouco mais de memória, um disco rígido melhor, ou numa placa mãe de melhor qualidade.

Disco Rígido
 
O desempenho do disco rígido determina a velocidade em que serão abertos programas e arquivos. Um disco rígido rápido, também ajuda um pouco caso o micro tenha pouca memória RAM. Mesmo com um processador parrudo e muita memória, tudo ficará lento caso o disco rígido não acompanhe.
Quase sempre, os discos rígidos de maior capacidade são mais rápidos, mas como sempre existem exceções. Procure saber o tempo de acesso, a velocidade de rotação e a densidade do disco. O tempo de acesso do disco varia geralmente entre 8 e 12 milessegundos, dependendo do HD. O tempo de acesso determina quanto tempo a cabeça de leitura demorará em achar o dado a ser lido. Um valor mais baixo corresponde a um melhor desempenho.
A velocidade de rotação é medida em RPMs, ou rotações por minuto. Quanto mais rápido o disco girar, mais rápido um dado será encontrado. A densidade, ou quantos dados caberão em cada disco também determina o desempenho, pois como os dados estarão mais próximos, serão localizados mais rapidamente. Você saberá a densidade dividindo a capacidade total do disco rígido pela quantidade de faces de disco que ele possui. Um disco de 8.4 GB, com 4 faces de disco, por exemplo, possui densidade de 2.1 GB por face. Quanto maior a densidade melhor.

Placa de Vídeo
 
As placas de vídeo mais antigas, são chamadas de placas 2D por que se limitam a mostrar imagens no monitor. As placas 3D por sua vez, bem mais modernas ajudam o processador a criar as imagens tridimensionais usadas em jogos e em alguns aplicativos.
Caso o micro se destine a jogos, ou processamento de imagens 3D (usando o 3D Studio, por exemplo), é indispensável o uso de uma placa de vídeo 3D, caso contrário o micro simplesmente não será capaz de rodar o aplicativo ou ficará extremamente lento. Se, por outro lado, forem ser usados apenas aplicativos de escritório ou forem ser processadas imagens em 2D, então uma placa de vídeo 3D não será necessária.
É muito comum encontrar à venda placas mãe que já vem com vídeo on-board. Em geral o vídeo on-board possui alguns recursos 3D, suficientes para rodar alguns jogos 3D mais simples, mas com um desempenho muito longe de uma placa 3D média.
Você poderá usar o vídeo on-board caso o micro de destine basicamente a aplicativos de escritório, Internet, etc. ou até mesmo para um ou outro jogo ocasional, desde que você não se importe com, a pobreza das imagens. Mas, caso você faça questão de jogar seus jogos com qualidade, então o ideal seria usar uma placa 3D de verdade.
Surge então outro problema: as placas com vídeo on-board geralmente não trazem slot AGP, e atualmente é bem complicado encontrar uma boa placa de vídeo 3D que venha em versão PCI. Ou seja, se você pretende usar uma placa 3D, o melhor é procurar uma placa mãe sem vídeo on-board, que venha com um slot AGP.

Modem
 
Atualmente, você só encontrará à venda modems de 56K, porém, encontrará tanto hardmodems quanto softmodems. O “hardmodem” vem de “hardware” enquanto o “softmodem” vem de “software”. A diferença entre os dois tipos é que os Hardmodems eles mesmos executam todas as tarefas relacionadas com o envio e recebimento de dados através da linha telefônica. Eles só incomodam o processador na hora de entregar os dados recebidos, já devidamente decodificados e descompactados.Os softmodems por sua vez contêm apenas os dispositivos necessários para usar a linha telefônica, eles não executam nenhum tipo de processamento. Adivinha pra quem sobra então? Justamente para o processador principal, que além das suas tarefas normais passa a ter que fazer também o trabalho do modem. Os softmodems são os modems mais baratos, porém tornam o micro mais lento (quanto mais potente for o processador menor será a perda) e não se dão muito bem como jogos multiplayer jogados via modem ou com linhas ruidosas. Os hardmodems, por sua vez, são os modems mais caros, mas eles mesmos executam todas as funções.

Placa de Som
 
De um modo geral, a placa de som não influencia em nada o desempenho do micro, apenas determina a qualidade do áudio. Para uso normal, uma placa de som simples como uma Sound Blaster 32, ou mesmo uma daquelas placas “genéricas” disponíveis no mercado dão conta do recado. Placas mais cara farão diferença caso você pretenda trabalhar com edição musical, ou faça questão de ouvir músicas em MIDI com o máximo de qualidade.Existem também placas de som 3D, como a Turtle Beath Montego e a Sound Blaster Live, que geram sons que parecem vir de todas as direções, mesmo usando caixas acústicas comuns. Este efeito é muito interessante em jogos, pois oferece uma sensação de realidade muito maior. Imagine ouvir o som de um tiro, dentro de um jogo, como se ele tivesse sido disparado por alguém que está bem atrás de você.

Upgrades e atualizações
 
Fazer um upgrade significa trocar alguns componentes de um micro já ultrapassado a fim de melhorar seu desempenho. Porém, muitas vezes, o micro está tão desatualizado que seria preciso trocar quase todos os componentes para conseguir atingir um desempenho aceitável. Neste caso, compensaria mais vender o micro antigo e comprar um novo.
O segredo para realizar um bom upgrade, é detectar os “pontos fracos” da configuração, componentes que possuem um desempenho muito inferior ao restante do conjunto. Para exemplificar, analisar-se-á agora algumas configurações de micros antigos típicos: 

Configuração 1

    Processador Pentium de 100 MHz
    8 MB de memória RAM
    HD de 1.2 GB
    Placa de Vídeo de 1 MB
    Monitor SVGA de 14 polegadas
 
Tem-se aqui um micro bem antigo, de configuração extremamente modesta, mas que tem um grave ponto fraco: a pouca quantidade de memória RAM, apenas 8 MB não são suficientes nem mesmo para rodar o Windows 95 com um mínimo de qualidade, que dizer do Windows 98, 2000 ou os programas atuais. O ideal aqui seria adicionar mais 32 MB de memória, totalizando 40 MB, o que multiplicaria a velocidade do equipamento. Também valeria à pena trocar o processador por um K6 ou Pentium de 200 MHz, já que neste caso não se precisaria trocar também a placa mãe.
Dois pentes de memória de 72 vias de 16 MB cada, que resultariam em um ganho de performance de pelo menos 300%. Note que neste caso precisar-se-ia usar componentes usados. O disco rígido só deveria ser trocado caso o usuário estivesse com problemas de espaço.

Configuração 2

    Pentium 233 MMX
    32 MB de memória RAM
    HD de 2.6 GB
    Placa de vídeo de 2 MB
    Monitor SVGA de 14 polegadas
 
Agora se tem uma configuração um pouco mais equilibrada. As únicas mudanças viáveis seriam os aumentos da quantidade de memória para 64 MB e a troca do disco rígido (caso o usuário esteja com problemas de espaço).
Não seria uma boa idéia pensar em trocar o processador, pois para instalar um Pentium II, Celeron, ou mesmo um K6-2 neste micro, ter-se-ia que trocar também a placa mãe. Caso os módulos de memória atuais sejam de 72 vias, o gasto seria ainda maior, já que as placas mãe mais modernas possuem encaixes apenas para módulos de 168 vias o que obrigaria também na troca das memórias.
Caso o usuário do micro goste de jogos, então uma placa de vídeo 3D, de um modelo mais simples, seria uma boa idéia.

Configuração 3

    Pentium II de 266 MHz
    64 MB de memória RAM
    HD de 2.2 GB
    Placa de vídeo Voodoo 3 2000
    Monitor SVGA de 15 polegadas
 
A primeira coisa a considerar neste exemplo seria a troca do processador por um Celeron de 500 ou 533 MHz, já que poderíamos trocar apenas o processador. Ter-se-ia então uma excelente configuração, com exceção do disco rígido, muito pequeno e lento para um micro deste porte. Seria uma boa idéia trocá-lo por um de 20 GB ou mais. O aumento da quantidade de memória para 128 MB deveria ser considerado caso o usuário tenha o hábito de trabalhar com vários programas abertos ao mesmo tempo, ou tenha o hábito de abrir arquivos muito grandes, ou finalmente caso deseje rodar o Windows 2000.
As peças antigas, no caso o processador o disco rígido poderiam ser vendidas depois para cobrir parte do gasto do upgrade. Existe um mercado muito grande para discos rígidos usados.

Modems

Nada mais lógico do que usar as linhas telefônicas, largamente disponíveis para realizar a comunicação entre computadores. Porém, usando linhas telefônicas comuns enfrenta-se um pequeno problema: os computadores trabalham com sinais digitais, neles qualquer informação será armazenada e processada na forma de 0s ou 1s. As linhas telefônicas por sua vez são analógicas, sendo adequadas para a transmissão de voz, mas não para a transmissão de dados.
Justamente para permitir a comunicação entre computadores utilizando linhas telefônicas comuns, foram criados os modems. Modem é a contração de modulador-demodulador e se refere a um aparelho capaz de transformar sinais digitais em sinais analógicos que são transmitidos pela linha telefônica e, em seguida, novamente transformados em sinais digitais pelo modem receptor.
Os modems apresentaram uma notável evolução na última década. Os primeiros modems eram capazes de transmitir apenas 300 bits de dados por segundo, enquanto que os atuais são capazes de manter conexões com velocidades de até 56 Kbits por segundo.

Hardmodems x Softmodems
 
Existem dois tipos de modems, que apesar de terem a mesma função, operam de maneira ligeiramente diferente. Tradicionalmente, os modems trazem todos os componentes necessários ao seu funcionamento, restando ao processador, apenas a tarefa de dizer a ele o que fazer, estes modems “completos” são chamados de hardmodems. Além dos modems tradicionais, você encontrará no mercado, alguns modems que operam via software, que são chamados de Winmodems ou softmodems e não possuem muitos dos componentes dos modems convencionais, destacando-se a UART, o circuito que coordena o envio e o recebimento de dados. Para que estes modems funcionem, é obrigatória a instalação de um programa que vem no CD que acompanha o modem.Como não possuem muitos componentes. O programa funciona como uma espécie de emulador, fazendo com que o processador execute as funções que normalmente seriam executadas pelo próprio modem, como o controle de envio/recebimento de sinais, controle de erro entre outras. Logicamente o micro ficará mais lento do que o normal enquanto o modem estiver sendo usado, já que além de suas funções normais, o processador acumulará as funções de controle do modem. O mínimo, em termos de processador recomendado para o uso de um softmodem, segundo os fabricantes, seria um Pentium 100. Os softmodems também costumam ser mais sensíveis a linhas ruidosas ou de baixa qualidade, onde eles apresentam um desempenho bem inferior aos hardmodems.
Apenas observando o “jeitão” do modem, e vendo o número de componentes que o compõe é possível perceber facilmente se se trata de um hardmodem ou de um softmodem, pois estes últimos são muito mais simples. Mas se mesmo assim restarem dúvidas, verifique a caixa e o manual de instruções; se, por exemplo, estiver escrito que é preciso um processador Pentium ou Pentium MMX, ou que o modem só funciona no Windows 98 e NT, com certeza trata-se de um Softmodem.Outro indicativo é a necessidade de instalar algum programa para que o modem funcione. Um modem tradicional só precisa que seja instalado um arquivo.INF (um arquivo de texto com as configurações e especificações do modem) para funcionar. Um softmodem por sua vez precisará que o programa emulador seja instalado.
Como sempre, tem-se neste caso o velho dilema de pagar mais caro por um componente de qualidade ou pagar bem mais barato por um componente inferior. Se você está montando um micro topo de linha, provavelmente não seria um bom negócio economizar justamente no modem, por outro lado, se você está montando um micro de baixo custo, um softmodem pode ser uma maneira de cortar custos.

Acesso rápido 

Os modems tiveram um papel essencial no desenvolvimento e popularização da Internet, já que são aparelhos relativamente baratos que permite a qualquer um que tenha um micro e uma linha telefônica acessarem a rede pagando apenas uma ligação local. Se não fossem eles a Internet jamais teria se tornado popular como é hoje. Porém, atualmente vê-se que os modems já deram o que tinham que dar.
Os modems são lentos comparados com outras formas de acesso, e não permite que se fique conectado muito tempo, devido ao preço das chamadas telefônicas e ao fato da linha ficar ocupada.
O meio mais popular é o acesso via ADSL, oferecido pelas próprias empresas de telefonia em várias cidades. Em São Paulo, por exemplo, o acesso via ADSL é chamado de Speedy. O ADSL utiliza a própria linha telefônica, porém de forma diferente, utilizando sinais de alta freqüência. Com isto, alem de não serem pagos pulsos para acessar a Internet, a linha fica desocupada.
Um segundo meio é o acesso via cabo, oferecido pelas emissoras de TV a cabo. O acesso via cabo está disponível apenas nas áreas onde a TV a cabo está disponível e é obrigatório que se assine também o serviço de TV, o que encarece a mensalidade.
Finalmente, se tem o acesso via rádio, onde tem-se uma antena instalada no topo dos edifícios e cabos puxados para os apartamentos. Geralmente este serviço está disponível apenas para prédios e mesmo assim é preciso que haja um número mínimo de moradores interessados.

A evolução das placas de som

Depois de quase uma década de domínio das placas de som ISA, com destaque para as placas da família Sound Blaster, finalmente se esta vendo uma grande popularização das placas de som PCI. Na verdade, elas já são a grande maioria. Está tornando-se cada vez mais difícil encontrar modelos antigos à venda.
Afinal, se tem placas de vídeo PCI e placas SCSI PCI, por que não se ter também placas de som PCI? A primeira resposta que vem à mente, é que por serem periféricos lentos, o barramento ISA já é mais do que suficiente para elas. Até certo ponto, este raciocínio é verdadeiro, realmente, as primeiras placas de som não possuíam muito poder de processamento, e conseqüentemente não precisavam de um barramento de dados muito largo.
Existem, porém, várias razões mais fortes para que as placas de som atuais sejam produzidas apenas em versão PCI: a primeira é que o barramento ISA é inexistente nas placas mãe mais modernas.
A segunda é que o barramento PCI permite transferências de dados com uma utilização de processador muito menor do que as mesmas transferências realizadas através do barramento ISA. Isto significa que uma placa de som PCI carrega muito menos o processador durante a reprodução dos sons, ajudando a melhorar a performance geral do equipamento.
Finalmente, a terceira razão é que as placas atuais possuem um poder de processamento incomparavelmente superior ao das placas do início da década de 90, precisando de muito mais banda que os 16 MB/s permitidos pelo barramento ISA. Uma Sound Blaster Live, por exemplo, possui um poder de processamento estimado de 1 Gigaflop, mais de 30 vezes o poder de processamento de uma Sound Blaster 16 lançada no início dos anos 90. Na verdade, 1 Gigaflop é bem mais inclusive do que muitos processadores modernos. Para você ter uma idéia, um Pentium 100 tem apenas 0.2 Gigaflop de poder de processamento.
Mas afinal, no que é utilizado todo este poder de processamento, já que uma simples SB16 de 10 anos atrás já é capaz de reproduzir música com qualidade de CD?

Placas de Som 3D
 
Mostrar imagens no monitor qualquer placa de vídeo ISA faz, mas conforme o poder de processamento das placas foi evoluindo, não bastava mais apenas mostrar imagens no monitor, a placa deveria também ser capaz de gerar gráficos em 3 dimensões. Hoje em dia, não basta apenas gerar imagens 3D, uma boa placa tem que gerar imagens de boa qualidade e com um alto frame rate.
Se você pode ter placas de vídeo 3D, capazes de tornar mais reais as imagens dos jogos e aplicativos 3D, por que não ter também placas de som 3D? Os sons do mundo real vêem de todos os lados, se alguém vier andando atrás de você, mesmo não vendo a pessoa você saberá que tem alguém apenas prestando atenção na direção do som. Por que não ter este mesmo efeito nos jogos tridimensionais? O som em três dimensões realmente dá uma nova perspectiva ao jogo, tornando-o muito mais emissivo e real, parece um pouco difícil de acreditar, mas experimente ver isso em ação. Nas palavras de um gamemaníaco: “Os sons do Quake 3 e do Half Life ficam ANIMAIS... Você ouve certinho onde os caras estão!”... “Da pra levar uma boa vantagem no Deathmatch”Assim como nas placas de vídeo 3D, os efeitos sonoros em 3D são atualmente usados apenas em jogos. Ouvindo músicas em MP3 ou um CD de música a qualidade de som continua sendo a mesma.

Cd e Gravação de CD

Além dos CDs prensados, existem também os CDs graváveis que são vendidos como discos virgens e que pode ser gravado uma única vez num gravador de CD-ROM, que ao invés de “prensar” o CD, grava os dados através de um feixe laser mais forte, que queima alguns pontos da camada de gravação do CD, substituindo os sulcos. Existem também os CDs regraváveis que, assim como um disquete, podem ser gravados e regravados várias vezes em um CD-RW.O que muda de um CD gravável para um regravável é apenas a camada de gravação. Num CD virgem comum, a camada de gravação é composta por material orgânico, um tipo de plástico ou combustível, que se queima com o laser do gravador, tornando-se inalterável. A substância usada nos CDs regraváveis por sua vez pode alternar entre um estado opaco e outro cristalino, de acordo com a intensidade do laser. Esta variação é quem permitem que eles sejam regravados várias vezes.
Praticamente todos os gravadores podem trabalhar com os dois tipos de mídias, mas em geral a velocidade de regravação é bem mais baixa que a velocidade de gravação. Outro problema é que por possuírem uma refração de luz bem menor, as mídias regraváveis não são lidas em vários leitores de CD.
Gravar CDs é um processo bem simples. Basta instalar o gravador, como se fosse um drive de CD comum. Depois de instalado, o Windows reconhecerá o gravador, mas como um simples leitor de CDs, quem reconhecerá a verdadeira identidade do gravador será programa de gravação. Existem vários programas de gravação disponíveis no mercado, mas o mais comum e mais fácil de usar é o Easy CD Creator, programa que acompanha a maioria dos gravadores. Basta instalar o programa e começar a queimar seus CDs, no melhor sentido da palavra.
Um CD-ROM de boa qualidade pode durar mais de um século, desde que seja bem conservado. Além de tomar cuidado com arranhões, você deve evitar expor seu CD diretamente ao sol quente ou outras fontes de calor, pois o calor pode fundir a camada reflexiva, inutilizando o CD. CDs gravados são especialmente sensíveis.
Os primeiros drives de CD-ROM eram capazes de ler dados a 150 KB/s. A próxima geração de drives já era capaz de ler dados a cerca de 300 KB/s, o dobro. Estes “novos” drives passaram então a ser chamados de CD-ROMs 2X, já que eram duas vezes mais rápidos que os originais. Em seguida começaram a aparecer drives com taxas de leitura de 600 KB/s ou 900 KB/s, sendo chamados respectivamente de 4x e 6x. Um drive de 32x deve ser capaz de ler dados a 4800 KB/s e assim por diante.Este mesmo padrão de velocidade aplica-se também aos gravadores de CD. Um aparelho vendido como “8x/4x/32x”, por exemplo, pode gravar CDs a 8x, regravar a 4x e ler a 32x. 

DVD
 
Originalmente, o DVD foi concebido para armazenar filmes e substituir as fitas de vídeo comuns. Apesar de grande, a capacidade de um CD comum é suficiente para armazenar apenas poucos minutos de vídeo de alta resolução, enquanto um DVD pode armazenar mais de 2 horas de vídeo com 500 linhas horizontais de resolução, o dobro da resolução de um vídeo cassete comum. Outro recurso interessante do DVD é a possibilidade de serem gravadas 8 dublagens e até 32 opções de legenda junto com o filme.
Existem 4 tipos de DVD, que diferem na capacidade. O DVD 5 é capaz de armazenar 4,7 GB de dados ou 133 minutos de vídeo. O DVD 10 utiliza a mesma tecnologia do DVD 5, mas nele são usados os dois lados do disco, dobrando a capacidade, tem-se então 9,4 GB de dados ou 266 minutos de vídeo. Tem-se também o DVD 9 e o DVD 18, que são capazes de armazenar respectivamente 8,5 e 17 GB de dados.
Fisicamente, um DVD é muito parecido com um CD comum, a diferença é que os sulcos na mídia são bem menores e mais próximos uns dos outros. Enquanto no CD cada bit óptico mede 0,83 nm (nanômetros), de comprimento e 1,6 nm de largura, num DVD cada ranhura mede apenas 0,4 nm x 0,74 nm, permitindo gravar muito mais dados no mesmo espaço físico.


 
Atualmente você está vendo a popularização de um novo formato de compactação de vídeo, que atinge níveis de compactação bem superiores ao do MPEG2 usado no DVD, o “Divx;-)” (com o sorrisinho no final), que permite gravar duas horas de filme, com uma qualidade próxima à do DVD num CD-ROM comum. O Divx;-) começou sendo usado para a pirataria, mas é bem provável que com o passar do tempo ele passe a ser utilizado para a venda de filmes, transmissão via Internet, etc. Se você trabalha com produção de vídeos ou filmes, pode usar o novo formato para vender seus trabalhos em CD-ROM, que qualquer um que tenha micro vai poder assistir. Você pode encontrar os programas necessários e alguns tutoriais no http://www.divx-digest.com/

Placas de Vídeo e Monitores

A função da placa de vídeo é preparar as imagens que serão exibidas no monitor. Já foram criadas placas de vídeo usando praticamente todo o tipo de barramento existente, do ISA ao PCI, passando pelo MCA, EISA e VLB.

2D x 3D, entendendo as diferenças 

As placas de vídeo mais antigas, simplesmente recebem as imagens e as enviam para o monitor. Neste caso, o processador é quem faz todo o trabalho. Este sistema funciona bem quando se trabalha apenas com gráficos em duas dimensões, usando aplicativos de escritório, ou acessando a Internet, por exemplo, já que este tipo de imagem demanda pouco processamento para ser gerada. Estas são as famosas placas 2D.
O problema surge quando o usuário pretende rodar jogos 3D, ou mesmo programas como o 3D Studio, que utilizam gráficos tridimensionais. Surge então a necessidade de usar uma placa de vídeo 3D. A função de uma placa de vídeo 3D é auxiliar o processador na criação e exibição de imagens tridimensionais. Como você sabe, numa imagem tridimensional tem três pontos de referência: largura, altura e profundidade. Um objeto pode ocupar qualquer posição no campo tridimensional, pode inclusive estar atrás de outro objeto.
Os gráficos tridimensionais são atualmente cada vez mais utilizados, tanto para aplicações profissionais (animações, efeitos especiais, criação de imagens, etc.), quanto para entretenimento, na forma de jogos.
A grande maioria dos títulos lançados atualmente utilizam gráficos tridimensionais e os títulos em 2D estão tornando-se cada vez mais raros, tendendo a desaparecer completamente. Não é difícil entender os motivos dessa febre: os jogos em 3D apresentam gráficos muito mais reais, movimentos mais rápidos e efeitos impossíveis de se conseguir usando gráficos em 2D.
Uma imagem em três dimensões é formada por polígonos, formas geométricas como triângulos, retângulos, círculos etc. Uma imagem em 3D é formada por milhares destes polígonos. Quanto mais polígonos, maior é o nível de detalhes da imagem. Cada polígono tem sua posição na imagem, um tamanho e cor específicos.
Para tornar a imagem mais real, são também aplicadas texturas sobre os polígonos. Uma textura nada mais é do que uma imagem 2D comum (pode ser qualquer uma). O uso de texturas permite que num jogo 3D um muro realmente tenha o aspecto de uma muro de pedras, por exemplo, já que pode-se usar a imagem de um muro real sobre os polígonos.
O processo de criação de uma imagem tridimensional é dividido em três etapas, chamadas de desenho, geometria e renderização. Na primeira etapa, é criada uma descrição dos objetos que compõe a imagem, ou seja: quais polígonos fazem parte da imagem, qual é a forma e tamanho de cada um, qual é a posição de cada polígono na imagem, quais serão as cores usadas e, finalmente, quais texturas e quais efeitos 3D serão aplicados. Depois de feito o “projeto” entra-se na fase de geometria, onde a imagem é efetivamente criada e armazenada na memória.Ao final da etapa de geometria, tem-se a imagem pronta. Porém, tem-se também um problema: o monitor do micro, assim como outras mídias (TV, papel, etc.) é capaz de mostrar apenas imagens bidimensionais. Entra-se então na etapa de renderização. Esta última etapa consiste em transformar a imagem 3D em uma imagem bidimensional que será mostrada no monitor. Esta etapa é muito mais complicada do que parece; é necessário determinar (a partir do ponto de vista do espectador) quais polígonos, está visível, aplicar os efeitos de iluminação adequados, etc.
Apesar do processador também ser capaz de criar imagens tridimensionais, trabalhando sozinho ele não é capaz de gerar imagens de qualidade a grandes velocidades (como as demandadas por jogos), pois tais imagens exigem um número absurdo de cálculos e processamento. Para piorar ainda mais a situação, o processador tem que ao mesmo tempo executar várias outras tarefas relacionadas com o aplicativo.
As placas aceleradoras 3D por sua vez, possuem processadores dedicados, cuja função é unicamente processar as imagens, o que podem fazer com incrível rapidez, deixando o processador livre para executar outras tarefas. Com elas, é possível construir imagens tridimensionais com uma velocidade incrível. Vale lembrar que uma placa de vídeo 3D só melhora a imagem em aplicações que façam uso de imagens tridimensionais. Em aplicativos 2D, seus recursos especiais não são usados. 
A conclusão é que caso o usuário pretenda trabalhar apenas com aplicativos de escritório, Internet, etc. então não existe necessidade de gastar dinheiro com uma placa 3D, pois mesmo usando uma placa de última geração, seu potencial não seria utilizado. Neste caso, poderá ser usado o vídeo on-board da placa mãe, ou mesmo uma placa de video um pouco mais antiga sem problemas.
Porém, se o micro for ser utilizado para jogos, então uma placa de vídeo 3D é fundamental. Sem uma placa 3D, a maioria dos jogos atuais vão ficar lentos até mesmo em um Pentium III de 1 GHz, sendo que muitos jogos sequer permitem ser executados sem que uma aceleradora 3D esteja instalada.
Atualmente, todas as placas de vídeo à venda, mesmo os modelos mais simples possuem recursos 3D, mas existem enormes variações tanto em termos de preço quanto no desempenho. 

Memória de vídeo
 
Assim como o processador, a placa de vídeo também usa memória RAM, memória que serve para armazenar as imagens que estão sendo criadas.
Numa placa de vídeo 2D a quantidade de memória não interfere em absolutamente nada no desempenho da placa, ela apenas determina quais resoluções e quantidade de cores serão suportadas. Uma placa antiga, com apenas com 1 MB de memória, por exemplo, será capaz de exibir 16 milhões de cores em resolução de 640x480 ou 65 mil cores em resolução de 800x600. Uma placa com 2 MB, já seria capaz de exibir 16 milhões de cores em resolução de 800x600. Uma placa de 4 MB já seria capaz de atingir 16 milhões de cores em 1280x1024 e assim por diante.
Para se ter uma boa definição de cores o mínimo é o uso de 16 bits de cor e o ideal 24 bits. Algumas placas suportam também 32 bits de cor, mas em se tratando de 2D os 32 bits correspondem a exatamente a mesma quantidade de cores que 24 bits, ou seja, 16 milhões. Os 8 bits adicionais simplesmente não são usados. Esta opção é encontrada principalmente em placas da Trident e é na verdade uma medida de economia, pois como a placa de vídeo acessa a memória a 64 ou 128 bits dependendo do modelo, é mais fácil para os projetistas usar 32 bits para cada ponto ao invés de 24, mas neste caso tem-se- apenas um desperdício de memória.

 
Resolução e cores

Outra configuração importantíssima é a taxa de atualização. Geralmente esta opção aparecerá no menu de propriedades de vídeo (painel de controle/video)/configurações/ avançado/ monitor.
A taxa de atualização se refere ao número de vezes por segundo que a imagem é atualizada no monitor. O grande problema é que os monitores atuais utilizam células de fósforo para formar a imagem, que não conservam seu brilho por muito tempo, tendo que ser reacendidas constantemente.
O ideal é usar uma taxa de atualização de 75 Hz ou mais. Usando menos que isso terá um fenômeno chamado flicker, onde a tela fica instável, piscando ou mesmo temendo, como uma gelatina. É justamente o flicker que causa a sensação de cansaço ao se olhar para o monitor por muito tempo, e em médio prazo pode até causar danos à visão.
Outra coisa que ajuda e muito a diminuir o flicker é diminuir o brilho do monitor, o ideal é usar a tela o mais escura possível, dentro do que for confortável naturalmente. Uma dica é deixar o controle de brilho no mínimo e ajustar apenas pelo contraste. Quanto maior for à taxa de atualização e quanto menor for à claridade da imagem menor será o flicker e menor será o cansaço dos olhos.
As taxas de atualização máximas dependem tanto da placa de vídeo quanto do monitor. Se você escolher uma taxa que não seja suportada pelo monitor a imagem aparecerá desfocada. Apenas pressione Enter e o Windows retornará à configuração anterior. Quanto menor a resolução de imagem escolhida maior será a taxa de atualização suportada pelo monitor.
 

Taxa de atualização
 
Quando se fala em imagens em 3D a coisa muda bastante de figura. Primeiro por que ao processar uma imagem 3D a placa não usa a memória de vídeo apenas para armazenar a imagem que será mostrada no monitor, mas principalmente para armazenar as texturas que são usadas. Nos jogos atuais cada vez são usadas mais texturas e texturas cada vez maiores. É justamente por isso que as placas de vídeo atuais são tão poderosas. Para você ter uma idéia, na época do 386 uma “boa” placa de vídeo vinha com um processador simples, com 20 ou 30 mil transistores e 256 KB de memória.A Voodoo 6, uma das placas mais modernas hoje em dia por sua vez trás quatro processadores com quase 15 milhões de transistores cada um trabalhando em paralelo e 128 MB de memória! Se for colocada em um micro médio, esta placa de vídeo sozinha vai ter mais poder de processamento e memória que o resto do conjunto.
Voltando ao assunto principal, numa placa de vídeo a quantidade de memória não determina a resolução de vídeo que poderá ser usada, mas sim a performance da placa. O motivo é simples, se as texturas a serem usadas pelo jogo não couberem na memória da placa, terão que ser armazenadas na memória RAM, e lidas usando o barramento AGP. O problema é que neste caso tem-se uma enorme degradação de performance, pois demora muito mais tempo para ler uma textura armazenada na memória RAM principal do que ler a mesma se estivesse armazenada na memória da placa de vídeo.
Se for rodado um jogo simples, que use poucas texturas, então uma placa de 16 MB e a mesma em versão de 32 MB apresentarão exatamente o mesmo desempenho, mas caso seja usado um jogo mais pesado, que use um número maior de texturas, provavelmente a placa de 32 MB se sairá muito melhor.

Qual é a vantagem de se ter uma placa 3D rápida? 

As duas principais diferenças entre uma placa 3D mais lenta e outra rápida nos jogos são a qualidade de imagem, que inclui a resolução de tela, número de cores e efeitos 3D que serão usados, e o frame - rate, o número de quadros gerados por segundo.
A função da placa de vídeo 3D é basicamente desenhar as imagens e mostrá-las no monitor. Quanto mais poderosa for à placa, mais polígonos será capaz de desenhar e mais texturas será capaz de aplicar, acabando por gerar um número maior de quadros por segundo, número chamado de frame - rate.
Quanto mais quadros forem gerados por segundo, mais perfeita será a movimentação do jogo. Para que não seja possível perceber qualquer falha na fluidez da imagem, o ideal seriam pelo menos 20 ou 25 quadros por segundo. Para você ter uma idéia, a TV exibe 24 quadros, e desenhos animados variam entre 16 e 24 quadros. Normalmente 30 quadros é o valor considerado ideal no mundo dos games. Menos que isso, começará a aparecer saltos, principalmente nas cenas mais carregadas, prejudicando a jogabilidade.
Quanto maior for à resolução de vídeo usada, maior o número de cores e mais efeitos forem usados, maior será o trabalho da placa de vídeo ao gerar cada quadro, e conseqüentemente mais baixo será o frame - rate, e mais precária a movimentação do jogo. Existe uma relação inversamente proporcional entre as duas coisas.
A resolução das imagens 3D pode ser escolhida dentro do próprio jogo, no menu de opção de imagens. No menu de propriedades de vídeo do Windows você poderá configurar mais algumas opções da placa, que realmente aparecem na forma das opções “best performance”, “best image quality”, ou seja, melhor performance ou melhor qualidade de imagem.Mesmo usando uma placa mais antiga você provavelmente conseguira rodar rodos os jogos mais atuais, o problema é que para isso você deverá deixar a resolução 3D em 640x 480 e desabilitar os recursos que melhoram a qualidade das imagens a fim de manter um mínimo de jogabilidade.
Usando uma placa mais moderna por outro lado você poderá jogar seus jogos favoritos com a melhor qualidade de imagem possível, usando 1024 x 768 de resolução, 32 bits de cor, etc.

A importância dos drivers de vídeo 

Um ponto fundamental atualmente quando se fala em placas 3D são justamente os drivers. Simplificando, um driver é um pequeno programa, ou um “manual de instruções” que permite ao sistema operacional utilizar todos os recursos da placa de vídeo. Os fabricantes mantêm os drivers de suas placas em constante desenvolvimento, e a cada versão tem-se uma melhora tanto no desempenho quanto na compatibilidade. Antes de instalar uma placa 3D, não deixe de fazer uma visita ao site do respectivo fabricante e baixar os drivers mais recentes, que invariavelmente terão mais recursos e serão mais rápidos do que os drivers que vem junto com a placa (naturalmente bem mais antigos). Em alguns casos, a diferença de desempenho pode passar de 50%!No caso de chipsets que são usados em várias placas diferentes, como o Riva TnT, fabricado pela Nvidia, mas vendido para diversos outros fabricantes que desenvolvem placas 3D baseados nele, você terá à sua disposição tanto drivers desenvolvidos pelo fabricante do chipset quanto drivers desenvolvidos pelo fabricante da placa. Se você comprou uma Viper V550, por exemplo, poderá tanto usar os drivers da Diamond (a fabricante da placa) quanto os drivers da Nvidia. Em alguns casos, os drivers do fabricante do chipset são melhores e em outros os drivers do fabricante da placa são melhores (em geral o mais recente será o melhor, porém isto não é sempre uma regra).
Surfando pela Net, você encontrará também drivers Beta, drivers que ainda estão em fase de testes e que por isso ainda não foram oficialmente liberados pelo fabricante, mas que “vazaram” através de algum beta tester. Como sempre, um driver beta permite que você tenha novos recursos em primeira mão, mas não são totalmente estáveis. É como usar a versão beta de um novo Browser ou sistema operacional. Se você gosta de fuçar e de testar drivers, então boa diversão, mas se você gosta de sossego, então utilize os drivers oficiais.

Monitores
 
O monitor tem uma importância vital, pois em conjunto com a placa de vídeo forma o principal meio de comunicação entre a máquina e os usuários. Os fatores que diferenciam os inúmeros modelos de monitores à venda no mercado, são basicamente os tamanhos, o Dot Pitch, ou o tamanho dos pontos que compõe e tela, as resoluções suportadas e a taxa máxima de atualização da imagem.
Quanto ao tamanho, é a medida em polegadas entre as diagonais da tela. Os mais comuns atualmente ainda são os monitores de 15 e 17 polegadas, mas caso você deseje trabalhar com aplicativos gráficos, ou mesmo utilizar o PC para jogos, será muito beneficiado por um monitor de 20 polegadas. Além do tamanho físico, a vantagem dos monitores maiores, é que invariavelmente eles suportam resoluções maiores, assim como maiores taxas de atualização.
Outra coisa importante com relação aos monitores é o tamanho dos pontos que compõem a tela, ou Dot Pitch. Se você pegar uma lupa e examinar a tela de seu monitor, verá que a imagem é formada por pontos verdes, azuis e vermelhos. Cada conjunto de três pontos é chamado de tríade, e a distância diagonal entre dois pontos da mesma cor, o que compõe justamente a medida de uma tríade é chamada de Dot Pitch. O mais comum é encontrarmos monitores com Dot Pitch de 0.29 milímetros quadrados. Alguns monitores mais recentes, porém, utiliza pontos menores, de 0.22 ou 0.19 mm, o que garante uma imagem de melhor qualidade. Evite, porém alguns monitores mais antigos que usam Dot Pitch de 0.39, pois neles a qualidade de imagem é muito ruim.
Um bom monitor de 14 polegadas deve suportar resoluções de até 1024x756 pontos. Monitores maiores também devem ser capazes de exibir resoluções de 1280x1024 ou mesmo 1600x1200 no caso dos de 20 polegadas.
O mais comum por parte dos usuários que usam monitores de 15 polegadas, é o uso de resolução de 800x600, pois mesmo quando suportadas, resoluções maiores acabam sendo desconfortáveis em um monitor pequeno. No caso de monitores grandes, porém, o uso de resoluções maiores já é fortemente recomendado.
A última característica, e talvez a mais importante nos monitores, é a freqüência de atualização da imagem, ou “refresh rate”. Num monitor, um feixe de elétrons bombardeia continuamente a tela, formando a imagem. A quantidade de vezes por segundo que este feixe atualiza a imagem, é chamada de taxa de atualização.Um bom monitor deve ser capaz de atualizar a imagem pelo menos 75 vezes por segundo (75Hz). Porém, monitores de menor qualidade são capazes de manter uma taxa de refresh de apenas 60 Hz, o que causa cintilação na imagem, o famoso flicker.
O flicker ocorre devido à perda de luminosidade das células de fósforo do monitor. Usando uma taxa de renovação de menos de 75Hz, o tempo que o feixe de elétrons demora para passar é muito longo, fazendo com que células percam parte do seu brilho, sendo reacendidas bruscamente na próxima passagem do feixe de elétrons. Isto faz com que as células pisquem, tornando instável a imagem. Esta instabilidade, além de desconfortável, faz muito mal aos olhos.
A taxa de atualização do monitor também depende da resolução utilizada. No monitor, a imagem é atualizada linha a linha, de cima para baixo. A quantidade de linhas que o monitor é capaz de varrer por segundo é chamada de freqüência horizontal, que é medida em KHz. Os monitores de 14 polegadas geralmente têm freqüência horizontal de 49 KHz, ou seja, são capazes de atualizar 49 mil linhas por segundo. Isto é suficiente quando você usar resolução de 640 x 480 ou mesmo 800x600, pois 49 KHz são suficientes para uma taxa de atualização de 75 Hz, o que é um bom valor. 
Você poderia perguntar o porquê de 75 Hz, já que 49.000 / 600 dão 81,6. A resposta é o retraço vertical e horizontal, que corresponde o tempo que o feixe de elétrons, quando chega ao final de uma linha, ou à última linha da tela, demora para retornar ao início e reiniciar a varredura.
O tempo perdido com o retraço varia de monitor para monitor, mas geralmente consome 5 ou 6% do tempo total. Apesar dos monitores menores geralmente suportarem resolução de 1024x768, esta não é recomendável, pois o monitor não seria capaz de manter uma taxa de atualização de mais de 60Hz, gerando flicker. Monitores maiores, porém, possuem freqüências horizontais que podem ser de mais de 135 kHz, o que nos proporciona boas taxas de atualização, mesmo em resoluções mais elevadas.

Monitores LCD
 
Os monitores LCD, (Liquid Cristal Display, ou monitores de cristal líquido), já vêm, há várias décadas sendo usados em computadores portáteis. Atualmente esta tecnologia vem se popularizando também no mercado de computadores domésticos, apesar da procura ainda ser pequena devido ao alto preço destes aparelhos. Mas o que os monitores LCD têm de tão especial?

As vantagens
 
Os monitores LCD trazem várias vantagens sobre os monitores CRT (Catodic Ray Tube, ou tubo de raios catódicos) usados atualmente, apesar de também possuírem algumas desvantagens, destacando-se o alto preço.
Colocando lado a lado um monitor LCD e outro CRT, a primeira diferença que salta à vista é justamente o tamanho. Os monitores de cristal são muito mais finos que os tradicionais, o que explica seu uso em computadores portáteis. No caso de um micro domestico a vantagem neste caso não é tão evidente, mas de qualquer modo tem-se alguma economia de espaço.
Outra vantagem dos monitores LCD, é o fato de possuírem uma tela realmente plana, o que elimina as distorções de imagem causadas pelas telas curvas dos monitores CRT, e aumenta a área útil do monitor, já que não se tem espaços desperdiçados nos cantos da imagem.
Na ilustração abaixo, por exemplo, tem-se um monitor LCD de 12,1 polegadas ao lado de um monitor tradicional de 14 polegadas. Note que apesar do monitor LCD ser bem menor, a área de exibição é quase equivalente à do monitor de 14 polegadas.


 
Um monitor LCD de 14 polegadas possui uma área de exibição maior do que um CRT de 15 polegadas, enquanto que num LCD de 15 polegadas a área é quase equivalente a um monitor tradicional de 17 polegadas.
Os monitores de cristal líquido também gastam menos eletricidade. Enquanto um monitor tradicional de 14 polegadas consome por volta de 90 W, um LCD dificilmente ultrapassa a marca dos 40W. Outra vantagem é que estes monitores emitem uma quantidade muito menor de radiação nociva (praticamente nenhuma em alguns modelos) o que os torna especialmente atraentes para quem fica muito tempo em frente ao monitor diariamente.
Finalmente, nos monitores de cristal líquido não existe flicker, pois ao invés da imagem ser formada pela ação do feixe de elétrons, como nos monitores CRT, cada ponto da tela atua como uma pequena lâmpada, que muda sua tonalidade para formar a imagem. O termo “refresh rate” não se aplica ao monitores de cristal líquido, pois neles a imagem é sempre perfeita.

As desvantagens
 
Sem dúvida, a aparência de um LCD é muito mais elegante e moderna do que a de um monitor tradicional, porém, como nada é perfeito, os LCDs também tem suas desvantagens: a área de visão é mais limitada, o contraste é mais baixo, e as resoluções permitidas são bem mais limitadas.
Enquanto nos monitores tradicionais pode-se ver a imagem exibida praticamente de qualquer ângulo, tem-se nos LCDs o ângulo de visão limitado a apenas 90º acima disso a imagem aparecerá com as cores distorcidas ou mesmo desaparecerá. Isto pode ser até desejável em algumas situações, no caixa de um banco, por exemplo, mas normalmente é bem inconveniente.
O contraste da imagem também é bem mais baixo. Enquanto num monitor convencional tem-se normalmente um contraste de 500:1, ou seja, uma variação de 500 vezes na emissão de luz do branco para o preto. Nos monitores de cristal líquido o contraste varia entre 250:1 e 300:1 o que prejudica um pouco a qualidade da imagem, principalmente a fidelidade das cores.
Tem-se também as limitações quanto às resoluções suportadas. Nos monitores CRT se tem à nossa disposição várias resoluções de tela diferentes, que vão desde os 320 x 200 pontos usados no MS-DOS até 1024x 768, 1200x 1024 ou até mesmo 1600x 1200, passando por várias resoluções intermediárias, como 400x300, 320x400, 320x480, 512x384x, 1152x864 entre outras, sendo que em todas as resoluções tem-se uma imagem sem distorções.
Os monitores de cristal líquido por sua vez são bem mais limitados neste aspecto, pois cada ponto da imagem é fisicamente representado por um conjunto de 3 pontos (verde, vermelho e azul). Num monitor LCD com resolução de 1024x 768, por exemplo, tem-se 3072 pontos horizontais e 768 verticais, sendo que cada conjunto de 3 pontos forma um ponto da imagem. Como não é possível alterar a disposição física dos pontos, tem-se a resolução máxima limitada ao número de pontos que compões a tela. Pode-se até usar resoluções menores, usando mais de um ponto da tela para representar cada ponto da imagem, recurso chamado de fator escala.
Se, por exemplo, a resolução máxima do LCD é de 640 x 480, e é preciso exibir uma tela DOS, que usa resolução de 320 x 240, serão usados 4 pontos da tela para representar cada ponto da imagem. Neste caso o fator escala será 2 (2 x 2 ao invés de um único ponto) como se tem um número inteiro não há distorção na imagem. Se por outro lado a resolução do LCD é de 1024x 768 e é preciso exibir 800x 600, terás um fator escala de 1.28, resultando em distorção da imagem.
Apesar de não deixarem tanto a desejar em termos de qualidade de imagem, e possuírem algumas vantagens interessantes, os monitores LCD ainda são extremamente caros. Mesmo no exterior, os modelos mais baratos superam a marca dos 700 dólares, sendo utilizáveis apenas em ambientes onde suas vantagens compensam o preço bem mais alto.

Usando dois monitores
 
Você já deve ter ouvido falar muito do suporte a até nove monitores trazidos pelo Windows 98. Este recurso que também é suportado pelo Windows 2000 pode ser bastante útil, principalmente para quem utiliza monitores de 14 ou 15 polegadas que não suportam resoluções mais altas.
O mais comum e prático é uso de dois monitores. Para isso você precisará apenas comprar mais uma placa de vídeo. O segundo monitor pode ser qualquer monitor VGA ou SVGA, colorido ou mesmo monocromático. Você pode utilizar até mesmo aquele monitor velho que sobrou do upgrade de um velho 486. Isto é possível por que tanto a configuração de resolução de vídeo quanto à quantidade de cores usadas podem ser diferentes para cada monitor, já que cada um possui sua própria placa de vídeo. Você pode, por exemplo, pode usar 1024 x 768 e 65.000 cores no monitor “titular” enquanto usa 640 x 480 e apenas 256 cores no segundo monitor.O segundo monitor pode ser utilizado para expandir sua área de trabalho. As possibilidades são muitas: enquanto está navegando na Internet, você pode, por exemplo, deixar o navegador aberto no primeiro monitor e ao mesmo tempo manter aberto o Outlook e a barra do ICQ no segundo monitor, ao invés de ter a todo tempo, ter que minimizar um e maximizar o outro. Pode também escrever alguma cosia no Word ao mesmo tempo em que pesquisa alguma coisa na Net usando o Navegador, com os dois abetos ao mesmo tempo. Se for para transcrever ou resumir um texto então... bingo, basta manter aberto o texto original em um monitor e usar o segundo monitor para escrever o resumo, e ir escrevendo ao mesmo tempo que lê o texto original. Usar dois monitores pode aumentar bastante a sua produtividade e não é um recurso muito caro.
O recurso de múltiplos monitores é suportado apenas por placas de vídeo PCI ou AGP. Placas ISA, VLB, EISA, etc. não podem ser usadas. Você pode utilizar tanto duas placas PCI quanto uma AGP e uma PCI. Uma das placas será o vídeo primário e a outra o vídeo secundário. Com exceção das placas com Chips Parmedia, quase todas as placas atuais suportam ser utilizadas como vídeo secundário, o único, porém é que nem todas as placas suportam ser usadas como vídeo primário. Para obter informações sobre placas de vídeo mais recentes, você pode contatar o fabricante ou o revendedor, que poderão fornecer as especificações da placa. De qualquer modo, como são poucas as placas incompatíveis com este recurso, recomenda-se que você primeiro faça um teste, tentando entrar em contato com o suporte apenas caso a placa não funcione adequadamente.
Depois de instalar fisicamente a segunda placa, basta carregar o Windows que o novo hardware será encontrado. Caso o Windows possua o driver a placa será instalada automaticamente, caso contrário será preciso fornecer os drivers do fabricante. Depois de reinicializar o sistema, o primeiro monitor exibirá o desktop normalmente, mas o segundo exibirá apenas um aviso em texto de que o Windows detectou o uso de dois monitores. Abra o ícone vídeo do painel de controle e na guia de configurações aparecerão agora dois monitores, ao invés de um, clique no ícone do segundo monitor e será perguntado se você deseja ativá-lo, basta responder que sim. Agora é só configurar a resolução e quantidade de cores a serem exibidas em cada monitor e, tudo pronto.
 

Configurando o segundo monitor
 
O segundo monitor funciona como uma extensão da área de trabalho do primeiro. Isto significa que basta mover o mouse em direção ao segundo monitor para que o cursor passe para ele. Na mesma janela de configurações, você deverá arrastar os monitores de modo a representar sua posição física. Esta informação é usada para controlar a ação do cursor do mouse:


 
Existe a possibilidade de instalar até 9 monitores. Na verdade esta marca é bem complicada de atingir, pois as placas mãe em geral vem com no máximo 6 slots PCI e um AGP, o que daria a possibilidade de instalar até 7 monitores. Mas, se você se decidir por mais de dois monitores, 3, 4, 5 etc. o procedimento será basicamente o mesmo. Recomenda-se é que você instale primeiro a primeira placa de vídeo, instale os drivers, e apenas depois que tudo estiver funcionando a contento instale a segunda. Após instalar os drivers e colocar tudo para funcionar, instale a terceira e assim por diante.

Vídeo primário e secundário
 
Ao usar mais de um monitor, uma das placas de vídeo será configurada como vídeo primário e as demais como secundárias, terciárias, etc. O vídeo primário será seu monitor principal, onde surgirão as caixas de diálogo, onde a maioria dos programas usará por defaut, etc. O status da placa de vídeo não é definido pelo Windows, mas sim pelo BIOS, que elege qual placa será a primária de acordo com o slot PCI ao qual esteja conectada. Se você estiver usando duas placas de vídeo PCI, e a placa errada for definida como primária, bastará inverter a posição das duas.
Caso você esteja utilizando uma placa AGP e outra PCI, você terá um pouco mais de trabalho, pois por defaut o a placa de vídeo PCI será detectada como primária. Na maioria dos casos você poderá alterar isso através da opção “Initialize First: PCI/AGP” do BIOS Setup. Basta alterar a opção para: “Initialize First: AGP/PCI”. Isto também se aplica as placas mãe com vídeo on-board, que em geral ocupa o barramento AGP.O Windows 2000 permite escolher qual placa será a primária através da própria janela de propriedades de vídeo, neste caso você não precisará se preocupar com a detecção do BIOS.

Plug-and-Play

Traduzindo ao pé da letra, Plug-and-Play significa “conecte e use”. O objetivo deste padrão é fazer com que o micro seja capaz de reconhecer e configurar automaticamente qualquer periférico instalado, reduzindo o trabalho do usuário a apenas encaixar o novo componente.Apesar de ser uma idéia antiga, (o barramento MCA lançado em 87 já possuía suporte a PnP) somente há poucos anos o PnP tornou-se popular. A dificuldade é que além de um barramento compatível, é necessário suporte também por parte do BIOS, do sistema operacional e também por parte do periférico para que tudo funcione.
Tudo começa durante a inicialização do micro. O BIOS envia um sinal de interrogação para todos os periféricos instalados no micro. Um periférico PnP é capaz de responder a este sinal, permitindo ao BIOS reconhecer os periféricos PnP instalados.
O passo seguinte é criar uma tabela com todas as interrupções disponíveis e atribuir cada uma a um dispositivo. O sistema operacional entra em cena logo em seguida, devendo ser capaz de trabalhar cooperativamente com o BIOS, recebendo as informações sobre a configuração do sistema e fornecendo todo o software de baixo nível (na forma de drivers de dispositivo) necessário para que os dispositivos possam ser utilizados pelos programas.
As informações sobre a configuração atual da distribuição dos recursos entre os periféricos, são gravadas em uma área do CMOS chamada de ESCD. Tanto o BIOS durante o POST, quanto o sistema operacional durante a inicialização, lêem esta lista, e caso não haja nenhuma mudança no Hardware instalado, mantém suas configurações. Isto permite que o sistema operacional (desde que seja compatível com o PnP) possa alterar as configurações caso necessário. No Windows 95/98, o próprio usuário pode alterar livremente as configurações do sistema através do painel de controle.

Problemas com o Plug-and-Play
 
A maneira como o Plug-and-Play foi implementado nos micros PCs, permite (pelo menos em teoria), que ele funcione bem. O problema é que nem todos os periféricos usados atualmente são compatíveis com o PnP (placas de som e modems mais antigos, por exemplo), enquanto outros são apenas parcialmente compatíveis (muitas placas de som e modems atuais, portas seriais e paralelas, entre outros). Estes periféricos são chamados de “Legacy ISA”.Como o BIOS não possui recursos para identificar quais recursos estão sendo ocupados por este tipo de periférico, é bem possível que atribua os mesmos valores para outros dispositivos PnP, causando conflitos.
Para evitar este problema, é preciso reservar manualmente os endereços de IRQ e DMA ocupados por periféricos ISA de legado através da sessão “PNP/PCI Setup” do CMOS Setup. Se, por exemplo, você tiver uma placa de som não PnP, que esteja configurada para utilizar o IRQ 5 e os canais de DMA 1 e 5, você deverá reservar estes três canais, para que o BIOS não os atribua a nenhum outro periférico. Configurando a opção como “Yes” (ou "ISA/PCI PnP") deixa o canal está reservado, e “No/ICU” (ou "Legacy ISA) o deixa livre para uso de periféricos PnP. 


Sessão “PnP/PCI Setup” de um BIOS Award 

O Windows 95/98 possui algumas rotinas que permitem identificar estes periféricos de maneira indireta, configurando-os e salvando as configurações no ESCD. Esta verificação é feita durante a instalação e através do utilitário “Adicionar novo Hardware”.Apesar de não ser infalível, este recurso permite diminuir bastante os conflitos gerados por periféricos antigos.

DMA (Acesso Direto à Memória)

O DMA visa melhorar a performance geral do micro, permitindo que os periféricos transmitam dados diretamente para a memória, poupando o processador de mais esta tarefa.
Existem 8 portas de DMA, e como acontece com os pedidos de interrupção, dois dispositivos não podem compartilhar o mesmo canal DMA, caso contrário haverá um conflito. Os 8 canais DMA são numerados de 0 a 7, sendo nos canais de 0 a 3 a transferência de dados feita a 8 bits e nos demais a 16 bits. O uso de palavras binárias de 8 bits pelos primeiros 4 canais de DMA visa manter compatibilidade com periféricos mais antigos.
Justamente por serem muito lentos, os canais de DMA são utilizados apenas por periféricos lentos, como drives de disquete, placas de som e portas paralelas padrão ECP. Periféricos mais rápidos utilizam o Bus Mastering, uma espécie de DMA melhorado.
O Canal 2 de DMA é nativamente usado pela controladora de disquetes. Uma placa de som geralmente precisa de dois canais de DMA, um de 8 e outro de 16 bits, usando geralmente o DMA 1 e 5. O DMA 4 é reservado à placa mãe. Fica então com os canais 3, 6 e 7 livres. Caso a porta paralela do micro seja configurada no Setup para operar em modo ECP, precisará também de um DMA, pode-se então configurá-la para usar o canal 3.
DMAs Dispositivos
DMA 0 Disponível
DMA 1 Placa de Som
DMA 2 Controladora de drives de disquetes
DMA 3 Porta paralela padrão ECP
DMA 4 Usado pela placa mãe
DMA 5 Placa de Som
DMA 6 Disponível
DMA 7 Disponível

Pedido de interrupção (IRQ)

Nos micros PC, existe um recurso chamado de pedido de interrupção. A função dos pedidos de interrupção é permitir que os vários dispositivos do micro façam solicitações ao processador. Existem 16 canais de interrupção, chamados de IRQ (“Interrupt Request”, ou “pedido de interrupção”), que são como cordas que um dispositivo pode puxar para dizer que tem algo para o processador. Quando solicitado, o processador para tudo o que estiver fazendo para dar atenção ao periférico que está chamando, continuando seu trabalho após atendê-lo. Dois dispositivos não podem compartilhar a mesma interrupção, casos contrários terão um conflito de hardware. Isso acontece por que neste caso, o processador não saberá qual dispositivo o está chamando, causando os mais diversos tipos de mau funcionamento dos dispositivos envolvidos.Normalmente os endereços IRQ ficam configurados da seguinte maneira:
 
IRQs Dispositivos
IRQ 0 Usado pela placa mãe
IRQ 1 Teclado
IRQ 2 Usado pela placa mãe
IRQ 3 Porta serial 1 (Com2 e Com 4)
IRQ 4 Porta Serial 2 (Com1 e Com 3)
IRQ 5 Placa de Som
IRQ 6 Unidade de Disquetes
IRQ 7 LPT 1 (porta da impressora)
IRQ 8 Relógio de tempo real
IRQ 9 Placa de Vídeo (não é necessário em algumas placas)
IRQ 10 Controladora SCSI (caso você não possua nenhuma este IRQ ficará vago)
IRQ 11 Disponível
IRQ 12 Conector USB
IRQ 13 Coprocessador Aritmético
IRQ 14 Controladora IDE Primária
IRQ 15 Controladora IDE Secundária
 
Vale lembrar, que caso não se tenha instalado um determinado dispositivo, a interrupção destinada a ele ficará vaga. Pode-se também mudar os endereços dos periféricos instalados, podendo, por exemplo, instalar uma placa de som em outra interrupção disponível e usar a interrupção 5 para outro dispositivo.

OS PIONEIROS NO MUNDO DO RÁDIO

Ernst F. W. Alexanderson

Nascido em Upsala na Suécia em 1878, foi Radioengenheiro da General Electric onde ficou mundialmente conhecido pelo seu trabalho no "Alternador de Alta Frequência" o qual inseriu a américa no campo da radiocomunicação.
Durante seus 46 anos de trabalhos, tornou-se o inventor mais prolífico da companhia recebendo um total de 322 patentes. Ele produziu invenções nos campos da eletrificação de estradas de ferro, motores, transmissão de energia elétrica, telefonia, propulsão elétrica de navios, além do trabalho pioneiro em rádio e televisão.
Em 1904, Alexanderson foi contratado para construir uma máquina de alta-freqüência que operasse a altas velocidades e produzisse uma onda contínua. Antes da invenção do seu alternador, o rádio era somente um transmissor de pontos e traços transmitidos por ineficientes máquinas de faísca.
Depois de dois anos de experimentação, Alexanderson finalmente construiu uma máquina de dois quilowatt, com frequência de 100,000 ciclos (atualmente a unidade de frequência é o Hertz "Hz") . Foi instalado na estação de Fessenden em Brant Rock, Massachusetts, na véspera do Natal de 1906.
Permitiu que a estação transmitisse um sinal de rádio que incluiu uma voz e um solo de violino.
O nome de Alexanderson também está registrado na história devido aos estudos pioneiros no campo da televisão.
Em 5 de junho de 1924, ele transmitiu a primeira mensagem de fac-símile pelo Atlântico.
Em 1927 ele organizou a primeira recepção residencial de televisão em sua própria casa em Schenectady, Nova Iorque, usando uma luminária de néon de alta freqüência e um disco perfurado.
Ele fez a primeira demonstração pública de televisão em 13 de janeiro de 1928.

Edward Victor Appleton

Nascido na cidade de Bradford (Inglaterra) em 1892, foi um grande especialista em válvulas termoiônicas e de grande prestígio na Inglaterra.

Graf George Von Arco

Nascido em Grassgorschutz (Alemanha), foi um dos inventores do sistema Slaby-Arco de telegrafia sem fios. Durante o congresso Internacional de Radiotelegrafia de Londres em 1912, apresentou um alternador de alta frequência.

Edwin Howard Armstrong 1890-1954

As invenções do engenheiro Edwin Howard Armstrong são tão importantes que ainda nos dias atuais, faz-se uso de suas descobertas no rádio e televisão. Armstrong formou-se em engenharia elétrica na Universidade de Columbia, em Nova Iorque em 1913. Enquanto estava na faculdade, ele inventou o circuito regenerativo que foi o primeiro receptor amplificado e o primeiro transmissor de onda contínua. Em 1918, ele inventou o circuito superheterodino, um meio altamente seletivo de recepção, converção, e amplificação de sinais fracos de ondas eletromagnéticas em alta frequência. A realização dele foi (em 1933) a invenção da modulação de freqüência, agora conhecida como rádio de FM. Durante a segunda guerra mundial, Armstrong cedeu livremente o uso de suas patentes ao exército americano. Teve que se defender de DeForest na justiça por suas invenções, tendo ganho de causa anos mais tarde.
Armstrong cometeu suicídio em 1954.

Louis Winslo Austin - PH.D.

Nascido em 30 de outubro de 1867 em Ordwell, se notabilisou por seus trabalhos nas medidas de correntes em alta frequência.

Edouard Belin

Cientista Frances, inventor do primeiro sistema prático de transmissão de fotografia por rádio. O sistema podia ser usado para enviar fotografias por cabos, linhas telefônicas e igualmente por rádio.

Emile Berliner 1851-1929

Emile Berliner foi o inventor do microfone que se tornou parte do primeiro telefone da BELL.
Outro invento seu foi o gramofone, primeira máquina de gravar e tocar discos.
Nascido em Hanover, Alemanha, Berliner chegou na cidade de Washington em 1870 com 19 anos. Estudou física no Cooper Institute (agora Cooper Union) enquanto ajudava em um laboratório químico. A maior parte do seu tempo de estudante, foi vendedor de secos e molhados.
O gramofone de Berliner diferiu de seus contemporâneos por ter usado um disco plano para registrar o som em lugar do cilindro proposto por Edison. O disco plano permitiu baratear a fabricação, alem de proporcionar a duplicação em massa. O gramofone de Berliner e o método de duplicação dos discos foram adquiridos por Victor Talking Machine Company, (RCA).
Berliner fundou a Deutsche Grammophon e a Cia. de Gramofone da Inglaterra Ltd, (Britain's Gramophone Co., Ltd) para comercializar os seus dispositivos na Europa. A marca registrada dele, depois adotada pela RCA, era uma pintura divertida de seu cachorro, chamado "Nipper", escutando ' a voz do seu mestre '.

Alexander Graham Bell 1847-1922

A invenção e a pesquisa do telefone por Alexander Graham Bell se deu em função de sua intenção em melhorar o telégrafo. Nascido em Edinburgo, Escócia, o inventor passou um ano em uma escola privada, dois anos na escola secundária Real de Edinburgo (onde ele se formou aos 14 anos), tendo assistido algumas conferências na Universidade de Edinburgo e na Faculdade Universitária em Londres, mas ele era escencialmente um autodidata.
Não sendo um perito com as suas mãos, Bell tinha dinheiro suficiente para pagar e inspirar Thomas Watson, um jovem construtor, mecânico e fabricante de modêlos que lhe ajudou entusiasticamente a inventar um aparelho para transmitir som através da eletricidade.
Em 6 de abril de 1875, é concedida uma patente para o telégrafo múltiplo que enviava dois sinais ao mesmo tempo. Em setembro de 1875 ele começou a escrever as especificações para o telefone. Em 7 de março de 1876, o Escritório de Patentes norte-americano lhe concedeu a Patente de n 174.465 cobrindo o método de transmitir voz ou outro som telegraficamente atravez de ondulações elétricas, semelhante às vibrações do ar provocadas pelos sons vocais.
Depois de inventar o telefone, Bell continuou com suas experiências em comunicação que culminaram na invenção da Fotofone (transmissão de som em um feixe de luz - um precursor dos sistemas de fibra óticas de hoje). Ele também trabalhou em pesquisas médicas e técnicas pedagógicas para comunicação com deficientes audiovisuais. O alcance do gênio inventivo de Bell só é representado em parte pelas 18 patentes concedidas em seu nome e outras 12 que ele compartilhou com seus colaboradores. Entre estas, incluíram-se 14 para o telefone e telegrafo, quatro para o Fotofone, um para o fonógrafo, cinco para veículos aéreos, quatro para hidroaviões, e dois para uma bateria de selenium. Em 1888 ele fundou a National Geographic Society.

Dr. Etore Bellini

Nascido na cidade de Foligno, Italia em 1876, foi um prestigioso engenheiro elétrico da marinha italiana e chefe do Laboratório Elétrico Naval. Teve grande participação juntamente com o Cap. Tosi, no invento do Radiogoniômetro, um sistema para encontrar a direção de sinais de radio.

Edouard Branly 1844-1940

Físico francês e médico, estudou os impulsos nervosos que o levou a desenvolver o ' Coherer ', um dispositivo para detetar sinais de rádio.
Esse dispositivo era um tubo de vidro cheio de limalhas de metal e dois eletrodos. O dispositivo diminuia a resistência na presença de energia elétrica, quando as limalhas se aderiam (ou ' cohered').
Muitos coherers utilizavam uma espécie de martelo pequeno para bater no tubo depois de cada sinal recebido, separando as limalhas e aumentando a resistência em preparação para o próximo sinal.
Em colaboração com o conde George Von Arco que fora seu assistente, em Charlottenburg, fundou a Slaby-Arco que acabou por se fundir com a Braun e a Siemens dando origem à empresa alemã Telefunken.
Marconi utilizou o coherer na maioria das suas estações de rádio nos primeiros anos de seus estudos na transmissão de sinais sem fios (1900).

André Marie Ampère 1775-1836

Cientista francês, conhecido por suas importantes contribuições no estudo da eletrodinâmica. Daí veio o nome ampère (A) para a unidade de medida da intensidade da corrente elétrica.

Georg Simon Ohm 1787-1854

Físico alemão, conhecido principalmente por sua pesquisa das correntes elétricas. Sua formulação da relação entre intensidade de corrente, diferença de potencial e resistência é conhecida como lei de Ohm. A unidade de resistência elétrica recebeu o nome de ohm em sua homenagem.

Karl Ferdinand Braun 1850-1918

Nascido na Alemanha, compartilhou o Premio Nobel de física com Marconi em 1909, pelo seu serviço no desenvolvimento na telegrafia sem fios. O seu equipamento sem fios, utilizava circuitos ressonantes no transmissor e receptor proporcionando sencivel melhora no sistema original de Marconi.
Nos anos de 1890 e 1891, patenteou vários métodos de acionar o circuito de um relé a distância por meio de ondas eletromagnéticas. Em 1890, publicou um boletim sobre suas investigações no campo da condutividade elétrica.
Braun introduziu o uso do detetor a cristal em receptores. O seu trabalho em observar formas de ondas usando uma tela coberta de fósforo favoreceu o surgimento do tubo de raios catódicos, e posteriormente o tubo de televisão.

A. Brondell

Nascido em Chaumont (França), no ano de 1863, graduou-se na Universidade de Paris especialisando-se no estudo das ondas elétricas.
Em 1893, inventou o "Oscilógrafo" , um instrumento que permite observar as curvas oscilantes de corrente ou tensão alternada de um sinal. Em 1902, patenteou um método para produzir oscilações elétricas para telefonia sem fios.

Frank Conrad 1874-1941

Rádiomador, estação 8XK depois autorizado como KDKA, localizada em sua garagem em Wilkinsburg, na Pennsylvania, foi um dos precursores que deu crescimento à " Broadcasting ".
Cedo, sua experiência com rádio proporcionou-lhe a oportunidade de construir sensíveis receptores para ter notícias dos sinais do tempo, provenientes do Observatório Navail de Arlington, VA.
Conrad deixou a escola no 7º grau para trabalhar. Foi transferido para o departamento de testes na Westinghouse logo após entrar nessa empresa em 1890. Tornou-se engenheiro geral em 1904 e engenheiro chefe assistente em 1921. Supervisionou o desenvolvimento de equipamentos transmissores entre outros serviços . Recebeu o título honoris causa de Doutor em Ciência, da Universidade de Pittsburgh em 1928.

L. Dubilier

Nascido em Nova York em 25 de julho de 1888, foi Presidente e Diretor técnico da Dubilier Condenser and Radio Corp. (N.Y.) e membro de várias sociedades. Foi autor de umas 300 patentes sobre dispositivos elétricos.

Thomas Alva Edison 1847-1931

Nascido em Milan, Ohio, Edison era uma criança inquieta. Com 10 anos, já tinha montado um pequeno laboratório químico no porão de casa, baseado em livros elementares de ciências e física. Ele gostava do estudo da química e da produção de corrente elétrica especialmente atravéz da garrafa voltaica obsorvendo os principios e logo montando e operando um aparelho de telégrafo caseiro.
Obteve uma posição como um operador especialista noturno na Western Union Telegraph Company em Boston em 1868; durante o dia ele tirava um cochilo, para logo pegar em suas experiências em manipular correntes elétricas com novos métodos.
Conseguiu emprestado uma pequena soma em dinheiro de um conhecido, deixou seu trabalho no outono de 1868 e se tornou um inventor free-lance recebendo a sua primeira patente para um registrador de voto elétrico, mas a máquina foi recusada pelas autoridades eleitorais.
No verão de 1869 ele estava em Nova Iorque e dorme em um porão debaixo de Wall Street. Em um momento de crise na Bolsa de comércio de Ouro causado pelo desarranjo no indicador de preço do novo telégrafo "Stock-Ticker" do escritório, fabricado pela firma Stock-Ticker, Edison foi chamado para tentar consertar o instrumento; ele o fez tão habilmente que foi contratado como seu supervisor.
Logo ele tinha remodelado a irregular máquina tão profundamente, que seus donos, a Western Union Telegraph Company, solicitaram a remodelação na impressora que há pouco entrara em uso. O resultado foi uma nova Impressora Universal que, junto com vários outros inventos derivados do telégrafo de Morse, trouxe a ele uma súbita fortuna de $40,000.
Com este capital ele montou uma oficina em Newark, Nova Jersey, para montagem de relógios marcadores de Ticket e impressoras (printers) de alta velocidade para telegrafia. Em 1876 Edison deixa a fábrica de Newark e muda-se para uma vila de Nova Jersey, (village of Menlo Park) para montar um laboratório onde ele poderia dedicar sua atenção à invenção.
Tomando como ideal montar uma invensão a cada dez dias e um grande projeto a cada seis meses, propôs-se também a fazer novas invensões e novos projetos sob encomenda. Sem que esperace, em pouco tempo acumula encomendas de 40 projetos diferentes ao mesmo tempo, solicitando 400 patentes em um ano.
Em setembro de 1878, depois de ter visto uma caríssima exibição de uma série de oito luzes " 500-candlepower" (luzes de arco) que quase cegavam os presentes , Edison anunciou corajosamente que inventaria uma luz elétrica moderada e barata que substituiria o gaslight em milhões de casas, além disso, ele realizaria isto por um método completamente diferente de distribuição de energia em relação a atualmente empregada para as luzes de arco.
Para apoiar Edison no esforço de produzir a nova lâmpada, várias figuras importantes do mundo financeiro de Nova Iorque se uniram em outubro de 1878 para formar a Edison Electric Light Company, predecessora da General Electric Company.
Em 21 de outubro de 1879, Edison demonstrou a lâmpada de filamento de carbono, provida de corrente por dínamos de alta tensão especiais. A estação piloto de geração de energia em Menlo Park funcionou com um circuito de 30 luminárias que podiam ser ligadas ou desligadas uma a uma sem afetar o resto. Três anos depois, a central de energia no centro da Cidade de Nova Iorque foi completada e inicia a iluminação elétrica das cidades do mundo.
Em 1887 Edison move seus stands de demonstração de Menlo Park para West Orange, Nova Jersey onde constroi o Laboratório Edison (agora um monumento nacional), uma construção 10 vezes maior que o anterior.
Com fábricas empregando 5,000 pessoas e produzindo uma variedade de novos produtos entre eles mimeógrafos, o fonógrafo de cera, , fluoroscópio, baterias de armazenamento alcalina, máquina de imprimir, máquinas fotográficas e projetores de filme.
Ao longo de sua carreira, Edison dirigiu seus estudos conscientemente para dispositivos que poderiam satisfazer as reais necessidades de uso popular das pessoas. Realmente, pode-se dizer que ele aplicou a tecnologia cumprindo os ideais da democracia, centrando sua atenção em projetos que aumentaram a conveniência e o prazer do ser humano.

Michael Faraday 1791-1867

Físico e químico Inglês nascido em Londres, Faraday é considerado por muitos como um dos maiores cientistas experimentais de todos os tempos, sendo considerado também um teorista brilhante.
As teorias dele no campo do magnetismo foram adotadas posteriormente por Maxwell, sendo uma parte, aplicada na teoria da relatividade de Einstein.
Possuindo educação básica (sabia ler e escrever) e alguns conhecimentos em matemática, ele começou a vida como aprendiz de livreiro e encadernador. Aproveitou todos os momentos de folga para ler, ao ponto de redigir um artigo sobre eletricidade em uma enciclopédia. Isto mexeu com seu interesse no assunto, tornando-se um criador na ciência da eletroquímica.
Um homem profundamente religioso, muito do trabalho dele parece ter sido influenciado pela convicção na harmonia divina do universo.
As Leis de Faraday incluem a Lei da Indução, Lei da Eletrólise, a Segunda Lei da Eletrólise. O Farad - uma unidade de capacidade, foi dado em sua homenagem.

Hans Christian Oersted 1777-1851

Físico e químico dinamarquês, iniciou o estudo do eletromagnetismo e foi o primeiro a isolar o alumínio. Oersted é o nome dado à unidade da "Relutância", em outras palavras, a resistência magnética oferecida por um centímetro cúbico de vácuo.

Reginald Aubrey Fessenden 1866-1932

Canadense nascido em Bolton Oriental, Quebec trabalhou como Químico em New York, e depois nos Laboratórios de Edison em New Jersey. Entre as suas patentes, estava o detetor eletrolitico - mais sensível que outros métodos de deteção, o sistema "duplex de radiotelefonia" e o processo de ' heterodinação' de um sinal - mistura de um sinal com outra frequência para criar uma 'soma' e uma 'diferença' da freqüência original. Colaborou com Alexanderson no desenvolvimento do alternador de alta frequência.
Pessoalmente, é dito como sendo um pouco arrogante - usando frases como ' não tente pensar - você não tem cérebro para isso'.
Ele obteve mais de 500 patentes em toda a sua vida, sendo muitas, para os avanços na arte do rádio.

John Ambrose Fleming 1849-1945

Fleming nasceu em Lancaster, Inglaterra, estudando eletricidade e matemática com James Clerk Maxwell.
Ele serviu a várias companhias de iluminação elétricas como conselheiro e engenheiro, foi consultor científico para a Companhia de Marconi de 1899-1905. Além do trabalho teórico, era ativo na aplicação prática de suas ideias. Ele fez melhorias em luminárias elétricas, geradores, e muitas peças de aparelhos de radiotelegrafia.
Em 1881 entrou para a Edson Electric Light Company em londres, onde trabalhou durante 10 anos. Este grande inventor era intimamente ligado às experiências feitas por Marconi e era um dos responsáveis pela estação de Poldhu quando o cientista italiano fez a sua primeira transmissão através do canal da mancha.
Em 1904, enquanto procurava um detetor melhor para os sinais de telegrafia sem fios, relembrou os trabalhos de Edison em 1880 - e o fenômeno conhecido como Efeito Edison.
Ele construiu uma lâmpada com um cilindro de metal cercando o filamento, instalou arames para fora da lâmpada - descobrindo sua célebre válvula diodo (primeiro detetor eletrônico das ondas de rádio) .
Esta válvula foi a primeira utilizada em rádio e é a origem de todas as utilizadas posteriormente.
Publicou um grande número de trabalhos e pertenceu a numerosas sociedades científicas, recebendo várias medalhas da Real Sociedade de Ciências, mas foi a invensão da válvula eletrônica que lhe trouxe fama. Faleceu em 1945 época em que o rádio ja era uma instituição a nivel mundial.

Lee De Forest 1873-1961

Nascido em Council Bluffs, Iowa, Lee Deforest fez a maior contribuição ao rádio e a eletrônica com a invenção da válvula Triodo.
Se Edson inventou a lâmpada de incandescência e Fleming a válvula de dois eletrodos (o diodo) que foi um enorme avanço para o rádio, Lee de Forest fez o inimaginável ao introduzir o terceiro elemento na válvula de Fleming.
O rádio entrou numa nova era e a válvula nunca mais deixou de ser usada nem mesmo depois da introdução do transistor em 1947. A válvula de trez ou mais eletrodos continua a ser utilizada atualmente e assim continuará por muitos anos.
Embora ele tenha inundado seu escritório com patentes e idéias, só umas poucas entre mais de 300 patentes se provaram importantes.
Nos inicio do rádio ele instalou muitos transmissores de radiofrequência sem fios, tornando-se um do mais famosos entre as companhias existentes. Porém faltou compreenção empresarial, e ele foi enganado por vários sócios.
Concentrou seus esforços nas exibições de imagens em movimento nos anos 1920, reclamando que o campo do rádio e seus subprodutos estava se tornando muito concorrido. Anos depois, é encontrado processando outros inventores - notadamente Howard Armstrong - por suposta infração às suas patentes.

Charles D. Herrold 1875-1948

Nascido em Illinois, começou a trabalhar com transmissão de sinais sem fios em San Jose, Califórnia.
Foi inventor, professor, e é creditado a ele por muitos como sendo o " Pai da Radiodifusão ".
Herrold foi um dos primeiros pesquisadores a transmitir mensagens de voz na história do rádio (em 1909) da ' Faculdade Herrold de Engenharia e Telegrafia sem fio ' em San Jose. Ele tinha um horário regular para transmitir os sinais entre 1909 e 1917, e reivindicou ter cunhado o termo ' Broadcasting'.
Em 1915, ele propagou atravez das ondas do rádio desde a Feira Mundial, 50 milhas afora, provendo notícias e música.

Dr. Oliver Heaviside

Nascido em 13 de março de 1850 em Londres, seu nome está ligado com a teoria apresentada por si próprio, da existência de uma capa ionizada permanente na parte superior da atmosfera, capaz de refletir as ondas eletromagnéticas, permitindo a propagação dos sinais de radio ao redor do mundo.

Joseph Henry 1797-1878

Físico norte-americano, cuja obra mais importante foi no estudo do eletromagnetismo, Joseph Henry descobriu o fenômeno da auto-indutância, que enunciou em 1832, trabalhando como primeiro diretor do Instituto Smithsonian de 1846-1878.
Nasceu em Albany, Nova Iorque, e frequentou a Academia de Albany - embora sua educação primária e secundária seja convencional. Ao ler um livro popular sobre ciências, ele se encantou e ficou determinado em seguir carreira nessa área começando a estudar para entrar na Academia.
As experiências de Henry com eletroímãs permitiram a Faraday e outros futuros pesquisadores, terem melhores ferramentas para seus estudos. Ele melhorou o eletroímã com o uso de fios separados, e é creditado a ele por ter descoberto a resistência indutiva.
De fato, a unidade de medida de resistência indutiva é o ' henry', em sua honra.
Henry também inventou um motor elétrico em 1829, um telégrafo em 1831, e o relé em 1835, tendo trabalhado com transformadores e enrolamentos não indutivos.

Heinrich Hertz 1857-1894

Físico Alemão, Hertz nasceu em Hamburgo e frequentou a Universidade de Berlim. Em 1883 ele se tornou instrutor na Universidade de Kiel - onde primeiramente, estudou o trabalho de Maxwell.
Maxwell havia teorizado que os campos elétricos na forma de ondas se propagavam à velocidade da luz em vez de instantaneamente.
Para provar isto, Hertz efetuou uma série de experiências entre 1886 e 1889 envolvendo medições da força das oscilações em diferentes pontos ao longo de uma folha de zinco. Estas experiências confirmaram a existência de ondas, e que estas ondas agiam de forma idêntica à luz, com relação à refração e polarização.
Em resumo, Hertz tinha provado a teoria de Maxwell de que a luz era uma forma de radiação eletromagnética.
Desde então, em sua homenagem, dá-se o neme de ondas hertzianas.
Hertz descobriu o efeito fotoelétrico e investigou a natureza dos raios catódicos.

C.F. Jenkins 1868-1934

Nascido em Daitona (USA), foi precursor da televisão. Depois de inúmeros estudos e investigações, realizou sua primeira transmissão de imagens em 1922, e publicamente em 1925 a uma distância de 13 kilômetros.

Willian Thomson Kelvin 1824-1907

Nascido em Belfast, ingressou como estudante na Universidade de Glasgow com a idade de 10 anos e se formou em 1845 aos 21 anos. Suas grandes invensões na telegrafia, seu compasso magnético e aparelhos de sonda marinha tornaram-no famoso e rico.

A.E. Kennelly 1861-1939

Natural de Bombaim na India, estudou em diversas universidades da Inglaterra e América, formando-se físico e engenheiro. Foi auxiliar de Edison durante mais de 7 anos.
Em 1902, foi nomeado professor da Universidade de Harvard, época em que deu a conhecer suas teorias sobre a existência da capa de "Kennelly-Heaviside".

Arthur Korn

Nascido no ano de 1870 em Breslau, Alemanha, educou-se em Paris tornando-se professor de física na Universidade de Munich de 1903 a 1908 e posteriormente da Politécnica de Charlotenburg em Berlim.
Conhecido por suas experiências e inventor de um método de transmissão de fotografias por telégrafo. A primeira fotografia enviada por telégrafo foi feita de Munich a Berlim em 1907 utilizando seu método.

Irving Langmuir 1881-1957

O trabalho de Irving Langmuir conduziu a duas invenções principais: a válvula de emissão de eletrons e a lâmpada incandescente.
Nascido no Brooklyn, Langmuir foi educado nas escolas públicas de Nova Iorque e Paris, na França. Tornou-se Bachareu na Columbia University School of Mines e Ph.D.em química na Universidade de Gottingen na Alemanha onde estudou junto ao Premio Nobel Walther Nernst.
O primeiro trabalho profissional seu foi como instrutor de química em New Jersey de 1906 a 1909. De lá ele se mudou para o Laboratório de Pesquisa da General Electric em Schenectady, Nova Iorque.
O que começou como um trabalho de verão, floresceu em uma carreira com a companhia que durou o resto de sua vida.
Enquanto esteve na G.E., Langmuir recebeu 63 patentes e foi laureado com o premio Nobel de química em 1932, como também numerosas outras honrarias. A ele se deve o descobrimento de que com o tratamento de óxido de tungstita na construção dos filamentos de tungstênio, com certos compostos de tório, o filamento se converte em tungstênio toriado e a emissão eletrônica aumenta consideravelmente. Este trabalho levou diretamente à invenção da válvula eletrônica em 1912 e a lâmpada incandescente a gás em 1913.
Langmuir foi responsável pelas muitas descobertas científicas básicas que representaram um papel fundamental no desenvolvimento de produtos elétricos comerciais. As contribuições dele para teoria atômica e a compreensão da estrutura atômica lançaram luz no significado do isótopos.

Mahlon Loomis 1826-1886

Nascido em Nova Iorque, e dentista de profissão, interessou-se por eletricidade, realizando várias experiências sobre os efeitos da eletricidade no crescimento de vegetais. Seu trabalho em comunicação sem fios - embora não de fato comunicação de rádio - poderia ter sido bem mais importante se isto não tivesse interferido na economia do dia a dia. Nunca teve o apoio financeiro para continuar o seu trabalho. Entre as outras experiências que realizou, destaca-se a tentativa de substituir baterias com eletricidade captada da atmosfera - ele tentou impinar pipas prendendo fios metálicos para juntar esta eletricidade.

William Gilbert 1544-1603

Nascido na Inglaterra, serviu a Rainha Elizabeth I como médico. Durante sua vida, executou muitas experiências no campo do magnetismo, oferecendo as primeiras teorias compreensíveis sobre o magnetismo, baseado em sua suposição de que a Terra era um grande imã .
Os modernos pilotos de aeronave utilizam pelo menos duas de suas descobertas: Mergulho Magnético e Variação Magnética de uma bússola.

P. Roberto Landell de Moura

Comete-se uma injustiça a um cientista brasileiro, predecessor de Marconi e de outros.
Padre Roberto Landell de Moura, gaúcho, nascido em 21 de janeiro de 1861.
O padre-cientista, construiu diversos aparelhos que expôs ao público na capital paulista em 1893, tais como:
- o Teleauxiofono (telefonia com fio)
- o Caleofono (telefonia com fio)
- o Anematófono (telefonia sem fio)
- o Teletiton (telegrafia fonética, sem fio, com o qual duas pessoas podem comunicar-se sem serem ouvidas por outras)
- o Edífono (destinado a ducificar e depurar as vibrações parasitas da voz fonografada, reproduzindo-a ao natural)
Nesta ocasião, estabeleceu os príncipios básicos em que se fundamentaria todo o progresso e a evolução das comunicações, tal como conhecemos hoje.
Suas teses, firmadas antes de 1890, previram a "telegrafia sem fio", a "radiotelefonia", a "radiodifusão", os "satélites de comunicações" e os "raios laser".
No ano de 1900, enquanto o grande feito de Marconi não ultrapassava a distância de 24 quilômetros, o Padre Landell de Moura obtinha do governo brasileiro a carta patente nº 3279, reconhecendo-lhe os méritos de pioneirismo científico, universal, na área das telecomunicações.
Em 1901, o Padre Landell de Moura, embarcou para os Estados Unidos e em fins de 1904, o The Patent Office at Washintong concedeu-lhe três cartas patentes: para o telégrafo sem fio, para o telefone sem fio e para o transmissor de ondas sonoras.
Poderia se considerar o Padre Landell de Moura o precursor nas transmissões de vozes e ruídos outros. Suas patentes afirmam isso.

Guglielmo Marconi 1874-1937

Provavelmente, o nome mais associado à invensão do rádio em todo o mundo, devido à suas descobertas no campo da transmissão e recepção de sinais sem fios.
Nascido em uma família muito próspera na Bolonha, Itália, Marconi cursou a Universidade de Griffone, abandonando-a para se dedicar às suas investigações sobre as ondas hertzianas.
É considerado o descobridor da telegrafia sem fios, por ter coordenado todos os esforços dos principais investigadores da época.
Em 1896, Marconi recebe na Inglaterra uma patente sobre " Aparelho de transmissão de impulsos elétricos e de sinais" no qual se utilizava o Excitador de Hertz, o Cohesor de Branly e a Antena de Popov.
Marconi recebeu uma infinidade de condecorações pelo seu incansável trabalho de investigação no campo das comunicações.
Foi membro da maioria das entidades científicas e Presidente da Academia Real Italiana, tendo recebido o prêmio Nobel de Física em 1909.

James Clerk Maxwell 1831-1879

Célebre físico e matemático nascido na Escócia e morto nesta mesma cidade, é considerado o fundador da teoria eletromagnética, desenvolvendo vários estudos no campo dos fenômenos eletromagnéticos.
Cursou seus estudos na Universidade de Edimburgo e depois em Cambridge. Graças às suas qualidades, pôde ingressar no "Trinity College", onde terminou seus estudos quatro anos mais tarde.
Baseando-se em trabalhos de Faraday, Thomson, Coulombe e Ampère, seus principais apontamentos na ciência física são: a teoria que leva seu nome conhecida como "Teoria Eletromagnética da Luz", seu famoso tratado "Eletricidade e Magnetismo" e muitos outros.
A Comissão Eletrotécnica Internacional reunida em Oslo em 1931, resolveu dar o nome de Maxwell à unidade de fluxo magnético em memória desse famoso sábio.
Maxwell não chegou a conhecer nenhuma onda produzida por métodos elétricos, visto que somente depois de sua morte conseguiu-se alcançar este objetivo.

Alexander Meissner

Nascido em Viena (Austria) em 1883, foi um grande estudioso do rádio. Uniu-se `a Telefunkem em Berlin no ano de 1907 tornando-se uma das maiores autoridades do rádio na Alemanha. A ele se deve centenas de inventos do rádio.

Samuel Finley Breese Morse 1791-1872

Samuel F. B. Morse, pintor e inventor, teve pequeno treinamento em eletricidade mas percebeu que a corrente elétrica poderia transportar informação.
Nascido em Charlestown, Massachusetts, filho primogênito do Reverendo Jedidiah Morse e sua esposa, Elizabeth Ann Breese, Samuel Morse frequentou a Academia Phillips em Andover, Massachusetts, e entrou na Faculdade de Yale em 1805 formando-se em 1810.
Em 1811, mudou-se para Londres permanecendo por 4 anos recebendo lições de desenho e pintura do célebre pintor Benjamin Went. Pintou uma grande quantidade de quadros destacando o retrato do general Lafayette que lhe valeu uma medalha de ouro.
Morse recebeu três patentes em bombas mecânicas em 1817 com seu irmão, Sidney Edwards Morse.
O interesse de Samuel Morse em telegrafia começou em 1832, e os elementos do sistema de chaveamento foram idealizados em 1835. O equipamento foi melhorado gradualmente sendo demonstrado em 1837.
Recebeu uma patente em 1840, e o Congresso norte americano lhe deu a quantia de $30,000 para construir uma linha entre Washington e Baltimore.
A primeira mensagem "Que Deus seja Louvado" nesta linha foi enviada em 24 de maio de 1844. Em 1861 as duas costas dos Estados Unidos foram unidas através do telégrafo.
O " Código Morse " foi inventado por Morse, e Alfred Vail, seu assistente por volta de 1840. O código original foi simplificado em 1851, e é chamado 'código Morse International'.

S.R. Mullard

Nasceu na Inglaterra em 1884, onde realizou várias experiências com válvulas eletrônicas. Após participar da primeira guerra mundial como capitão defendendo a Inglaterra contra a Alemanha, Sir S.R. Mullard funda a MULLARD Radio Valve Company, em 1920.
A fabrica, localizada originalmente em Nightingale Road Balham, (Londres), começou com a fabricação das conhecidas válvulas Mullard, as quais tinham como logotipo as letras PM de "PURA MÚSICA" ou "Pure Music" no inglês.
Influenciado pela grande demanda de rádios na época, inicia a fabricação de receptores em Blackburn Lancashire com o mesmo nome das válvulas que já era bastante conhecido.

Greenleaf Whittier Pickard

Engenheiro eletricista nascido em Portland (Maine) em 14 de fevereiro de 1877. Estudou em Harvard e Massachussets, dedicando especial atenção à telegrafia e telefonia sem fios.
Pickard descobriu e patenteou em 1907 um detetor de ondas que chamou de "Detetor de PERICKON", (PERfect pICK and CONtact) baseado no emprego de certos cristais naturais como a galena, calcopirita, grafite, zincita, molibdenita, e também em outros cristais artificiais que possuem a propriedade de deichar passar as ondas eletromagnéticas em somente um sentido.
O descobrimento foi um grande avanço para a radiorecepção, pois até então, não havia sido possível obter resultados satisfatórios na recepção das ondas hertzianas, visto que o Cohesor de Branly que até então se empregava, possuia baixa sensibilidade e falta de fidelidade.
Pickard obteve mais de 100 patentes de suas invenções e o descobrimento da sensibilidade dos cristais.

Alexander Stepanovitch Popov 1859-1906

A mais de 100 anos atrás Alexander Popov, então com 36 anos, professor de física e engenharia elétrica na Escola Naval de Fusileiros Navais em Kronstadt, Rússia, projetou um rádio receptor que o permitia receber sinais transmitidos por meio de ondas eletromagnéticas.
Nascido em Turinskiye Rudniki, Rússia, estudou em St Petersburg, retornando a St Petersburg como professor em 1901.
Independentemente de Guglielmo Marconi, Popov é aclamado na Rússia como o inventor do telégrafo sem fios.
Dedicou-se a estudar os fenômenos radioelétricos produzidos nas tormentas atmosféricas, o que levou-o ao descobrimento da "Antena"
Em 1896 (possivelmente em 1895) ele melhorou o receptor de Oliver Lodge adicionando um fio suspenso como uma antena, (Popov foi a primeira pessoa registrada a adotar este procedimento) e blindando as bobinas para neutralizar o efeito das faísca nos transmissores .
No dia 7 de maio de 1895, transmitiu, recebeu e decifrou a primeira mensagem telegráfica sem fios com sucesso. O cientista russo Alexander Popov tinha enviado uma mensagem de um navio da Marinha russo distante 30 milhas no mar, para seu laboratório em St. Petersburg, Rússia.
Era um feito incrível, mas o mundo não tomou conhecimento. A intensão da Marinha russa era monopolizar esta tecnologia poderosa, incitando Popov a não dar qualquer notícias de suas descobertas. Considerado como um fantástico segredo de estado, Popov perde qualquer chance de fama mundial.

Michael Idvorski Pupin 1858-1935

Michael Pupin nasceu na Hungria chegando nos Estados Unidos em 1874. Freqüentou a Universidade de Columbia e a Universidade de Berlim. Foi professor de eletromecânica por 30 anos em Columbia, de 1901 a 1931. Pupin inventou e melhorou muitos dispositivos para telegrafia e telefonia, inclusive com o uso de indutores em linhas de telefone para melhorar a qualidade auditiva. Trabalhou com o desenvolvimento de Radiografias, identificado como 'radiação secundária' Estudou o comportamento das válvulas a baixa pressão, e inventou um ressonador elétrico. Foi lhe conferido um total de 34 patentes para as suas invenções.

Anton F. Philips 1874-1951

Nascido em Zaltbommel, Holanda em 14 de março de 1874, filho do banqueiro Federico Philips, estudou na Escola de Comércio de Amsterdan e em Londres.
Em 13 de janeiro de 1894, se incorpora à direção comercial da empresa Cia. Philips, fundada em 1891 por seu pai e por seu irmão Gerard Philips.
Em 1912, a empresa se transforma em Philips Gloeilampenfabricken e os irmãos Philips são nomeados diretores. Em 1922, A. F. Philips está sozinho na direção dessa grande empresa que já possuia reputação internacional.
Desde sua fundação, sua produção estava limitada a fabricação de lâmpadas incandescentes e acessórios para iluminação, a partir de 1927 são fabricados válvulas de rádio, amplificadores, retificadores, tubos de Raio X, e os mais diversos aparelhos e acessórios para iluminação. A empresa havia se tornado uma grande indústria e em 1929 contava com 23.000 empregados.

Raymond Philips

Nascido na Inglaterra, em 1902 inventou um sistema para o contrôle automático de trens elétricos. Em 1905 realizou um estudo sobre o contrôle de mecanismos a distância mediante ondas radioelétricas. Em 1910, apresentou um sistema para controlar as aeronaves por intermédio do rádio.

David Sarnoff 1891-1971

Sarnoff nasceu na Rússia, e se mudou para a Cidade de Nova Iorque ainda menino. Trabalhou como operador de telégrafo na companhia de Marconi, e muitas honras lhe são dadas por ter trabalhado no telégrafo durante 3 dias por ocasião do desastre do navio TITANIC - embora haja discussão neste parecer, onde muitos acham ser um exagero.
Não há nenhuma dúvida que Sarnoff era um homem dirigido, sendo uma grande figura no crescimento da radiodifusão.
Sarnoff se tornou gerente geral da RCA em 1921, e depressa se tornou seu vice-presidente. Conheceu a companhia durante o surgimento do rádio, supervisionando a criação da primeira cadeia (NBC) e o movimento em direção à televisão.
Durante a Segunda Guerra Mundial ele foi consultor de comunicações, e pelos seus serviços, foi condecorado com a patente de Brigadeiro General.

Werner Siemens 1816-1892

Nascido em uma família de engenheiros e inventores, Werner e o irmão mais novo William desenvolveram o Dínamo - um dispositivo que converte energia mecânica em energia elétrica usando 'auto excitation', eliminando o uso de imãs permanentes. Isto conduziu ao nascimento da indústria de energia comercial.
Werner também inventou um processo de electroplating, e um método satisfatório de isolar cabos telegráficos e elétricos prevenindo-os contra a umidade.

Nikola Tesla 1856-1943

Nikola Tesla foi o inventor do motor de indução com campo magnético rotativo.
Nascido em Smiljan Lika, Croácia, filho de um clérico Ortodoxo sérvio, Tesla estudou em Joanneum, uma escola politécnica em Graz e na Universidade de Pragua durante dois anos.
Ele começou a trabalhar no departamento de engenharia do sistema de telégrafia austríaco, tornou se um engenheiro elétrico em uma companhia de energia elétrica em Budapest e depois em Strasbourg.
Enquanto esteve na escola técnica, Tesla fica convencido que comutadores eram desnecessários em motores e quando começa a trabalhar em uma companhia de energia, ele construiu um motor simples onde demonstrou a verdade da sua teoria. Em 1884, Tesla veio para os Estados Unidos e uniu se a Edison como um desenhista de dínamos.
Em 1887 e 1888 Tesla teve uma loja experimental na Rua da Liberdade, 89 (89 Liberty Street) Nova Iorque, e lá ele inventou o motor de indução. Vendeu a invenção para a Westinghouse em julho de 1888 levando um ano em Pittsburgh instruindo os engenheiros da Westinghouse.
Telsa obteve mais de 100 patentes em sua vida. Apesar das 700 invenções, Tesla não ficou rico. Por muitos anos ele trabalhou em seu quarto no Hotel New York onde ele morreu.

Sir Joseph John Thomson 1856-1940

Nascido em Cheetham Hill, Inglaterra, frequentou a Universidade de Cambridge e manteve uma associação com essa universidade durante a maior parte de sua vida.
Foi laureado com o prêmio Nobel em Física pelo seu trabalho na condução da eletricidade através dos gases em 1906. O seu trabalho com Radiografias e tubos de raio catódicos o convenceu que os raios catódicos eram carregados com partículas de eletrons e que a massa deles era 1,000 vezes menor que íons de hidrogênio.

John Bardeen 1908-1991
William Bradford Shockley 1910-1989
Walter H. Brattain 1902-1987


Os físicos John Bardeen, William B. Shockley, e Walter Brattain compartilham juntamente em 1956 o premio Nobel por inventar o transistor, um dispositivo de estado sólido que amplifica a corrente elétrica. O transistor executou funções eletrônicas semelhante à válvula eletrônica no rádio e televisão, mas de longe muito menor e usando muito menos energia. O transistor se tornou o inicio da eletrônica moderna, o inicio do microchip e a tecnologia do computador.
Nascido em Madison, Wisconsin, Bardeen obteve o Ph.D. em 1936 em matemática e física na Universidade de Princeton.
Como membro da Universidade de Minnesota, Minneapolis, de 1938 a 1941, ele serviu como físico principal no Laboratório Naval norte-americano em Washington, D.C., durante a Segunda Guerra Mundial, tendo se juntado posteriormente ao Laboratórios Bell. Lá ele administrou as pesquisa nas propriedades de condutividade dos elétrons em semicondutores.
Este trabalho conduziu à invenção do transistor. Bardeen também é responsável por uma teoria no campo da supercondutividade, a propriedade que alguns metais possuem em perder resistência elétrica a muito baixas temperaturas e uma teoria que explica certas propriedades dos semicondutores.
Shockley nasceu em Londres. Ele uniu o pessoal técnico dos Laboratórios Bell em 1936 e lá começou experiências que conduziram à invenção e desenvolvimento do transistor de junção.
Durante a Segunda Guerra Mundial, ele serviu como diretor de pesquisa para o Antisubmarine Warfare Operations Research Group da Marinha norte-americana.
Depois da guerra, ele retornou à Bell Telefone como diretor de pesquisa da física do transistor. Ele foi professor visitante de física no Instituto Californiano de tecnologia, em Pasadena, em 1954, e diretor Departamento de Defesa em 1954-55.
Ele uniu-se a Beckman Instruments Inc., para implantar o Laboratório Shockley de Semicondutor 1955. Em 1958 ele se tornou conferencista na Universidade de Stanford, Califórnia, e em 1963 o primeiro professor de ciência da engenharia nesta Universidade.
Brattain nasceu em Amoy, China. Em 1929 ele se tornou um físico de pesquisa nos Laboratórios da Bell.
O seu principal campo de pesquisa, eram investigações envolvidas nas propriedades de superfície dos sólidos, particularmente a estrutura atômica de um material na superfície que normalmente difere de sua estrutura atômica no interior.
Ele se tornou o professor adjunto na Faculdade de Whitman, Walla Walla, Washington, em 1967.
A ele foi concedida várias patentes e escreveu extensivamente sobre a física de estado sólido.