quarta-feira, 19 de março de 2008

Dica para você configurar e ligar o seu Hub, switche, bridge e roteador

O hub ou switch é simplesmente o coração da rede. Ele serve como um ponto central, permitindo que todos os pontos se comuniquem entre si. Todas as placas de rede são ligadas ao hub ou switch e é possível ligar vários hubs ou switches entre si (até um máximo de 7), caso necessário.
A diferença entre os hubs e switches é que o hub apenas retransmite tudo o que recebe para todos os micros conectados a ele, como se fosse um espelho. Isso significa que apenas um micro pode transmitir dados de cada vez e que todas as placas precisam operar na mesma velocidade, que é sempre nivelada por baixo. Caso você coloque um micro com uma placa de 10 megabits na rede, a rede toda passará a trabalhar a 10 megabits.
Os switches por sua vez são aparelhos muito mais inteligentes. Eles fecham canais exclusivos de comunicação entre o micro que está enviando dados e o que está recebendo, permitindo que vários pares de micros troquem dados entre si ao mesmo tempo. Isso melhora bastante a velocidade em redes congestionadas, com muitos micros. Outra vantagem dos switches é que eles permitem o uso do modo full-duplex (veja a seguir), onde são utilizados pares separados do cabo de rede para transmitir e para receber dados. Isso permite que os micros disponham de 100 ou 1000 megabits em cada sentido, agilizando as transmissões.
Hoje em dia, os hubs "burros" caíram em desuso. Quase todos à venda atualmente são "hub-switches", modelos de switches mais baratos, que custam quase o mesmo que um hub antigo. Depois destes, temos os switches "de verdade", capazes de gerenciar um número muito maior de portas, sendo, por isso, adequados a redes de maior porte.
Um switch pode operar de quatro formas. No sistema cut-through o switch inicia a retransmissão dos frames imediatamente após receber os headers (que contém os endereços de origem e de destino). Nesse modo o switch não faz nenhum tipo de verificação no frame, simplesmente o retransmite da forma como os dados foram recebidos. No modo store-and-forward o switch armazena o pacote na memória, realiza algumas verificações básicas e só então envia o pacote ao destinatário, descartando pacotes inválidos e solicitando retransmissão de pacotes corrompidos.
A vantagem do modo cut-through é a baixa latência, já que o switch executa muito pouco processamento e vai retransmitindo os dados do pacote conforme eles são recebidos. Entretanto, além da questão da estabilidade e melhor uso da banda da rede, o modo store-and-forward oferece uma vantagem importante, que é o fato de permitir que as portas do switch trabalham a diferentes velocidades, sem precisar reduzir a taxa de transmissão da porta mais rápida, limitando-a à da porta mais lenta.
Uma terceira tecnologia é a adaptative cut-through, disponível em modelos mais recentes. Nesse modo, o switch opera inicialmente em modo cut-through (para minimizar a latência), mas passa automaticamente a operar em modo store-and-forward caso detecte um grande volume de frames inválidos ou corrompidos, ou caso precise transmitir frames entre duas portas operando a diferentes velocidades (100 e 1000, por exemplo). No caso dos switches adaptative cut-through gerenciáveis, é possível também forçar um dos dois modos de operação.
Hoje em dia, o modo de operação do switch é mais uma opção de design do que uma diferença prática, pois em redes de 100 e 1000 megabits o tempo de latência é sempre muito baixo, independentemente do modo de operação. A maioria dos switches gigabit atuais operam com tempos de latência inferiores a 20 microsegundos (0.02 milisegundo), o que é uma necessidade, já que um switch lento não conseguiria encaminhar 1 gigabit de dados por segundo em primeiro lugar.
O quarto modo de operação, pouco relevante hoje em dia, é o fragment-free, onde o switch aguarda o recebimento dos primeiros 64 bytes do frame, certifica-se de que não ocorreu uma colisão e só então o retransmite. Este modo foi desenvolvido para minimizar a ocorrência de colisões, mas se tornou irrelevante com a popularização do modo full-duplex, onde é negociado um canal exclusivo de transmissão entre cada estação e o switch, eliminando o problema.
Tanto os "hub-switches", quanto os switches "de verdade" são dispositivos que trabalham no nível 2 do modelo OSI. O que muda entre as duas categorias é o número de portas e recursos. Os switches "de verdade" possuem interfaces de gerenciamento, que você acessa através do navegador em um dos micros da rede, que permitem visualizar diversos detalhes sobre o tráfego, descobrir problemas na rede e alterar diversas configurações, enquanto que os "hub-switches" são dispositivos burros.
Hoje em dia, existem ainda os "level 3 switches", uma categoria ainda mais inteligente de switches, que incorporam algumas características dos roteadores. Eles permitem definir rotas entre os diferentes micros da rede com base no endereço MAC ou endereço IP, criar redes virtuais (VLANs) e assim por diante.
O uso de VLANs permite dividir as portas do switch em dois ou mais switchs lógicos, que realmente funcionam como se fossem aparelhos separados, dando uma grande flexibilidade ao definir a topologia da rede.
Configuração de VLANs na interface de gerenciamento de um Netgear GS716T

Os switchs com interfaces de gerenciamento são genericamente chamados de "manageable switchs" (switches gerenciáveis) ou "fully managed switchs", enquanto os switchs mais simples são chamados de "unmanaged switchs" (switchs não-gerenciáveis).
Um exemplo de switch gerenciável de baixo custo é o Linksys SRW2008 que custa (no exterior) pouco mais de US$ 200. Nele, a interface de gerenciamento é acessível usando o navegador. Inicialmente ele fica disponível através do endereço "192.168.1.254" (você precisa configurar seu PC para um endereço dentro da mesma faixa para acessá-lo), mas o endereço pode ser alterado após o primeiro acesso. É possível também acessar a configuração do switch usando um cabo serial e um cliente de terminal, como o Hyper Terminal (no Windows) ou o Minicom (no Linux).


Linksys SRW2008


Existe ainda uma categoria de switchs intermediários, chamados de "smart switchs". Eles são switchs gerenciáveis de baixo custo, destinados a redes domésticas, que oferecem apenas um pequeno conjunto das opções disponíveis nos modelos fully managed, mas em troca custam menos. Duas características básicas disponíveis nos smart switchs são a possibilidade de criar redes virtuais e ativar o uso do QoS. O QoS permite priorizar o tráfego de determinados tipos de dados (streaming de vídeo, por exemplo) ou o tráfego de determinadas portas (a porta onde o servidor está conectado, por exemplo), evitando interrupções no fluxo de dados nos momentos de atividade intensa da rede.
Temos também os "stackable switchs" (switches empilháveis) que podem ser combinados para formar switches maiores. Eles normalmente são produzidos no formato 1U, de forma a serem instalados em racks para servidores:

Netgear FSM7328S, um exemplo de stackable switch

Se o objetivo fosse simplesmente obter mais portas, você poderia muito bem ligar vários switches baratos utilizando cabos de rede. Ligando três switches de 8 portas, você obteria um switch de 20 portas (4 das portas são sacrificadas para fazer a ligação) e assim por diante:

Antigamente, a ligação era feita usando cabos cross-over, ou utilizando a porta "uplink" do hub, mas nos hub-switches atuais você pode utilizar qualquer uma das portas e utilizar tanto cabos straight quanto cabos cross-over, pois o switch é capaz de detectar o tipo de cabo usado.
Esta configuração é apelidada de "daisy chain" e permite que você interconecte até 5 níveis de hubs ou de switches (o primeiro é ligado ao segundo, o segundo ao terceiro, o terceiro ao quarto e o quarto ao quinto) este limite existe por que as estações ligadas a um sexto switch excederiam o limite de repetições ao se comunicarem com as estações ligadas ao primeiro.
É possível interligar mais do que 5 switchs, desde que você ligue-os a um switch central. Você poderia ter, por exemplo, 8 switchs de 8 portas ligados às 8 portas do switch central, totalizando 56 portas disponíveis. O switch central passa então a ser chamada de "backbone switch", já que passa a ser a espinha dorsal da rede.
O problema é que nesse caso a comunicação entre os switches é feita na velocidade da rede, ou seja, a 100 ou 1000 megabits, o que cria um grande gargalo em situações onde vários micros (ligados a diferentes switches) precisem transmitir dados simultaneamente.
A principal vantagem dos stackable switchs é que eles possuem barramentos de comunicação dedicados (chamados de "stacking bus") para a comunicação entre os switches, que oferecem velocidades de transmissão muito mais elevadas, eliminando o gargalo:

Portas do stacking bus utilizado para interligar os switches. Neste modelo da Netgear, até 6 switchs podem ser interligados. Além de serem ligados um ao outro, o último é ligado ao primeiro, de forma a manter a comunicação caso um dos 6 falhe ou seja desligado.

Para cortar custos nos modelos mais baratos, é comum que o barramento dedicado seja substituído por uma ou mais portas do padrão Ethernet seguinte, que podem ser usadas para fazer a interligação entre os switches. Um switch com portas de 100 megabits pode incluir então uma porta uplink de 1000 megabits, por exemplo.
Além disso, eles permitem a conexão de um número maior de switches (atendendo a situações onde você precisa de um número muito grande de portas, como no caso de datacenters), além de recursos de gerenciamento e recursos extras, como a presença de algumas portas para cabos de fibra óptica, que podem ser utilizados para criar backbones de longa distância interligando os switches.
O Netgear FSM7328S da foto anterior, por exemplo, possui 24 portas de 100 megabits e 4 portas gigabit, que suportam o uso de cabos de par trançado ou de fibra óptica. O switch trabalha utilizando o modo store and forward, de forma que as conexões envolvendo portas de velocidades diferentes não são niveladas por baixo. Um servidor ligado a uma das portas gigabit poderia (na ausência de outros gargalos, como a taxa de transferência do HD ou overhead do protocolo) atender 10 clientes ligados às portas de 100 megabits, enviando 100 megabits de dados para cada um, simultaneamente.

Manutenção Avançada - Endereços de IRQ, DMA e I/O

Os endereços de IRQ são interrupções de hardware, canais que os dispositivos podem utilizar para chamar a atenção do processador.Na maioria das situações, o sistema operacional simplesmente chaveia entre os aplicativos ativos, permitindo que ele utilize o processador durante um determinado espaço de tempo e passe a bola para o seguinte. Como o processador trabalha a uma frequência de clock muito alta, o chaveamento é feito de forma muito rápida, dando a impressão de que todos realmente estão sendo executados ao mesmo tempoNo caso dos processadores dual-core, temos na realidade dois processadores, de forma que dois threads podem ser processados simultaneamente, mas o princípio continua o mesmo, já que em um PC típico temos um número sempre muito maior de aplicativos ativos.Muitas operações, entretanto, não podem esperar. O exemplo mais típico são os caracteres digitados no teclado e os movimentos do mouse, que precisam ser interpretados rapidamente pelo sistema, mesmo enquanto o PC está executando tarefas pesadas, mas existem muitas outras operações que precisam de atenção semelhante, incluindo as transferências de dados recebidos através da placa de rede, operações de leitura e escrita nos HDs e assim por diante.A placa de rede, por exemplo não pode ficar simplesmente esperando que cheque a sua vez dentro do sistema multitarefa, pois isso retardaria a transmissão dos pacotes, aumentando o ping e reduzindo a taxa de transmissão da rede.É neste ponto que entram os endereços de IRQ. Ao ser avisado através de qualquer um destes canais, o processador imediatamente pára qualquer coisa que esteja fazendo e dá atenção ao dispositivo, voltando ao trabalho logo depois. Cada endereço é uma espécie de campainha, que pode ser tocada a qualquer momento. Se não fossem pelos endereços de IRQ, o processador não seria capaz de ler as teclas digitadas no teclado, nem os clicks do mouse, a sua conexão pararia toda vez que abrisse qualquer programa e assim por diante.Em PCs antigos, os endereços de IRQ não podiam ser compartilhados entre os dispositivos, o que freqüentemente causava problemas, já que existem apenas 16 endereços de IRQ disponíveis. Sempre que os endereços de IRQ se esgotavam (pela instalação de muitos periféricos) ou dois dispositivos eram configurados para utilizar o mesmo endereço, tínhamos os famosos conflitos, que faziam com ambos os dispositivos deixassem de funcionar corretamente.Atualmente, os conflitos relacionados aos endereços de IRQ são muito raros, pois as placas atuais suportam diversos sistemas de compartilhamento e atribuição automática de endereços. No caso das placas PCI, por exemplo, o controlador PCI passa a centralizar as requisições enviadas por todas as placas instaladas, de forma que todas possam utilizar um único endereço. Isto é possível por que as placas passam a enviar as requisições para o controlador e apenas ele entra em contrato direto com o processador.De qualquer forma, é importante entender como o sistema funciona, de forma que você possa solucionar conflitos que eventualmente apareçam, além de aprender a se virar ao dar manutenção em PCs antigos.Para variar, tudo começa com o PC original, aquele lançado em 1981. Ele tinha apenas 8 endereços de IRQ, numerados de 0 a 7. Isso acontecia por que ele ainda era baseado no processador 8088, que apesar de ser internamente um processador de 16 bits, utilizava um barramento de apenas 8 bits para comunicar-se com os periféricos. Com isto, tinha apenas 8 IRQs.Os 8 endereços disponíveis ficavam geralmente configurados da seguinte forma:
IRQ 0 - Sinal de clock da placa mãeIRQ 1 – TecladoIRQ 2 – LivreIRQ 3 - COM 2IRQ 4 - COM 1IRQ 5 - Disco RígidoIRQ 6 - Drive de disquetesIRQ 7 - Porta paralelaO número do endereço de IRQ indica também a sua prioridade, começando do 0 que é o que tem a prioridade mais alta. Não é à toa que o IRQ 0 é ocupado pelo sinal de clock da placa mãe, pois é ele quem sincroniza o trabalho de todos os componentes, inclusive do processador.Logo depois vem o teclado, que ocupa o IRQ 1. Veja que o teclado é o dispositivo com um nível de prioridade mais alto, para evitar que as teclas digitadas se percam. Isso pode parecer desnecessário, já que um processador atual processa bilhões de operações por segundo e dificilmente alguém digita mais do que 300 ou talvez 400 teclas por minuto, mas, na época do XT, as coisas não eram assim tão rápidas.Em seguida vêm os demais periféricos, como as portas seriais e o drive de disquetes. A IRQ2 ficava livre para a instalação de um periférico qualquer. Na verdade, na maioria das vezes o 5 também ficava livre, pois os HDs não eram algo muito comum naquela época.A partir do 286, houve uma evolução neste esquema, pois finalmente os PCs passaram a ter 16 endereços de IRQ, numerados de 0 a 15, como nos dias de hoje. Como quase todas as evoluções na família PC, foi preciso manter compatibilidade com o padrão anterior, para que as placas para XT pudessem funcionar nos PCs 286 em diante.Assim, resolveram manter o controlador de IRQs original para que tudo continuasse funcionando da mesma maneira que antes e simplesmente adicionar um segundo controlador para obter os 8 novos endereços. Este segundo controlador passou a ser ligado no IRQ 2, que costumava ficar livre. Todos os pedidos de interrupção dos periféricos ligados aos endereços entre 8 e 15, controlados pelo segundo controlador, passam primeiro pelo IRQ 2, para só depois chegar ao processador. Isto é chamado de cascateamento de IRQs.Dá para notar duas coisas neste esquema. Em primeiro lugar que o IRQ 2 não pode mais ser utilizado por nenhum periférico. Caso fosse instalado um modem ISA, por exemplo, configurado através dos jumpers para utilizar o IRQ 2, ele seria remapeado para o IRQ 9. Ou seja, na prática, não temos 16 endereços de IRQ, mas apenas 15.Em segundo lugar, como o segundo controlador está ligado ao IRQ 2, todas as placas que utilizarem os endereços de 8 a 15, terão prioridade sobre as que usarem os IRQs de 3 a 7, pois, do ponto de vista do processador, estão ligadas ao IRQ 2, que é por onde todos os pedidos chegam a ele:




Este seria um exemplo de configuração comum de endereços em um PC da era Pentium baseado em uma placa mãe soquete 7:
IRQ 0 - Sinal de clock da placa mãe (fixo)IRQ 1 - Teclado (fixo)IRQ 2 - Cascateador de IRQs (fixo)IRQ 3 - Porta serial 2IRQ 4 - Porta serial 1IRQ 5 - LivreIRQ 6 - Drive de disquetesIRQ 7 - Porta paralela (impressora)IRQ 8 - Relógio do CMOS (fixo)IRQ 9 - Placa de vídeoIRQ 10 - LivreIRQ 11 - Controlador USBIRQ 12 - Porta PS/2IRQ 13 - Coprocessador aritmético (fixo)IRQ 14 - IDE PrimáriaIRQ 15 - IDE SecundáriaVeja que com apenas a placa de vídeo e os dispositivos da placa mãe, já sobravam apenas dois endereços de IRQ disponíveis. Ao adicionar uma placa de som e um modem, todos os endereços estariam ocupados, não dando mais margem de expansão para uma placa de rede ou uma placa SCSI por exemplo. A solução seria desabilitar dispositivos que não estivessem sendo usados, como por exemplo, a segunda porta serial, a porta PS/2, o controlador USB, etc. Mas, de qualquer forma, logo chegaria o ponto em que não haveria mais nada a ser desabilitado.Este problema começou a tornar-se cada vez mais evidente, à medida que mais e mais periféricos começaram a tornar-se padrão. Os únicos periféricos "de fábrica" em um 286 eram o monitor e o teclado, todo o restante era opcional. Em um PC atual temos um número muito maior de dispositivos, a começar pelos componentes onboard.Felizmente, pensaram neste problema quando desenvolveram o barramento PCI, incluindo o recurso de PCI Steering, que permite que dois, ou mais periféricos PCI compartilhem o mesmo endereço de IRQ. Neste caso, o controlador PCI passa a atuar como uma ponte entre os periféricos e o processador. Ele recebe todos os pedidos de interrupção, os encaminha para o processador e, ao receber as respostas, novamente os encaminha para os dispositivos corretos. Como o controlador é o único diretamente conectado ao processador é possível ocupar apenas um endereço de IRQ. Do lado do software, o PCI Steering passou a ser suportado a partir do Windows 95 OSR/2, além de ser suportado, por parte do Kernel, praticamente desde as primeiras versões do Linux.Nem todos os dispositivos PCI suportam trabalhar desta maneira, mas a grande maioria funciona sem problemas. No Windows, você pode verificar a distribuição dos endereços dentro do Painel de Controle > Sistema > Hardware > Gerenciador de Dispositivos. Na janela principal, clique no Exibir > Recursos por tipo.No screenshot abaixo, temos um PC antigo, rodando o Windows 2000, onde as duas placas de rede e a placa de som compartilhando o IRQ 9:


Além do barramento PCI, outros barramentos usados atualmente permitem compartilhar um único IRQ entre vários periféricos. O USB é um bom exemplo, o controlador ocupa um único IRQ, que é compartilhado entre todas as portas USB e todos os dispositivos conectados a elas. Mesmo que a sua placa mãe tenha 6 portas USB e você utilize todas, terá ocupado apenas um endereço.Caso você utilizasse apenas periféricos USB, incluindo o mouse, impressora, scanner, etc. poderia desabilitar todas as portas de legado da sua placa mãe: as duas portas seriais, a porta paralela e a porta PS/2, o que liberaria 4 endereços de IRQ.No caso de placas mãe com duas interfaces IDE, cada uma ocupa dois endereços (por padrão o 14 e o 15). Mas, caso você não pretenda usar a IDE secundária, sempre existe a possibilidade de desabilitá-la no Setup. Todas estas opções aparecem na sessão "Integrated Peripherals".Com todas estas facilidades, ficava fácil ter um sistema com vários IRQs livres, como no exemplo abaixo:


IRQ 0 - Sinal de clock da placa mãe (fixo)

IRQ 1 - Teclado (fixo)

IRQ 2 - Cascateador de IRQs (fixo)

IRQ 3 - Livre (serial 2 desativada)

IRQ 4 - Modem

IRQ 5 - Livre

IRQ 6 - Drive de disquetes

IRQ 7 - Livre (porta paralela desativada)

IRQ 8 - Relógio do CMOS (fixo)

IRQ 9 - Placa de som, placa de rede (1), placa de rede (2)

IRQ 10 - Placa de vídeo

IRQ 11 - Controlador USB (Mouse, impressora e scanner)

IRQ 12 - Porta PS/2

IRQ 13 - Coprocessador aritmético

IRQ 14 - IDE Primária

IRQ 15 - Livre (IDE Secundária desativada)Todos estes dispositivos e ainda 4 endereços de IRQ livres não soam nada mal.

Na verdade, a escassez de endereços de IRQ é um problema muito menor hoje em dia do que já foi no passado. Antigamente era preciso configurar manualmente o endereço a ser usado por cada placa e não havia como compartilhar um IRQ entre dois periféricos como temos hoje. Um jumper no lugar errado era o suficiente para o modem ou a placa de som entrarem em conflito com alguém e pararem de funcionar.Hoje em dia, todas as placas novas são PCI, o que naturalmente significa que são plug and play. Basta espeta-las para que o BIOS atribua automaticamente um endereço. Usando apenas placas PCI, você terá conflitos apenas caso realmente todos os IRQs estejam ocupados.Mas nem tudo está resolvido. Apesar dos conflitos ao se usar apenas placas PCI sejam raríssimos, ainda estão em uso muitos PCs antigos com placas ISA. É aí que as coisas podem complicar um pouco.Existem dois tipos de placas ISA: as ISA Plug-and-Play e as placas de legado (Legacy ISA). As primeiras, que começaram a aparecer ainda na época do 486, tem seus endereços configurados automaticamente pelo BIOS, mas não são capazes de compartilhar IRQs como as placas PCI.O sistema de plug-and-play utilizado nelas funciona de forma limitada, de forma que elas ainda podem entrar em conflito com periféricos PCI, mesmo que existam alguns endereços livres. Neste caso, você pode alterar manualmente o endereço a ser usado pela placa ISA através do gerenciador de dispositivos do Windows, basta clicar sobre o ícone do dispositivo, acessar as propriedades e abrir a guia de recursos.Já nas placas Legacy ISA, é preciso configurar os endereços de IRQ manualmente, através de jumpers, ou então usando um software que acompanha a placa (o que é muito comum em placas de rede ISA). Uma vez configurada para usar um endereço, a placa irá entrar em conflito com qualquer dispositivo que tente usá-lo. Para complicar, o BIOS não enxerga as placas de legado, de forma que existe a possibilidade de que ele atribua o mesmo endereço para algum dispositivo plug-and-play, gerando um conflito.Para evitar este problema, é preciso reservar manualmente os endereços de IRQ e DMA ocupados por periféricos ISA de legado através da sessão "PNP/PCI Setup" do CMOS Setup. É o tipo de coisa com a qual você não precisa se preocupar em um PC atual (que não possuem sequer slots ISA), mas que era uma necessidade a duas gerações atrás.Caso o PC tivesse instalado um modem ISA, configurado para utilizar o IRQ 7, por exemplo, você precisava marcá-lo com a opção "Legacy ISA" no Setup. Na foto abaixo temos a sessão "PnP/PCI" do Setup de uma placa mãe com BIOS Award. Veja que cada endereço de IRQ pode ser configurado separadamente:


A opção default é não reservar os endereços, deixando-os livres para o uso de qualquer dispositivo PnP. Para reservar um endereço, basta alterar a opção. Lembre-se de reservar apenas os endereços necessários, pois ao reservar um endereço ele deixa de estar disponível para as placas plug-and-play.Existe mais um ponto interessante sobre as placas ISA, que é o fato de existirem tanto placas ISA de 8 bits, quanto placas de 16 bits. É fácil diferenciá-las, pois as placas de 8 bits utilizam apenas a primeira parte do encaixe. As placas de 8 bits utilizam exatamente o mesmo barramento que era usado no XT, o que significa que estas placas enxergam apenas os IRQs de 0 a 7. Este é o caso por exemplo de muitos modems ISA.Neste caso não existe muito segredo, caso todos os seus IRQs de 0 a 7 já estejam ocupados, o jeito será mudar o endereço de um dos dispositivos, dando lugar ao modem. Você pode simplesmente reservar no Setup o endereço que esteja sendo usado por uma placa plug-and-play que esteja instalada, assim da próxima vez que iniciar o micro, o BIOS se encarrega de dar outro endereço para ela, deixando o modem em paz.Toda a configuração de endereços feita perlo BIOS é armazenado numa área do CMOS, chamado ESCD. Em casos onde o BIOS não detecte um dispositivo recém-instalado ou onde ele insista em assinar o mesmo endereço para duas placas que não suportam o PCI Steering, causando um conflito, existe a opção de limpar o ESCD. Isto fará com que o BIOS precise reconfigurar o endereços de todas as placas, partindo do zero. Para limpar o ESCD, basta acessar o Setup e ativar a opção "Force Update ESCD" ou "Reset onfiguration data".

Configuração do Setup

Quando você liga o micro, o primeiro software que é carregado é o BIOS da placa-mãe, que faz a contagem da memória RAM, realiza uma detecção rápida dos dispositivos instalados e por fim carrega o sistema operacional principal a partir do HD, CD-ROM, pendrive, disquete, rede, ou outra mídia que estiver disponível. Este procedimento inicial é chamado de POST (Power-on self test).O POST tem duas funções básicas: detectar o hardware instalado e atribuir endereços de IRQ, endereços de I/O e outros recursos e verificar se os componentes básicos (processador, memória, placa de vídeo e circuitos de comunicação) estão funcionando como deveriam. Quando é encontrado algum erro grave, como blocos defeituosos logo nos primeiros endereços da memória RAM, defeitos no processador ou em componentes essenciais do chipset da placa mãe, o BIOS emite o código de avisos sonoros referente ao problema e paralisa o boot.Além da função de "dar a partida", o BIOS oferece uma série de rotinas de acesso ao vídeo, HDs e outros periféricos, que podem ser usados pelo sistema operacional. Hoje em dia, tanto o Windows quanto o Linux acessam o hardware através de drivers especializados, mas na época do MS-DOS as rotinas do BIOS eram importantes.Segamos então ao Setup, um programa de configuração para os parâmetros do BIOS. Nos primeiros PCs, o BIOS era um aplicativo realmente separado, que precisava ser carregado através de um disquete de boot, mas a partir dos micros 386 ele passou a fazer parte do BIOS principal.As opções configuráveis através do Setup variam muito de acordo com o tipo de placa e a que público ela é destinada. Temos desde notebooks, com conjuntos incrivelmente limitados de opções, até placas destinadas a entusiastas, com mais de 20 opções só para ajustar os tempos de acesso da memória.Assim como todo software, tanto o BIOS quanto muitas vezes o próprio Setup possuem bugs, em muitos casos graves. É normal que qualquer fabricante respeitável disponibilize um conjunto de atualizações para o BIOS de uma placa popular. Em geral, a ausência de atualizações de BIOS disponíveis não é um sinal de que as placas não possuem problemas, mas simplesmente que o fabricante não se dá ao trabalho de corrigí-los.O BIOS é quase sempre escrito em assembly, muitas vezes com módulos escritos em C. Por ser um programa complexo, que possui diversas camadas de legado, acumuladas desde o PC original, o BIOS de uma placa-mãe típica é um software cada vez mais caro e difícil de se manter.Existe atualmente cada vez mais pressão em torno do desenvolvimento de um sistema mais elegante, que possa desempenhar as funções dos BIOS atuais com mais elegância e abrir espaço para a introdução de novos recursos.Uma tecnologia já em uso é o EFI (Extensible Firmware Interface), usada em placas-mãe para o Intel Itanium e também nos Macs com processadores Intel. O EFI utiliza uma arquitetura modular, bem mais limpa e eficiente, que permite o uso de módulos personalizados para os dispositivos de cada-placa mãe, mantendo (opcionalmente) compatibilidade com o sistema antigo. No caso dos Macs, esta camada de compatibilidade é desativada (de forma a dificultar a vida de quem pretende instalar Linux ou Windows em dual boot com o MacOS) mas, no caso de placas avulsas, o EFI viria com o modo de compatibilidade ativado, permitindo rodar qualquer sistema.Existe ainda um projeto para substituir o BIOS da placa-mãe por uma versão compacta do Kernel do Linux, que executa as mesmas funções, mas de uma forma mais confiável e flexível. Você pode obter mais informações sobre ele e sobre as placas suportadas no: http://www.linuxbios.org/.Voltando ao BIOS, depois de fazer seu trabalho, o BIOS carrega o sistema operacional, lendo o primeiro setor do disco rígido o "Master Boot Record" (MBR), também conhecido como trilha zero ou trilha MBR. No MBR vai o gerenciador de boot, um pequeno software encarregado de dar a partida no sistema operacional. O gerenciador de boot usando o Windows XP e Vista é chamado de NTLDR, enquanto no Linux o mais usado é o Grub. Na verdade, no MBR mesmo vai apenas um bootstrap, um pequeno software que instrui o BIOS a carregar o executável do gerenciador de boot, armazenado em um ponto específico do HD. O MBR propriamente dito ocupa um único setor do HD (apenas 512 bytes), de modo que não é possível armazenar muita coisa diretamente nele.Como pode ver, o BIOS não se preocupa em detectar qual sistema operacional está instalado no HD, nem muito menos tentar ler o sistema de arquivos em que ele (o HD) está formatado. Tudo o que ele faz é ler o setor de boot do HD e deixar que o gerenciador de boot faça seu trabalho. Se isso não for possível, ele exibe a fatídica mensagem "No boot device available", ou similar e espera que você resolva o problema. :)Na grande maioria dos casos, pressionamos a tecla "Del" durante o início do boot para acessar o Setup. Nos notebooks é usada normalmente a tecla "F2", mas (embora relativamente raro) existem casos onde a tecla de atalho é "Esc", "F1", "F8", "F10", "Ins" ou mesmo combinações de teclas, como "Ctrl+Esc", "Alt+Esc", "Ctrl+Alt+Esc", "Ctrl+Alt+Enter" ou "Ctrl+Alt+F2".Desde a década de 90, o mercado de desenvolvimento de BIOS é dividido entre a AMI (a mais usada atualmente), Award e a Phoenix (usada predominantemente em notebooks). Como era de se esperar, cada um dos três utiliza uma interface um pouco diferente para o Setup, mas as opções propriamente ditas dependem mais do fabricantes da placa do que da marca do BIOS. Os notebooks são geralmente os mais pobres em opções, já que são configurações prontas, onde não se espera que você altere muitos componentes ou faça overclock.Esta é a interface mais tradicional, usada tanto em BIOS da Award, quanto da AMI e até mesmo em alguns da Phoenix, onde as opções são divididas em menus. Você navega entre as opções usando as setas, Enter e Esc e altera as opções dentro das seções pressionando Enter e escolhendo o valor desejado dentro de um submenu com as opções disponíveis:
Durante a década de 1990, a AMI utilizou uma interface gráfica, onde você usava o mouse para navegar entre as opções. Apesar de ser considerada mais fácil por alguns, essa interface acabou não pegando e foi substituída pela interface baseada em abas utilizada atualmente. Nela, você usa as setas para a direita e esquerda para alternar entre as seções, as setas para cima e para baixo, além de Enter e Esc para navegar entre as opções e acessar os submenus e altera as opções usando + e -.



Em ambas as interfaces, você pode salvar e sair usando a tecla F10, ou sair sem salvar pressionando Esc na tela principal. As configurações do Setup são salvas no CMOS, a área de memória volátil dentro do chip com o BIOS. É justamente isso que permite que as configurações sejam apagadas ao mudar a opção do jumper ou ao retirar a bateria, o que permite "destravar" a placa ao tentar um overclock mais extremo ou usar qualquer opção que faça o micro passar a travar durante o POST, sem que você tenha chance de acessar o Setup para restaurar a configuração anterior.A seção mais básica é a "Main" ou "Standard CMOS Setup" que permite ajustar o relógio do sistema e conferir a detecção dos HDs. Além de ser ajustado manualmente através do Setup, o relógio do sistema pode ser ajustado via software, o que é feito automaticamente pela maior parte dos programas que acertam o relógio do sistema via internet. De qualquer forma, é sempre importante acertar o relógio ao montar o micro, antes de instalar o sistema operacional.Existe também a opção "Legacy Diskette A", usada para indicar se um drive de disquetes está instalado. Use "1.44M, 3.5 in." caso tenha um drive instalado, ou "Disabled" se não tiver nenhum. Apesar de poucos ainda utilizarem drives de disquetes (pelo menos em micros novos) eles ainda são necessários em muitos casos para carregar drivers da porta SATA ou RAID ao instalar o Windows XP. O problema foi resolvido apenas com o Vista, onde os drivers podem ser carregados também a partir de um CD-ROM ou pendrive.Antigamente, a detecção dos HDs era feita através da opção "IDE HDD Auto Detection" presente no menu principal do Setup, mas em placas atuais a detecção dos HDs é feita automaticamente durante o POST e os HDs presentes aparecem dentro da seção:

Placas-mãe, barramentos, chipsets e configuração do Setup

A placa-mãe não é apenas o componente mais importante do PC, mas também o que concentra o maior número de componentes. Pela enorme quantidade de chips, trilhas, capacitores e encaixes, a placa-mãe também é o componente que, de uma forma geral, mais dá defeitos, perdendo (possivelmente) apenas para os HDs. O principal componente da placa-mãe é o chipset, que é o principal responsável pelos recursos disponíveis, barramentos suportados e pela maior parte dos componentes onboard, mas, além dele, temos uma infinidade de outros componentes, incluindo chips controladores menores, reguladores de tensão, capacitores, resistores e o próprio PCB da placa. Comandando tudo isso temos o BIOS, que é, por sua vez, configurado através do Setup. Este guia reúne tudo o que você precisa para entender como tudo isso funciona.
Componentes e formatos das placas-mãe - PCB, capacitores, resistores, reguladores de tensão e outros componentes - BIOS, CMOS e upgrade de BIOS - AT, ATX, mini-ITX e outros formatos de placas

Barramentos - ISA - MCA e EISA - VLB - PCI - PC-Card (PCMCIA) - AMR e CNR - AGP, AGP-Pro, AGP-Express, AGI e Ultra-AGPII

PCI Express - Como o PCI Express funciona - Expresa-Mini e ExpressCard - PCI Express 2.0

Chipsets e placas - Introdução e história dos chipsets - Chipsets para placas soquete 7 - Chipsets para o Pentium II e Pentium III

Chipsets para o Pentium 4 (soquete 423 e soquete 478) - Chipsets da Intel - Chipsets da VIA, SiS, ALi e ATI

Chipsets para placas soquete 775 - Chipsets da Intel - Chipsets da nVidia, SiS e VIA

Chipsets para o Athlon, Duron e Sempron soquete A - Chipsets da AMD - Chipsets da VIA - Chipsets da SiS - Chipsets da nVidia

Chipsets para o Athlon 64 e X2 - Chipsets da nVidia - Chipsets da VIA - Chipsets da SiS - Chipsets da ULi

Configuração do Setup - BIOS, POST, EFI e as opções básicas do Setup - Discos e RAID - Opções de Boot - Opções de Overclock

Opções avançadas do Setup - Timing da memória - Componentes integrados - Outras opções

quinta-feira, 6 de março de 2008

Recuperação de dados

Um dos problemas fundamentais com os HDs é que, por guardarem uma quantidade muito grande de informações, qualquer defeito tem um efeito potencialmente catastrófico. É muito diferente de riscar ou perder um CD-ROM, por exemplo, já que o CD armazena uma pequena quantidade de dados, geralmente cópias de dados que estão gravados em algum outro lugar.As perdas de dados podem ser divididas em duas classes: as causadas por defeitos mecânicos, onde o HD realmente para de funcionar, impedindo a leitura e defeitos lógicos, onde os dados são apagados, ou ficam inacessíveis.
Diferentemente dos demais componentes do micro, que são eletrônicos, o HD é composto de partes móveis, componentes mecânicos que se desgastam e possuem uma vida útil definida. É bem verdade que os HDs atuais são muito mais confiáveis do que os modelos que utilizávamos a dez ou vinte anos atrás, mas o índice de defeitos continua sendo relativamente grande.Componentes individuais do HD, como o braço de leitura e o motor de rotação podem ser substituídos e os próprios discos podem ser removidos e instalados em outro HD, de forma que os dados possam ser lidos. Entretanto, a "manutenção de HDs" possui três problemas que impedem que ela seja utilizada em larga escala.O primeiro é que você precisa de outro HD idêntico ao primeiro, de onde retirar peças.
Ou seja, para recuperar um HD, você precisaria, quase sempre, inutilizar outro. O segundo é que o processo é bastante delicado, sobretudo ao manipular os discos e as cabeças de leitura, que são incrivelmente sensíveis, Além disso, temos o problema principal, que é a necessidade de realizar todo o processo dentro de uma sala limpa, já que a poeira presente no meio ambiente condena qualquer HD aberto fora de uma.Defeitos na placa lógica do HD podem ser substituídos com a substituição dos componentes avariados ou (mais simples) com a substituição da placa lógica inteira por outra retirada de um HD do mesmo modelo.
Como a placa lógica é externa, é muito simples substituí-la e é perfeitamente possível encontrar outro HD idêntico à venda pesquisando nos sites de leilão. Qualquer volume de dados importantes vale muito mais do que um HD usado.Entretanto, defeitos nos componentes internos do HD demandam os serviços de uma empresa especializada em recuperação de dados, que tenha uma sala limpa e a aparelharem necessária. Na grande maioria dos casos, abrir o HD só vai servir para reduzir as chances de recuperação dos dados.
PORTANTO NUNCA DEIXE ALGUÉM FAZER ALGO EU SEU HD, PARA TENTAR RECUPERAR DADOS SEM SABER O QUE ESTÁ FAZENDO, PORQUE UMA AÇÃO ERRADA DANIFICARA PARA SEMPRE O SEU DISCO RIGÍDO.

Dicas de compra

Antigamente existia a polêmica entre os "PCs onboard" e os "PCs offboard", mas atualmente praticamente todas as placas trazem som e rede onboard. Isto acontece por que tanto as placas de som, quanto as de rede atingiram um "pico evolutivo" a alguns anos atrás, onde deixou de existir uma grande diferença "prática" de performance e qualidade entre as placas que justificasse gastar mais por uma placa offboard na maioria dos casos.Uma placa de rede offboard da 3Com ou Intel pode oferecer pequenos ganhos de desempenho, um certo ganho de estabilidade do sinal ou uma utilização do processador um pouco mais baixa durante as transferências do que um chipset Realtek onboard, mas se formos comparar a rede onboard com uma placa de rede offboard barata, como uma Encore 10/100 baseada no chip Via Rhine 6105, por exemplo, é bem provável que a placa onboard seja superior, principalmente se considerarmos que a maioria das placas-mãe atuais trazem rede gigabit, onde o chipset de rede é ligado diretamente ao barramento PCI-Express.Algo similar acontece no caso do som onboard. Desde as Sound Blaster 16 ISA as placas de som atingiram um nível de qualidade sonora a partir do qual a maioria das pessoas não consegue perceber diferenças consideráveis de uma placa para a outra. As placas evoluíram em muitos sentidos, naturalmente, incorporando suporte a múltiplos fluxos de audio, suporte a taxas de amostragem mais altas, recursos 3D e assim por diante, mas a característica básica, que é a qualidade do som ao ouvir música não mudou muito desde então. Ela depende mais da qualidade dos circuitos analógicos e conectores (além da qualidade dos fones ou das caixas de som, obviamente) usados do que do chipset propriamente dito.Atualmente podemos classificar a maioria dos chipsets de som onboard em duas categorias: As placas que seguem o antigo padrão AC'97 a as placas compatíveis com o padrão Intel HDA (high definition audio), que oferecem suporte a oito canais de audio independentes com 32 bits de definição e taxa de amostragem de 192 kHz, contra 6 canais (20 bits, 48 kHz) do AC'97.Assim como no caso das placas de rede, existem placas de som offboard de alta qualidade, destinadas ao público entusiastas e ao uso profissional.

Elas oferecem uma variedade maior de saídas e uma qualidade geral melhor, mas a maioria das pessoas não percebe diferença na qualidade do som e acaba não utilizando os recursos adicionais. É por isso que as tradicionais placas de som da Creative, incluindo as Audigy e X-Fi não são nem de longe tão populares quanto antigamente.Naturalmente, o mesmo não se aplica na questão das placas 3D, onde as offboard ainda reinam absolutas. De uma forma geral, as placas de vídeo onboard possuem duas limitações crônicas.A primeira é o fato do chipset de vídeo ser integrado à ponte norte do chipset, o que traz limitações no volume de transistores e também na frequência de operação. Isso limita os projetos de vídeo onboard a soluções simplificadas, que não tem como concorrer diretamente nem mesmo com as placas offboard low-end.A segunda limitação é a questão da memória. Placas 3D offboard utilizam memória dedicada, enquanto as placas onboard precisam compartilhar a memória principal com o processador e os demais periféricos do micro.Com a popularização dos módulos DDR2 (e DDR3) e de placas com dual-channel, o barramento com a memória foi ampliado sensivelmente, o que beneficiou as placas onboard.
A questão é que as placas offboard evoluíram na mesma proporção, se mantendo muito à frente. Uma GeForce 8800 Ultra possui um barramento de 103.68 GB/s com a memória, enquanto dois módulos DDR2 PC2-6400 em dual-channel oferecem um barramento teórico de 12.8 GB/s (quase 10 vezes menos), que precisam ser compartilhados entre a placa de vídeo onboard, o processador e os demais periféricos.A principal questão é que nem todo mundo usa o PC para jogos e mesmo entre os que usam, muitos rodam games antigos ou se contentam em rodar os games com resoluções mais baixas e com efeitos desativados. É impressionante o volume de pessoas que ainda jogam Counter Strike e Diablo 2 em pleno ano 2007. :)Isso cria situações curiosas. O maior fabricante de chipsets de vídeo 3D (em volume) é a Intel, que não fabrica uma única placa offboard desde 1998. Apenas vendendo chipsets com diferentes versões do chipset Intel GMA onboard, eles vendem um número maior de chipsets 3D do que a nVidia e ATI juntas.Uma solução para o desenvolvimento de placas com vídeo onboard de alto desempenho seria integrar chipsets de vídeo e chips de memória dedicada, solução que poderia oferecer o mesmo desempenho de uma placa offboard baseada no mesmo chipset de vídeo.

A questão principal neste caso seria o custo. Mais de 80% do custo de produção de uma placa 3D correspondem justamente ao chipset e módulos de memória. Integrá-los diretamente na placa mãe ofereceria alguma economia de custos relacionada ao aproveitamento de espaço no PCB e compartilhamento de alguns dos circuitos de regulagem de tensão, mas na prática a economia seria pequena demais para justificar a perda da possibilidade de atualizar a placa de vídeo.Isso fez com que a velha fórmula de usar um chipset de vídeo low-end integrado ao chipset, utilizando memória compartilhada, prevalecesse. De certa forma, isso é bom, pois você pode comprar uma placa mãe com vídeo onboard pagando pouca coisa a mais e instalar uma placa offboard apenas se precisar.Uma questão interessante é que as placas sem vídeo onboard custam freqüentemente mais caro do que os modelos com. Isso acontece por que as placas sem vídeo onboard são tipicamente placas mini ATX, com 6 ou 7 slots, destinadas ao público entusiasta, enquanto as placas com vídeo onboard são tipicamente modelos micro ATX, com menos slots de expansão, destinadas ao mercado de placas de baixo custo.Concluindo, temos também a questão dos modems. Embora os modems estejam caindo em desuso, quase todos os chipsets VIA, SiS e nVidia ainda trazem um controlador de modem integrado. Entretanto, ficam faltando os componentes analógicos, que podem ser instalados através de um riser AMR ou CNR.A maioria dos fabricantes não incluem mais estes slots, já que eles tomam o lugar de um slot PCI ou PCI Express e atualmente, apenas algumas placas da PC-Chips, ECS e Phitronics trazem o "kit completo", com tanto o slot AMR quanto o riser. Como a qualidade dos modems PCI decaiu bastante na última década, com os antigos hardmodems dando lugar a softmodems cada vez mais baratos, muitas vezes o modem onboard oferece uma qualidade até superior.

Processador

Uma questão interessante sobre os processadores é que os preços são definidos de forma a maximizar os lucros do fabricante dentro de cada categoria de preço e não de acordo com a performance relativa.Em muitos casos, modelos de baixo custo podem ser vendidos com prejuízo, com o objetivo de ganhar volume, ou simplesmente evitar que o concorrente ganhe espaço, enquanto os processadores mais rápidos de cada família são vendidos a preços astronômicos, de forma a maximizar os lucros entre o público que quer o melhor desempenho a qualquer custo.Outra variável importante é a questão do overclock. Um processador A pode operar a 2.0 GHz, enquanto processador B opera a 2.66 GHz. Naturalmente o processador B é mais caro, mas ambos compartilham a mesma arquitetura, de forma que a frequência que ambos podem atingir na prática é muito similar.

Você pode então economizar comprando o processador A e fazer overclock para 2.66 GHz ou mais, obtendo o desempenho do processador B por uma fração do custo. Investindo a diferença em uma placa-mãe e cooler melhores, mais memória e assim por diante, você acaba com um PC de configuração superior gastando o mesmo.Para quem faz overclock, quase sempre a melhor opção em termos de custo benefício é comprar o processador mais lento dentro da família. Em alguns casos, o segundo modelo pode custar apenas um pouco a mais e suportar frequências um pouco superiores, ou permitir que você obtenha a mesma frequência utilizando um FSB mais baixo na placa mãe (e com isso uma maior estabilidade), de forma que ele pode passar a ser a melhor opção.O processo de litografia usado na fabricação dos processadores faz com que dois processadores nunca sejam exatamente iguais. Pequenas diferenças no foco das máscaras fazem com que alguns processadores fiquem mais "perfeitos" que os outros, o que faz com que alguns suportem overclocks maiores. Mesmo comparando dois processadores da mesma série e produzidos na mesma época (ou até mesmo dois processadores que compartilharam o mesmo waffer), você perceberá que sempre um deles é capaz de atingir frequências um pouco superiores ao outro. Um bom overclock também depende um pouco da sorte.

Nos primeiros degraus da tabela, os preços crescem de forma mais ou menos proporcional. Entretanto, a partir de um certo ponto a subida se intensifica e você passa a pagar uma diferença cada vez maior por cada degrau a mais de desempenho. Se o processador B custa 50% a mais que o processador A, em troca de um aumento de apenas 10% na frequência, é muito difícil justificar a compra, por mais que você precise de um PC mais rápido.Um erro comum que as pessoas cometem ao montar o micro é gastar mais para montar "um micro que dure". Isso é uma ilusão, pois qualquer PC que você monte hoje vai estar desatualizado daqui a dois anos. O melhor a fazer é escolher componentes que atendam às suas necessidades mais imediatas, escolhendo componentes que ofereçam possibilidades de upgrade, gastando menos e assim já se preparando para as próximas atualizações.Aqui temos uma tabela com os preços dos processadores Intel, em Julho de 2007, que podemos usar como exemplo. Os preços aqui no Brasil variam muito de acordo com a loja, por isso estou usando a tabela com os preços oficiais, nos EUA. A idéia é apenas mostrar as proporções, não oferecer um guia de preços:

Celeron 420 (1.6 GHz) $50
Celeron D 352 (3.2 GHz) $57
Celeron 430 (1.8 GHz) $59
Celeron 440 (2.0 GHz) $70
Pentium E2140 (1.6 GHz) $89
Pentium E2160 (1.8 GHz) $96
Core 2 Duo E4300 (1.8 GHz) $117
Core 2 Duo E4400 (1.8 GHz) $139
Core 2 Duo E6300 (1.86 GHz) $164
Pentium D 945 (3.4 GHz) $185
Core 2 Duo E6400 (2.13 GHz) $186
Core 2 Duo E6600 (2.4 GHz) $223
Core 2 Duo E6700 (2.66 GHz) $318
Core 2 Quad Q6600 (2.4 GHz) $480
Core 2 Extreme QX6700 (2.66 GHz) $968
Core 2 Extreme X6800 (2.93 GHz) $975

Olhando a tabela, você poderia se sentir tentado a comprar um Celeron D 352 ou um Pentium D 945, mas isso não seria uma boa idéia pois o desempenho deles é inferior ao do Celeron 430 e do Core 2 Duo E6400, que custam na mesma faixa de preço. Eles seriam mais uma opção de upgrade para quem possui uma placa-mãe soquete 775 antiga, que não é compatível com os processadores da plataforma Core.Imagine que você se decidiu por um Core 2 Duo E6600, por exemplo. Ele ainda não está na "zona vermelha", onde os preços começam a subir de forma desproporcional, mas também não é um processador barato.

Se você puder se contentar com um processador apenas um pouco mais lento, você poderia comprar um Celeron 430 que custa menos de um terço do preço e fazer um overclock modesto para 2.39 GHz (usando bus de 266 MHz ao invés dos 200 MHz padrão), ou mesmo ir mais longe (já que ele pode trabalhar estavelmente a 2.8 GHz ou mais com a ajuda de um bom cooler). Se você faz questão de um processador dual-core, poderia comprar um Pentium E2140 e fazer overclock para 2.4 GHz (usando bus de 300 MHz).

Em ambos os casos, você terá um desempenho um pouco inferior ao do E6600 (o Celeron é single-core e o Pentium E tem menos cache), mas em compensação vai gastar muito menos.Depois de um ano, os preços tendem a cair em pelo menos 30%, de forma que, mesmo que você optasse por atualizar o processador, acabaria gastando menos do que pagaria inicialmente apenas pelo E6600. O Celeron ou Pentium E usado poderia ser vendido e assim ajudar a financiar o próximo upgrade.O processador é um bom componentes para se economizar, pois ele pode ser substituído facilmente.

O mesmo não se aplica à placa mãe, que é o componente "base" do PC.Se você vai montar um micro de baixo custo, o melhor é comprar o processador mais barato dentro da arquitetura atual (como o Celeron 420, no caso da plataforma Core) e investir a diferença na placa mãe. Se sobrar um pouco de dinheiro, também compensa investir um pouco mais no cooler.A placa mãe é o componente mais importante, pois vai ser o que você vai aproveitar ao longo de mais upgrades. O cooler é também um bom lugar para se investir, pois ele permite que você obtenha overclocks maiores, o que ajuda a amenizar a falta de desempenho do processador. O overclock sempre reduz a vida útil do processador, mas isso não é um problema se você tiver planos de trocá-lo depois de um ano, por exemplo.A memória RAM também influencia diretamente o desempenho do micro, pelo simples fato de que sem memória RAM suficiente o sistema passa a usar memória swap.

Por outro lado, a memória é um componente facilmente atualizável, por isso você pode optar por usar um único módulo de 1 GB, por exemplo e deixar para comprar o segundo (para completar 2 GB e ativar o dual-channel) quando tiver dinheiro ou precisar de mais memória. É sempre recomendável usar dois módulos idênticos em dual-channel, mas isso não é uma regra. Dois módulos diferentes podem funcionar perfeitamente, desde que você deixe a placa mãe ajustar a temporização automaticamente ou ajuste os tempos de forma que correspondam aos do módulo mais lento.Se você está montando um micro para jogos, então a placa 3D passa a ser o ítem mais importante, seguido do processador, memória e HD.

Na maioria dos games, o desempenho da placa 3D torna-se um gargalo muito antes do desempenho do processador, de forma que é preferível comprar uma placa 3D mediana e um processador low-end do que o contrário.Ao usar uma placa 3D offboard, dê uma olhada nas placas mãe sem vídeo onboard. Elas podem custar o mesmo ou até um pouco mais caro que os modelos populares com vídeo, mas com certeza você leva outros recursos em troca do vídeo onboard que não vai usar. As placas baseadas nos chipsets nForce costumam ser boas opções.Existe uma pequena diferença de preço entre os processadores boxed (ou retail) e os OEM. Antigamente, se especulava sobre diferença de qualidade entre os dois tipos, já que os boxed são destinado à venda direta ao consumidor, enquanto os OEM são destinados a integradores, mas atualmente isso não existe.

A vantagem dos boxed (fora a caixa, que você vai jogar no lixo depois de abrir) é que eles vem com o cooler, o que pode justificar a diferença de preço. Entretanto, o cooler é sempre um modelo simples, apenas bom o suficiente para refrigerar o processador à frequência nominal. Se você pretende fazer overclock, prefira comprar um processador OEM e um cooler de melhor qualidade.

Memória
Os módulos de memória podem ser divididos em três categorias: módulos "genéricos", sem marca, módulos de marcas conhecidas, como Kingston, Micron, Corsair, Samsung, etc. e módulos "premium", que oferecem tempos de acesso mais baixo, suportam frequências de clock mais elevadas e/ou possuem dissipadores avantajados, que facilitam o overclock.De uma forma geral, a diferença de preço entre os módulos genéricos e os módulos das marcas conhecidas é muito pequena, inferior a 10% na grande maioria dos casos, por isso acaba valendo mais à pena evitar os genéricos.Não que eles sejam necessariamente ruins. Em muitos casos, são usados os mesmos chips usados em módulos de marcas conhecidas, muitas vezes com a mesma qualidade de fabricação e acabamento.

O mercado de fabricação de módulos de memória é incrivelmente concorridos, de forma que os fabricantes que produzem produtos inferiores, ou que possuem margens de defeitos acima da média acabam não sobrevivendo muito tempo.A principal questão é que comprando módulos genéricos a possibilidade de dar o azar de comprar um módulo ruim é maior, já que estamos falando de fabricantes que trabalham com margens de lucro incrivelmente apertadas e se engalfinham por qualquer centavo a menos no preço de venda. Fabricantes conhecidos trabalham com preços um pouco acima da média e por isso podem se dar ao luxo de ter sistemas de controle de qualidade melhor e oferecer garantias maiores.

Os módulos "premium", por sua vez, raramente são uma boa opção de compra, pois a diferença de preço é muito grande, podendo chegar a 100% ou mais em relação a módulos genéricos da mesma capacidade e o pequeno ganho de desempenho não compensa o investimento.Módulos premium são compostos por compostos por chips escolhidos durante a fase inicial de testes, antes que eles sejam soldados aos módulos. Assim como nos processadores, alguns chips de memória são capazes de operar a frequências mais altas que outros. Isso acontece devido a pequenas diferenças no foco das lentes de litografia.

Combinando estes módulos escolhidos a dedo com um controle de qualidade mais rigoroso e dissipadores mais eficientes fazem com que estes módulos realmente se destaquem.

O grande problema é que os fabricantes aproveitam o hype e o limitado volume de produção para os venderem a preços muitos mais altos. Comprar módulos premium é como comprar roupas de grife. A qualidade normalmente é um pouco superior, mas a grande diferença de preço não compensa.
















OCZ ReaperTalvez você se sinta melhor tendo um par de módulos Corsair Dominator ou OCZ Reaper dentro do gabinete e talvez até possa mostrá-los aos amigos, mas se a idéia é melhorar a boa e velha relação custo benefício, então você aproveitaria melhor seu dinheiro investindo em uma placa 3D ou processador um pouco mais rápido, ou em uma placa mãe melhor.Em seguida temos a questão da frequência e tempos de acesso. Em casos onde o vendedor é bem informado, ele mesmo pode lhe fornecer as informações, caso contrário você acaba sendo obrigado a pesquisar pelo código de identificação decalcado no módulo, ou pelo código de identificação do fabricante.

Nos módulos da Kingston, por exemplo, você encontra um código como "KVR533D2N4/512" na etiqueta de identificação do módulo:

Uma pesquisa rápida no http://kingston.com/ mostra o significado do código:

A sigla "KVR" indica a linha de produtos da qual o módulo faz parte, neste caso a "ValueRAM", a linha de módulos de baixo custo da Kingston. Em seguida temos a frequência de operação suportada pelo módulo. No caso do módulo da foto, temos um "533", que indica que ele é um módulo DDR2-533.Depois do "D2N", que indica que é um módulo DDR2, sem ECC, temos o número que indica o tempo de latência, que no módulo da foto é de 4 tempos. A letra "K" (quando presente) indica que o módulo faz parte de um kit, com duas ou quatro peças, destinado a uso em uma placa dual-channel, enquanto os últimos dígitos indicam a capacidade do módulos, como em "512", "1G", "2G" ou "4G".

Ao comprar, você deve, naturalmente, dar preferência aos módulos com frequência de operação mais alta e tempos de latência mais baixos, desde que isso não implique em um aumento significativo de preço.Infelizmente, nos módulos de baixo custo as duas coisas andam juntas, de forma que os módulos com frequências mais altas possuem quase sempre tempos de latência também mais altos, já que é mais fácil aumentar a frequência de operação do módulo do que reduzir o tempo "real" de acesso, representado pelo tempo de latência.

A partir dos módulos DDR2, o tempo de acesso tem um impacto mais direto sobre o desempenho do que a frequência de operação. Isso acontece não apenas por que tempos de acesso mais baixos permitem que o processador inicie as leituras em menos ciclos de clock, mas também por que eles tem uma influência direta sobre a taxa de transferência efetiva do módulo.Em um módulo com CAS 5 e RAS to CAS delay 5, por exemplo, um acesso a um endereço qualquer do módulo demoraria um total de 10 ciclos. Após este ciclo inicial, o controlador pode realizar um bust de mais 7 leituras (8 no total), onde cada uma demora apenas mais meio ciclo. No final os 8 acessos demorariam 13.5 ciclos, 10 dos quais são referentes ao acesso inicial. Em um módulo com CAS e RAS to CAS delay de 4 tempos, o ciclo inicial demoraria apenas 8 ciclos, o que permitiria realizar as 8 leituras em apenas 11.5 ciclos.

HD

Assim como no caso dos processadores, o custo dos HDs cresce conforme aumenta a capacidade e o desempenho. Em geral, as lojas possuem algum modelo de baixa capacidade, apenas um pouco mais barato que o seguinte (com 50% a mais, ou o dobro da capacidade) destinado a quem simplesmente quer um HD o mais barato possível, sem ligar para a capacidade ou o desempenho; uma série de HDs com capacidades e preços mais ou menos proporcionais e em seguida um ou dois modelos de grande capacidade, que custam muito mais caro.Nos dois extremos, você pode encontrar um HD de 40 GB de alguma série antiga por R$ 120 e um de 1 TB por R$ 1800 (por exemplo), duas opções obviamente ruins.

Dentro da faixa intermediária, você poderia encontrar um HD de 160 GB por R$ 200, um de 250 GB por R$ 300 e 400 GB por R$ 460, onde o custo por megabyte é parecido e a escolha depende mais dos detalhes de cada modelo e do volume de dados que você precisa armazenar.Uma dica geral é que é normalmente mais vantajoso comprar um HD que atenda com uma certa folga as suas necessidades imediatas e deixar para comprar um segundo HD daqui a um ano ou dois, quando precisar de mais espaço do que tentar comprar o maior HD possível. Acontece que o preço por megabyte dos HDs costuma cair pela metade a cada 12 ou 18 meses, se forma que você pode comprar (por exemplo) um HD de 250 GB hoje e um HD de 750 GB daqui a um ano pagando menos do que pagaria inicialmente por um único HD de 750 GB.

Se você só vai precisar de 750 GB de espaço daqui a um ano, não existe por que pagar por eles agora. Deixe os preços caírem. Lembre-se de que o tempo está a seu favor.Em seguida temos a questão do desempenho. Não é difícil encontrar benchmarks comparando o desempenho de diversos modelos em diversas aplicações. Um bom lugar para pesquisar sobre as taxas de leitura (e outros índices) de diversos modelos é a tabela do Storage Review, disponível no: http://www.storagereview.com/comparison.html. Outra tabela recomendada é a disponível no TomsHardware: http://www23.tomshardware.com/storage.html.

Um HD mais rápido ajuda sobretudo no carregamento de programas pesados e arquivos grandes e também reduz o tempo de carregamento dos games. O tempo de boot também está diretamente relacionado ao desempenho do HD, mas neste caso o tempo de acesso acaba sendo mais decisivo do que a taxa de leitura sequencial, já que durante o carregamento do sistema são lidos um grande número de arquivos pequenos.A principal questão sobre o desempenho do HD é que ele nem sempre é tão importante quanto se imagina. Aumentar a quantidade de memória RAM instalada, permitindo que o sistema faça mais cache de disco e reduza o volume de memória virtual usada tem um impacto mais positivo sobre o desempenho do que simplesmente usar um HD mais rápido.Atualmente, a grande maioria dos HDs destinados ao mercado doméstico são modelos de 7200 RPM.

Inicialmente eles eram mais barulhentos, consumiam mais energia e trabalhavam com temperaturas de operação muito mais altas que os de 5400 RPM, o que trazia até mesmo problemas relacionados à durabilidade. Entretanto, com a maturação da tecnologia os HDs de 7200 RPM atuais são muitas vezes mais silenciosos do que os modelos de 5400 RPM e três ou quatro anos atrás. A durabilidade também melhorou, a ponto da Samsung passar a oferecer 3 anos de garantia e a Seagate oferecer 5 anos (nos EUA).

Este da foto, por exemplo, é um Samsung SpinPoint T166, um modelo de 500 GB de 7200 RPM e interface SATA/300. Ele possui 16 MB de buffer, suporte a NCQ, tempo de busca de 8.9 ms e consumo de 7.1 watts quando ocioso e 11.3 watts durante as operações de gravação:

Seu concorrente direto seria o Seagate Barracuda 7200.10, que também é um modelo de 500 GB, com 3 platters, 7200 RPM, interface SATA/300, suporte NCQ e 16 MB de buffer. As especificações mencionam um tempo de busca de 11 ms, consideravelmente mais alto que o do SpinPoint T166, mas nos benchmarks os dois ficam virtualmente empatados, o que mostra que as especificações não contam a história completa. Uma implementação mais eficiente do NCQ pode compensar um tempo de busca mais alto, por exemplo.Em Julho de 2007, o Barracuda 7200.10 custa US$ 119 nos EUA e o Samsung custa US$ 109, quase 10% mais barato. Entretanto, a Seagate oferece 5 anos de garantia, contra 3 anos da Samsung, o que acaba equilibrando as coisas.No Brasil o tempo de garantia pode variar por uma série de fatores. Em primeiro lugar, podem existir diferenças na política do fabricante de acordo com o país, baseado em fatores diversos. Em seguida temos a questão da procedência.
HDs vendidos legalmente, com a garantia do fabricante, sempre possuem pelo menos um ano de garantia (na maioria dos casos 2 anos ou mais).Muitas lojas vendem HDs que entram no país de forma irregular, que não podem ser trocados facilmente. Neste caso a própria loja precisa arcar com o prejuízo dos HDs trocados dentro da garantia e naturalmente vai oferecer uma garantia menor, de apenas 3 ou 6 meses, por exemplo.Outro problema aqui no Brasil é que os preços variam muito de acordo com o fornecedor e você nem sempre encontra o modelo que procura. Muitas vezes você acaba tendo que comprar o modelo B, por que o fornecedor não tinha o modelo A, ou o estava vendendo por um preço mais alto.Finalmente, temos a questão dos HDs refurbished (remanufaturados) que são um problema mais grave.
Assim como no caso de notebooks, palmtops, celulares, placas mãe e outros dispositivos, os fabricantes de HDs são capazes de recuperar grande parte dos HDs trocados dentro do período de garantia. Estes HDs recuperados são vendidos novamente a um preço mais baixo, já que são basicamente componentes defeituosos, muitas vezes já com algum tempo de uso, que foram reparados e agora estão sendo vendidos novamente.Grande parte dos produtos de informática vendidos no Brasil vem de um pequeno país que faz fronteira com o estado do Paraná, o que não é segredo apara ninguém. Lojas sediadas lá, como a master10.com e navenet.com divulgam as listas de preço nos sites, o que, mesmo que você não pretenda fazer compras no país vizinho, é um material de pesquisa interessante.
HDs e outros periféricos remanufaturados são marcados nas listas de preços com a sigla "REF" ou simplesmente com a letra "R".
É interessante consultar as listas de vez em quando, ver as marcas e modelos com maior oferta de modelos refurbished e evitá-los na hora da compra. Em primeiro lugar, o fato de um determinado produto ter uma grande oferta de unidades remanufaturadas não é um bom sinal, já que significa que estão dando defeito e sendo substituídos em grande quantidade. Em segundo lugar, grande parte dos produtos vendidos no Brasil são provenientes justamente destas lojas, de forma que se elas estão vendendo unidades remanufaturadas de um determinado modelo (e mais barato), significa que são justamente elas que estarão em breve à venda em muitas lojas, com a diferença de que raramente vão lhe avisar de que se trata de uma unidade remanufaturada.Em muitos casos é possível reconhecer HDs remanufaturados verificando os valores do SMART, já que eles terão contagens mais altas de setores remapeados, erros de leitura, horas de uso e ciclos de inicialização.
Entretanto isto nem sempre se aplica, pois muitas vezes os dados do SMART são zerados durante o processo de recuperação.Todos os HDs atuais oferecem suporte ao S.M.A.R.T. Você pode acompanhar o relatório através de programas como o HDTune (http://www.hdtune.com/) e o SmartExplorer (http://adenix.net/downloads.php), ambos freeware, ou o smartmontools (http://smartmontools.sourceforge.net/), no Linux.Normalmente os fabricantes incluem indicativos nos HDs remanufaturados. A Seagate utiliza uma etiqueta de identificação específica, onde a borda é verde e é incluída a frase "Certified Repaired HDD" logo abaixo do logo da empresa:Temos em seguida a questão do RAID. A maioria das placas atuais oferece suporte a RAID nas portas SATA, de forma que você acaba não precisando gastar nada a mais do que o próprio custo dos HDs. Você pode melhorar o desempenho adicionando um segundo HD e criando um sistema RAID 0. O problema é que com isso você reduz a confiabilidade geral, já que a falha de um dos dois HDs faz com que todos os dados sejam perdidos.Se você não armazena um grande volume de dados, usa o micro só pra jogos por exemplo, a idéia pode ser interessante, já que neste caso o desempenho é mais importante que a confiabilidade.
O problema é que neste caso você provavelmente também não vai precisar de muito espaço de armazenamento, de forma que comprar um segundo HD acaba sendo um desperdício. Comprar dois HDs antigos, de baixa capacidade, também não é uma opção tão boa, pois o desempenho "por cabeça" será muito inferior ao de um HD atual, de forma que mesmo juntos, os dois poderão oferecer um desempenho similar, ou até mesmo inferior.Outro segredo sobre o RAID 0 é que embora a taxa de transferência melhore, já que os dados são espalhados pelos dois HDs e lidos simultaneamente, o tempo de acesso piora, pois além do tempo necessário para realizar a leitura nos dois HDs, temos mais um pequeno tempo perdido pela controladora, que precisa juntar os fragmentos, antes de entregar o arquivo. Isso faz com que o ganho na prática varie muito de acordo com o aplicativos usado, sendo maior em aplicativos privilegiam a taxa de transferência e menor em aplicativos que manipulam arquivos pequenos e dependem predominantemente do tempo de acesso.
Quem trabalha com edição de vídeos e imagens geralmente precisa de muito espaço de armazenamento e um melhor desempenho de acesso a disco também é muito bem vindo. Entretanto, a questão da confiabilidade também é importante, de forma que o RAID 0 não seria uma boa opção. Existe a possibilidade de criar um sistema RAID 10, onde adicionamos mais dois discos que armazenam uma cópia completa dos dados. O problema é que neste caso precisamos de 4 discos ao invés de dois, o que dobra o custo.Como pode ver, o RAID pode ser interessante em algumas áreas, sobretudo quando você já tem os HDs, mas ele não é uma solução para todos os problemas.

quarta-feira, 5 de março de 2008

Servidor de arquivos para a rede local, fácil

compartilhar arquivos no Windows XP é bastante simples. Em resumo, você precisa ativar o "Cliente para redes Microsoft" e o "Compartilhamento de arquivos e impressoras para redes Microsoft" nas propriedades da conexão local e, a partir daí, compartilhar as pastas desejadas através do Windows Explorer. O XP usa o simple sharing por padrão, o que permite que todos os usuários da rede tenham acesso aos compartilhamentos, sem que você precise cadastrar logins de acesso para cada um.
Vamos ver agora como fazer o mesmo usando um pequeno servidor Linux, rodando o Samba. O objetivo do servidor é compartilhar arquivos e impressoras com a rede local de uma forma simples, funcionando como uma espécie de NAS. Você pode tanto fazer esta configuração na sua própria máquina, ou em outro desktop da rede, quanto usar alguma máquina antiga, dedicada à tarefa. Os passos podem ser seguidos na grande maioria das distribuições.
O primeiro passo é instalar o servidor Samba, o que é feito instalando o pacote "samba" usando o gerenciador de pacotes. No Ubuntu ou Debian você usaria o apt-get (apt-get install samba), no Fedora usaria o yum (yum install samba), no Mandriva usaria o urpmi (urpmi samba) e assim por diante.
Muitos preferem configurar o Samba usando o swat, mas com tantas opções ele seria overkill no nosso caso e só iria atrapalhar. Ao invés dele, vamos a uma lista de passos rápidos para configurar o servidor via terminal.
Comece logando-se como root no terminal usando o comando "su -". No caso do Ubuntu você precisa primeiro definir uma senha para o root, usando o comando "sudo passwd".
$ su -

O primeiro passo para configurar o Samba é cadastrar pelo menos uma conta de usuário, usando o comando "smbpasswd -a". Isso é necessário para que o Samba possa autenticar os usuários remotos e possa ler os arquivos dentro das pastas compartilhadas. Apesar de rodar como um serviço, o Samba está subordinado às permissões de acesso do sistema.
Você pode adicionar a sua própria conta de usuário, como em:
# smbpasswd -a gdh
New SMB password:Retype new SMB password:
Se preferir, você pode também criar uma nova conta, exclusiva para uso do Samba, como em:
# adduser joao# smbpasswd -a joao
Normalmente, você precisaria cadastrar várias contas de usuário e distribuir as senhas entre todos que fossem acessar os compartilhamentos. Entretanto, é possível fazer uma configuração mais simples usando uma conta guest. Esta configuração permite que os usuários da rede local acessem os compartilhamentos sem precisarem de um login válido, algo similar ao simple sharing do Windows XP. Não é o tipo de configuração que você usaria em uma grande rede, mas é muito prático para usar em uma pequena rede, onde você conhece todo mundo e simplesmente quer compartilhar os arquivos de uma forma simples.
Depois de cadastrar o usuário, falta configurar o Samba, o que é feito editando o arquivo "/etc/samba/smb.conf". Você pode editá-lo usando o editor que preferir, como em:
# mcedit /etc/samba/smb.confou
# gedit /etc/samba/smb.conf
Muitas distribuições vem configuradas por padrão para não executarem aplicativos gráficos quando você está logado como root no terminal. Ao tentar rodar o programa, você recebe um erro "cannot open display"
Nesses casos, você tem duas opções:
a) Logar-se como root usando o comando "sux" no lugar do "su -", ele ajusta as permissões necessárias, eliminando o problema. Ele é instalado através do pacote de mesmo nome.
b) Usar o sudo para abrir o programa, como em "sudo gedit /etc/samba/smb.conf", nesse caso executando o comando o comando com seu login de usuário e confirmando a sua senha, quando solicitado.
Voltando à edição do arquivo, apague todo o conteúdo do arquivo, deixando-o com o seguinte conteúdo:
[global]netbios name = Spartaserver string = Servidor Sambaworkgroup = Grupolocal master = yesos level = 100preferred master = yeswins support = yes printing = cupsload printers = yes map to guest = bad userguest account = gdh [printers]comment = Impressorasprint ok = yesguest ok = yespath = /var/spool/samba [arquivos]path = /media/hda3/arquivoswritable = yesguest ok = yes
[videos]path = /home/gdh/videoswritable = yesguest ok = yes
As opções a alterar são:
netbios name: Indica o nome do servidor, com o qual ele aparecerá no ambiente de rede.
workgroup: O grupo de trabalho, o mesmo especificado na configuração das outras máquinas da rede.
guest account: Aqui você especifica a conta que cadastramos anteriormente usando o comando "smbpasswd -a".
Os compartilhamentos do Samba seguem uma estrutura muito simples, onde você indica o nome do compartilhamento (da forma como ele aparecerá no ambiente de rede) entre chaves e indica a pasta a que ele dará acesso na opção "path". A opção "writable = yes" faz com que o compartilhamento seja para leitura e escrita e a "guest ok = yes" faz com que ele fique disponível para qualquer usuário da rede, já que qualquer tentativa de acesso com um login de usuário que não existe será mapeada para o usuário "gdh".
Você pode criar mais compartilhamentos usando este mesmo modelo, mudando apenas o nome e a pasta a compartilhar. Com esta configuração, o servidor irá também compartilhar as impressoras instaladas automaticamente, você precisará apenas fornecer os drivers de impressão ao instalá-las nos clientes.
O único cuidado é que o usuário usado na opção "guest account" (o gdh no exemplo) precisa ter acesso completo ao conteúdo das pastas compartilhadas, já que todos os acessos serão feitos através dele. Caso necessário, altere as permissões de acesso às pastas, usando o comando "chown -R", como em:
# chown -R gdh.gdh /media/hda3/arquivos
O "-R" no comando faz com que as alterações seja aplicadas de forma recursiva, atingindo todos os subdiretórios dentro da pasta, enquanto o "gdh.gdh" indica o usuário e o grupo que assumirá o controle.
Uma última observação é que este arquivo de configuração faz com que seu servidor Samba assuma a função de master browser da rede, fornecendo aos clientes a lista dos compartilhamentos disponíveis em toda a rede. Se você for usar esta configuração em mais de um servidor na mesma rede, remova a linha "local master = yes", ou use um número mais baixo na opção "os level =" (nos demais servidores), caso contrário os servidores ficarão continuamente disputando o cargo, o que prejudicará a navegação dos clientes.
As alterações feitas no arquivo de configuração do Samba são aplicadas automaticamente após alguns minutos, mas se você quiser verificar rapidamente uma alteração que acabou de fazer, pode forçar o reinicio do servidor usando o comando:
# /etc/init.d/samba restart(ou /etc/init.d/smb restart, no Fedora e no Mandriva)
Os arquivos dentro dos compartilhamentos podem ser acessados usando o ambiente de redes nos clientes Windows ou clientes como o Smb4K nos clientes Linux. Mas, se você pretender manter o servidor ligado continuamente, o ideal é mapear os compartilhamentos, de forma que eles fiquem acessíveis permanentemente e a conexão seja restaurada durante o login.
Nos clientes Windows, você pode mapear compartilhamentos clicando com o botão direito sobre o "Meu Computador" e usando a opção "Mapear unidade de rede".
Nos clientes Linux, a melhor opção para criar um mapeamento permanente é inserir uma linha diretamente no arquivo "/etc/fstab", que contém a lista das partições e compartilhamentos de rede que o sistema deve montar durante o boot.
O arquivo "/etc/fstab" é um dos principais arquivos de inicialização do sistema e por isso deve ser sempre editado com cuidado. Adicione apenas a nova linha, sem alterar as demais, tomando o cuidado de deixar uma linha em branco no final do arquivo. A linha segue o seguinte modelo:
//servidor/arquivos /mnt/smb smbfs username=gdh,password=1234,uid=joao 0 0
O "//servidor/arquivos" é o caminho para o compartilhamento na rede, incluindo o endereço IP ou nome do servidor e o nome do compartilhamento que será montado, o "mnt/smb" é a pasta local onde ele será montado, o "smbfs" indica o sistema de arquivos, o "username=gdh,password=1234" indica o login e senha que serão usados para acessar o servidor, o "uid=joao" indica o usuário local (no cliente Linux) que terá acesso completo aos arquivos dentro da pasta montada, enquanto o "0 0" é um "nada a declarar", que indica que não temos opções adicionais.
Dentro do nosso exemplo, poderíamos usar a linha:
//192.168.1.254/videos /media/videos smbfs username=fulano,password=1234,uid=gdhnet 0 0
Veja que, por segurança, preferi especificar diretamente o endereço IP do servidor, de forma a evitar qualquer possibilidade de problemas relacionado à resolução do nome. Como nosso servidor foi configurado para permitir o acesso usando a conta guest, posso colocar qualquer login na opção "username=" e qualquer senha na "password=". O "gdhnet" indica a conta que uso no cliente Linux, com a qual vou acessar a pasta onde o compartilhamento será montado.
Para que a alteração entre em vigor sem precisar reiniciar o micro, use o comando "mount -a" (no cliente), como root.
Com o compartilhamento montado, você pode acessar os arquivos da mesma forma que acessaria uma partição local, inclusive abrindo arquivos e vídeo e audio sem precisar copiá-los para a sua máquina previamente. A única observação é que a banda da rede precisa ser suficiente para transferir o arquivo na velocidade necessária para exibí-lo, de forma que assistir um vídeo em alta resolução, através de uma rede wireless lenta ou congestionada pode resultar em um vídeo saltado.

Dicas para tirar melhores fotografias digitais

Hoje em dia quase não se ouve falar em máquinas fotográficas analógicas, aquelas “de filme”. As máquinas digitais se expandiram, se tornaram populares, trazendo muitas vantagens. A fotografia em si ficou mais barata. Você pode bater quantas fotos quiser, ver na hora se ficaram boas ou não, e o melhor de tudo, quase sem custo – se comparado ao que você gastaria com uma câmera analógica.
Ao mesmo tempo que traz tanta praticidade e facilidades, as câmeras digitais têm diversas especificações, e há grandes diferenças entre os modelos e recursos. Iniciantes ficam confusos, ou se deixam iludir por alguns vendedores que prometem “milagres”. Para tirar boas fotos digitais é preciso entender alguns conceitos utilizados pelas câmeras, saber manuseá-las, e é claro, entendendo o que se está mandando fazer – sempre em busca de melhores imagens. Definitivamente, não basta apontar a câmera e clicar.
A decepção com fotos ruins pode ser muito grave, especialmente em momentos que nunca mais voltarão. A escolha da câmera certa para você pode não ser uma decisão fácil. Uma câmera inadequada aos seus objetivos lhe trará dores de cabeça, problemas e muita, mas muita decepção.
Profissionais da área sabem como lidar com as situações, mas os leigos, “fotógrafos amadores” ficam muitas vezes perdidos. Este texto lhe trará algumas orientações e considerações importantes para tirar melhores fotos, aproveitando ao máximo os recursos de sua câmera, e os momentos do seu dia-a-dia.

Sobre recursos das câmeras, e várias dicas

Variando muito de modelo para modelo, fabricante para fabricante, as câmeras digitais têm algumas propriedades e recursos que você deve conhecer e saber manuseá-los.
Para começar, você deve saber que existem vários tipos de câmeras, mas todas elas podem ser agrupadas em dois grupos basicamente: as compactas e populares, destinadas a todo tipo de usuário, e as profissionais, destinadas a fotógrafos que trabalham na área ou precisam de bons resultados impressos. A maioria das câmeras “pessoais”, digamos assim, têm recursos automatizados que lhe deixa despreocupado(a) quanto à abertura do diafragma, tempo de exposição, nível de ISO, etc – em contrapartida, quando você quer alterar algum valor avançado em busca de melhores fotos, em situações específicas, elas podem lhe deixar a ver navios, sem permitir que você altere alguns valores fundamentais. Nesse ponto as profissionais são mais complexas, porém, mais robustas e versáteis (nem precisa dizer que são também mais caras :p).
Uma das primeiras coisas a se observar é a lente da câmera. Por ela é que começa a fotografia, por ela é que “entra” a imagem. Câmeras com boas lentes normalmente são mais caras, mas há câmeras razoáveis a preços acessíveis. Fique atento ao número que representa a abertura mínima e máxima da lente, responsável pela luminosidade. Esse número normalmente vem indicado com a letra f, bem próximo à lente da câmera, por exemplo, f = 6.1.Quanto menor for esse valor, mais luminosa é a lente, ou seja: a câmera poderá oferecer imagens mais nítidas e brilhantes, sendo boas também em ambientes com pouca luz.
O foco pode ser ajustado nas câmeras mais profissionais com melhor precisão. Normalmente as câmeras amadoras e de uso geral possuem foco fixo automático, e apenas dois modos de focalização: para objetos próximos (cerca de 10 a 20 cm da lente) ou distantes, englobando de 20cm da lente até o infinito. Quase sempre o foco pode ser alterado mudando um botãozinho, um “jumper” na lateral da câmera. Não se esqueça de ver no manual do seu aparelho em qual posição é tal foco, pois bater fotos de paisagens ou coisas distantes da câmera com o foco ajustado para objetos próximos, ou vice versa, lhe trará resultados horrorosos.
O zoom é um recurso de aproximação da imagem, desejado e admirado por muitos – profissionais e amadores. É obrigatório a câmera ter zoom óptico se você quiser usar o recurso de zoom nas suas fotos – ignore o zoom digital. O zoom óptico é físico, envolve aproximação e afastamento das lentes. Ele aproxima a imagem analogicamente, sem perder a qualidade, antes de a imagem ser registrada pela câmera. Já o zoom digital é, como o nome diz, digital, processado digitalmente, pelo processador da câmera. Ele não passa de uma ampliação via software. Se for para usá-lo em fotos, prefira não utilizá-lo, e amplie sua imagem em algum programa gráfico (de preferência, usando o zoom bicúbico, que oferece melhor qualidade); o resultado da ampliação da imagem pronta num programa de computador poderá ser melhor do que a ampliação fornecida pela câmera. Algumas câmeras possuem tanto zoom óptico como digital, fique atento a isso. Zoom de verdade é o óptico.
Bem vindo(a) ao mundo dos “megapixels”, unidade abreviada como MP. Você certamente já ouviu falar nisso. Quanto maior, melhor, mas tem lá seus limites. Se você não pretende ampliar muito determinadas seções das imagens, uma câmera boa de uns 3 MP pode lhe satisfazer. Câmeras que oferecem mais megapixels capturam mais detalhes das imagens, por área quadrada; são ótimas para tirar fotos grandes (para impressão em alta resolução), além de pegarem mais detalhes da imagem (pessoas na janela de um prédio, por exemplo, ao aproximar – ampliar – a imagem). O resultado é uma imagem maior, em largura e altura, e em área, conseqüentemente. Celulares populares com câmera normalmente têm câmera VGA, fornecendo a resolução máxima de 640x480 pixels (ou 0,3 MP). A imagem é pequena e captura poucos detalhes do ambiente; se você tentar ampliá-la ou imprimi-la num tamanho razoável, como 10x15cm, por exemplo, sentirá que a imagem ficou ruim. Uma câmera com uns 3 MP gera imagens boas normalmente para ampliação até uma folha A4 mais ou menos, mas ainda assim depende de o objeto desejado estar ocupando a maior área possível. Sem contar que, em algumas situações, o valor real de megapixels pode ser considerado mais baixo, dependendo da luminosidade, ajustes e do ambiente em si. Com mais megapixels, você pode tirar fotos mais à vontade, sem se preocupar tanto com o zoom ou de se aproximar do objeto. Mesmo que ele fique no centro da foto, distante, você poderá recortá-lo e ainda assim obter uma imagem com qualidade num tamanho agradável. Hoje são comuns câmeras de 7 MP, chegando aos 10 ou um pouco mais do que isso. Dados os benefícios e preços, é besteira comprar uma câmera com menos de 5 MP hoje em dia (exceto no caso de aparelhos de telefone celular com câmera, onde o preço por megapixel ainda é muito alto). E mesmo assim, os aparelhos com câmera acopladas são para situações mais rápidas. Apesar de alguns tirarem ótimas fotos, você consegue resultados melhores e/ou pelo menos mais personalizáveis, apenas com câmeras mesmo.
Algumas câmeras oferecem uma quantidade maior de megapixels por interpolação (junção de cores próximas para formar novos pixels). Evite usar esse modo, ele geralmente não é o padrão nas câmeras que possuem o recurso, mas pode ser escolhido caso o usuário queira. O resultado é uma foto maior, como se fosse ampliada por um programa de computador, sem a mesma qualidade de uma foto com a mesma resolução real numérica.
Normalmente a quantidade de MP suportada pela câmera é o único fator que leva as pessoas a considerarem a câmera como “boa” ou “ruim”. Não é por aí. Você deve levar em consideração várias outras coisas, como a possibilidade do modo automático ou manual, flash embutido, dar preferência a zoom óptico, entre outras coisas, como armazenamento e alimentação (fonte de energia, de preferência algo fácil de recarregar ou encontrado em qualquer lugar, como as pilhas AA ou AAA).
A maioria das câmeras compactas fazem boas fotos na maioria das situações, usando um modo automático, onde um sensor na câmera detecta a iluminação do ambiente e cuida de ajustar os parâmetros “pensando” numa melhor imagem. Mas em várias situações, pode ser interessante querer ajustar alguns parâmetros manualmente, como o tempo de exposição da lente, especialmente para fotos noturnas ou em movimento. Vale conferir se a câmera possui apenas o modo automático, ou se ela permite definir ajustes manualmente também. A maioria das câmeras, mesmo as mais baratas, permitem configurações pré-selecionadas, como para fotos noturnas, em dias nublados, ensolarados, ou com pouca iluminação - etc.
Um outro recurso que vale observar é o estabilizador de imagem. Assim como o zoom, ele pode ser óptico (físico, feito pela lente) ou digital. Ele separa várias imagens, e faz uma mesclagem delas, para formar a foto – visando corrigir tremedeiras, afinal é comum tirar fotos tremidas. O estabilizador digital muitas vezes reduz a qualidade da imagem, é bom tomar cuidado ao usar esse recurso. Concentre-se, respire fundo, evite tremer. Se for o caso, use um tripé, ou apóie a câmera em algum lugar em que ela não se mova. O maior problema ao tremer se percebe com fotos noturnas ou em ambientes com pouca luz, onde o obturador fica aberto por mais tempo, justamente para aproveitar “mais luz”, já que o ambiente está escuro. Isso causa a impressão de um “filme” com as cenas sobrepostas, sendo comum também em cenas de movimentos. Veja uma foto tremida, no escuro, como ficaria:
Totalmente perdida :p (repare nas luzes, o que acontece, no canto superior esquerdo; além de estar sem flash!)
Algumas vezes é possível aumentar o tempo do obturador (aumentando o valor E.V. da câmera) para obter efeitos desejados também, como em um carro em movimento, por exemplo, para que as laterais saiam tremidas, dando um “efeito” agradável na imagem sem precisar usar um programa no computador. Você conseguirá fazer isso satisfatoriamente só com a prática.
O ISO é uma grandeza muito importante também para a qualidade da foto. Ele determina a quantidade de luz necessária para tirar a foto, influenciando diretamente na luminosidade da imagem (mais clara ou mais escura), afetando diretamente a qualidade – e sim, como talvez você tenha pensado (pelo nome), os valores são padronizados pela ISO, International Organization for Standardization. Quando aplicado incorretamente, tende a gerar fotos com “chuviscados” ou muito brancas, por exemplo, misturando o horizonte com o céu. Quanto maior o ISO, mais sensível será a iluminação, precisando de menos luz para realizar a imagem, permitindo tirar melhores fotos no escuro, e à noite (também combinado com o ajuste de E.V.). O ISO pode ser configurado manualmente em câmeras mais profissionais, e nas amadoras e de uso geral normalmente ele é definido pela câmera automaticamente. Algumas estabelecem alguns valores para escolha, como 100, 200, 400 ou 800, por exemplo. Em ambientes com muita luz, use o menor ISO possível – isso inclui dias ensolarados. Caso contrário, as cores claras ficarão muito, mas muito claras, estragando a foto. Veja uma que tirei num dia ensolarado, com ISO 400:
Repare que a lateral do ônibus ficou com cores irreais, e há um “chuviscado” na imagem, perdendo muitos detalhes – o que numa foto de 5 MP, nessa distância, não deveria acontecer. E o ponto pior, o cruzamento do horizonte com o céu, que se misturam: mal se pode ver o prédio ao meio, parecendo uma torre, pois se confunde com o céu. Se essa foto fosse tirada com um ISO menor, ou mesmo com o ISO automático fornecido pela câmera, o resultado seria bem diferente.
Para dias nublados, ou locais internos com uma iluminação não muito boa, o ISO 200 ou 400 pode ser melhor. Em fotos noturnas, com muito pouca iluminação, use um valor maior para o ISO, e não se esqueça de tomar cuidado em manter a câmera fixa, sem tremores. Tirar fotos de objetos em movimento à noite é uma tarefa árdua, e boa parte das câmeras populares não conseguem fazer isso nem com reza brava. Se você precisar de algo assim, deverá procurar uma câmera mais profissional, com melhores estabilizadores de imagens e possibilidade de uso de um valor ISO mais alto. Isso é fácil de se perceber em baladas, festas em geral ou para fotos de automóveis em movimento à noite. Algumas vezes as fotos saem boas, por algumas características especiais em conjunto (luzes, iluminação do objeto a ser fotografado, etc) ou por “sorte” mesmo :p
Em fotos noturnas, é essencial ficar atento à exposição, ao valor do ISO aplicado. Algumas máquinas têm um modo de fotos noturnas, quase sempre esse modo ajuda bastante – deixando tanto objetos próximos como distantes, registrados com poucos erros. O pior em fotos noturnas é a tremedeira natural do ser humano – e com o ISO mais alto, o tempo de exposição é maior, transformando os objetos em movimento num feixe de luz (seja movimento próprio como no caso de automóveis, pessoas, etc, ou movimentos devido as tremedeiras do fotógrafo), como mostrei na imagem mais acima – a da praia. Uma dica é respirar fundo, segurar a respiração e bater a foto – você fica mais estável. Não se esqueça de usar tripé também (algumas câmeras acompanham um tripé pequenininho, dá para apoiar em alguma superfície plana estável).
O flash também é importante, claro – mas tem um alcance em geral muito curto, de 1, 2 a uns 5 metros. Em fotos noturnas, só o utilize mesmo para fotografar coisas próximas, como pessoas ou detalhes de objetos perto de você. Se a foto ficar muito clara com o flash (ou toda branca), experimente diminuir o valor do ISO – mesmo estando escuro em volta, a foto será capturada com a luz do flash, vale tentar uma combinação agradável. Para fotografar ambientes, é bom ter iluminação própria (leia-se: não o flash da câmera) e “espalhada” em alguns pontos, caso contrário não se verá praticamente nada. E o óbvio, mas que muita gente esquece ou faz sem pensar: se o que você quer fotografar está longe, esqueça o flash! Em shows, por exemplo. Bater foto com flash só vai pegar as cabeças de pessoas próximas, até tirando o destaque do que você realmente quer – o palco. A maioria das câmeras têm pelo menos 3 modos de flash: automático, desativado e forçado. O automático nem sempre é o ideal, por exemplo ao tirar uma foto de alguém contra o sol. A claridade do sol ofuscará o rosto da pessoa, e o flash não será disparado se estiver no automático, devido à claridade detectada pela câmera. Neste caso, use o flash forçado, para que ele ilumine a face da pessoa (ou o objeto a ser fotografado), mesmo com a luz forte do sol atrás. Algumas outras têm redutor de olhos vermelhos, que geralmente consistem em bater duas vezes o flash, bem rapidamente, e tirar a foto somente na segunda batida. Isso evita que as veias oculares apareçam “despreparadas”, reduzindo ou até mesmo eliminando os “olhos vermelhos”, efeito comum de se perceber em fotos à noite ou em ambientes com pouca luz em geral. Além dos modos automático, forçado e desativado (para o flash), algumas câmeras têm diferentes níveis de intensidade da luz (flash mais forte ou mais fraco). Não confunda esses níveis com os modos de uso ou não do flash.
Outras medidas importantes independem das câmeras, e são intuitivas demais até, mas vale a pena comentar. Para fotografar rostos de crianças, abaixe-se, fique em nível com elas. Fica uma foto mais natural. E claro, sempre: tome muito cuidado com o fundo. Uma foto com um fundo comprometedor ou “zuado” estraga a foto. Centralize a pessoa, use o zoom se necessário (se for zoom digital, prefira não utilizá-lo; chegue mais perto neste caso, ou prefira uma câmera que ofereça uma resolução maior em megapixels).
Quanto aos formatos de arquivos... A maioria das câmeras populares salvam as imagens obtidas em JPEG, permitindo escolher a qualidade entre ótima, boa e baixa (leia-se “ruim”). Essa qualidade normalmente se refere ao nível de compressão JPEG, utilizado na geração da imagem, e quase sempre é representado na câmera por estrelinhas (3 estrelinhas geralmente quer dizer alta qualidade). As fotos em alta qualidade ocupam mais espaço, mas são, como era de se esperar, melhores. Mesmo estando em “alta qualidade”, raramente as câmeras usam o nível 100 do JPEG, geralmente salvando no nível 90 e pouco. Algumas câmeras profissionais salvam em outros formatos, como TIFF ou RAW, evitando perda de qualidade com a compressão JPEG – mas gerando arquivos bem maiores. A quantidade de fotos que cabem na memória da câmera ou cartão é muito variável, dependendo da resolução (tamanho da imagem em pontos), qualidade, e dos detalhes das imagens em si – um arquivo de uma foto com predominância de uma só cor, tende a ser mais leve do que o de uma foto com mais elementos. Uma foto em resolução de 5 MP com alta qualidade ocupa, em média, de 1 a 1,5 MB.
Algumas câmeras possuem compatibilidade com o modo picture-bridge, permitindo imprimir as fotos diretamente a partir da câmera, conectando-a numa impressora com entrada própria para isso (geralmente USB). Se você gosta de praticidade e quer algo mais independente de computador, pode optar por câmeras com esse recurso. Mas sempre é bom passar as fotos para um computador e guardar em CDs ou DVDs. A foto impressa não poderá ser reproduzida com qualidade posteriormente, caso você deseje mais “exemplares”. Guarde o arquivo, que seria o correspondente ao “negativo”, utilizado pelas câmeras analógicas. Ah, e saiba que em geral é errado falar “revelar” fotos digitais, afinal elas já estão prontas e com as cores definidas diretamente nos arquivos. As fotos analógicas trabalham de forma diferente, onde o material do filme precisa passar por processos químicos, até que se obtenha um resultado visível com qualidade para o olho humano. O termo mais correto seria mesmo “imprimir” as fotos, mesmo que em papel fotográfico tradicional. Hoje em dia custa cerca de R$ 0,50 por foto 10x15cm, para quem não gosta de álbuns virtuais ou quer “pegar” nas fotos, pode valer a pena manter cópias impressas também :)
Dependendo do tamanho do arquivo e da resolução, a gravação da foto pode ser lenta. Isso toma mais tempo entre uma foto e outra. Essa é uma desvantagem grave das câmeras digitais, perto das suas antepassadas analógicas. É bom usar cartões de memória de marcas renomadas, com alta velocidade de escrita (aproveitando a dica, prefira câmeras compatíveis com USB 2.0, para passar as fotos para o PC mais rapidamente também). Além do tempo de gravação, tem o tempo de processamento da câmera, que se assemelha a um computador. As câmeras têm processador de dados também, para tratar a imagem e salvá-la na memória. Em algumas marcas, especialmente de baixo custo, esses processadores podem ser mais lentos, tomando mais tempo para liberar a câmera para uma nova foto. Às vezes são um, dois segundos, três, que seja – é um tempo que atrapalha e pode fazer você perder algumas imagens, dependendo da situação. Isso você deve verificar na hora de comprar a câmera, afinal não é um defeito, vem a ser uma característica. Algumas câmeras têm disparos seqüenciais, onde tiram duas ou três fotos “seguidas”. Pode ser interessante usar esse modo também, se você precisar de fotos de algum objeto em movimento, por exemplo. Nem é preciso falar também que o tempo necessário para produzir a foto será maior em fotos com ISO mais alto, onde o obturador deverá ficar mais tempo aberto, para capturar mais luz.

Ajustes no computador

Algumas câmeras possuem “efeitos” que podem ser aplicados, tais como sépia (simulação de fotos antigas, amareladas), preto e branco, e ajustes de brilho/contraste/níveis de cores. Não é bom usar os recursos das câmeras, a menos que você não saiba manusear minimamente um software de edição de imagens para PC. Digo que não é bom usar os recursos das câmeras apenas para que você tenha a foto “original”. Com ela, você poderá modificar e aplicar efeitos posteriormente, tendo uma gama maior de opções. Se você tirar uma foto no modo preto e branco, por exemplo, nunca conseguirá tê-la colorida como a original; já tirando “normal”, você poderá tê-la em preto e branco com qualidade, mantendo a normal colorida :)
Há muitos softwares no mercado para edição de imagens. O popular Photoshop é profissional, até relativamente difícil de se aprender a mexer com perfeição. Para recursos básicos, alguns programas gratuitos dão conta do recado, como o Paint .NET (para Windows) ou GIMP (tanto para Linux como para Windows). Há ainda programas voltados a usuários leigos ou “comuns”, chamados de gerenciadores de imagens. Um dos mais fáceis de usar – e gratuito – é o Picasa, do Google. Ajuste de brilho, saturação, contraste, olhos vermelhos, balanço de branco, rotação e uma série de outras coisas podem ser feitas em poucos cliques com ele:
Além disso, programas como esses possuem modos “automáticos” de correção, que quase sempre ajudam bastante. Mas dependendo da qualidade da foto tirada, não há muito milagre a ser feito, especialmente no caso de fotos noturnas ou tiradas com um ISO inadequado. No caso do Picasa, o modo “automático” pode ser conseguido com o botão “Estou com sorte”.
Bons ajustes manuais estão nos níveis de cores, além do equilíbrio de branco – que pode tornar as fotos mais amareladas ou azuladas, ou então reduzir as tendências a essas cores, automaticamente aumentando a tendência de outras. Alguns programas possuem ajustes automáticos de níveis das cores, ajustando automaticamente os níveis RGB (reg, green, blue; verde, vermelho e azul). Quase sempre eles dão uma boa melhora na imagem – mas você também pode ajustar valores independentes para as cores vermelho, verde e azul. Uma imagem um pouco escura ou com cores distorcidas pode ser facilmente corrigida ao aplicar o ajuste de níveis de cores. Você encontra esses ajustes normalmente nos menus “Filtros” ou “Correções”, de programas como Phoshop, Fireworks, GIMP, etc. Editores básicos muitas vezes não possuem esse tipo de ajuste.
Apesar de ser comum o uso de RGB no computador, na hora de ser impressa, normalmente as imagens são convertidas em CMYK (Cyan, Magenta, Yellow, Black), sistema de cores mais usado para impressão. Isso pode fazer com que algumas cores não saiam exatamente como você via na tela. Em alguns programas, você pode converter a imagem para cores CMYK, obtendo uma maior fidelidade nas cores exibidas e as correspondentes que serão impressas – mas dominar isso já é algo mais avançado. Algumas imagens não precisam de ajustes para serem impressas, mas é bom retocar fotos apagadas, com cores foscas (especialmente ajustando os níveis de cores), para que fiquem mais brilhantes e com as cores mais consistentes. Quase sempre, aplicar o ajuste automático de níveis de cores, reduz o problema de fotos foscas ou sem brilho. Em fotos muito claras, diminuir um pouco o brilho via software também ajuda.
Alguns serviços de impressão aplicam alguns ajustes automaticamente, inclusive mesmo que você não peça, visando obter melhores imagens. Tenha em mente que imprimir imagens é muito diferente de imprimir textos. Impressoras caseiras quase nunca oferecem boa qualidade de impressão, além da questão do tipo de papel utilizado e quantidade de tinta – fora o preço da tinta, claro. Geralmente vale mais a pena mandar imprimir em serviços de revelação, afinal quem quer se manter no mercado, hoje fornece impressão de fotos digitais em papel fotográfico convencional.
Algumas palavras para finalizar: experimente! Explore. Teste. Não desista. Faça inúmeros testes, em diferentes configurações e situações, até se acostumar com sua câmera. Você estará mais preparado(a) para tirar melhores fotos, evitando desperdiçar momentos especiais da sua vida que nunca mais voltarão.