Skip to content
Junho 1, 2010 / Mateus Marrero

Apresentação \o/

Boa noite pessoal, me chamo Mateus Marrero e sou um dos novos integrantes do Blog e futuramente do nosso querido portal no qual tambem estou trabalhando ( ou fingindo ao menos ).

Tentarei falar um pouco de tudo, mas com certeza focarei mais na parte fisica ou seja  Hardware e talvez um pouco de Linux se bem que essa parte e da Cyntia.

Até la pessoal e boa noite pois acabei de fazer o DVD para levar pros alunos amanhã.

Anúncios
Maio 27, 2010 / girlgeeek

Apple passa Microsoft e se torna a mais valiosa do mercado de tecnologia.

A Apple, fabricante de produtos como iPod e iPhone, passou a Microsoft, dona do Windows e do pacote Office, e se tornou nesta quarta-feira (26) a empresa com maior valor de mercado no mundo da tecnologia.As ações da Apple subiram 1% na Nasdaq, a Bolsa de Valores dos Estados Unidos em que estão presentes as empresas do setor, fazendo com que o valor da companhia chegasse ao equivalente a R$ 420 bilhões (US$ 225,1 bilhões), enquanto a Microsoft é avaliada em R$ 418 bilhões (US$ 226,3 bilhões).

O valor de mercado de uma companhia é o valor que esta tem na Bolsa (a cotação de cada ação multiplicada pelo número total de ações) e, portanto, reflete em quanto o mercado avalia essa companhia, independente do patrimônio real que tenha

No entanto, com a revolução que causou no mercado com o lançamento de dispositivos móveis como o iPod, o iTouch e o iPhone, a Apple deu um salto gigante que deve aumentar ainda mais com seu bem-sucedido computador plano iPad. A Microsoft foi criada apenas um ano antes, em 1975, mas a introdução de seu sistema operacional Windows e seu pacote de programas Office em praticamente todos os computadores do mundo fez com que a concorrência entre as duas fosse desde o princípio uma piada.

A concorrência estava descompensada a tal ponto que, nos anos 1990, Bill Gates, o fundador da Microsoft e então já o homem mais rico do mundo, investiu R$ 270 milhões (US$ 150 milhões) na Apple e se comprometeu a não vender em três anos, para contribuir assim com a sua recuperação.

O próprio Michael Dell, fundador da fabricante que durante muitos anos foi a maior empresa de PCs do mundo, disse em 1997 que o melhor que a Apple podia fazer era fechar e devolver o dinheiro de seus acionistas. Hoje em dia a Dell não vale sequer um décimo da cotação na bolsa da Apple.

Nesse mesmo ano, Steve Jobs, que criou a Apple na garagem de sua casa com um amigo e que 12 anos antes tinha sido expulso da empresa pelo conselho de administração, voltou à companhia. A partir do investimento de Gates, as duas empresas inclusive colaboraram para que a Microsoft, já então líder mundial do software para PCs, fabricasse uma versão especial de seu popular programa Office destinada ao sistema operacional de Macintosh, então a estrela e principal identidade da Apple.

Em troca, a Apple adaptou seus computadores para que o navegador Microsoft Explorer fosse mais fácil de ser utilizado nos Macintosh. Muitos fãs do sistema da Apple reclamaram quando Jobs anunciou esse acordo, mas os investidores o aplaudiram por considerá-lo uma tábua de salvação para a empresa e fizeram com que, nesse mesmo dia, suas ações subissem até 33%.

Hoje, os Mac não chegam a um entre cada dez computadores vendidos no mundo, mas a Apple diversificou seus produtos, apostando sempre no design. A sua loja virtual iTunes, por exemplo, é a maior do mundo para adquirir produtos de música. Enquanto isso, a Microsoft teve que enfrentar inúmeros problemas relacionados com sua posição dominante no mercado de software e a grande pirataria de seus programas, ao mesmo tempo em que os analistas duvidam de sua capacidade para reduzir sua dependência do Office e do Windows e encontrar um novo mercado onde despontar com força e ganhar impulso.

Maio 21, 2010 / girlgeeek

5 tecnologias que farão você trocar de computador muito em breve!

1° motivo: USB 3.0!

A versão atual de conexões USB que utilizamos, a 2.0, chegou aos consumidores próximo do ano 2000. Mais de uma década se passou e uma nova tecnologia já é mais do que necessária para satisfazer a demanda cada vez maior de arquivos enormes, como vídeos em alta definição, que podem ser transferidos para pendrives e outros dispositivos de armazenamento.

Mais velocidade com o USB 3.0

O USB 3.0 chegará para revolucionar a velocidade de transmissão de dispositivos com esse tipo de conexão. De 60 MB/s, velocidade atual dos dispositivos USB, a transferência passará a ser de 600 MB/s no novo padrão. Para obter todo esse potencial você precisará de uma placa-mãe com suporte para o USB 3.0, além de dispositivos (pendrives, HDs externos) dentro do novo padrão. Alguns modelos de placa-mãe já contemplam o novo formato, como a linha P7 da Asus.

2° motivo: discos rígidos de 3 TB

A era dos vídeos em alta resolução já chegou e as conexões em banda larga estão cada vez mais velozes. Para muitos aficionados por vídeos, games e arquivos pesados, capacidade de armazenamento pode ser uma das características mais importantes no computador. A Seagate já anunciou o desenvolvimento de discos rígidos de 3 TB de armazenamento total.

Infelizmente, nenhum desenvolvedor de placas-mãe pensou nessa possibilidade em tão pouco tempo. Portanto, para utilizar uma dessas belezinhas, será necessário atualizar a sua placa-mãe para modelos que suportem os novos HDs. Por hora pode ficar tranquilo, pois eles só chegarão no ano que vem aos consumidores.

3° motivo: a era do 3D chegou

Nvidia 3D Vision, novas possibilidades em 3D.

Nos próximos anos, o conteúdo 3D disponibilizado em filmes, programas e games deverá aumentar bastante. Para se atualizar e conferir essas novidades, você precisará de um conjunto de placa de vídeo, monitor e óculos para visualizar as imagens em três dimensões. A Nvidia já tem esse conjunto, chamado de 3D Vision, embora pouco sobre games já esteja em andamento na questão 3D. O Playstation 3 também deverá apresentar alguns games no formato, ainda neste ano. Quanto aos filmes, com o sucesso de Avatar, diversos grandes lançamentos deverão aparecer em três dimensões para venda ou download, o que popularizará a tecnologia.

4° motivo: virtualização

O Windows 7 trouxe consigo uma característica muito útil para quem fazia uso do XP e contava com aplicativos exclusivos para o sistema operacional mais antigo. Com o “XP Mode” você roda um Windows XP virtual simultaneamente ao Windows 7, através de um conceito chamado de virtualização. Essa tendência deverá ser ampliada em um futuro bastante próximo, com maior suporte para tarefas em vários sistemas operacionais rodando em uma mesma máquina.

Para estar apto à tecnologia, é necessário que seu processador seja compatível com o processo de virtualização. No caso do Windows 7, há um pequeno aplicativo capaz de identificar essa possibilidade, que você baixa através deste link.

Windows XP dentro do Windows 7.

5º motivo: processadores de seis núcleos!

AMD
Processador de seis núcles Phenom II X6
Muito em breve a AMD lançará seus primeiros modelos do Phenom II X6, os tão divulgados processadores de seis núcleos. Com preços extremamente inferiores aos melhores componentes da Intel (o melhor modelo já anunciado do X6 não deverá passar de 300 dólares), a empresa pretende vender bem mais do que sua concorrente.
Os modelos prometem ser mais adequados às necessidades de usuários comuns, como games e aplicações multimídia, já muito bem desempenhadas por processadores de quatro núcleos.

Outro ponto bastante interessante para o bolso dos usuários é o fato de os novos componentes se adequarem à plataforma AM3, já utilizada nos conhecidos do Phenom II. Isso significa que muita gente sequer precisará trocar de placa-mãe, e quem precisar encontrará modelos bem mais em conta do que os oferecidos para processadores Intel.

Intel

Intel Core i7: Seis núcleos reais e possibilidade de simular até  doze núcleos virtuais

O lema da Intel para os próximos meses parece ser a oferta de desempenho incomparável, custe o que custar. É inegável que os novos processadores da empresa são os mais poderosos, mas o preço que você vai pagar pelo novo modelo de seis núcleos não compensa na maioria dos casos. O i7-980X terá seis núcleos reais com 3,33 GHz de velocidade e poderá simular até doze núcleos virtuais, graças à conhecida tecnologia HyperThreading. Para utilizar esses modelos será necessária uma placa-mãe com o soquete LGA 1366, utilizada a partir do modelo i7-920. Se você tinha um modelo inferior a esse, provavelmente precisará trocar também a sua placa-mãe ao adquirir o novo i7.

Fonte: Baixaki.

Maio 14, 2010 / girlgeeek

A história do Linux.

Saiba como tudo começou: desde a ideia até o acabamento deste sistema operacional de código aberto.

Hoje o Linux é um dos sistemas operacionais mais conhecidos da atualidade e conta com uma série de distribuiçõesmundo afora. Mas você sabe como tudo começou? Abaixo o Baixaki conta brevemente a história do sistema, iniciando pelo gênio por trás da obra.

Quem foi Linus Torvalds?

Linus Torvalds nasceu em 28 de dezembro de 1969 em Helsinki na Finlândia e sua família era uma das poucas cuja linguagem adotada como principal era o Sueco ao invés do Finlandês. Embora fosse filho de jornalistas, Linus começou a demonstrar seu interesse pelo “mundo geek” cedo, obtendo sempre grande destaque em campos como a Matemática e Física.

Em 1988, Linus ingressou na Universidade de Helsinki no curso de Ciências da Computação. Após montar um computador no qual passou a adotar o Minix (um sistema operacional baseado no Unix, porém gratuito). Devido a observar as dificuldades deste sistema (especialmente com relação ao uso de terminal para conexão), Linus resolveu criar um programa para a emulação de terminal que funcionasse independente do Minix.

Como o programa de emulação mostrou-se mais satisfatório do que o esperado, Linus começou a pensar que outras carências do Minix poderiam ser supridas. É nesse ponto que a história principal deste artigo começa. Antes de entrar em uma das maiores obras de Linus, vamos concluir este breve resumo de sua biografia.

Linus em uma conferência no ano de 2002.

Em 1993, Linux conheceu Tove Monni, uma estudante que mandou um email convidando-o para um encontro. Posteriormente, eles se casaram e tiveram três filhas. Em 1997, mudou-se com sua família para a Califórnia quando aceitou uma posição na empresa Transmeta na qual permaneceu até junho de 2003.

Ainda em 2003 Linus começou a trabalhar em conjunto com a Open Source Development Labs (OSDL), um consórcio criado para promover o desenvolvimento do Linux, para concentrar-se exclusivamente neste kernel.

As origens: por que o Linux foi sequer pensado?

Em 1991, com relação aos sistemas operacionais, você tinha poucas escolhas. O DOS exercia sua soberania absoluta com relação aos computadores pessoais, até por uma questão de falta de escolha. Por mais que os Macs existissem seus preços eram astronômicos, fato que tornava quase impossível a aquisição de um deles para um usuário final.

Além deles, havia o Unix que certamente era ainda mais caro do que um Mac e adotado quase exclusivamente por grandes empresas. Nessa altura, o código do Unix, que uma vez foi utilizado como material de estudo em universidades, já se encontrava proprietário e não mais para conhecimento público.

Nesse clima, um professor holandês chamado Andrew S. Tanenbaum criou um sistema operacional baseado no Unix, o Minix. Montado para funcionar com a linha de processadores Intel 8086. Como primariamente, o Minix tinha objetivos acadêmicos (o ensino do funcionamento de um SO em universidades), ele estava longe de resolver todos os problemas de um usuário final, porém seu código-fonte era disponibilizado por Tanenbaum.

Inicializando uma distribuição do Linux

Nesse ponto da história, o estudante Linus Torvalds, frustrado com as carências do Minix começou a idealizar como seria bom ter um SO que, além de gratuito, pudesse efetuar tarefas como emulação de terminal e transferência e armazenamento de arquivos. Então, em 25 de agosto de 1991, Linus anunciou por meio de um email na Usenet (a Unix User Network) que estava desenvolvendo um sistema operacional.

O famoso email relata que ele estava criando um sistema operacional desde abril do mesmo ano, porém que não intencionava torná-lo uma coisa realmente grande e profissional como o GNU (SO de código aberto baseado no Unix), sendo mais um hobby. Ele pedia sugestões e críticas porém dizia que talvez sequer chegasse a implementá-lo de fato.

Linus pretendia chamar sua criação de “Freax”, porém trocou para Linux ao aceitar esta sugestão de um de seus amigos.

E nasce o novo sistema

O simpático mascote do Projeto GNU
Na mesma época (1991), estudantes do mundo todo que se interessavam por informática, e compartilhavam os ideais de que os programas deveriam ser livres para o uso e melhoria por todos, foram inspirados por Richard Stallman e seu projeto GNU (acrônimo recursivo para GNU is not Unix). O projeto de Stallman, em poucas palavras, era um movimento que visava a fornecer software livre com qualidade.

Ainda neste ano, o projeto GNU havia criado uma série de ferramentas úteis para programadores e estudantes, porém seu sistema operacional propriamente dito ainda precisava de um kernel. Este núcleo, batizado de GNU HURD ainda estava em fase de criação e seu lançamento previsto para alguns anos.

Foi então que Linus libertou a primeira versão de seu sistema, o Linux versão 0.01 em setembro de 1991. Ao contrário do que muitos devem estar pensando, Linus recebeu críticas pesadas de grandes nomes da computação na época, como Tanenbaum, que inclusive citou que se Linus fosse seu aluno não receberia uma boa nota por aquele sistema tão mal arquitetado.

Entretanto, Linus continuou seu trabalho e agora contava com um grande número de colaboradores interessados para auxiliá-lo. Em um próximo passo e utilizando uma ampla gama das ferramentas do GNU (inclusive o próprio sistema de Stallman), o Linux iniciou sua ascensão, licenciado pela GPL (GNU Public License), para garantir que continuasse livre para cópia, estudo e alteração.

Imagens do Ubuntu, uma distribuição do Linux

Com isso, não demorou para que algumas empresas como Red Hat e Caldera compilassem versões do programa (com fins comerciais) e fizessem alterações para deixá-lo mais parecido com o que os usuários estavam acostumados. Entretanto, programadores voluntários mantiveram distribuições gratuitas, como a famosa Debian.

Então, já contando com uma interface gráfica e uma série de melhorias ocorrendo em paralelo, as distribuições do Linux começaram a tornar-se cada vez mais populares entre os usuários.

De um hobby para um sistema poderoso: quase duas décadas de Linux

Como quase todas as previsões de grandes catástrofes apocalípticas costumam estar erradas, não foi diferente com o Linux. Hoje, com quase duas décadas, ele continua sendo um dos sistemas operacionais com o crescimento mais rápido da história. Sem dúvidas, o melhor aspecto deste sistema é que sempre que um novo hardware é criado, há um programador disposto a adaptar o Linux para oferecer compatibilidade.

Com o aumento do suporte para o SO, grandes empresas perderam o receio e passaram a utilizar o Linux em suas máquina. Da mesma forma, com as interfaces gráficas, diversos usuários passaram a adotá-lo por tratar-se de um sistema de qualidade e gratuito.

Tux: o queridinho dos usuários

Há diversas histórias sobre o motivo de ser um pinguim o mascote do Linux. O fato é que no início de 1996 vários colaboradores conversavam sobre um logotipo ou mascote para o sistema na lista de emails do kernel. Após várias sugestões, Linus mencionou de forma descomprometida que gostava de pinguins.

A frase imediatamente finalizou qualquer outro debate sobre o assunto e começaram, então, os esforços para montar o desenho. O nome, a princípio veio da junção (T)orvalds e (U)ni(X), embora muitas pessoas tenham achado que era uma abreviação para “Tuxedo” (terno) por ser “a vestimenta” de um pinguim.

A evolução do desenho do Tux: inicial e atual

Em 1991 Linus lançou a primeira versão oficial do Linux que desde então passou a “pertencer” a todos. Ao contrário de Bill Gates, Linus não virou um bilionário e continua uma pessoa acessível e presente na comunidade de programadores, embora tenha seu nome e obra conhecidos mundialmente.



Maio 8, 2010 / girlgeeek

Das cinzas!

Oláá à todos!
Depois de meses aqui estou eu, para renascer esse blog das cinzas…
Sei que o blog estava bem no começo e não possuiamos ainda um público certo, por isso não vimos aqui dar “explicações” com frequencia, mas aqui estou eu para explicar o motivo do sumiço…
Do ano passado para cá, tanto a minha vida quanto a vida de Cynthia sofreu váárias mudanças, desde o ano passado estamos com o projeto do nosso novo site, o Adas Pupils, mas até agora não foi possível coloca-lo no ar… Fizemos vários testes no pouco tempo disponível que tinhamos, mas não deu muito resultado.
Pois bem, voltaremos a postar no Girl Geek por tempo indeterminado, até que consigamos algum tempo disponível para arrumar definitivamente o Adas Pupils.
Espero que nos entendam e bom domingo e feliz dia das mães à todas as mães. =]

Janeiro 15, 2010 / girlgeeek

Novidade!

Olá galera!
Estou aqui para pedir desculpas pela falta de postagem, e explicar o motivo: em breve divulgaremos nosso novo site, com domínio próprio e totalmente reformulado, estamos trabalhando duro para colocá-lo no ar ainda essa semana! Aguardem e terão muitas novidades, e também a divulgação da promoção que fizemos aqui no Girl Geek!

É isso galera, fiquem no aguardo para boas novidades!

Até breve!

Dezembro 31, 2009 / girlgeeek

Top 10: gambiarras da informática

Olá meninos e meninas!
Vim postar hoje para desejar um feliz ano novo!
Que 2010 seja um ano de muitas conquistas, realizações pessoais
e profissionais à todos!
E como último dia do ano, vim deixar um post bem humorado á todos
os profissionais (e não profissionais) da área.

Primeiro Deus criou o hardware. Depois Ele criou o software. E aí, o homem foi criado. A partir daí, surgiu a informática e o homem inventou a Gambiware, a chamada arte da gambiarra. Pois se tem uma coisa que todo mundo sabe é que a informática está longe de ser uma ciência exata. Nem sempre 2+2=4 no mundo da tecnologia da computação. As vezes dá 5 e só assim pra bagaça funcionar.

Quem é ‘micreiro’, raça antiga que acostumou-se a trocar memórias EDO de 4mb, trabalhou com 286 que tinham botões turbo funcionais e placas de vídeo VESA que mais pareciam um skate sabe do que eu estou falando. Gente que usou Hds com 100mb e trabalhou com Amigas 500 pra baixo. Com Hotbits, TK90x, Commodore… Com anos, até décadas de estrada se aprendem diversas gambiarras que podem muito bem salvar a sua vida na hora do aperto. Seguem algumas das maiores gambiwares da informática em todos os tempos:

1 ) Tapão no monitor: essa é clássica e é gambiarra desde os primórdios. Funciona não só com monitores CRT, mas com TVs antigas, com rádios, enfim, praticamente com qualquer equipamento mais antigo. Quem nunca deu um safanão na TV quando a imagem ficava passando de baixo para cima? Certas coisas a ciência e a técnica não resolvem, tem que ser no estilo Massaranduba.

2 ) Soprar memória: essa aqui é muito utilizada principalmente por curiosos, que acham que podem resolver sozinhos o problema. Também foi muito utilizada na época do Atari, quando o cartucho teimava em não pegar. Ninguém sabe de onde surgiu a idéia de que se um componente eletrônico não funciona, soprar e respingar cuspe vai fazer com que ele volte a funcionar. Vai saber…

3 ) Tirar e por o cabo flat do HD: muitas vezes vi gente desesperada com problema em HD e no desespero (Hds antigamente eram MUITO caros) faziam de tudo pro bichinho funcionar, e toscamente uma das alternativas era desconectar e reconectar o cabo flat, na vã esperança de que o disco ressucitasse.

4 ) Agitar o cartucho da jato de tinta / tonner: desespero na hora de imprimir a última página do trabalho na escola ou da faculdade, quando a tinta começa a sair falhando, antes de comprar um cartucho ou um tonner novo, claro que a melhor alternativa é chacoalhar o bicho até sair o restinho de tinta que sequer existe dentro do recipiente.

5 ) Dobrar o fio do equipamento: já vi diversas vezes um monitor com aquele mal-contato no cabo de vídeo e a tela ficando azul, verde, amarela menos da cor certa. A gambiarra oficial nesse caso é retorcer o cabo até uma posição que o monitor exiba todas as cores, apoiá-lo sobre o cabo e deixar assim eternamente, até a empregada varrer e tirar do lugar fazendo você xingar até a 5a geração da família dela. Também útil com teclados e mouses.

6 ) Limpar roldana do mouse: mouse ótico é uma modernidade. Antigamente tudo era na base da bolinha e scroll era uma novidade ainda distante. Depois de poucas semanas de uso, dependendo do nível de porcalhice do usuário o mouse criava uma crosta de sujeira tóxica na base e dentro dele, nas roldanas que direcionavam o cursor. Era realmente nojento porém necessário raspar aquele grude seboso senão a setinha não obedecia o comando.

7 ) Trocar memória de slot: quem nesse mundo que já teve que fazer alguma manutenção e ouviu aquele apito chato vindo do inferno não trocou a memória de slot na esperança de que ela funcionasse? Essa talvez seja a gambiarra número 1 da informática.

8 ) Formatar Hd pra remover bad block: na época de hds caros e pequenos, um badblock que fosse era sinal de pânico. Apenas os mais fortes e ousados mainpulavam com maestria o fdisk do DOS e tinham culhões suficientes para particionar um disco na ‘mão’. Se o badblock era do meio pro fim do disco, bastava criar uma partição um pouco menor do que a posição onde encontrava-se aquele B vermelho com fundo preto e o disco podia durar mais alguns meses ou até anos.

9 ) Tirar parafuso com faca de cozinha: por incrível que pareça, a maioria dos técnicos que precisam trabalhar com micros e consertar problemas de software/hardware nas CPUs possui pouca ou nenhuma ferramenta para realizar o trabalho. É mais do que normal ver gente removendo parafusos com facas de cozinha de ponta redonda ou com chaves de casa/carro.

10 ) Liberar memória física pra jogar: quem jogou na época do DOS sabe a arte que era liberar uns kbs a mais dos 640kb disponíveis para os processadores da época. Editar o autoexec.bat e config.sys era coisa de ninja. Liberar files, buffers, stacks… Poucos sabem do que estou falando. Extrair até mesmo 5kb da memória era como tirar leite de pedra. Bons tempos.

Fonte: [ Byte que eu gosto]

Feliz ano novo pra todo mundo, e até o ano que vem! 😀

Dezembro 29, 2009 / *** Cyn'z ® ***

Guia: Como escolher o seu computador

Muitas pessoas que estão prestes a adquirir seu primeiro computador, já perceberam quantas opções há no comercio. São configurações de todos os tipos e com valores para todos os bolsos. Mas o que realmente importa na hora de escolher um computador novo?

Então, nós do Girl Geek resolvemos mostrar o que você deve saber na hora de decidir qual computador levar para casa.

Requisitos Fundamentais:

Antes de adquirir o seu computador, você precisa definir três itens que são fundamentais para a realização de uma boa compra.

  • Primeiramente você tem que definir qual a finalidade principal será o seu computador (jogos, internet, trabalhos gráficos…)
  • Segundo o seu poder aquisitivo. Quanto você está disposto a pagar?
  • E terceiro o tempo de durabilidade do mesmo. Pretende fazer um upgrade daqui a 2, 5 ou 10 anos?

Como a maioria das pessoas hoje quer um computador multitarefa, capaz de realizar todas as funções (e mais algumas) descritas no primeiro item, com preço de baixo a médio custo e que não se torne desatualizado rapidamente, deveremos saber alguns dados na hora de realizar a compra.

O processador:

O processador é o “cérebro” de seu computador. Ele será responsável por comandar todos os outros componentes processando as informações e garantir que os mesmos trabalhem corretamente. Mas quando vemos a descrição abaixo, logo pensamos o que são todas essas informações?

Processador: Intel Celeron E3200 Dual Core – 2,4 GHz – 800MHz 1 MB cachê L2

Marca/Modelo: Intel Celeron E3200.

Clock interno: 2,4GHz – é a velocidade nominal em que o processador processará as informações.

Clock externo: 800MHz – é a velocidade em que o processador troca informações com a placa-mãe, ou seja, comanda os componentes.

Tamanho da memória Cachê: 1 MB – quanto mais, melhor, pois aumenta a capacidade de armazenamento.
Memória Cachê: a memória cachê copia parte dos dados do pente de memória RAM, aumentando a velocidade nas trocas de informações. A L2 seria uma memória cachê melhorada, com maior capacidade de armazenamento.

Quantidade de núcleos: são quantos “cérebros” um único processador teria. No caso do Dual Core, ele tem um núcleo físico e quando o computador é ligado ele trabalha com mais um núcleo “virtual”. Já o Core 2 Duo, possui dois núcleos físicos e quando a maquina é ligada passam a trabalhar com mais 2 núcleos “virtuais”.

A memória RAM:

A memória RAM é um tipo de memória que permite a leitura e escrita, porém é volátil, ou seja, assim que o computador é desligado a memória é apagada. Sua funcionalidade é auxiliar o processador na solicitação de informações. Mas e os demais dados abaixo?

Memória: 2GB DDR2 677MHz

Tamanho da memória RAM: 2GB – quanto mais, melhor, pois aumenta a capacidade de armazenamento ².

Tipo de Memória: DDR2 – DDR significa Double Data Rate, ou seja, dois pulsos por ciclo de clock. Logo a DDR2 é uma melhoria da DDR, pois tem uma velocidade maior de troca de informações com um menos consumo de energia, e assim sucessivamente.

Velocidade da Transferência: 667MHz – é a velocidade que a memória transfere as informações para o processador. Então 667MHz x 8bits = 5,3GB/s de troca.

O Disco Rígido – HD:

É no HD que fica a parte onde são armazenados os dados no computador. E o resto?

HD: Seagate 160GB 7200RPM – SATA II

Marca/Modelo: Seagate

Tamanho do HD: 160GB – quanto mais, melhor, pois aumenta a capacidade de armazenamento ³.

Taxa de rotação por minuto: 7200RPM – é a quantidade de giros que os discos executam dentro do HD. Quanto mais giros, maior a rapidez na leitura dos dados contidos no HD.

Tipo de barramento: SATA II – é um padrão de tecnologia para HD, cuja principal diferença com o padrão PATA (IDE) é a transmissão de dados que é feita em forma serial, ou seja, sequenciada, diminuindo a perda na transmissão de dados e aumentando o trafego de dados. A diferença entre SATA I e II é que o SATA I comporta até 150Mb/s de transmissão de dados contra os 300 Mb/s do SATA II.

A Placa de Vídeo:

A placa de vídeo é um componente responsável por enviar as imagens geradas pelo computador para a tela do monitor. E o que mais?

Placa de vídeo: GeForce GT 220 1GB DDR2 128bits XFX – HDMI – PCI-E XPRESS

Marca/Modelo: XFX GeForce GT 220

Memória: 1GB – a memória é usada para armazenar as imagens que serão enviadas ao monitor para serem visualizadas, assim como para armazenar as distintas texturas que serão empregadas nos objetos desenhados. Quanto mais altos forem os detalhes do jogo, mais memória vai demandar, por exemplo, para armazenar texturas, porém não significa que quanto mais memória, melhor será o desempenho da placa. Tem que se levar em conta todos os fatores relacionados à placa.

Largura de Banda: 128bits – é a quantidade de informações que se passa de uma única vez para o processador. Quanto mais largura de banda tiver, mais rápida a resposta da placa.

Tipo de Barramento de memória: DDR2 – Segue a mesmo raciocínio do tipo de memória. Porém como as placas de vídeo necessitam de um alto desempenho, as memórias da placa de vídeo têm algumas características diferentes, principalmente com relação à tensão de alimentação. Por esse motivo elas também são conhecidas como GDDR, pois o G significa gráfica.

Slot: PCI-Express – É o tipo de barramento utilizado pela placa de vídeo. Há outros tipos de barramentos, como AGP, PCI e PCI-Express 2.0.

Recursos: HDMI – São recursos extras que a placa pode oferecer a você. No caso, o HDMI oferece uma saída de imagem muito superior ao VGA, que permitia o uso de 640×480 com 256 cores, contra os 1920×1080 com mais de 16 milhões de cores, que se pode chegar.

A Placa-Mãe:

A placa-mãe é o item mais importante do computador. É ela que irá interligar todos os demais componentes de seu micro. Não adianta ter um super processador com uma super placa de vídeo e uma super memória se a sua placa-mãe não acompanha o desempenho dos mesmos. Mais informações?

Placa- Mãe: ASUS P5CG-MX/1333MHz – Chipset Intel 945GC – Socket 775 – 4 SATA II e 2 IDE – DDR2 1066 MHz

Marca/Modelo: ASUS P5CG-MX

Clock: 1333MHz – é aqui que será determinado a velocidade que o clock do processador e do chipset poderão trabalhar.

Chipset: Intel 945GC – é o principal componente da placa-mãe. Ele que é responsável por controlar e fazer a ponte entre os principais dispositivos conectados à placa-mãe. É ele que determinará todas as características que a placa-mãe aceita.

Socket: 775 – é o tipo de tecnologia suportada pela placa-mãe com relação aos processadores.

Barramento de memória: DDR2 1066MHz – é o tipo de memória e frequência que a placa-mãe irá suportar.

Barramento de Dispositivos: Nesse caso placa-mãe terá suporte para 4 dispositivos SATA II e 2 dispositivos IDE. Essas informações variam de placa para placa.

Também na placa-mãe você encontrará diversas informações sobre quantas entradas USB possui, qual é o tipo de conexão de mouse e teclado, quais são os outros tipos de barramentos (PCI, AGP, PCI-Express) e o tamanho de formato que ela possui.

As placas-mãe onboard vêem com um ou mais dispositivos integrados, como placa de vídeo, som, rede, modem. São de baixo custo, porém tem poucas possibilidades de personalização e o desempenho é razoável, pois cada item integrado “rouba” um pouco do desempenho da memória, do processador e do chipset, mas definitivamente não conseguem rodar jogos mais recentes ou programas que necessitam de maiores detalhes gráficos.

O Gabinete:

O gabinete será responsável por acomodar e proteger todos os componentes do computador. Tem mais?

Gabinete: Cooler Master 690 – 7 Baias – ATX/Micro ATX – Com fonte 500W

Marca/Modelo: Cooler Master 690

Baias: 7 – são os compartimentos dentro do gabinete que ficarão seu HD, driver de DVD e disquete. O HD fica na parte interna da baia, logo se você pensar em ter 2 HD’s terá que ter no mínimo 2 baias internas. O driver de DVD e o disquete ocupam as baias externas de 5,25 e 3,5 respectivamente. Quanto mais baias seu gabinete tiver melhor será a circulação de ar dentro do mesmo, evitando um super aquecimento de seus dispositivos.

Tamanho da placa-mãe: ATX e Micro ATX – toda placa-mãe vem com um modelo de tamanho definido. Nos gabinetes há uma especificação interna se a placa-mãe é compatível com ele ou não. Por exemplo: um gabinete que aceite somente placa-mãe Micro ATX, não aceitará uma placa ATX, pois esta é maior. Mas um gabinete que aceite placa ATX sempre aceitará uma Micro ATX.

Fonte/Potência: 500W – O gabinete pode vir acompanhado de uma fonte, porém na maioria das vezes, a fonte é genérica, ou seja, não condiz com a potência real que é anunciado pelo fabricante, o que pode danificar os outros componentes em caso de sobrecarga. Mais detalhes abaixo.

A Fonte:

A fonte de alimentação é fundamental para o computador. Ela converte a energia alternada que sai da tomada para a energia continua que o computador utiliza, além de amenizar picos de tensão. Sem a fonte, o computador é só um monte de metal e plástico. Só isso?

Fonte: Corsair VX450W – 450W Real

Marca/Modelo: Corsair VX450W

Potência: 450W – é através da potência de uma fonte que saberemos se ela suportará todos os dispositivos conectados ao computador. Caso a fonte não suporte os dispositivos ela poderá desligar-se sozinha, causando perda de alguns arquivos, ou até queimar todos os outros componentes como HD, processador, placa-mãe e etc.

O Monitor:

O monitor é um dispositivo que tem a função de transmitir as imagens geradas pelo computador.

Monitor: LCD Samsung 22″ WideScreen – Full HD (alta definição) – 8ms

Marca/Modelo: Samsung

Tamanho da Tela: 22 polegadas – é o tamanho da tela medido na diagonal. Esse tamanho não garante uma resolução maior.

Tempo de Resposta: 8 ms – é o tempo que a tela leva para mudar o pixel de “desligado” para “ligado”. O tempo é medido em milissegundos e quanto menor, melhor.

Brilho: 250 cd/m² – Essa função indicará o quanto você poderá enxergar as imagens em ambientes muito claros. Quanto maior essa quantidade, melhor.

Taxa de Contraste: 1.000:1 – quanto maior o contraste, melhor você poderá distinguir as cores mostradas na tela.

Resolução: 1920×1080 – É o tamanho máximo de resolução que o seu monitor suportará.

Conexões: DVI-I – Mostrará que tipo de conexão, digital ou analógica, que o monitor aceitará.

Lembrando que há muitos outros requisitos para serem analisados e levados em consideração, como por exemplo, a marca, a qualidade do produto, o suporte oferecido, a relação custo x benefício. Além de maiores informações sobre cada item aqui descrito.

Mas com tudo o que você aprendeu acima, você conseguirá decidir se aquele computador vendido naquela grande loja de varejo em 20 vezes vale realmente a pena, ou se é melhor procurar uma pessoa ou loja especializada e montar a sua própria configuração.

Fontes: [Clube do Hardware] [Guia do Hardware]

Dezembro 28, 2009 / girlgeeek

Antivírus gratuitos: qual deles é o melhor?

Realizamos pesquisas com várias opções grátis e vimos que são muitos no mercado, mas poucos deles com um nível alto de popularidade.

Também pesquisamos em diversos órgãos relacionados à área de TI que fazem análises de antivírus de mercado. No entanto, há muitas controvérsias principalmente com relação a preferência de usuários de computadores e técnicos de informática.

Nessa pesquisa procuramos instituições que levam o assunto a sério e que procuram nos assessorar da melhor forma possível e com o melhor produto por meio de testes concisos e que nos dão a real ideia de qual software gratuito é melhor em determinado requisito. Então confira toda a nossa análise e mantenha seu computador livre dos vírus.

Nossa avaliação dos 7 antivírus gratuitos foi baseada nos seguintes requisitos:

4.1 Eficácia

Neste requisito analisamos a eficácia do Antivírus em dois pontos, sendo um na “detecção de malwares” e o outro na “remoção dos malwares”.

4.2 Desempenho

Nesse analisamos quanto tempo de duração o Scan do Antivírus leva do ínicio da varredura até o término.

4.3 Consumo de memória

Foi realizada a análise do consumo de hardware do computador sendo esses “Memória” e “Processador”.

4.4 Interface

Analisamos se o Antivírus se dispõe de uma interface intuitiva, facilitando ao máximo a vida do usuário no processo de configuração, atualização e execução do software.

4.5 Linguagem

Neste requisito analisamos se o Antivírus se dispõe da linguagem Português Brasileiro.

4.6 Firewall Integrada

Neste requisito verificamos se o Antivírus se dispõe do recurso de segurança de Firewall integrada.

4.7. Mail Scan

Este é um recurso importante nos dias de hoje para qualquer Antivírus que queira ter sucesso em seu funcionamento, neste requisito analisamos se o Antivírus se dispõe da funcionalidade de varredura de e-mails.

4.8 Compatibilidade

Neste requisito analisamos a compatibilidade de funcionamento com as versões de sistemas operacionais.

4.9 Recomendação de segmento (Pessoal / Corporativo)

Por último, a recomendação de qual Antivírus é melhor para o segmento que o usuário quer utilizá-lo.

Confira mais detalhes:

Antivírus gratuitos Parte I – Avast Home Edition

Antivírus gratuitos Parte II – AVG Anti-Virus Free

Antivírus gratuitos Parte III – Avira AntiVir

Antivírus gratuitos Parte IV – Comodo

Antivírus gratuitos Parte V – BitDefender 2009

Antivírus gratuitos Parte VI – ClamWin

Antivírus gratuitos Parte VII – PCTools

Confira o anexo contendo o ranking entre os antivírus.:  Clique aqui.

Fonte: [Olhar digital]

Dezembro 27, 2009 / *** Cyn'z ® ***

Linux: Por onde começar?

Olá pessoal!

Hoje iremos falar um pouco sobre Linux.
Esse artigo que elaborei é bem simples e direto!
Aborda sobre o conceito do que é o Linux, qual sua diferenciação e como obter as principais distribuições.

Então vamos lá!!!

O que é Linux?

Linux é um sistema operacional, que é distribuído gratuitamente, onde seu coração é o Kernel.

Mas o que é Kernel?

Kernel é o núcleo do sistema, operacional que dá aos softwares (aplicativos em geral) a capacidade de acessar o hardware (monitor, mouse, teclado, impressora…).

LinuxO Kernel do Linux foi criado em 1991 por Linus Torvalds, um finlandês que tinha como objetivo desenvolver seu próprio sistema operacional baseado na arquitetura UNIX, um sistema operacional multitarefa e multiusuário que tem a vantagem de rodar em uma grande variedade de computadores, porém é muito caro e com código fechado, ou seja, não é permitida a sua customização.

O Kernel do Linux usa módulos carregáveis. Esses módulos podem ser atualizados ou adicionados ao sistema, facilitando o suporte a novas tecnologias, desobrigando a mudança do Kernel inteiro quando um novo módulo é adicionado, sendo necessário apenas sua instalação. O que aumenta o desempenho e a estabilidade. Por isso o Kernel é constantemente atualizado.

Qual a diferença entre Windows e Linux?

A principal diferença é que o Linux é um sistema de código aberto, desenvolvido por programadores voluntários espalhados pela internet e é distribuído sob a licença pública GPL.

Isso faz com que qualquer pessoa veja como o sistema funciona, faça alguma sugestão de melhoria ou corrija algum problema.

Não é necessário pagar para utilizar o Linux e você pode fazer cópias e instalá-lo em qualquer computador.

Já no Windows, o software é proprietário, não possuindo um código-fonte disponível e você ainda precisa comprar uma licença para ter o direito de usá-lo.

Como eu uso o Linux?

Primeiramente você precisa escolher uma distribuição.

Cada distribuição tem suas características, como interface gráfica, instalação de software e do próprio sistema operacional, suporte a hardware, dentre outros.





Ao lado você encontrará as principais distribuições.

Clicando em cada item, você será redirecionado para o site de cada distro.

Veja o que cada uma oferece e escolha aquela que atender melhor as suas necessidades.

Onde eu encontro o Linux para download?

No próprio site das distribuições há links para os downloads.

Caso tenha um cliente torrent, poderá baixá-lo por lá, ou ainda no caso do Ubuntu, por exemplo, você poderá solicitar sua cópia e receber em casa gratuitamente.

Gostei, onde aprendo mais?

Há vários sites, blogs e livros sobre Linux!
Segue abaixo os mais recomendados.

Na Internet:

Guia do Foca: Um Guia completo, abordando desde o nível iniciante até o avançado.

Viva o Linux: A maior comunidade Linux da América Latina!

BR-Linux.org: A página sobre software livre mais procurada no Brasil.

Livros Recomendados:

Linux, o Guia Prático: Escrito por Carlos Morimoto, programador brasileiro, criador da distribuição chamada Kurumin, que teve grande aceitação tanto nacional como mundial.

Vídeos Recomendados:
Esses vídeos mostram o poder de customização e efeitos no Linux.

Compiz Fusion: http://www.youtube.com/watch?v=EpCLrC0tiPA

Ubuntu transformado em Mac OSX Leopard: http://www.youtube.com/watch?v=vu-hItktUr0

Fontes:
[WikipediaViva o Linux BR-Linux.orgO Linux]