Google Notícias

Google Notícias
Um agregador de notícias e aplicativo

Olhar Digital - O melhor da CES 2024



30/10/2014

Linux

 
http://www.vivaolinux.com.br/linux/


Linux 

 

Linux é um termo utilizado para se referir a sistemas operativos ou sistemas operacionais que utilizem o núcleo Linux.

O núcleo Linux foi desenvolvido pelo programador finlandês Linus Torvalds, inspirado no sistema Minix.
O seu código fonte está disponível sob a licença GPL (versão 2) para que qualquer pessoa o possa utilizar, estudar, modificar e distribuir livremente de acordo com os termos da licença.

Inicialmente desenvolvido e utilizado por grupos de entusiastas em computadores pessoais, os sistemas operativos ou sistemas operacionais com núcleo Linux passaram a ter a colaboração de grandes empresas como IBM, Sun Microsystems, Hewlett-Packard (HP), Red Hat, Novell, Oracle, Google, Mandriva e Canonical
(Fundação Linux).

Apoiado por pacotes igualmente estáveis e cada vez mais versáteis de softwares livres para escritório (LibreOffice, por exemplo) ou de uso geral (projeto GNU) e por programas para micro e pequenas empresas que na maioria dos casos em nada ficam a dever aos seus concorrentes proprietários, e interfaces gráficas cada vez mais amigáveis como o KDE e o GNOME, o núcleo Linux, conhecido por sua estabilidade e robustez, tem gradualmente caído no domínio popular, encontrando-se cada vez mais presente nos computadores de uso pessoal atuais.

Mas já há muito que o Linux destaca-se como o núcleo preferido em servidores de grandes porte, encontrando-se quase sempre presente nos mainframes de grandes empresas e até mesmo no computador mais rápido do mundo, o Tianhe-2, chinês


A História do Linux 

Conhecendo a história do sistema operacional de código aberto mais famoso do mundo.
Houve um tempo, logo depois do surgimento dos computadores, onde os programas que eram criados pelos programadores e entusiastas de tecnologia eram compartilhados entre grupos de usuários gratuitamente, ou seja, não existia nenhum tipo de mercado para os softwares, eles eram como uma espécie de obra de arte compartilhada por todos.

Alguns dos programas criados eram extremamente complexos, exigindo um bom tempo de programação, dessa maneira opiniões começaram a se dividir entre usuários que tinham a ideia de começar a vender os softwares para valorizar trabalho pelo qual passavam os autores do código fonte daquelas grandes uniões de bits, enquanto outros defendiam a ideia de apenas compartilhar entre si o resultado do que mais gostavam de fazer.

Dessa maneira dois conceitos sobre software surgiram, os softwares Open Source (código aberto) e os Closed Source (código fechado), dos quais um defendia a liberdade de modificação dos códigos de um programa e o outro tentava transformar estes em algo privado e rentável
  •  Open Source
Por uma definição básica, o código aberto é o principal conceito do movimento do software livre, que defende a ideia de que todo programa deve ser livre para compartilhamentos, seu código deve ser modificável, o software modificado pode ser distribuído porém a autoria do criador do código deve ser mantida, não podem existir limitações na interação com outros softwares e ele também deve ser multiplataforma, ou seja, deve rodar em qualquer sistema operacional.
  • Closed Source
O código fechado é a ideia aplicada e defendida pelos defensores do software proprietário, onde os programas devem ser considerados produtos de uma pessoa física ou jurídica, onde cada usuário deve comprar uma licença para utilizar o software e seu código é restrito ao desenvolvedor, tornando qualquer modificação não autoral disponibilizada ao publico algo irregular.

O surgimento do Projeto GNU
Na década de 80 praticamente todos os softwares eram Closed Source, o que deixou Richard Stallman preocupado com a comunidade Open Source, que se tornava cada vez menor, criando assim, em 27 de setembro de 1983 o Projeto GNU, um sistema operacional de software livre que fosse movido por programas também de software livre, revivendo novamente a ideia dos programas de código aberto.

Como o próprio nome diz, GNU is Not Unix (GNU), o objetivo principal era derrubar a ideia de que todos os programas deviam ser de código fechado e movidos por sistemas operacionais como Unix, que era o mais famoso da época e também de código fechado, oferecendo programas que você pudesse escolher se quer pagar ou não e também quanto quer pagar.

Para institucionalizar o Projeto GNU, Stallman fundou também a organização sem fins lucrativos Free Software Foundation - FSF (Fundação do Software Livre), e assim alavancando o nascimento do Movimento do Software Livre, que até hoje inspira eventos em prol dos ideais Open Source.

O nascimento do Linux
O finlandês Linus Torvalds, depois de conhecer o Projeto GNU e alguns de seus softwares básicos de código aberto resolveu criar o seu próprio sistema operacional de open source, tendo a ajuda de voluntários da Usenet, que reunia vários fóruns dos primórdios da internet, lugar perfeito para o encontro virtual de programadores, onde ele poderia buscar opiniões e dicas de quem também entendia do assunto.

A princípio o Linux era um projeto particular de Torvalds, pois ele acabou conhecendo o Minix, um pequeno sistema UNIX desenvolvido por Andrew S. Tanenbaum, e como ele mesmo já disse o Linux em seus primórdios era "um Minix melhor que o Minix".

Curiosamente o primeiro nome do sistema operacional não era Linux, mas sim “Freax”, o nome que conhecemos hoje foi ideia de um amigo de Torvalds, Ari Lemmke, que resolveu unir o nome de Linus com o final do nome Minix, que o criador tanto gostava.
No dia 5 de outubro de 1991 lançava, então, a primeira versão do Linux (Linux 0.02 - 05/10/1991) , em sua versão 0.02, que se tornaria mais tarde o sistema operacional de software livre mais conhecido do mundo, recebendo justamente a resposta que Torvalds procurava, programadores que tornassem o movimento do software livre mais forte do que nunca ao trabalharem juntos a procura de um sistema operacional perfeito, podendo ser aperfeiçoado e corrigido por qualquer um em qualquer lugar do mundo.

As controvérsias quanto à nomenclatura GNU/Linux
Em suas primeiras versões o Linux usava softwares básicos do Projeto GNU - para talvez poupar trabalho à Torvalds - e também era a principal fonte de inspiração para novos sistemas operacionais, dessa maneira criou-se a nomenclatura GNU/Linux para denominar o núcleo usado por programadores como base para seus novos sistemas operacionais, o que acabou não agradando a muitos, inclusive os próprios Linus Torvalds e Richard Stallman.

Stallman disse não ter gostado muito da ideia de Linus ter usado os programas Projeto GNU no Linux porque, segundo ele, eles nunca ficaram sabendo disso até o sistema operacional virar um sucesso mundial e sequer pertencer ao Projeto GNU, mas como os softwares eram livres ele acabou chegando à conclusão que não seria viável reclamar.
Segundo Linus, usar a definição GNU/Linux não é viável, pois isso soa como se o Linux em si seria uma distribuição GNU ou algo do tipo, usando como exemplo muitos dos SO’s baseados em seu sistema operacional como o Red Hat Linux.

A mascote do Linux
Torvalds chegou à conclusão de que encontrar uma mascote ao seu sistema operacional seria uma boa ideia, tanto esteticamente quanto comercialmente, já que este poderia acabar se tornando uma febre. Depois de ser mordido por um pinguim em uma visita a um parque ele chegou à conclusão de que o animal seria a mascote de seu SO e os usuários do Linux lhe ajudariam com essa tarefa.

Um concurso de logotipos para escolher o pinguim que mais agradasse a Linus foi aberto entre os usuários do sistema operacional, no qual o vencedor foi Larry Ewing e seu pinguim Tux, sempre gordo e satisfeito, o que agradou muito a Linus, que havia passado a amar pinguins.
O nome da mascote apresenta diferentes especulações quanto a sua origem, alguns dizem ser derivada de “Torvals UniX” e outros dizem que o nome vem apenas do fato de pinguins parecerem usar um smoking (do inglês tux – smoking).

O amplo uso do Linux pelo mundo
Podemos claramente dizer que o Linux a muito é uma febre mundial, principalmente em empresas e órgãos do governo, sendo usado em
  • urnas eletrônicas como a aqui do Brasil, 
  • em aparelhos da NASA
  • em caixas eletrônicos de sistemas bancários
  • em servidores de nuvem, dentre tantas outras coisas.

Vale lembrar aos haters do sistema operacional que seus argumentos não são válidos se estiverem realizando críticas enquanto tem um celular Android no bolso, afinal, o Android é 100% baseado em Linux
 Confira: 
O que é Linux? 





Fonte: 
Wikipedia 

Linux foundation 
GNU 

Oficina da Net 
Viva o Linux 
Cursos de informatica básica / Sistema Operacional Linux 

28/10/2014

Jogos violentos


http://www.oficinadanet.com.br/post/11219-jogos-violentos-podem-fazer-jovens-cometer-crimes?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+oficinadanet_rss+%28Oficina+da+Net+-+Feed%29

Jogos violentos 
Gerando jovens violentos 


Alguns dizem ser um assunto batido, um verdadeiro tabu. Mas quando novos fatos semelhantes aparecem, precisamos lembrar-nos de outros casos anteriores e colocar a cabeça para pensar novamente: Jogos de violência influenciam jovens a cometer crimes?

Videogames, computadores, filmes, séries e livros. É muito difícil que um jovem com idade de 10 a 30 anos não faça uso de nenhum destes exemplos. Normalmente usamos como passatempo pelo menos dois destes.
No dia 05/08/2013, mais uma vez, estamos diante de um fato lamentável e terrível, (Caso família Pesseghini).

O FATO: Um menino de 13 anos, filho de pais policiais, assassinou com um tiro na cabeça os dois, além de sua tia-avó e sua avó. O garoto foi à escola de manhã e voltou para casa normalmente. Após quase 12 horas, atirou contra a própria cabeça.
O AGRAVANTE: Em seu perfil no Facebook, o menino utilizava como foto do avatar uma imagem de um jogo, Assassin’s Creed. A foto foi adicionada no início do mês de julho.

É triste pensar que este é apenas mais um caso em que há certa ligação entre o crime e os videogames. Há ainda fatos não esclarecidos que estão sob investigação policial. Mas será que o jogo Assassin’s Creed ensinou este pequeno jovem a matar pessoas a sangue frio?

É, não é de hoje que temos em pauta comportamentos violentos e fortes ligações com videogames ou filmes que expressam extrema violência. O Brasil já baniu diversos jogos por conter cenas que podem levar jovens e crianças a perder o medo de coisas que devemos temer.

(Jogos que influenciam a violência 
em jovens que sofrem com alguns tipo de distúrbio). 

Veja alguns destes exemplos:
  • Carmageddon;
  • Doom;
  • Duke Nukem 3D;
  • Mortal Kombat;
  • Counter Strike.
Também temos jogos muito famosos e que foram banidos em outros países como:
  • Manhunt, 
  • Manhunt 2, 
  • Grand Theft Auto (GTA), 
  • Wolfenstein 3D
  • Quake III. 
Podemos ficar horas mostrando e falando das diversas cenas de horror e violência contida em jogos para videogames e também em computadores. Embora eles realmente retratem um universo paralelo e sem limites no mundo dos games, a identidade e atos de cada ser humano não se moldam a partir de cenas violentas avistadas em jogos ou filmes.

Quantos anos você tem? Você que visita o site Oficina da Net já deve ter tido contato com algum jogo ou talvez você seja um viciado em jogos de tiro, não é mesmo? Você assiste algum seriado policial? Lê livros como “Game of Thrones”? Nós jogamos e lemos, mas nem por isso estamos condicionados a cometer algum crime que envolva violência.

A idade que os adolescentes adentram no mundo dos games e filmes deste escalão está reduzida, podemos notar crianças com conhecimento aprofundado sobre determinados assuntos violentos. De onde vem este conhecimento? Acesso à internet, conversas com amiguinhos e porque não, a liberdade dos pais.

Palavra do especialista (O Psicanalista)
Em conversa num programa de TV aberta, o Psicanalista Francisco Daudt classificou o menino do episódio mais recente como um psicopata, ou seja, uma pessoa que não tem remorso. Disse ainda que um psicopata não se forma durante a vida, é como uma “loteria genética”, da mesma maneira que se forma um canhoto. Segundo Francisco, a criação do ser humano se dá 50% de genética e o restante pela criação.
Com vista na idade do menino, 13 anos, Francisco fez questão de afirmar que ele era um “psicopata imaturo” por alguns de seus atos como confidenciar a seu amigo que sonhava ser um assassino de aluguel. Disse também que o menino tinha os motivos, oportunidade e os meios para cometer o crime. Ou seja, ele queria matar os pais, tinha a oportunidade de fazê-lo durante a noite e, mais importante de tudo, tinha armas em casa.

Levando em consideração os argumentos apresentados pelo Psicanalista, podemos perceber que o fato dele possuir uma imagem do personagem fictício do game Assassins’ Creed trata-se de algo tão isolado que só ganhou relevância porque o crime se consumou. Para este profissional de psicanálise, o ditado popular “A ocasião faz o ladrão” não se aplica e, o fato dele gostar de jogos violentos não o incentivou a cometer o crime que ele cometera.

Outros casos de suposta ligação entre crimes e videogames
A internet está repleta de exemplos negativos de que jogos de videogame e computador podem afetar ou afetaram crimes reais. Entretanto, assim como neste caso, a ligação entre jogos e vida real é apenas uma hipótese.
Em 2003, por exemplo, um jovem foi preso por ter roubado um carro. Como não havia cometido nenhum crime semelhante, é muito provável que ele seria liberado. Porém num momento de “genialidade” a la Jackie Chan, ele sacou a arma de um dos policiais, atirou neles e tentou fugir em uma viatura. Sem sucesso, foi novamente preso, agora como um verdadeiro criminoso. Segundo depoimentos o rapaz não demonstrou nenhum arrependimento.  
Ps: dizem que ele curtia jogar GTA 3

No mesmo ano, jovens irmãos “encontraram” fuzis em casa e atiraram nas pessoas que andavam pela rua. Mataram um homem e feriram uma mulher. O jogo que eles mais gostavam? GTA 3. A idade deles? 14 e 16 anos.

Igualmente ligado a videogames, mas num proporção doentia, um homem chamado Alayiah Turman matou sua filha de 17 meses de vida a pancadas. O motivo: a menina desconectou os cabos do Xbox do pai. Está cumprindo um mínimo de 47 anos de prisão por isso.

Em outro caso bizarro, dois players de Lineage II - típico jogo de MMORPG - brigaram pela internet por causa da morte de um de seus personagens. Não satisfeitos com a briga virtual, decidiram se acertar pessoalmente. Somente um deles saiu vivo.

Há também casos em que as vítimas são os filhos. Como fez Alexandra Tobias que era viciada em FARMVILLE, aquele joguinho do Facebook. O pobre Dylan, de apenas três anos, chorava pela atenção de sua mãe que ficou irritada com o choro e apertou e chacoalhou a criança com tanta força que ela veio a óbito.

É certo que assuntos - que relacionam crimes com jogos de violência ou não - voltarão a tona se outro caso como este ocorrer. Observar o comportamento de seu filho é importante, no entanto, privá-lo de jogar videogame pode não ser tão saudável. Como falamos anteriormente, você tem 50% da responsabilidade em criar uma pessoa de bem para a sociedade.

Confira:
As 10 mais estranhas mortes motivadas por games da história


Fonte: 

23/10/2014

PC-G: Game computers (parte IV)


http://www.artigonal.com/hardware-artigos/memorias-ram-na-pratica-6730836.html


PC-G: Escolhendo a memória RAM

No quarto artigo da série PC-G, serão falados um pouco sobre as memórias. O tema será abordado em uma linguagem simples e ligeiramente engraçada.
Vamos conhecer as informações básicas para definir qual Módulo e Frequência podem ser adaptados ao Hardware de nossos equipamentos para o melhor desempenho.
Leia o também
PC-G: Gaming Computers (parte I).

Memória RAM 
Memória de Acesso Aleatório (do inglês Random Access Memory, frequentemente abreviado para RAM) é um tipo de memória que permite a leitura e a escrita, utilizada como memória primária em sistemas eletrônicos digitais.

O que é memoria RAM em video

A RAM é um componente essencial não apenas nos computadores pessoais, mas em qualquer tipo de computador, pois é onde basicamente ficam armazenados os programas básicos operacionais. Por mais que exista espaço de armazenamento disponível, na forma de um HDD ou memória flash, é sempre necessária uma certa quantidade de RAM e, naturalmente, quanto mais memória, melhor o desempenho, uma vez que os programas tendem a se desenvolver com o passar do tempo e da pesquisa científica.
Memória RAM - como funciona 


O termo acesso aleatório identifica a capacidade de acesso a qualquer posição e em qualquer momento, por oposição ao acesso sequencial, imposto por alguns dispositivos de armazenamento, como fitas magnéticas. O nome não é verdadeiramente apropriado, já que outros tipos de memória (como a ROM) também permitem o acesso aleatório a seu conteúdo. O nome mais apropriado seria: Memória de Leitura e Escrita, que está expressa na programação computacional.

Apesar do conceito de memória operacional de acesso aleatório ser bastante amplo, atualmente o termo é usado apenas para definir um dispositivo eletrônico que o implementa, uma vez que atualmente essa memória se encontra espalhada dentro do próprio sistema dos atuais computadores (sistema por assim dizer "nervoso" do computador, como o humano), basicamente um tipo específico de chip. Nesse caso, também fica implícito que é uma memória volátil, isto é, todo o seu conteúdo é perdido quando a alimentação da memória é desligada. A memória principal de um computador baseado na Arquitetura de Von-Neumann é constituída por RAM. É nesta memória que são carregados os programas em execução e os respectivos dados do utilizador. Uma vez que se trata de memória volátil, os seus dados são perdidos quando o computador é desligado. Para evitar perdas de dados, é necessário salvar a informação para suporte não volátil, como o disco rígido.
memoria RAM


A Bendita Memória
Serão falados sobre a bendita Memória RAM, quando digo bendita não estou exagerando. As memórias vieram para eliminar um “gargalo” na velocidade da comunicação de dados entre Processador e HD. O HD, apesar de ágil, não é capaz de gerenciar sozinho as requisições do processador, para isso foram criadas as memórias ou RAM (Random Access Memory). Elas ficaram responsáveis por intermediar as requisições do processador e as respostas do Disco Rígido (HD). Justamente por isso, um computador com muita memória não pode ser classificado potente, pois existe um conjunto de outros componentes trabalhando em paralelo.

O Lado Negro das Memórias

As memórias normalmente não possuem preços elevados, principalmente em PC’s, e as grandes fabricantes de tecnologia aproveitam-se delas para “desovar” estoques de processadores antigos/desatualizados em consumidores desatentos. É muito comum que os computadores e notebooks novos possuam a mesma quantidade de memória e HD, isso passa a impressão que todos os produtos são iguais e que o preço foi definido de acordo com a marca de quem o produziu. Errado! Principalmente porque estes componentes não são os mais importantes para à tomada de decisão na hora de comprar um produto.

No Brasil, parece que a importância da memória vai além, a maioria das pessoas sabe quanto de memória possui em seu computador mas não faz ideia do modelo do processador, por exemplo. Outra coisa muito comum é que confundam Memória RAM com espaço em disco (HD), que não tem nada haver, o que gera afirmações grotescas como: “Tenho muitos arquivos, preciso comprar mais um pente de memória”

O que temos pra hoje

Atualmente a tecnologia predominante da RAM é o módulo DDR3, que substitui a antiga DDR2 e que nos faz acreditar que no futuro será substituída pela DDR4. A verdade é que a DDR3 está em um patamar capaz de atender à quase todo tipo de Programa e Sistema da atualidade, o que fará com que seja mantida por mais algum tempo.A frequência presente na maioria dos módulos de memória DDR3 é de 1333Mhz, no caso dos módulos DDR3 podemos também optar por uma frequência maior, como 1600Mhz de acordo com a compatibilidade da placa mãe.

O Hardware está sempre à frente do Software. O que faz com que ele seja liberado, é a necessidade do mercado. Se você não é um Gamer tão harcore, provavelmente comprará dois pentes de memórias DDR3 1600Mhz com 4GB, que é totalmente saudável e pertinente nos dias de hoje. Quantidades acima de 8GB, podem ser consideradas como exagero para a maioria dos usuários e gamers.

Como escolher a Memória Ram?
  • Identificar qual é o módulo de memória compatível com sua placa mãe, informação normalmente encontrada no manual;
  • Identificar qual é a maior frequência de memória compatível com a placa mãe, também poderá ser encontrada no manual da placa mãe;
  • Definir a faixa de preço dentro das opções encontradas;
  • Pesquisar sobre o fabricante;
  • Verificar se o processador é suficientemente rápido para definir a quantidade de memória;
  • Identificar na placa mãe, se a quantidade de slots de memória (encaixes) é suficiente para receber a quantidade de módulos que deseja adquirir;
ATENÇÃO PERANTE A ISSO 
  • Memórias que trabalham em frequências maiores, tendem a produzir mais calor, o que pode gerar necessidade de Coolers Auxiliares;
  • Definir um produto à ser comprado;
  • Cotar o preço do produto nos sites/lojas de preferência;
  • Divertir-se!
 
Fonte:
Wikipedia

Tecmundo
Tecnologia - uol
Infoescola
Hardware
Artigonal

17/10/2014

Asus


https://ptandroid.com/forum/wiki/asus/


ASUS tek Computer inc.
Inspiring Innovation Persistent Perfection

ASUS
Inspirando inovação, persistência e perfeição 


ASUSTeK Computer Inc. ou simplesmente ASUS é uma empresa de Taiwan especializada na fabricação de hardware. Fabrica, entre outros, placas-mãe, placas de vídeo, discos ópticos e Computadores portáteis.
A ASUS também produz componentes para outras empresas como a Sony (PlayStation 2), Apple (iPod, iPod shuffle, MacBook), Alienware, Falcon Northwest, HP e Compaq.

História
ASUS foi fundada a 2 de Abril de 1990 em Taiwan por TH Tung, Ted Hsu, Wayne Hsieh e MT Liao, todos engenheiros informáticos da Acer. O actual CEO da ASUS, Jonney Shih, chegou à empresa em 1994.
No Brasil é representada pela ACBZ Importação e Comércio LTDA, situada na cidade de São Paulo.

Origem do nome
De acordo com o gerente de vendas, Alexander Kim, o nome ASUS é originado das quatro últimas letras da palavra Pegasus (Pégaso), um cavalo alado da mitologia grega.

Leia a
(Entrevista com Alexandre Kim - 10/2003), em Russo

As três primeiras letras foram abandonadas para que a empresa fosse listada entre as primeiras em ordem alfabética.

Liderança
Em 2004, foi anunciado a liderança de mercado da empresa que atingiu a marca de 30 milhões de vendas (First-tier motherboard shipments increase 4.9% in October)

Em 2005 a liderança foi reforçada quando a empresa atingiu a marca de 52 milhões de vendas. Estas estatísticas incluem o material que acompanha os produtos de outras marcas.

Asus lança o ZenFone 5 
(Smartphone ASUS) no Brasil

Asus apresentou o primeiro smartphone da marca no Brasil no dia de hoje (15/10)
Um novo modelo de smartphone desembarcou em solo brasileiro em breve, trata-se do ZenFone 5, da Asus. O aparelho foi anunciado hoje pela marca.

A Asus é uma das maiores fabricantes de notebooks e também referência na construção de placas-mãe para PCs.

O aparelho não é considerado topo de linha, por isso, ele vem para se comparar com o Moto G. O preço divulgado hoje pela Asus é de R$ 499, preço promocional por venda no site da Asus. Após o preço é de R$ 599,00. O Zenfone 5 (A501CG) vem equipado com processador Intel Clover Trail Plus z2560 de 1,6GHz; 2GB de memória RAM; 8Gb de armazenamento interno - com expansão de até 64GB no slot microSD. A tela tem 5 polegadas IPS LED de resolução 1280x720 pixels, com uma densidade de 293 pixels por polegada; display Corning Gorilla Glass 3.
Além disso, o ZenFone 5 possui câmera de 8 megapixels com auto-foco, Flash LED e é capaz de filmar vídeos em 1080p a 30 fps. A câmera frontal do aparelho é de 2 MP. Tem conexão  3G/HSDPA (nada de 4G/LTE) via Dual-SIM, Wi-Fi, Bluetooth 4.0, GLONASS (sem NFC), bateria de 2.050 mAh e é equipado com Android 4.3 Jelly Bean, com update garantido para o 4.4.2 KitKat

Com chegada no Brasil, a Asus quer seguir o sucesso de vendas construido na Ásia com os aparelhos de sua fabricação. Espera-se para ver se os aparelhos da companhia se fixa nas terras tupiniquins.


Fonte:
Wikipedia
Investing.businessweek
Hw - eventos Asus
Digitimes
Techtudo
Ptandroid

16/10/2014

SEO na prática (II)


http://www.oficinadanet.com.br/artigos/seo
SEO


SEO – na prática 
(Parte 2)

Entenda detalhes de SEO - Search Engine Optimization, o processo de otimização dos buscadores da internet.

Nesse artigo, continua a apresentar boas práticas de SEO on-Page que um desenvolvedor front-end pode usar para melhorar o posicionamento de suas criações nos mecanismos de busca. Veremos o tempo de carregamento da página, a interferência do tamanho das Imagens, detalhes dos Arquivos JavaScript e CSS, Compressão com GZip, Aproveitar cache do navegador, Serviços de Content Delivery Network, Sitemaps, Ferramentas para Webmasters.

SEO - Boas práticas

  • Tempo de Carregamento da Página

O Google entende que a velocidade do site é um grande fator de qualidade, pois para todos os usuários da Internet, sites mais rápidos possibilitam a leitura de mais conteúdo. Pesquisas demonstram que usuários em um site que responde lentamente às solicitações da web, seus visitantes gastam menos tempo dentro destes sites, enquanto em sites mais rápidos, não só o usuário sente mais interesse de continuar a navegação, mas também reduz os custos operacionais para o dono do site.

Para obter melhores rendimentos na velocidade do seu site é muito importante contar com boas ferramentas de medição desses resultados. O próprio Google criou uma ferramenta para que os webmasters pudessem avaliar o tempo de carregamento de seus sites, com um resultado detalhado que possibilita a melhoria de cada item, resultando numa melhor experiência de seus usuários.

O nome dessa ferramenta é Google Page Speed, e pode ser utilizada até como uma extensão do navegador Firefox. Além disso, há outras ferramentas que fazem medições que também devem ser avaliadas, entre elas, o Yslow, a ferramenta gratuita da Yahoo!, que também sugere caminhos para melhorar a velocidade do site. Existe uma ferramenta chamada Gtmetrix que unifica essas duas citadas anteriormente e ainda possibilita um acompanhamento semanal, enviado para uma conta de e-mail, permitindo que você monitore esse parâmetro continuamente.
Para o caso do Google Page Speed, sua página receberá uma avaliação até 100, indicando a necessidade que você terá para melhorar o tempo de carregamento de seu site. Além dessa avaliação, você receberá dicas de onde e como proceder para conseguir um tempo suficiente para que seus visitantes não desejem abandonar a navegação no seu site.

Vamos falar agora das boas práticas que você pode realizar para que seus resultados no Google Page Speed sejam os melhores possíveis.
  • Reduzindo o tamanho das Imagens
No resultado obtido com a ferramenta Gtmetrix, terá uma opção de visualizar o tempo de carregamento por arquivo, essa informação é obtida na aba Timeline do Gtmetrix. Será possível visualizar o tempo de carregamento para cada arquivo e o tamanho. E como estamos falando de imagens é importante utilizar aquelas que sejam do tamanho realmente necessário para o bom entendimento de seus clientes, para que o resultado final da página não seja muito pesado e lento.

Utilizar ferramentas de compressão de imagens como jpegtran (JPEGcloub), Jpegoptim, Smush.it do Yahoo! e OptiPNG é o caminho certo para se obter uma boa redução do peso das imagens.


O Google Page Speed também dará boas dicas de como otimizar a página em termos de imagens. Uma das dicas é sempre exibir imagens dimensionadas, isto é, editar as imagens para que elas fiquem no tamanho correto no qual você deseja inserir no site, e não usando os atributos de redimensionamento pelo código. O Google também indica que especificar as dimensões, altura e largura, das imagens do site, permite um rendimento mais rápido da página.

Outra opção é combinar imagens com CSS Sprites, que também será avaliada pela ferramenta do Google. Utilizá-lo é, de certa forma, simples, bastando unificar as imagens da página em uma única nova imagem.

Carregando cada imagem, resultaria em 6 requisições e 18kb no total, após a unificação em uma só imagem o tamanho cai para 14kb. Agora imagine isso para mais 10 imagens usadas em uma única página.

código HTML necessário para o exemplo é realmente muito simples, podemos utilizar um menu em lista, colocando a imagem unificada como background, depois definir largura e altura fixa para cada item do menu.

Criar as propriedades CSS responsáveis pela mudança dos sprites usando “background-position”, assim, fica definida a posição em que o background será exibido.
  • Arquivos JavaScript e CSS
O número e tamanho de arquivos estáticos do seu site como os JavaScript e CSS podem aumentar bastante o tempo de carga da sua página, por esse motivo, estes tipos de arquivos devem sempre ser colocados em versões reduzidas, não contendo comentários e espaços.

Parece uma economia sem sentido, reduzir arquivos em bytes de tamanho, mas lembre-se que além de ter uma fração de segundo mais rápida para a navegação do seu usuário, a falta dessas pequenas alterações serão notadas pelos mecanismos de busca, principalmente pelo Google, que vai ter isso como um critério para o bom posicionamento da sua página para as pesquisas. Basta lembrar que um melhor posicionamento significa mais tráfego para o site em desenvolvimento.
Para conseguir a otimização desses arquivos existem ótimas ferramentas como Closure Compiler, JSMin, CSSmin, YUI Compressor ou ainda a opção dada pela ferramenta do Google Page Speed, ao clicar no nome do arquivo, informa que será compactado.

Outra dica importante do Google Page Speed para o tratamento de arquivos Java Scripts é o adiamento da análise desses arquivos. O próprio Google indica que, uma das formas mais simples para isso, seria apenas colocar as chamadas de todos os arquivos Java Scripts no rodapé do site, permitindo que, dessa forma, estes se tornem os últimos arquivos a serem baixados, não bloqueando o carregamento da página, como normalmente acontece quando posto no cabeçalho do site. Mas existe outro método tão interessante e simples como o anterior, carregando os scripts de forma assíncrona, basta inserir dois atributos na <tag script>, o <async> e <defer>.

O atributo <async> informará ao navegador dos visitantes que o download do <meu-arquivo.js> deve ser feito de forma assíncrona, isto é, durante o processo de renderização da página, o script então será executado somente após o final de seu download. Já o atributo <defer>, possui uma função semelhante, porém o script será executado somente depois que o processo de renderização for concluído.
  • Compressão com GZip
Outra opção interessante, também indicado pelo Google, é utilizar a compressão das páginas do website com Gzip, possibilitando que as páginas sejam transferidas compactadas e depois descomprimidas ao chegar ao navegador do visitante. Essa opção normalmente é feita na configuração do servidor que hospeda os arquivos do website. Faça a solicitação ao seu suporte técnico e depois teste para verificar se o Gzip está realmente ativo, assim como o nível de compressão usado, para tal utiliza-se a ferramenta Gidnetwork.
Leia também sobre: 

Fonte: 
Oficina da Net 
Devmedia 
JavaScript source 
W3.org  

14/10/2014

Rede de computadores



Rede de computadores 


Uma rede de computadores é formada por um conjunto de módulos processadores capazes de trocar informações e partilhar recursos, interligados por um sub-sistema de comunicação, ou seja, é quando há pelo menos dois ou mais computadores e outros dispositivos interligados entre si de modo a poderem compartilhar recursos físicos e lógicos, estes podem ser do tipo: dados, impressoras, mensagens (e-mails),entre outros (Redes de Computadores - Teoria e Prática (Douglas Rocha Mendes)


A Internet é um amplo sistema de comunicação que conecta muitas redes de computadores. Existem várias formas e recursos de vários equipamentos que podem ser interligados e compartilhados, mediante meios de acesso, protocolos e requisitos de segurança.
Os meios de comunicação podem ser: linhas telefónicas, cabo, satélite ou comunicação sem fios (wireless).

O objetivo das redes de computadores é permitir a troca de dados entre computadores e a partilha de recursos de hardware e software.
(Architecture of Network Systems - (Dimitrios Serpanos, Tilman Wolf)

História das redes de computadores


Este artigo mostra o histórico das redes de computadores, a evolução das redes. Os períodos são de 1960 à 1972, 1972 à 1980, 1980 à 1990, 1990 à 1996, pós 1996
Pensando em como surgiram as redes de computadores, será apresentado neste artigo a evolução das redes.
  •  1960-1972
A história das redes de computadores iniciou por volta da década de 60, onde a rede telefônica, era a rede de comunicação que dominava o mundo (criação do telégrafo), nesta a voz era transmitida por comutação de circuitos a uma taxa constante entre a origem e o destino. O desenvolvimento de minis e microcomputadores de bom desempenho, com requisitos menos rígidos de temperatura e umidade, permitiu a instalação de considerável poder computacional em várias localizações, ao invés de em uma determinada área, mas faltava um meio para unir estes computadores.

Apesar do alto custo dos computadores nesta década, pode-se dizer que com o surgimento da multiprogramação, começou a ocorrer à necessidade de interligar computadores de modo que se pudessem compartilhar informações entre diferentes usuários e diferentes regiões, esta necessidade surgiu naturalmente pela espera de acontecimentos futuros. O tráfego gerado por estes usuários, ocorreria em uma seqüência de atividades, onde ao acionar um comando a um computador distante (remoto) ,este permaneceria por alguns instantes inativo, explorando e aguardando uma resposta.

Em busca de como transformar a comutação de circuitos em uma comutação de pacotes, três grupos de pesquisa separadamente iniciaram seus estudos. Sendo o primeiro em 1961, onde Leonard Kleinrock nos laboratórios MIT usou a teoria das filas, a comutação de pacotes baseada no tráfego em rajadas.

Já por volta de 1964 Paul Baran do Rand Institute começou a estudar o uso da comutação de pacotes para a segurança da transmissão de voz para redes militares, e na Inglaterra Donald Davies e Roger Scantlebury desenvolviam idéias sobre a comutação de pacotes no National Physical Laboratory.
Estes trabalhos, junto com Lawrence Roberts também no MIT lideravam o projeto de ciência de computadores na ARPA (EUA - Agência de Projetos de Pesquisa Avançada).
Roberts por volta de 1967 publicou a ARPAnet (Advanced Research Projects Agency Network - a precursora da grande rede mundial- a Internet), sendo a rede de computadores por comutação de pacotes.

Os primeiros comutadores de pacotes ficaram conhecidos como IMPs (Interface Message processors), processadores de mensagens de interface, sendo fabricados pela empresa BBN.

Em 1969 o primeiro IMP foi instalado na Universidade da Califórnia com três IMPs adicionais, depois no Stanford Research Institute, em Santa Bárbara e na Universidade de Utah, todos supervisionados por Leonard Kleinrock, sendo a primeira utilização um login remoto entre a Universidade da Califórnia com o Research Institute que acabou derrubando o sistema então com 4 nós. Por volta de 1972 a ARPAnet já tinha 15 nós e foi publicamente apresentada por Robert Kahn na Conferência Internacional de Computadores. O primeiro protocolo de controle de rede deste sistema foi o NCP (network-control protocol), sendo elaborado também o primeiro programa de e-mail por Ray Tomlinson na BBN. Devido a ARPAnet ser única na época era uma rede fechada e para se comunicar com suas máquinas era preciso estar ligado a um de seus IMPs.
  • 1972 - 1980
Continuando o histórico das redes de computadores entre o período de 1972  a 1980:

Por volta de 70 começaram a surgir outras redes de comutação de pacotes como:
  • ALOHAnet: rede de microondas via rádio que interligava as ilhas do Havaí;
  • TELENET: comutação de pacotes comerciais da BBN baseada na tecnologia da Arpanet;
  • TAYMNET e TRANSPAC: rede de comutação de pacotes franceses.
O número de pequenas redes crescia cada vês mais sendo apresentado por Robert Metcalfe os princípios de uma rede local, uma ETHERNET (uma arquitetura de interconexão para redes locais - Rede de Área Local (LAN)) Que mais tarde originariam LANs de curta distância.

O trabalho pioneiro da interconexão de redes foi supervisionado pela DARPA (Agencia de Projetos de Pesquisa Avançada de Defesa), por Vinton Cerf e Robert Kahn, criando uma arquitetura, uma rede de redes baseados na criação de um protocolo, o TCP (Transmission Control Protocol) responsável pela entrega seqüencial e confiável de pacotes. Com o tempo o serviço deste foi modificado devido à procura de um controle maior do fluxo de informações, sendo então dividido o protocolo TCP, ficando responsável somente pela organização na chegada dos pacotes, retirando a função do envio de pacotes, destinando essa ao protocolo IP e criando outro protocolo o UDP que ficou responsável pelo controle do fluxo de voz nos pacotes.

Além das pesquisas realizadas pela DARPA, no Havaí Norman Abramson com a rede Aloha desenvolveu um protocolo, o ALOHA que permitiu o compartilhamento de informações com um único meio de comunicação através de ondas eletromagnéticas, com freqüência de rádio (broadcast) em diferentes localizações geográficas. Este protocolo de múltiplo acesso foi aprimorado por Metcalfe e Boggs desenvolvendo a Ethernet para redes compartilhadas com fios, que surgiu pela necessidade de conectar diversos PCs, impressoras, discos etc.. Este protocolo foi de muita importância, pois, cada rede local (LAN) é uma rede diferente. Já com um grande numero destas pequenas redes, aumentava ainda mais a necessidade de uma rede maior interligado-as.

Outras empresas também desenvolveram suas próprias arquiteturas de redes, a Digital Corporation que lançou sua primeira versão de rede em 1975, a DECnet interligando apenas dois computadores PDP-11, que continuou evoluindo com o conjunto de protocolos OSI (interconexão de sistemas abertos). A Xerox com arquitetura XNS e a IBM com arquitetura SNA, também se destacam os pesquisadores Fraser e Turner com arquitetura TM, cujos reconheciam os pacotes como células e tinham tamanhos fixos.
  • 1980 - 1990
No final da década de 70 aproximadamente 200 máquinas estavam conectadas a ARPAnet não só devido a pesquisas, mas também por ser utilizada para comunicação militar na Guerra Fria onde toda a comunicação passava por um computador central que se encontrava no Pentágono, ao passar esta época de guerra a Arpanet não tinha mais importância para os militares sendo passada então para maioria das universidades e outros pesquisadores que foram estendendo a comunicação por outros países chegando à década de 80 com cem mil máquinas interligadas formando uma grande rede mundial que passou a ser conhecida como Internet. 
A transferência de arquivos e o processamento de e-mails entre as universidades dos EUA eram feitas pela BITnet (rede de bits), e a comunicação com outras universidades não interligadas pela Arpanet eram feitas pela CSNET. No dia primeiro de janeiro de 1983 o protocolo TCP/IP tornou-se oficial, sendo obrigatório estar em todas as máquinas. Em 1986 surgiu o NSFNET o backbone primário que fornecia acesso a outros centros de computação. Também nesta época foi desenvolvido o DNS (Domain Name System), usado para conversão dos endereços em forma de letras e palavras, pois são de mais fácil memorização para nós, na forma de endereço IP de 32 bits, a linguagem dos computadores.
No outro lado do mundo o governo Francês desenvolvia o projeto Minitel, uma rede publica de comutação de pacotes baseada num conjunto de protocolos chamado X.25 que usava circuitos virtuais, terminais baratos e modems embutidos, porém de baixa velocidade, disponibilizava sites de listas telefônicas e outros, havia também sites particulares onde eram pagas taxas pelos usuários conforme o tempo de uso. Em 1990 a Minitel já oferecia 20 mil serviços diferentes, e já era usada por mais de 20% da população Francesa, gerando mais de 1 bilhão de dólares por ano, e 10 mil novos empregos.
Um fato interessante é que a grande rede de computadores na França já estava presente nas empresas, no comércio, nas residências 10 anos antes dos norte-americanos ouvirem falar em uma rede de computadores e menos ainda em uma desenvolvida Internet.
No final da década de 70 aproximadamente 200 máquinas estavam conectadas a ARPAnet não só devido a pesquisas, mas também por ser utilizada para comunicação militar na Guerra Fria onde toda a comunicação passava por um computador central que se encontrava no Pentágono, ao passar esta época de guerra a Arpanet não tinha mais importância para os militares sendo passada então para maioria das universidades e outros pesquisadores que foram estendendo a comunicação por outros países chegando à década de 80 com cem mil máquinas interligadas formando uma grande rede mundial que passou a ser conhecida como Internet.

A transferência de arquivos e o processamento de e-mails entre as universidades dos EUA eram feitas pela BITnet (rede de bits), e a comunicação com outras universidades não interligadas pela Arpanet eram feitas pela CSNET.

No dia primeiro de janeiro de 1983 (01/01/1983) o protocolo TCP/IP tornou-se oficial, sendo obrigatório estar em todas as máquinas. Em 1986 surgiu o NSFNET o backbone primário que fornecia acesso a outros centros de computação. Também nesta época foi desenvolvido o DNS (Domain Name System), usado para conversão dos endereços em forma de letras e palavras, pois são de mais fácil memorização para nós, na forma de endereço IP de 32 bits, a linguagem dos computadores.
No outro lado do mundo o governo Francês desenvolvia o projeto Minitel, uma rede publica de comutação de pacotes baseada num conjunto de protocolos chamado X.25 que usava circuitos virtuais, terminais baratos e modems embutidos, porém de baixa velocidade, disponibilizava sites de listas telefônicas e outros, havia também sites particulares onde eram pagas taxas pelos usuários conforme o tempo de uso. Em 1990 a Minitel já oferecia 20 mil serviços diferentes, e já era usada por mais de 20% da população Francesa, gerando mais de 1 bilhão de dólares por ano, e 10 mil novos empregos.

Um fato interessante é que a grande rede de computadores na França já estava presente nas empresas, no comércio, nas residências 10 anos antes dos norte-americanos ouvirem falar em uma rede de computadores e menos ainda em uma desenvolvida Internet.
  • 1990 - 1996
Na década de 1990 a ARPAnet deixou de existir, a Milnet e a Rede de Dados de Defesa passaram a controlar maior parte do tráfego do Departamento de Defesa dos EUA e a NSFNET passou a ser o backbone de conexão entre os Estados Unidos e todas as redes do exterior, mas perdeu seu valor comercial em 1995, pois essa tarefa passou a ser encargo dos provedores de Internet.

O destaque da década de 90 foi o funcionamento da World Wide Web, nos lares e empresas de milhões de pessoas espalhadas por todo mundo, para fins comerciais, bancários, empresariais, educacionais e para própria diversão. A Web foi inventada no CERN (Conseil Européen pour la Recherche Nucléaire) por  Tim Berners Lee no período de 1989 a 1991, baseados em trabalhos realizados por Bush e Ted Nelson respectivamente nas décadas de 40 e 60. Berners Lee e seus companheiros desenvolveram versões iniciais de HTML, HTTP, um servidor web e um Browser.

O Brasil entrou na rede em 1990 criando a RNP (Rede Nacional de Pesquisas). Em 1992 foi criada a Internet Society e já existiam 200 servidores web em operação, nesta época as pesquisas estavam mais voltadas para o desenvolvimento de browsers com interface gráfica, por exemplo, Marx Andreesen com a versão beta do GUIMosaic em 1993 e James Baker com a Mosaic Communications em 1994 que mais tarde transformou-se na Netscape Communications Corporation. Também nesta época a Embratel disponibilizou o acesso à rede de empresas e usuários particulares.

Em 1995 os estudantes usavam diariamente os browsers Mosaic e Netscape para navegar, e pequenas e grandes empresas começaram a utiliza-los para transações comerciais, já existindo 10 milhões de servidores.
Em 1996 a Microsoft entrou com tudo na web com o browser Internet Explorer. Como o desenvolvimento avançava a cada dia, iniciaram pesquisas por roteadores e roteamento de alta velocidade para redes locais. e recursos como o comércio eletrônico e textos, imagens , multimídia e outros.
  • Pós 1996
Com a enorme evolução do serviço em redes tanto em empresas como em lares surgiram além das redes Ethernet que são redes locais (LANs), redes Intranet que são redes locais ligadas a grande rede mundial, muito utilizada pelas empresas hoje para diversos fins , como comunicação com filiais, comunicação entre setores através de um sistema em rede etc.

A grande rede formada por redes menores é hoje o componente mais importante na área da comunicação a popular e grande rede global de computadores a Internet, ainda não parou de crescer e com certeza não parará, pois o número de usuários tanto para fins empresariais como pessoais aumenta a cada dia, pois, hoje o custo para aquisição, ou acesso a uma rede é menor e tende a ficar cada vez mais barato, e ainda as maiores dificuldades seriam condições técnicas.

Não podendo esquecer que a grande rede ainda continua com os 3 protocolos TCP, IP e UDP criados no fim da década de 70, é claro que aperfeiçoados. As estatísticas apontam que hoje há no mundo em torno de mais de 900 milhões de usuários devido a grande utilidade no gerenciamento empresarial, na políticas, nas residências, escolas, projetos de inclusão digital e em fim na sociedade em geral e que o acesso hoje além do computador ocorre pelo celular, PDAs e outros.

A rede sempre irá mudar, devido a demandas do tempo e do mercado, pois o tempo passa e os recursos devem passar também, é claro que os  recursos úteis sempre irão ficar. Se formos analisar blogs, vídeos , chats , msn , pesquisas,  sites de relacionamentos entre outros  são a base da internet hoje.

13/10/2014

Realidade aumentada


http://www.tecmundo.com.br/realidade-aumentada/48797-crystal-cove-os-novos-oculos-de-realidade-aumentada-da-oculus.htm


Realidade aumentada 


Designa-se realidade aumentada (RA) a integração de informações virtuais a visualizações do mundo real (como, por exemplo, através de uma câmera). Atualmente, a maior parte das pesquisas em RA está ligada ao uso de vídeos transmitidos ao vivo, que são digitalmente processados e “ampliados” pela adição de gráficos criados pelo computador. Pesquisas avançadas incluem uso de rastreamento de dados em movimento, reconhecimento de marcadores confiáveis utilizando mecanismos de visão, e a construção de ambientes controlados contendo qualquer número de sensores e atuadores.

A definição de constantes nucleares sobre a realidade aumentada é a descrição mais consensual. Ela ignora um subconjunto do objetivo inicial da RA, porém é entendida como uma representação de todo o domínio da RA: realidade aumentada é um ambiente que envolve tanto realidade virtual como elementos do mundo real, criando um ambiente misto em tempo real. Por exemplo, um usuário da RA pode utilizar óculos translúcidos, e através destes, ele poderá ver o mundo real, bem como imagens geradas por computador projetadas no mundo.
Azuma define a realidade aumentada como um sistema que:
  • combina elementos virtuais com o ambiente real;
  • é interativa e tem processamento em tempo real;
  • é concebida em três dimensões.
Atualmente, esta definição é geralmente utilizada em algumas partes da literatura da pesquisa em RA (Azuma, 1997). Já existem vários sistemas de manipulação da Realidade Aumentada, disponíveis gratuitamente. Existem aplicações educacionais, jogos e aplicações de Realidade nas mais variadas áreas, como: bioengenharia, física, geologia.



O que é realidade aumentada?
A realidade aumentada (AR) é considerada a tecnologia de ponta que permite uma visão ampliada de forma digital, que percorre o mundo virtual para o real.
O que no passado parecia algo muito distante, hoje em dia a realidade aumentada é algo cada vez mais próximo de nossas vidas. Ela é considerada a sobreposição de imagens no ambiente virtual, que oferece ilusão ou mesmo uma realidade virtual. Com a tecnologia recente, tal realidade tornou-se mais acessível através de smartphones, tablets e outros dispositivos.

A definição de realidade aumentada também se dá através da sobreposição de objetos virtuais, que podem ser gerados por computador, em um ambiente real, através de algum dispositivo tecnológico, que pode ser o próprio computador, ou outro dispositivo. Deste modo, para que a realidade aumentada seja possível, é necessário um dispositivo que possa capturar um vídeo e exibir o conteúdo ao usuário em tempo real.

Aplicação da realidade aumentada
A realidade aumentada, podemos considerar como algo abstrato, no geral, está escondida atrás de imagens, que podem estar presentes em vários tipos de mídias, como as impressas, nos vídeos, ou mesmo em filmes. Em dispositivos móveis, por exemplo, a realidade aumentada pode ser usada em aplicativos que operam em conjunto com uma câmera, bússola e até mesmo um GPS, que podem servir de indicadores de vários locais, como restaurantes, lojas, bares, etc.


No caso citado, o usuário, ao acionar um determinado aplicativo, pode apontá-lo para uma direção qualquer e terá o conteúdo exposto na tela de seu dispositivo, juntamente com a imagem capturada pela câmera. Através da RA é possível fazer simulações com total segurança.
  • Por essa razão, a  tecnologia é muito utilizada em áreas como publicidade, medicina e games, bem como
  • pela indústria automobilística para fazer simulações em 3D dos modelos.
A realidade aumentada pode ser usada para vários fins. Os gamers conhecem muito bem a aplicação da realidade aumentada, já que o recurso é amplamente usado pela indústria de jogos. Porém, a realidade aumentada também pode ser usada para simular o uso de acessórios decorativos em um ambiente, como por exemplo, visualizar tal objeto em um local específico apenas por imagem. Na medicina o recurso também vem sendo bastante aplicado, já que contribui muito em procedimentos cirúrgicos.

Realidade aumentada e Games
Conforme mencionado, a indústria dos games está usufruindo da tecnologia de realidade aumentada, para proporcionar aos gamers cenas mais reais, e com ainda mais interação.

O Oculus Rift é um bom exemplo disso, já que propicia imersão em diferentes jogos. O parelho funciona basicamente substituindo uma televisão, ou seja, transformando qualquer jogo em uma dimensão diferente.






Fonte: 
Wikipedia 
Ronald Azuma
Oficina da Net
Tecmundo

12/10/2014

Suporte para Ubuntu


Canonical anuncia suporte nativo do Ubuntu ao Netflix


Netflix ganha suporte para Ubuntu

Netflix conta atualmente com mais de 50 milhões de usuários no mundo.
A Netflix iniciou a oferta de seu serviço de streaming de filmes e séries no Brasil há três  anos e, somente agora, a Netflix ganhou suporte para computadores equipados com o sistema Ubuntu, o sistema baseado em Linux. O anúncio foi feito no site da Canonical, criadora do Ubuntu.

Os internautas que usavam o sistema, anteriormente, precisavam fazer uma espécie de truque através do terminal para poder assistir os conteúdos da Netflix. Porém, agora já é possível usar o Google Chrome 37 (Lista de atalhos úteis para o Google Chrome) para usufruir do recurso. Porém, vale ressaltar que o computador precisa ter as versões 12.04 LTS, 14.04 LTS ou mais recente do Ubuntu.

A novidade está disponível a partir desta sexta-feira (10), e poderá ser usufruída através de uma parceria realizada entre a Canonical, e o Google, que torna o Chrome 37 no Linux compatível para reprodução de vídeos do Netflix. (7 dicas para melhorar sua experiência no Google Chrome)

A expansão internacional da Netflix iniciou em 2010, no Canadá, o primeiro país, após os Estados Unidos, a receber a oferta do serviço de streaming de filmes e séries. O Brasil recebeu o serviço no segundo semestre de 2011.
A partir de então, a empresa teve grande crescimento e atualmente possui mais de 50 milhões de assinantes espalhados pelo mundo.

Fonte:
Wikipedia
Ubuntu - insights
Canonical
Ubuntu Brasil
Viva o Linux
Diolinux
Oficina da Net

10/10/2014

Vírus Ebola

Saúde

Vírus Ebola


febre hemorrágica ébola (português europeu) ou ebola (português brasileiro) (FHE) é a doença humana provocada pelos vírus do género Ebolavirus.

Os sintomas têm início duas a três semanas após a infeção, e manifestam-se por febre, dores musculares, dores de garganta e dores de cabeça.
A estes sintomas sucedem-se náuseas, vómitos e diarreia, a par de insuficiência hepática e renal. Durante esta fase, algumas pessoas começam a ter problemas hemorrágicos.

A propagação da doença em determinada população tem início quando uma pessoa entra em contacto com o sangue ou fluidos corporais de um animal infetado, como os macacos ou morcegos-da-fruta. Pensa-se que os morcegos-da-fruta sejam capazes de transportar a doença sem ser afetados.

Após a infeção, a doença é transmissível de pessoa para pessoa, inclusive através do contacto com pessoas mortas em decorrência do vírus. Os homens que sobrevivem à doença continuam a ser capazes de a transmitir por via sexual durante cerca de dois meses. O diagnóstico tem geralmente início com a exclusão de outras doenças com sintomas semelhantes, como a malária, cólera ou outras febres hemorrágicas virais. Para a confirmação do diagnóstico inicial, o sangue é posteriormente analisado para detetar a presença de anticorpos do vírus, de ARN viral ou do próprio vírus.

A prevenção é feita através de medidas que diminuem o risco de propagação da doença entre macacos ou porcos infetados e os seres humanos. Isto pode ser conseguido através do rastreio destes animais e, no caso de ser detectada a doença, matando e eliminando de forma apropriada os corpos. Deve-se também cozinhar a carne de forma adequada e é recomendado usar vestuário de proteção quando se manuseia carne. Na proximidade de uma pessoa infetada é recomendado que se lavem as mãos e que seja também usado vestuário de proteção.

Não existe tratamento específico para o vírus. O tratamento envolve a administração de terapia de reidratação oral ou intravenosa. A doença tem uma taxa de mortalidade extremamente elevada – até cerca de 90%. Geralmente ocorre durante surtos em regiões tropicais da África subsariana. Entre 1976, o ano em que foi pela primeira vez identificada, e 2014, o número de casos registados em cada ano foi sempre inferior a 1000. O maior surto registado até 2014 foi o surto de ébola na África Ocidental de 2014. A doença foi identificada pela primeira vez no Sudão e na República Democrática do Congo. Tem havido esforços no sentido de desenvolver uma vacina, embora, à data de 2014, não esteja ainda disponível.
Saiba mais sobre

Vírus Ebola

O vírus Ebola causador da Febre Hemorrágica Ebola é uma doença grave com alta taxa de mortalidade.

O vírus é transmitido através do contato com sangue, vômito, urina, fezes e secreções íntimas da pessoa infectada ou através do consumo da carne de animais infectados, como morcegos frutíferos e 'carnes de caça

Saiba como se prevenir do vírus Ebola 

O Ebola provoca sintomas como febre alta, vômitos e diarreia com progressão para hemorragia interna e falência múltipla dos órgãos. Esta doença ainda não tem cura, nem uma vacina específica, sendo mais frequente na África devido a seus costumes, crenças, hábitos alimentares e também devido ao fraco sistema de saúde destes países.
Saiba mais

Brasil registra primeiro caso suspeito de Ebola.
Nesta quinta-feira (9), o Brasil registrou o primeiro caso de um paciente com suspeita de contaminação pelo vírus Ebola. Em entrevista coletiva nesta sexta (10), o ministro da Saúde, Arthur Chioro, afirmou que a situação está sob controle e que todos os protocolos internacionais foram seguidos.
O homem, de 47 anos, veio da Guiné e foi atendido na Unidade de Pronto Atendimento "UPA II" em Cascavel, no Paraná. Na madrugada de sexta-feira (10), ele foi levado para o Rio de Janeiro. Segundo o Ministério da Saúde, até agora, ele só apresentou um quadro febril, e não foram identificados outros sintomas da doença. O Ebola só é transmitido em caso de contato direto com fluidos corporais ou superfícies contaminadas por fluidos do paciente sintomático.
Acompanha as últimas informações sobre o caso.
O que se sabe até agora


- Quem é ele?
Souleymane Bah, 47 anos

- De onde ele veio?
Da Guiné, um dos três países africanos que enfrentam um surto de Ebola – os outros dois são da Libéria e a Serra Leoa. Segundo da Polícia Federal ele entrou no Brasil dia 19 de setembro, pelo Aeroporto Internacional de São Paulo, em Guarulhos, onde recebeu um visto de turista válido por 90 dias. Seu voo fez escala no Marrocos. No dia 23 de setembro, ele entrou com um pedido de refúgio na delegacia da PF em Dionísio Cerqueira (SC), na fronteira com a Argentina.

- Quando o paciente começou a apresentar os sintomas?
De acordo com o Ministério da Saúde, na quarta (8) e na quinta-feira (9) dessa semana ele apresentou um quadro febril. “Até o início da noite, estava subfebril e não apresentava hemorragia, vômitos, diarreia ou quaisquer outros sintomas. Está em bom estado geral e, mantido em isolamento total.” O vírus do Ebola só é transmitido quando surgem os sintomas. Ele apresenta também tosse e dor de garganta, segundo Chioro.

- Como a suspeita será confirmada ou descartada?
As amostras já foram colhidas e os exames serão feitos no Instituto Evandro Chagas em Ananindeua, na região metropolitana de Belém. O resultado será divulgado em 24 horas. Mais uma amostra será colhida em 48 horas, para análise e avaliação dos resultados, conforme orientam os protocolos internacionais.

- A OMS já foi notificada?
De acordo com o ministério, a notificação foi feita na madrugada desta sexta-feira (10). O país tem 24 horas para fazer essa comunicação à entidade.

- Onde o paciente está sendo tratado?
Ele foi levado de Cascavel, no Paraná, para o Instituto Nacional de Infectologia Evandro Chagas, na Fundação Oswaldo Cruz (Fiocruz), que é referência em doenças infecciosas. Inicialmente, ele foi atendido em uma unidade de pronto-atendimento em Cascavel. Autoridades do Paraná afirmam (Secretaria de Saúde - PR) que todos as medidas recomendadas foram adotadas. A unidade de saúde no Paraná onde ele foi atendido está isolada e será reaberta somente após as 13h por determinação do Ministério da Saúde.

Fonte:
Tua saúde 

Wikipedia 
OMS / Ebola 
CDC - Center for Disease of Control and Prevention 
Medikal notes 
Brasil post

Total de visualizações InfoTec