Tecnologia A Serviço.

Atualmente o uso constante de redes sociais como Twitter e Facebook pelos adolescentes vem chamando a atenção de pais e especialistas em todo o mundo. Tentando entender melhor o impacto deste fenômeno no desenvolvimento dos jovens, a Universidade de Washington, nos Estados Unidos, desenvolveu um estudo que indica que postar na linha do tempo, enviar mensagens, retuitar, “curtir” e compartilhar ajudam no desenvolvimento social dos jovens, dando à eles um senso de pertencimento a um grupo e além de um espaço para a discussão de problemas, o que contribui para o desenvolvimento da identidade.

Já seguiu o TechTudo no Instagram? Procure nosso perfil: @techtudo_oficial

Facebook ajuda no desenvolvimento dos jovens nos EUA (Foto: Reprodução)Facebook ajuda no desenvolvimento dos jovens nos EUA (Foto: Reprodução)

Para o estudo foram entrevistados 32 adolescentes com idades entre 13 e 18 anos, sendo 15 meninas e 17 meninos. No estudo, os jovens reponderam à perguntas sobre os seus hábitos de uso, como eles se comunicam com seus amigos pelas redes sociais e sobre o que costumam conversar, tudo isso acompanhado de uma análise do conteúdos compartilhados por eles.

De acordo com a autora da pesquisa, a professora assistente da Universidade de Washington, Katie Davis, eles acreditam que a comunicação mediada pelo computador ajuda estes jovens a alcançar um nível maior no desenvolvimento social. “O que eles estão fazendo é diferente do que a geração de adolescentes anterior a era digital fazia, mas isso vem do mesmo desenvolvimento básico que eles precisam. Eles só estão usando ferramentas diferentes para suprir estas necessidades”, afirma Davis.

Twitter (Foto: Reprodução)Twitter também está na lista das redes sociais mais
utilizadas pelos jovens (Foto: Reprodução)

Adolescentes que se caracterizam como pessoas tímidas e quietas dizem que para elas é mais fácil falar sobre seus sentimentos e problemas através das redes sociais do que pessoalmente. De acordo com o estudo, esse tipo de conversa de “igual para igual” acontece constantemente através de computadores, smartphones e outros portáteis usando ferramentas como o Twitter, Facebook e YouTube.

Apesar de todos os benefícios, o estudo ainda alerta sobre os riscos deste tipo constante de interação. O fato de os jovens poderem entrar em contato com seus amigos em qualquer lugar e a qualquer hora faz com que os autores do estudo questionem se estes adolescentes conseguem desenvolver um sentido de autonomia enquanto confiam pesadamente nas suas redes online de auto-afirmação. Segundo Davis, isto ainda é uma teoria, mas ela suspeita que tal conectividade apoia o desenvolvimento da ideia do jovem não olhar apenas para si mesmo, mas também para o outro, para a afirmação de um sentido interno de valor e eficácia

O estudo completo (em inglês), será publicado em novembro no Journal of Adolescence.

Tem alguma dúvida de tecnologia? Entre no Fórum do TechTudo!

Via University of Washington

BRASÍLIA e RIO – Já valem a partir de hoje as novas regras de qualidade da internet fixa estabelecidas pela Agência Nacional de Telecomunicações (Anatel). As empresas são obrigadas a oferecer uma velocidade mínima de internet. Os consumidores poderão exigir uma “velocidade instantânea” de banda larga, que não poderá ser inferior a 20% da contratada pelo usuário em 95% das medições realizadas. Até agora, as empresas não tinham qualquer obrigação: o usuário contratava 1MB de velocidade, mas não necessariamente recebia isso. No primeiro ano, a velocidade instantânea será de 20%. Nos 12 meses seguintes, de 30% e, depois, de 40%.

As empresas também ficam obrigadas a ter uma “velocidade média” para a banda larga fixa. Ela é o resultado da média de todas as medições realizadas no mês. A meta é de 60% nos 12 primeiros meses. A partir de novembro de 2013, será de 70%, e após novembro de 2014, de 80%. Para o ministro das Comunicações, Paulo Bernardo, este é um passo muito importante na garantia dos direitos dos usuários:

— Os consumidores vão poder começar a reclamar com dados concretos.

As empresas tiveram um ano para adaptar seus equipamentos às novas regras de qualidade da Anatel estabelecidas no Regulamento de Gestão da Qualidade do Serviço de Comunicação Multimídia. Aquelas que não cumprirem essas metas poderão ser punidas pela agência. No Brasil, 43% dos usuários de internet fixa utilizam até 2MB por segundo e 57%, acima.

Voluntários vão medir desempenho

O Ministério das Comunicações e a Anatel anunciaram em agosto o projeto de medição da qualidade da banda larga fixa no Brasil, também prevista no regulamento, que permitirá verificar se as empresas estão cumprindo as novas regras. Há hoje no país cerca de 19,4 milhões de acessos de banda larga fixa. Para essa aferição, estão sendo recrutados 12 mil voluntários em todo o país, uma amostragem de 0,06% do total. A expectativa do governo é que o usuário escolha a empresa que oferecer a maior velocidade. O primeiro balanço das medições será divulgado em 31 de dezembro. A partir daí, a Anatel fará a sua fiscalização. Serão acompanhadas as empresas Oi, Net, Telefonica Data, Ajato, GVT, Embratel, Sercomtel, Vivo, Cabo Telecom, e a CTBC Telecom, que têm acima de 50 mil clientes.

Os voluntários também receberão relatórios mensais com dados sobre a qualidade do serviço em sua residência ou empresa. A ideia é, a cada ano, trocar 25% dos voluntários, de forma que a agência tenha uma ampla visão do desempenho das empresas.

Os usuários já estão recebendo um whitebox (aparelho que ficará conectado ao roteador), que vai medir a velocidade de envio e recebimento dos dados — arquivos, e-mails, fotos etc. A tecnologia de fiscalização on-line já é utilizada em mais de 30 países, incluindo EUA e Reino Unido. Caberá à Entidade Aferidora da Qualidade (EAQ), de responsabilidade das prestadoras de internet, receber e analisar os dados.

Os primeiros a receber os equipamentos foram os voluntários de Rio, São Paulo e Minas Gerais. Os medidores também já estão sendo distribuídos em Goiás, Distrito Federal, Pernambuco, Ceará, Espírito Santo, Rio Grande do Sul, Santa Catarina e Paraná.

Veridiana Alimonti, advogada do Instituto Brasileiro de Defesa do Consumidor (Idec), considera que 20% é um percentual muito pequeno para ser o mínimo obrigatório de velocidade da banda larga a ser entregue. Mas ela ressalta que foi muito difícil chegar a esse percentual. As empresas alegavam ser complicado garantir uma velocidade média, já que esse serviço sofre muitas interferências. Mesmo após muitas negociações com a Anatel, a Oi entrou na Justiça pedindo a anulação da regra.

— Houve muita pressão da sociedade para que a Anatel cobrasse das empresas informações claras sobre o que estavam entregando, pois a publicidade prometia uma velocidade alta e um serviço ininterrupto, o que na realidade não acontece — explica Veridiana.

Consumidor teria direito a desconto

A advogada do Idec observa ainda que, mais importante que a velocidade mínima entregue, é a velocidade média, para que o consumidor compare os preços cobrados pelas empresas, a fim de escolher uma operadora. E alerta:

— Se o que for informado na publicidade e na oferta do serviço não for cumprido, o consumidor tem direito ao abatimento proporcional.

Segundo Veridiana, se o consumidor não receber nem do mínimo de 20%, seria o caso até de romper o contrato.

No Sistema Nacional de Informações de Defesa do Consumidor (Sindec) da Secretaria Nacional do Consumidor, entre 2009 e 2011, os serviços de internet responderam por 7,66% do total de reclamações. As principais queixas foram cobrança indevida e abusiva (37.9%), rescisão ou alteração unilateral do contrato (15,69%) e não cumprimento da oferta (9,82%).

Leia mais sobre esse assunto em http://oglobo.globo.com/tecnologia/consumidor-pode-exigir-velocidade-de-internet-contratada-partir-desta-quinta-feira-6598055#ixzz2AvcbX9Jp
© 1996 – 2012. Todos direitos reservados a Infoglobo Comunicação e Participações S.A. Este material não pode ser publicado, transmitido por broadcast, reescrito ou redistribuído sem autorização. 

Insanidade: qual o máximo de portas USB que um PC pode ter?

O USB, acrônimo para Universal Serial Bus, é um dos padrões mais inovadores no que diz respeito à conexão de hardware surgidos nos últimos tempos. Se antes dele um dispositivo normalmente precisava de uma placa específica para funcionar, agora basta a instalação de um driver próprio para que o gadget funcione.

Em alguns casos, dependendo do dispositivo e do sistema operacional utilizado, você precisa apenas espetá-lo em uma entrada USB, aguardar alguns instantes até a instalação automática do driver e pronto — o famoso “ligar e usar” (ou “plug and play”).

Webcams, pendrives, HDs portáteis, impressoras, fones de ouvido, smartphones e tablets são apenas alguns dos equipamentos que contam com conexões USB. É bem provável que você tenha alguns desses aí em sua casa — e é bem provável também que às vezes falte espaço para ligar tanta coisa ao seu PC.

127: o número mágico

Se você tem mais dispositivos do que entradas em seu PC, vai precisar de um hub. Ele nada mais é do que um “pente” no qual estão várias outras entradas USB, permitindo um melhor aproveitamento das portas existentes no gabinete do seu computador.

O que você provavelmente não sabia é que é possível conectar até 127 dispositivos simultaneamente em um único PC. Sejam lá quais forem os gadgets, 127 deles poderão funcionar ao mesmo no seu computador (se a máquina vai aguentar rodar todos eles, aí já é outra história). Vale lembrar também que a maioria das fontes comuns de alimentação não vão aguentar tantos dispositivos conectados assim, portanto, não tentem isso em casa.

Por que 127?

Você pode estar se perguntando o motivo de um computador suportar “apenas” 127 conexões USB. A resposta para isso é relativamente simples: cada dispositivo espetado em um PC é identificado por uma sequência binária de sete dígitos.

Se ela é uma sequência binária, isso significa que os números podem ser apenas “1” ou “0”, deste jeito, por exemplo: 0101010. Isso nos diz que são possíveis 128 combinações diferentes, e como a sequência inicial (0000000) é reservada para a configuração inicial, sobram 127 combinações possíveis.

Hub USB (Fonte da imagem: Piro*/Flickr)

É bem provável que você não encontre um gabinete com 127 entradas USB, portanto, basta procurar por hubs em lojas de informática. É possível encontrar modelos com preços e capacidades variadas. Se você gosta de gambiarras, veja o Área 42 onde ensinamos a adaptar um hub USB em um teclado.

viaInsanidade: qual o máximo de portas USB que um PC pode ter?.

O que é Wi-Fi?

que é Wi-Fi?


Apesar de o termo Wi-Fi ser uma marca registrada pela Wi-Fi Alliance, a expressão hoje se tornou um sinônimo para a tecnologia IEEE 802.11, que permite a conexão entre diversos dispositivos sem fio. Amplamente utilizado na atualidade, a origem do termo, diferente do que muito acreditam, não tem um significado específico.

A expressão Wi-Fi surgiu como uma alusão à expressão High Fidelity (Hi-Fi), utilizada pela indústria fonográfica na década de 50. Assim, a o termo Wi-Fi nada mais é do que a contração das palavras Wireless Fidelity, algo que se traduzido não representa muito bem a tecnologia em questão.

Afinal, como o Wi-Fi funciona?

As redes Wi-Fi funcionam por meio de ondas de rádio. Elas são transmitidas por meio de um adaptador, o chamado “roteador”, que recebe os sinais, decodifica e os emite a partir de uma antena. Para que um computador ou dispositivo tenha acesso a esses sinais, é preciso que ele esteja dentro um determinado raio de ação, conhecido como hotspot.

O raio de ação de uma rede Wi-Fi é variável, de acordo com o roteador e a antena utilizada. Essa distância pode variar de 100 metros, em ambientes internos, a até 300 metros, em ambientes externos. O mesmo tráfego de dados ocorre no sentido oposto estabelecendo, assim, a comunicação entre os dispositivos.

Amplamente difundido no mercado, o Wi-Fi hoje busca novos padrões de forma a alcançar velocidades cada vez mais altas na transferência de dados. O Instituto de Engenheiros Eletricistas e Eletrônicos trabalha em um novo padrão que permitiria o envio de dados a velocidades de até 22 Mbps, atingindo distâncias de até 100 quilômetros.

Leia mais em:http://www.tecmundo.com.br/197-o-que-e-wi-fi-.htm#ixzz1w5TcRtC3

Os preços baixam e a tecnologia aumenta

Quando chegamos a algum mercado ou loja especializada em computadores e nos deparamos com valores inferiores aos R$ 2 mil, fica difícil acreditar que cerca de 15 anos antes era impossível comprar uma máquina com configurações aceitáveis por menos do dobro deste valor.

Para sermos mais exatos, os R$ 4 mil de 1996 equivalem a R$ 12.691 de hoje, conforme atualização monetária com base na taxa inflacionária (índice INPC). Ou seja, a redução no valor não foi de apenas 50%, mas de 85%. Mas por que será que os computadores custavam tanto se não possuíam a mesma potência de hoje?

A onda dos valores

A tecnologia trabalha em ciclos muito bem definidos. Aparelhos que custam muito têm seus valores reduzidos gradativamente até que cheguem aos preços mais populares, então surgem novas tecnologias, fazendo com que a curva dos preços volte a subir e o ciclo se repita. Isso pode ser percebido com televisores e suas diferentes tecnologias: CRT, LCD, Plasma, LED e os novos modelos 3D que ainda estão com preços altíssimos.

A tendência é a queda dos valores

Em se tratando de informática, não é diferente. Os componentes de hardware sempre são lançados com valores altos que, com o passar do tempo, são reduzidos. Um dos fatores que mais contribui para a redução nos preços é a evolução tecnológica, pois quando são lançados novos produtos, é necessário reduzir os valores dos mais antigos para que eles não fiquem presos nas fábricas.

Fazendo uma análise bastante rústica, pode-se pensar da seguinte forma: o que aconteceria com os novos eletrônicos, se os antigos não tivessem seus preços reduzidos? Seria necessário vender cada geração com preços mais elevados, resultando em valores astronômicos para peças simples dos computadores.

Para entender melhor como funciona o esquema de ciclo de vida dos computadores e outros eletrônicos, confira este artigo completo que o Baixaki preparou no final de 2010.

Os primeiros computadores pessoais

Até o começo da década de 1970, os computadores eram limitados aos bancos e outras empresas que podiam gastar milhões de dólares para acelerar o processo de cálculo de algumas tarefas. Estas máquinas eram conhecidas como mainframes e não faziam muito mais do que calculadoras poderiam fazer (logicamente, com um fluxo muito mais elevado).

Mainframe IBM 704

Fonte da imagem: Lawrence Livermore National Laboratory

A história continuou sendo escrita da mesma forma até meados de 1971, quando o computador Kenbak-1 foi lançado. Segundo o Computer History Museum, apenas 40 exemplares do computador foram produzidos pela Kenbak Corporation.

Os computadores Kenbak-1 possuíam 256 bytes de memória RAM, não apresentando processador. No lugar dele, a máquina trabalhava com ciclos de instrução de máquina de um microssegundo, o que seria equivalente a um processador de 1 MHz. Ele chegou às lojas por 750 dólares, valor que hoje seria equivalente a 4.098 dólares americanos.

Apple e a popularização dos computadores

Ainda na década de 1970, Steve Jobs e Steve Wozniak fundaram a Apple e lançaram o Apple I, que em 76 seria responsável pela entrada da empresa no mercado de tecnologia mundial. O computador chegou às lojas custando 666 dólares (equivalente a 2.590 dólares atuais), o que gerou muitos comentários negativos por parte de religiosos norte-americanos.

Para resolver este impasse, Steve Jobs deu declarações de que aumentaria o preço dos computadores para 777 dólares, assim as acusações cessariam. O Apple I foi o primeiro aparelho a ser lançado completamente montado, sendo que só era necessário acrescentar um teclado e um monitor para que ele pudesse ser utilizado.

Conheça o Apple II

Fonte da imagem: Bilby

No ano seguinte surgiu o Apple II, já com processador com clock de 1 MHz e 4 KB de memória RAM. O sucesso de vendas impulsionou outras empresas a criarem computadores pessoais, o que foi de extrema importância para a popularização desses aparelhos. Foi nessa época que as máquinas passaram a desempenhar funções mais complexas, como a geração de gráficos coloridos.

Desde o lançamento do primeiro Apple até a última geração dos iMacs, 35 anos se passaram e muito da computação evoluiu. De volta às análises financeiras: a máquina com processador de 1 MHz custava 666 dólares sem monitor, hoje um iMac com monitor integrado pode ser encontrado por cerca de 1.199 dólares.

Corrigindo os valores com base na inflação norte-americana, os 666 dólares se transformam em 2.590 dólares. Ou seja, um computador atual, com processador de 3 GHz e 4 GB de memória custa menos da metade do que custaria um Apple I.

Novos iMacs com configurações arrasadoras

Fonte da imagem: divulgação/Apple

Para que fosse possível se obter a potência de processamento de um computador iMac, seria necessário somar o poder de 3 mil computadores trabalhando simultaneamente para uma única tarefa. Logicamente isso não seria viável, mas vale lembrar que estamos utilizando estes números em caráter ilustrativo.

1 MB de RAM já custou o mesmo que um notebook

Há 25 anos, possuir 1 MB de memória RAM instalado no computador era mais do que suficiente para qualquer um. Mas não era qualquer usuário que poderia comprar “tanta” memória, visto que cada pente de 512 KB não saía por menos de 400 dólares. Um megabyte chegou a custar 859 dólares em 1985 (valor corrigido: 1.766 dólares).

Hoje, 1 MB de memória custa 1 centavo de dólar e não serve para quase nada. Um pente de memória de 1 GB pode ser encontrado por cerca de 13 dólares. Portanto, montar um computador com 4 GB de memória (média para computadores pessoais) custa menos de 100 dólares, cerca de 10% do que seria gasto com 1 MB há 25 anos.

O que você faria com 1 MB?

Como acontece com qualquer produto, o ciclo de vida das memórias RAM é encerrado com o lançamento de memórias mais potentes. Hoje, os pentes que custam mais são os de memória Flash, que devem ter os preços reduzidos de acordo com o tempo. É provável que em 20 anos, outros tipos de memória sejam lançados e os atuais padrões fiquem na história, assim como aconteceu com pentes DIMM.

Processadores já trabalharam com megahertz

Quando os processadores Intel80386 (os populares 386) chegaram ao mercado em 1985, eles possuíam 275 mil transistores ocupando cerca de 1,5 micrômetros. Custando 299 dólares (valor corrigido: 614 dólares), continuaram a ser vendidos até 1994, ano em que a nova arquitetura Pentium chegou aos computadores pessoais.

Hoje, o processador Intel Core i3 (versão mais modesta da nova família de processadores da Intel) oferece aos seus usuários 382 milhões de transistores em uma arquitetura de apenas 32 nanômetros. Enquanto o 386 oferecia clocks de 10 a 40 MHz, os atuais i3 podem chegar a 3 GHz, até 250 vezes mais rápidos.

Intel 386 já foi poderoso

Fonte da imagem: CPU Grave Yard

Podendo ser encontrados por valores que permeiam os 315 dólares, seria possível dizer que os processadores tiveram todo esse aumento de potência sendo acrescidos apenas 15 dólares em seu preço. Isso já seria bom, mas se levarmos em conta os valores corrigidos do dólar, podemos afirmar que o valor do processador foi reduzido em 300 dólares.

Armazenar é preciso

HDs possuem em média, 500 GB

Não adianta ter computadores se não existir um disco rígido para armazenar os dados. Nas máquinas atuais não é possível imaginar menos de 300 GB, sendo que a média dos HDs é de 500 GB. Imaginando que um disco com essa capacidade custa cerca de 35 dólares, cada gigabyte sai por volta de 7 centavos de dólar.

Em 1980, o valor pelo mesmo gigabyte era de 193 mil dólares. Considerando o disco rígido da Morrow Designs de 26 MB, que custava cerca de 5 mil dólares, seriam necessários 38 deles para que 1 GB de arquivos pudesse ser armazenado por completo.

Já imaginou o quanto você gastaria para que fosse possível instalar todos os seus programas favoritos ou baixar todas as músicas que possui no seu HD atual? O valor fica ainda mais absurdo se atualizarmos os valores de 1980 para a cotação atual do dólar: neste caso, 1 GB de HD custaria 518 mil dólares.

Um carro ou um computador?

Há alguns anos esta pergunta era feita para pessoas que tinham algum dinheiro guardado, pois dificilmente elas poderiam comprar os dois ao mesmo tempo. Exatamente, cerca de 40 anos atrás não existiam computadores populares e todos eles custavam mais do qualquer um imagina pagar em máquinas tão simples.

Em 1970, um carro popular podia ser comprado por cerca de 3 mil dólares (17 mil dólares atuais). Com a mesma quantia, seria possível comprar um computador e meio, com as configurações mais básicas da época. Atualmente, computadores com configurações consideradas aceitáveis custam menos de 1 mil dólares, enquanto carros populares custam os mesmos 17 mil.

Carros ou computadores?

Comparando em números mais brutos, pode-se dizer que, enquanto 40 anos atrás era possível trocar um carro por um computador e meio (ou um computador mais potente), hoje com o preço de um carro popular é possível adquirir 15 computadores capazes de rodar os principais aplicativos do mercado.

…..

Você já havia imaginado que os computadores podiam chegar a custar tanto quanto um carro? Deixe um comentário para contar ao Baixaki se você pagaria por um computador com os preços que eram cobrados na década de 1980.


Leia mais em: http://www.tecmundo.com.br/9210-o-preco-da-informatica-o-computador-ja-custou-mais-que-um-carro.htm#ixzz1Xemgwmfr

Imagine se cada dispositivo móvel tivesse sua própria rede de banda larga, sem precisar de um cabo. É dessa forma que Steve Perlman – cientista e fundador da OnLive, o sistema de jogos sob demanda – explica sua tecnologia de “entrada distribuída saída distribuída”, (no inglês, DIDO), um circuito de comunicações experimental que pode tornar as redes móveis atuais obsoletas.

Hoje, se uma rede transmite um sinal com 100 megabits de banda e 100 pessoas estiverem conectadas a ela, a divisão será igualitária. Ou seja, cada pessoa receberá apenas 1 megabit por segundo. Caso mil pessoas estejam conectadas, essa proporção diminui para 100 Kbps por pessoa e assim consecutivamente. Com a tecnologia DIDO, todos receberiam 100 megabits, independente do número de pessoas na rede.

Steve Perlman ao lado da marca de sua maior criação, a OnLive. (Fonte da imagem: OnLiveFans)“Eu sei que isso parece impossível”, disse Perlman em entrevista à Wired, “mas literalmente, se você possui uma célula de 100 Mbps e existem 100 pessoas nela, cada um receberá 100 Mbps. É realmente impressionante; você não interfere na banda dos outros”.

Além disso, de forma resumida, a lista de funcionalidades da rede DIDO parece até boa demais para ser verdade:

  • Sua banda ilimitada eliminará “zonas mortas” e quedas de ligações, independente da localização;
  • O sinal é capaz de passar através de objetos que normalmente barram os sinais dos celulares (como elevadores) sem perder a intensidade;
  • Não necessita de grandes torres de transmissão; basta uma estação de tamanho modesto;
  • Os sinais transmitidos pelas antenas podem chegar a um alcance de até 400 kms.

Naturalmente, esse desenvolvimento não aconteceu do dia para a noite, e os pesquisadores já trabalham nisso a mais de uma década. Só agora que Perlman lançou um documento explicando o funcionamento da tecnologia, que já está patenteada, e suas implementações.

Entendendo a interferência e a nova visão da rede DIDO

Sempre que há uma transmissão de rádio que se sobrepõe a outra, temos interferência. Um exemplo simples é imaginar o que acontece com rádios AM/FM enquanto se está dirigindo. Ao se distanciar de uma central de transmissão de rádio, uma nova pode começar a se sobrepor, o que gera a interferência entre elas. Isso se estende até o ponto em que só a nova estação esteja ao alcance e somente ela passe a ser ouvida. Por isso rádios com mesma frequência ficam longe umas das outras.

Com os celulares, esse problema se torna mais complexo. Devido à quantidade enorme de dados que é transmitida entre as torres e os aparelhos, diversas técnicas de transmissão tiveram que ser implementadas. Contudo, ainda assim é comum termos quedas de ligação e interferências.

Já a rede DIDO não sofre desse problema. Ela funciona de uma forma que lembra mais uma rede Wi-Fi, mas sem as limitações atuais.

Hoje, ao estar conectado sozinho a uma rede Wi-Fi, o usuário recebe 100% do sinal e, ao fazer o stream de um vídeo, ele deverá ocorrer sem problemas. Caso um segundo usuário também se conecte à mesma rede e comece a ver um vídeo, a taxa se torna mais difícil de manter, visto que ambos começariam a “brigar” pela banda disponível.

Mas com um “access point” DIDO esse problema não ocorre. Quando o usuário clica em um vídeo, ele não é enviado diretamente ao computador da pessoa, mas sim a uma central DIDO. Essa central é então responsável por interpretar o dado e transformá-lo em sinal de rádio que será então transmitido ao aparelho do usuário.

Caso um segundo usuário entre na rede, a central processa os dois dados requeridos e envia duas formas de onda diferentes simultaneamente a cada aparelho. Dessa forma, cada um recebe o dado como se estive sozinho na rede, sem haver nenhuma interferência.

Por enquanto as pesquisas foram feitas com até 10 usuários na mesma rede, com sucesso. Contudo os pesquisadores afirmam que esse número pode ser multiplicado para um total de mais de 10 mil usuários.

Caso o leitor queira saber mais a fundo o funcionamento dessa tecnologia, vale a leitura do documento de divulgação publicado por Steve Perlman neste endereço (em inglês).

E quais as chances de isso sair do papel?

Por enquanto é natural que todos fiquem ligeiramente céticos em relação a essa tecnologia. Principalmente porque se a DIDO der certo, poderiam ser removidas todas as limitações de banda que hoje existem, principalmente nas transmissões para celulares. E isso pode ser um problema, pois diminuiria os ganhos das grandes operadores de celular, que não teriam alternativa, senão oferecer banda larga de qualidade e ilimitada por um baixo custo.

Contudo, se isso realmente funcionar, fará uma diferença completa na maneira que lidamos com redes nos dias atuais. Hoje, a parte de transmissão é ainda um dos maiores problemas e a tecnlogia disso em celulares ainda se move a passos lentos, em relação a evolução dos aparelhos que nela ficam conectados.

Além disso, a rede DIDO exigiria uma grande capacidade de processamento pelo lado dos servidores, devido à grande carga de dados que seria transmitida. Entretanto, pelo lado do usuário, os custos seriam pequenos, pois os “access point” não precisariam fazer muito além de receber o sinal e repassar ao aparelho final.

Normalmente um estudo desses poderia passar despercebido, pois parece estar muito à frente da realidade. Contudo, Steve Perlman já provou que pode conseguir grandes feitos. Afinal, quem acreditaria que seria possível jogar Crysis 2 em um computador de baixo custo, possuindo apenas uma conexão com a internet? Portanto se Perlman afirma que a rede DIDO é possível, vamos torcer para que ele esteja certo.

Leia mais em: http://www.tecmundo.com.br/wi-fi/13224-como-as-redes-wireless-dido-vao-mudar-tudo.htm#ixzz1XekRrnu8

As empresas IBM e 3M estão unindo forças para criar um processador com várias camadas, algo similar ao que acontece com mídias ópticas como DVDs e Blu-rays. Segundo estudos divulgados, com a união de esforços de ambas as partes, este chip “3D” poderia unir até 100 outros chips em um único bloco.

Concepção de como será um chip "3D" (Foto: Reprodução)Concepção de como será um chip “3D”
(Foto: Reprodução)

Um dos possíveis problemas do conceito é a geração excessiva de calor que todo o conjunto poderia criar. É neste ponto que entra a 3M, que se comprometeu a elaborar uma espécie de adesivo capaz de propagar o calor para as bordas do “tijolo” sem interromper a conexão que existe entre as camadas. Já a IBM entrará com seu conhecimento de anos com o mundo da informática na construção destes chips.

Segundo informações divulgadas para a imprensa, este bloco poderá incluir até 100 chips ocupando o espaço de apenas um. O resultado é um processador até 1.000 vezes mais rápido do modelo mais veloz do mundo hoje em dia.

Esta economia de espaço e ganho gigantesco de desempenho pode ser extremamente útil para diversos tipos de equipamentos eletrônicos. Os maiores beneficiados, porém, devem ser os portáteis, tais como notebooks, smartphones, tablets ou consoles de videogames muito mais poderosos – e menores – do que temos hoje.

http://www.techtudo.com.br/noticias/noticia/2011/09/ibm-e-3m-juntam-forcas-para-criar-chip-3d.html


Via.: 

%d blogueiros gostam disto: