artigo.pdf (183,1 kB)

 

Windows 8 contará com suporte nativo ao padrão USB 3.0

postado em Software por Emerson Alecrim | tags: microsoft

A Microsoft liberou recentemente a informação de que o futuro Windows 8 contará com suporte nativo ao padrão USB 3.0 (SuperSpeed USB). Isso significa que o usuário poderá utilizar todo o potencial da tecnologia sem necessitar de softwares especiais para isso.

Se o USB 3.0 é o sucessor da especificação USB 2.0, nada mais natural do que esperar que plataformas atuais ofereceram suporte ao novo padrão, não é mesmo? Mas não é bem assim. O anúncio da Microsoft é extremamente importante porque é um reforço e tanto para a popularização do USB 3.0. Isso porque fabricantes e usuários ainda enxergam esta tecnologia com certa desconfiança, sendo um dos motivos para isso o fato de a Apple ignorar o USB 3.0 em prol do Thunderbolt.

Em relação ao USB 2.0, o USB 3.0 representa um grande avanço: pode realizar transferências de dados de até 600 MB por segundo, contra 60 MB da especificação anterior. Além disso, pode alimentar dispositivos que exigem mais energia elétrica, fazendo com que estes não necessitem de uma fonte de alimentação externa. Como não poderia deixar de ser, o USB 3.0 também conta com suporte para dispositivos USB 2.0.

Referência: Building Windows 8.

_________________________________________________________________________________________________________________________________________________________________

 

Entendendo a Internet sob rede elétrica

 

Introdução

Uma nova onda de conexão está vindo aí. Ela é a tão discutida Internet sob rede elétrica, conhecida mundialmente pelo nome BPL - Broadband over Power Lines, ou PLC - Power Line Communications. Como resume a própria Wikipedia, "ela consiste em transmitir dados e voz em banda larga pela rede de energia elétrica. Como utiliza uma infra-estrutura já disponível, não necessita de obras em uma edificação para ser implantada". Basicamente, a internet sob rede elétrica é o encaminhamento do respectivo sinal no mesmo fio da energia elétrica, cada um na sua frequência.

Embora tenha ouvido se falar muito desta tecnologia em meados do ano 2000, no Brasil houve uma grande época que ela não passou dos testes. Em 2001 houve com a Copel (Companhia Paranaense de Eletricidade) e, logo depois, a Cemig (Companhia Energética de Minas Gerais) e a Eletropaulo (Eletricidade de São Paulo) também anunciaram testes em tal ano. Porém, depois disto, além de testes e mais testes pelas companhias, a próxima notícia que tivemos sobre o PLC no Brasil foi em 21/12/2006, quando foi publicada a notícia da inauguração de uma pequena rede em Porto Alegre, Rio Grande do Sul:

"Dados, imagem, voz e vídeo vão trafegar a uma velocidade de 45 megabits por segundo pela rede elétrica da CEEE. O prefeito José Fogaça inaugura o primeiro ponto de acesso à Internet pela rede elétrica às 16h30, no Centro Administrativo Regional Extremo-Sul (Rua Antônio Rocha Meireles Leite, 50 - Restinga).

Com mais de 3,5 quilômetros de extensão, a Rede PLC da Restinga será a maior em extensão do país, em média e baixa tensões, para fins de inclusão social. Nesta primeira etapa, serão conectados à rede de alta velocidade o posto de saúde Macedônia, a Escola Municipal Alberto Pasqualini e o posto local do Serviço Nacional de Aprendizagem Industrial (AEP Senai)."
(https://www2.portoalegre.rs.gov.br/cs/default.php?reg=69748&p_secao=3&di=2006-12-21)

Como vemos acima, a rede atinge somente a extensão de 3,5 quilômetros, algo relativamente curto em termos de Internet massiva. A partir de 2007 aproximadamente, várias empresas começaram a investir no segmento, e em 2008 entrou na discussão de um sinal verde por parte da Anatel e Aneel. Pois bem, em abril a Anatel aprovou, e em agosto a Aneel.

Com a aprovação, as redes usadas para a distribuição de energia elétrica ficam liberadas para a transmissão de serviços de Internet banda larga, sem que isso prejudique a primeira. Assim como a Anatel já fez, a Aneel aprovou a proposta de regulamentação, permitindo então com que as distribuidoras de energia elétrica, como a EDP Bandeirante, Eletropaulo, Cemig e tantas outras por aí, forneçam o serviço através o uso da tecnologia PLC - Power Line Comunication.

A distribuidora de energia terá a liberdade para o "uso privativo da tecnologia PLC", tanto em atividades de distribuição de energia, quanto em aplicações para fins científicos ou comerciais em projetos sociais. Já para uso para fins comerciais, as companhias deverão seguir estritamente as regras previstas em contratos de concessão.

Segundo a nota da própria Aneel, "o emprego da tecnologia possibilita novos usos para as redes de distribuição de energia elétrica, sem que haja necessidade de expansão ou adequação da infra-estrutura já existente. A economia representa a redução de custos aos consumidores que serão beneficiados com a apropriação de parte dos lucros adicionais obtidos por meio da cessão das instalações de distribuição, em benefício da modicidade das tarifas. A Agência prevê que a apuração da receita obtida pelas concessionárias de energia com o aluguel dos fios para as empresas de internet será revertida para a redução de tarifas de eletricidade." O texto ainda diz que "a regulamentação delimita o uso das redes elétricas de distribuição para fins de telecomunicações, garantindo a qualidade, confiabilidade e adequada prestação dos serviços de energia elétrica, gerando incentivos econômicos ao compartilhamento do sistema e zelando pela modicidade tarifária."

Várias concessionárias de eletricidade vêm demonstrando o uso da tecnologia, e algumas inclusive já começaram a implantar testes em larga escala: em abril, "trezentos moradores de Santo Antônio da Platina (Norte Pioneiro) começam a testar, no próximo dia 25, uma tecnologia que poderá causar algum desconforto às provedoras de internet a partir de 2010 - e, nos anos seguintes, provocar dores de cabeça ainda mais agudas às operadoras de telefonia fixa. Quem pretende causar todo esse mal-estar, abocanhando parte do mercado das tradicionais empresas de "telecom", é a Companhia Paranaense de Energia (Copel). A estatal quer fornecer internet de banda "extralarga" e telefonia fixa a seus clientes por meio de uma estrutura que domina há décadas: a rede elétrica. E a preços competitivos." (Fonte: Gazeta do Povo)

Uma das grandes desvantagens desse tipo de tecnologia é principalmente esse: o sinal acaba se corrompendo em distâncias muito longas, de acordo com os seguintes problemas:
 

  • Manter a alta velocidade com longas distâncias, pelo encapamento plástico "roubar" os sinais de alta frequência;
  • Os fios de cobre com tal frequência podem interferir em alguns equipamentos eletro-eletrônicos, por fazer com que os dados gerem ruído no espectro eletromagnético, além de haver possibilidade de corromper os dados pela captura do sinal de rádios e outros;
  • Da mesma forma, alguns aparelhos podem interferir na transmissão;
  • Emendas, "T"s, filtros de linha, transformadores, e o ligamento e desligamento de eletrônicos na rede elétrica causam ecos do sinal, por criar pontos de reflexão, com isso podendo haver corrupção dos dados;
  • Necessidade de instalação de "repetidores" (veremos seu funcionamento mais adiante) em cada tranformador externo (aqueles dos postes), pois filtram sinais de alta frequência.

Esses são os problemas encontrados para o uso do PLC, e analisaremos ao longo do texto. Uma falta de investimentos por parte do governo federal também ajuda neste quesito. Há ainda muitas críticas de radioamadores quanto a interferência junto aos sinais dos transmissores.

Porém, vamos mostrar agora para as vantagens. Entre elas, estão a facilidade de implantação pois, a rede elétrica é a mais abrangente em todos os países, e cobre 95% da população nacional. E não apenas isso, reduz os gastos com implantação de infraestrutura independente, gerando alta economia. isso também gera praticidade, pois bastaria ligar um equipamento como esse na tomada, conectando o cabo de rede em seguida:

ctct
Outro ponto importante é a alta taxa de transmissão podendo chegar a até 40Mbps nas freqüências de 1,7MHz a 30MHz. A segurança também é um ponto importante: ao contrário da rede Wi-Fi, onde um usuário pode tentar se aproveitar do sinal do próximo, no PLC quem compartilha do mesmo "relógio", não tem como compartilhar a conexão de rede, devido à criptografia com algoritmo DES de 56 bits.

Os eletrodomésticos podem também usar uma rede doméstica, com dispositivos Ethernet, USB, wireless ou ponte de áudio, esta conectando o computador às caixas de som, bastando comprar módulos PLC que inclusive já estão à venda, como o mostrado na figura acima.

Passando para o lado mais operacional da coisa, temos o uso dos grids inteligentes. Estes têm a função de monitorar toda a extensão da fiação de energia elétrica, reduzindo perdas na transmissão de energia, gerando também perdas em termos econômicos, já que indústrias e comércios também acabam sendo prejudicados pela manutenção lenta, pois o sistema atual se baseia na informação dos clientes - que após relatarem por telefone a queima de um transformador, por exemplo, esperam até a companhia enviar uma equipe.

Com o grid inteligente, as quedas são reduzidas em 80%, bem como diminuir a energia perdida em 10%, pois, num corte, por exemplo, o grid já aciona automaticamente a central e informa o local do ocorrido.

Além disso, pode ser oferecido um desconto para usuários que não utilizarem o serviço em horário de pico, por exemplo - já que o grid informa à central de forma instantânea todos os dados. Por isso, esta tecnologia dispensa o uso de coletores de informações, aqueles que vão de porta-em-porta. Neste caso também há um envio automático dos dados à central.

"A nossa posição é parecida com a do DSL no final dos anos 90: as pessoas ouviram falar da tecnologia e, ainda que não estejamos tão presentes na vida dos clientes, agora estamos disponíveis", disse Ralph Vogel, porta-voz da Utility.net, uma integradora de BPL baseada em Los Angeles, à IDG Now!.

Iniciativa gigante é a que está sendo feita pela União Europeia. Ela aprovou, em 2007, 9,06 milhões de Euros para apoiar o PLC, desenvolvida pela Opera (Open PLC European Research Alliance), uma aliança determinada a criar novas gerações de tecnologias para redes integradas, e, todo o projeto é co-financiado pela União Européia, beneficiando vários países da Europa - e inclusive outros, por tabela, já que a tecnologia nunca fica num local só. Neste caso foi criado uma rede com especificação DS2, de 200Mbps, para o PLC (ou BPL). A equipe do Opera centralizará o BPL em programas de Internet banda larga, ensino virtual, telefonia VoiP, entre outros serviços inteligentes, e vídeo. A iniciativa teve participação de 26 sócios de 11 países, com a Espanha na liderança.

 

Funcionamento


O princípio básico de funcionamento das redes PLC é que, como a frequência dos sinais de conexão é na casa dos MHz 91,7 a 30), e a energia elétrica é da ordem dos Hz (50 a 60 Hz), os dois sinais podem conviver harmoniosamente, no mesmo meio. Com isso, mesmo se a energia elétrica não estiver passando no fio naquele momento, o sinal da Internet não será interrompido. A tecnologia, também possibilita a conexão de aparelhos de som e vários outros eletroeletrônicos em rede, como já dito acima. A Internet sob PLC possui velocidade não assíncrona: ou seja, você tem o mesmo desempenho no recebimento ou envio de dados.

O princípio de funcionamento da rede comercial é parecido, vamos ao esquema:

esquema2
Veja, que é de modo um pouco diferente do outro, adaptado pela empresa Plexeon (https://www.plexeon.com/), porém com a mesma definição. O sinal sai da estação que o "injeta" na linha, indo para a rede de distribuição - primeiramente à órgãos públicos - e depois às casas, sempre passando por um repetidor ao passo que um transformador passa na linha, e um extrator quando finalmente chega na casa. Note que as casas também podem ser conectadas pelo repetidor.

Para uma rede doméstica apenas, basta ligar um módulo PLC do roteador na rede elétrica, e o do outro computador também, após isso configurando normalmente, como você está habituado a fazer. Esses módulos têm o nome de "USB PowerLine", para ligar na porta USB, ou "Bridge Ethernet 10/100 Mbps Powerline" para ligar diretamente na porta de rede, e é vendido no Brasil por várias empresas, como a Naxos, a Trendnet, Siemens, etc, e pode ser encontrado até no Mercado Livre.

esquema-casaPontos de Acesso Powerline Wireless" que 'capturam' o sinal na tomada mais próxima do computador, e disponibilizam o sinal como um roteador wireless qualquer:

trend

A especificação mais usada hoje é a DS2, que se originou na Europa. Nos EUA, também é usado o padrão HomePlug. As versões comerciais vendidas no exterior hoje possui velocidade média de 200 Mbits/s. O principal diferencial entre os padrões é a frequência - cada uma com suas vantagens. No Brasil, não há ainda padrão definido, e a tendência é que o japonês, americano e europeu reinem juntas.

Como já visto, o BPL não interfere, na sua frequência, em eletrodomésticos, devido às grandezas serem diferentes. Porém, parte da onda média (1,7 a 3 Mhz) e toda a onda média (3 a 30 Mhz) ficam inutilizadas e prejudicadas, podendo outros equipamentos causarem interferências, como motores e dimmers de luz, além de ecadores de cabelos, aspiradores e as furadeiras elétricas, havendo uma menor possibilidade também dos chuveiros elétricos prejudicarem.

Vale lembrar também que os equipamentos PLC não podem ser ligados à no-breaks, estabilizadores ou filtros de linha, pois este bloqueiam sinais de alta frequência.

Bom, e então, o que será do BPL? Apesar de muitas desvantagens, essa nova tecnologia caminha para o mesmo rumo que o maioria: unificação. Transformar a rede de telefonia (através do VoIP), internet e elétrica numa linha só é mais um passo para a evolução. Com relação às desvantagens, podemos dizer que, assim como a tecnologia ADSL, que leva dois tipos de sinais num só fio (dados e voz), e, as interferências podem ser consertadas ao longo do tempo, com novos equipamentos que respeitem essa faixa de frequência, além de outras tecnologias e padrões internacionais que vão sendo naturalmente incorporadas. Ou seja, a maioria dos problemas enfrentados podem ser resolvidos com uma boa dose de tempo. Claro que, essa teoria só é válida se houver interesse muito grande de empresas e principalmente de governos, além de uma cooperação entre companhias de eletricidade, Internet e telefonia. É como a carroça, que pode demorar, mas chega lá. Porém, ela não vai andar se cavalos não a puxarem, muito menos se cada um quiser ir para um lado :-).

No Brasil, obviamente também pode dar certo, pois muitas empresas do setor de elétrica estão continuando seus testes, além de que tecnologias europeias podem ser importadas, isso se nenhuma universidade brasileira desenvolver algo antes. O BPL se mostra como mais uma alternativa de inclusão à Internet, num país onde 95% da população possui energia elétrica. Além disso, como a infra-estrutura é de menor custo, esse sistema mostra-se como uma alternativa mais econômica para os usuários.

____________________________________________________________________________________________________________________________________

O que é Virtualização?

Uma visão geral sobre a Virtualização, tendência que revolucionou o mundo da TI.

Ao falar em virtualização, é inevitável que a maioria das pessoas a associem à ideia de vários sistemas operacionais rodando na mesma máquina. Esse é, na verdade, um dos diversos tipos de virtualização: a de hardware. Se por um lado ela não é a única, por outro é, certamente, a mais perceptível.

O presente artigo contempla os aspectos triviais da virtualização, com noções conceituais, aplicações práticas e sua forma de interação com o usuário final.

A VIRTUALIZAÇÃO EM SI

Para entender perfeitamente o conceito da tecnologia, deve-se traçar um paralelo entre o que é real e o que é virtual. Seguindo essa linha de raciocínio, algo real teria características físicas, concretas; já o virtual está associado àquilo que é simulado, abstrato. Dessa forma a virtualização pode ser definida como a criação de um ambiente virtual que simula um ambiente real, propiciando a utilização de diversos sistemas e aplicativos sem a necessidade de acesso físico à máquina na qual estão hospedados.

Isso acaba reduzindo a relação de dependência que os recursos de computação exercem entre si, pois possibilita, por exemplo, a dissociação entre um aplicativo e o sistema operacional que ele utiliza (já imaginou acessar o Microsoft Word através do Linux?).

Simulação do mundo virtual

E qual é a vantagem?

Prioritariamente, econômica. Com a iminente crise ambiental global (principal fomentadora da TI verde) e a crescente necessidade de diminuir o desperdício de recursos (incluída aí a energia elétrica), não há nada mais natural que o surgimento de alternativas para otimizar o uso de tais recursos.

Agora pense em um computador no qual opere um servidor de e-mails: mesmo que o disco rígido seja plenamente utilizado, não se pode dizer o mesmo sobre sua capacidade de processamento: enquanto ela pode chegar ao ápice em horários de pico (como às 15h), também pode se aproximar da ociosidade durante a madrugada. E se essa “sobra” fosse usada para gerar relatórios, aproveitando melhor o tempo e processamento livres? Na teoria, surtiria a tão desejada economia de recursos; na prática, isso é obtido através da virtualização.

OS TIPOS DE VIRTUALIZAÇÃO

Virtualização de Hardware

Como mencionado no começo da matéria, a virtualização de hardware consiste em rodar vários sistemas operacionais na mesma máquina. Isso é possível com o uso de programas específicos, que geram máquinas virtuais (Virtual Machines, ou VMs): estas emulam os componentes físicos de um PC, possibilitando que um sistema operacional diferente seja instalado em cada uma delas.

Há duas grandes vantagens na adoção dessa tecnologia: uma voltada a usuários, outra a servidores. No caso dos primeiros, o trunfo consiste em eliminar a incompatibilidade entre aplicativos e sistemas operacionais; pense em um usuário cujo PC tenha o Windows Vista instalado, mas que deseje rodar um aplicativo que só é compatível com o Windows XP. Isso é possível com a criação, nesse PC, de uma VM que rode o WinXP: depois disso, basta instalar o aplicativo nessa VM e executá-lo normalmente (como se fosse um computador dentro de outro).

Quando aos servidores, sua virtualização permite que, ao invés de se ter diversos subservidores (que utilizam apenas uma porcentagem dos recursos das máquinas em que estão hospedados), os processos sejam distribuídos de forma equânime entre um número menor de computadores (que, com isso, chegam mais próximos do aproveitamento total de sua capacidade). Isso reduz a quantidade de mão-de-obra técnica, o espaço para alocar as máquinas e o gasto com eletricidade necessários; tudo isso incorre em economia.

Problemas de espaço?

Virtualização da Apresentação

A maioria dos programas disponíveis no mercado funciona no mesmo local em que se encontra a instalação. Isso pode parecer óbvio para usuários tradicionais, mas tal barreira foi quebrada com o uso da Virtualização da Apresentação: trata-se do acesso a um ambiente computacional sem a necessidade de estar em contato físico com ele. Isso propicia, entre outras coisas, a utilização de um sistema operacional completo (bem como de seus aplicativos) de qualquer local do planeta, como se estivessem instalados no seu PC. O conceito é bem parecido com o de acesso remoto, com a diferença de que vários usuários podem se beneficiar do mesmo sistema simultaneamente (sem interferir uns aos outros).

Virtualização de Aplicativos

Cada aplicativo depende do sistema operacional para uma variedade de serviços, como alocação de memória ou gerenciamento de drivers. Resolver incompatibilidades entre determinado programa e o sistema operacional instalado na máquina é fácil, podendo ser feito uso de qualquer um dos dois tipos de virtualização já citados (hardware e apresentação). Mas e quando o conflito é entre dois aplicativos distintos? Pode ser que cada um deles requeira, por exemplo, uma versão diferente de uma mesma DLL.

Isso é resolvido através da virtualização de aplicativos. A técnica consiste em ter uma única cópia de determinado aplicativo, instalada em um servidor virtual; usuários que desejarem ter acesso a tal aplicativo podem fazê-lo diretamente, sem a necessidade de que ele também esteja instalado na máquina física. A partir daí o programa pode ser executado normalmente, já que as características específicas de cada aplicativo (seus drivers, entradas no registro, DLLs e afins) são compiladas e baixadas diretamente para o PC do usuário, através da geração de um aplicativo virtual que fica à parte.

A VIRTUALIZAÇÃO NO FUTURO

A virtualização está chegando com o vento em popa – suas vantagens econômicas são atrativas demais para serem resistidas. A adoção de tecnologias como a computação em nuvens só corrobora para seu inevitável progresso. Será que daqui a alguns anos poderemos acessar nossos PCs de qualquer lugar do planeta? Só o tempo dirá.

 


Contato

Carv consultoria Informatica

Rua Agostinho Navarro
Osasco
06140-000


(11)7844-4186
(11)2383-0835