A evolução da rede multimídia Richard Wise |
Introdução
Na década de 90 o desenvolvimento de multimídia entrou em nova fase. Enquanto a primeira geração de multimídia na década de 80 desenvolveu-se acessando texto, som e imagens de CD ROM em computadores particulares desconectados, a segunda geração na década de 90, era para estabeleceu-se com computadores conectados à infra-estrutura de comunicação existente. Nesse processo, o desenvolvimento das novas tecnologias de multimídia veio a ser conectado com a infra-estrutura tecnológica e institucional estabelecida pela indústria de telecomunicações em curso desde o século anterior. Esta infra-estrutura é baseada em transmissões tecnológicas com e sem fio, sendo que na comparação entre essas duas diferentes mídias de transmissão é importante focar mais em suas similaridades do que em suas diferenças. Nesse contexto, toda a energia luminosa viaja em ondas e, conforme James Clerk Maxwell descobriu em 1860, as ondas de rádio e luz são radiações eletromagnéticas viajando a velocidade da luz e somente diferindo nas freqüências as quais elas vibram. Corrente elétrica não é o mesmo que radiação eletromagnética. Os elétrons que a constituem movem-se muito mais lento que a luz. Todavia, informação pode ser propagada num fio por uma corrente elétrica à velocidade da luz, da mesma maneira como as ondas de rádio podem irradiar. Quando isso é realizado a distinção entre transmissões com fio e sem fio torna-se menos clara. Este capítulo examinará a evolução da rede tecnológica começando com o telégrafo elétrico e os primórdios da telefonia direta, até o desenvolvimento de redes a cabo e via satélite e a Internet. Ao fazer isso, também abordará a importância da compressão, switching e da fibra óptica no desenvolvimento das infra-estruturas da rede. Surpreendentemente o capítulo termina com um retorno à radiodifusão sem fio, salientando o fato que o significado das transmissões necessariamente não muda as oportunidades oferecidas pelo spectrum . A era pré-digital Transmissão por meio de fiação O telégrafo elétrico A idéia de usar eletricidade na comunicação em longa distância remonta do século 18, mas experimentos anteriores de Lamond na França (1787) e Ronalds na Inglaterra (1816) foram dificultados pelos caprichos naturais da eletricidade estática e pelo fato de terem sido adversamente afetados pela umidade. Em 1800 Alessandro Volta inventou a primeira bateria capaz de produzir uma corrente contínua de baixa voltagem elétrica, o Voltaic Pile , e, em 1820 na Dinamarca, Hans Christian Oersted, descobriu que a passagem de corrente elétrica através de um fio próximo a uma agulha magnética podia movê-la. Essas descobertas juntas tornaram possível o telégrafo elétrico. Willian Cooke and Charles Wheatstone patentearam o primeiro telégrafo em 1837 que:
O telégrafo de Cooke and Wheastone foi implantado na estrada de ferro Great Western Railway, em 1839, onde foi usado como meio de monitoramento e controle do material que circulava nas estradas de ferro e, por volta de 1852, mais de 4.000 milhas de telégrafo tinham sido instaladas pela companhia ferroviária Britânica. Havia pouco uso pelo público em geral ou mesmo organizações comerciais até a metade do século 19, quando o público tornou-se ciente da importância do telégrafo, a partir da publicidade dada ao papel que representou na captura de um notório assassino na Inglaterra em 1845. Depois disso o telégrafo veio a ter acréscimo de seu uso nos negócios e pelo público em geral. A mais antiga rede de telégrafo precisou de muitos operadores e o sistema, particularmente perto de centros urbanos, encontrou crescente dificuldade para vencer o enorme amento no tráfego. Entretanto, no decurso da segunda metade do século 19, esses problemas foram amenizados com a introdução de algumas inovações, como telégrafo impresso (o qual imprimia a mensagem transmitida na máquina receptora) e o multiplicador, que enviava várias mensagens no mesmo fio, simultaneamente. Nos Estados Unidos, Samuel Morse e Alfred Vail desenvolveram um sistema baseado em eletroímãs. Em um receptador Morse, um eletroímã energizado por um pulso de corrente atraía uma blindagem de ferro mole na qual gravava os pontos e traços do código Morse em uma faixa de papel, para mais tarde ser interpretado pelo operador. Já no final do século 19 o sistema de telégrafo foi expandido numa escala global com a introdução de cabos submarinos através do Canal Inglês em l850 e no Atlântico em 1860. Por volta de 1900 todas as maiores cidades do mundo estavam conectadas por telégrafo, e a infra-estrutura básica sobre a qual a rede multimídia global do final do século 20 seria baseada já estava pronta. No entanto, telegrafia (literalmente “escrita à distância”) logo foi ofuscada pela telefonia (fala à distância), que proveria às populações das nações industrializadas com uma forma a mais rica e a mais acessível de comunicação. Telefonia O moderno telefone surgiu das investigações de Alexander Graham Bell, em 1870, sobre como os humanos produziam e recebiam os sons. Bell, um médico escocês que mais tarde se tornou cidadão americano, especializou-se no tratamento de pacientes com dificuldades auditivas e, casualmente definiu os princípios básicos da telefonia a partir de suas tentativas de reproduzir artificialmente a fala humana. A inspiração de Bell para saber como isso podia ser realizado veio do cientista alemão Von Helmholtz, que tinha simulado os sons da fala usando corrente elétrica para vibrar um diapasão. Inicialmente, Bell começou a realizar experiências de transmissão elétrica de som à distância. Enquanto o telégrafo trabalhava num princípio digital (mensagens eram transmitidas na forma de discretos pulsos de eletricidade), o telefone de Bell trabalhava num princípio analógico. O bocal do telefone (o transmissor) convertia sons em uma corrente elétrica flutuante que era a representação analógica da onda que carrega o som, enquanto o fone de ouvido (o receptor) convertia de volta a corrente em som. Em 1880 Bell começou vender sua nova invenção nos Estados Unidos, como uma mídia de massa, uma fonte de informação e entretenimento transmitido de uma central para assinantes. Esta concepção de telefonia, como um meio transmissor de música, entretenimento e informação, tinha um grande apelo. Por exemplo, em 1881 na Exposição Internacional de Eletricidade de Paris havia um grande público interessado nas demonstrações telefônicas em que os visitantes foram convidados a escutar musica acústica, lírica e perfomances teatrais através de fones de ouvido. No mesmo período, a Téâtrophone Company of Paris tornava o entretenimento telefônico acessível para as camadas menos favorecidas da população através de máquinas que operavam com moedas. Em 1890 as companhias telefônicas na América do Norte e Europa ofereciam a seus clientes serviços musicais e entretenimento, assim como coberturas de eventos esportivos, discursos políticos e serviços religiosos. Em 1896 a Companhia Telefônica Universal ofertou aos assinantes mais abastados de Londres um acesso a várias peças teatrais londrinas por l0 libras ao ano, mais 5 libras pela tarifa de instalação. Em 1891, o sistema Théâtrophone foi instalado em salas no Savoy Hotel, em Londres, e no mesmo período o Wisconsin Telephone Company , nos Estados Unidos, transmitia música para os assinantes diariamente ao final da tarde e, aos domingos à tarde. No início do século 20 houve exemplos do que nós hoje chamamos de teleconferência. Em 1912 um grupo de executivos do meio jornalístico, em Nova Iorque , tomou parte de uma ligação telefônica múltipla na qual “Taft falou de Boston, o premier canadense Borden falou de Hot Springs Virginia, um poema de Kipling foi recitado do Teatro Daly e uma vocalista apresentou uma canção sulista de um outro teatro de Nova Iorque” . Em Ontario, Canadá, em 1990 o telefone foi até usado para transmitir os procedimentos legais de um julgamento de assassinato, quando transmissores telefônicos foram instalados no tribunal. Os transmissores foram conectados a vinte receptores e alugados para interessados por vinte e cinco centavos a hora. Entretanto, com a chegada do rádio depois da Primeira Guerra Mundial, esmoreceu como um meio de comunicação e entretenimento. Bell e o seu apoiador financeiro notaram que o sucesso do telefone comercial não seria estabelecido em “música melancólica lançada do cyberspace do século 19 mas em sua capacidade de facilitar a comunicação pessoa” . Em 1878 os telefones Bell tiveram um impulso de divulgação quando houve um desastre de trem na cidade de Tarriffville, em Connecticut, quando um farmacêutico pôde usar um dos poucos telefones da cidade para mobilizar médicos da cidade vizinha para o local do acidente. O desastre deu a Companhia Telefônica Bell ampla divulgação, que gerou um crescimento significativo no número de assinantes. A princípio Bell instalou um sistema de ligações locais, para depois começar a construir linhas conectando cidades, espalhando-se rapidamente, sendo que em 1904 já cobria todo o Estados Unidos. A subsidiaria implantada por Bell para agenciar esse negócio a longa distância foi a American Telephone and Telegraph Company ( AT&T). Esta, posteriormente, tornou-se a gerenciadora e as companhias Bell, tornaram-se subsidiárias. Ao mesmo tempo em que o telefone tornou-se um meio de comunicação pessoal, seu declínio como um instrumento de entretenimento e notícias foi ocasionado principalmente pela crescente popularidade do cinema, rádio e gramofone. Uma notória exceção para o declínio do telefone como meio de entretenimento foi o serviço de informação telefone base Húngaro Telefon Hirmond , fundado em 1893. Descrito por Marvin como “o único exemplo de programa contínuo e sistemático do século dezenove que verdadeiramente antecipa o sistema de radiodifusão do século vinte”, Telefon Hirmondo continuou operando após a Primeira Guerra Mundial. Cable Embora em 1920 o telefone tivesse sido substituído pelo rádio como o instrumento através do qual o entretenimento entrava nos lares, fios ainda representavam um papel significativo na transmissão de tais programações devido a problemas técnicos de distribuição. Os problemas técnicos enfrentados nas comunicações via rádio à longa distância, em 1920, advinham do fato de que as transmissões à rádio estão sujeitas a interferência atmosférica, particularmente do vapor de água. Isto demonstrou ser um problema, particularmente nos Estados Unidos, devido a seu tamanho geográfico (transmissões seguras de rádio a longa distância só tornaram-se possível em 1940 quando se descobriu que interferência podia ser reduzida se a freqüência de transmissão fosse aumentada). A solução foi encontrada na transmissão elétrica. Nos EUA uma das primeiras estações de rádio, a WEAF em Nova Iorque , foi implantada pela AT&T que, obviamente, fez uso de suas linhas telefônicas para radiodifusão à distância e para conectar suas estações em outras cidades, estabelecendo, assim, a primeira rede de rádio. As redes de rádio à cabo vieram a ser instaladas na Europa durante o ano de 1920. Na Europa e reino Unido, as primeiras radio difusoras atendiam apenas as maiores cidades, deixando uma grande parte da população sem um sinal satisfatório. Muitos comerciantes aproveitaram a oportunidade para erguer antenas altas e captar o fraco sinal da programação de áreas urbanas ou de países estrangeiros. Eles, então, retransmitiam para assinantes por sistema à cabo. O primeiro sistema de retransmissão foi implantado na Holanda no começo de 1920 e o primeiro a ser instalado na Inglaterra foi em 1925. Por volta de 1935 havia 343 sistemas à cabos na Inglaterra (embora alcançasse somente 3,1 de portadores de licença de radio). O país com maior número de conexões à cabo era a Holanda - em 1939 - com 50 por cento de famílias conectadas. Como a tecnologia do rádio receptor cresceu e a rede de transmissão da BBC se expandiu, as programações à cabo diminuíram no Reino Unido em 1930 e, um número de sistema de retransmissão saiu do mercado. Houve um gerenciamento das emissoras para sobreviver na década de 40, em função das restrições no alcance das transmissões durante o período de guerra, que tinham o intuito de prevenir bombardeiros inimigos que captassem seus sinais. Com o restabelecimento da transmissão televisiva depois da guerra, as cabos operadoras na Inglaterra e Europa receberam novos estímulos, quando elas retomaram a mesma posição que tinham no início do rádio, através de suprimento de sinais para lares com fraca recepção da programação da televisão. Nos Estados Unidos também, disso, a televisão a cabo desenvolveu-se como solução ad hoc para o problema de má recepção do sinal, tanto em áreas distantes dos principais centro populacional como em grandes cidades, onde o reflexo de múltiplos sinais e barreiras físicas dos edifícios dificultavam a recepção. Companhias privadas providenciariam um serviço a cabo para as comunidades com má recepção, enviando para baixo um fio de uma antena em uma área onde o sinal era forte. Esse sistema ficou conhecido como Community Antena Television (CATV). Um dos primeiros sistemas CATV foi implantado em Lansford, Pensilvânia, em 1950 por uma rádio local e televisão varejista que ergueu no alto de uma montanha uma antena conectada por cabo coaxial para cada assinante, uma prática conhecida como “importação de sinal à distância”. Por volta de 1952, setenta companhias de importação de sinal à distância estavam operando nos Estrados Unidos. No princípio as companhias usaram pares torcidos de fios De cobre de telefone permitindo de 2 a 4 canais de televisão, mas como o sistema a cabo veio a ser permanente esse foram trocados por cabos coaxiais, os quais reduziam a interferência externa por ter um condutor de fio ao redor de outro. Cabos coaxial foram capazes de carregar sinais elétricos de freqüência mais alta que os pares abertos de fios de telefone, então as companhias de cabos podiam prover muito mais canais do que estava acessível no ar. As companhias a cabo começavam agora a aumentar as transmissões, tendo canais de programação com outras companhias, de fora da área local. Inicialmente isso foi feito através das antenas principais das companhias de cabo locais, mas cada vez mais, a partir do final década de 60 e início da década de 70, sinais de programação a distância foram transmitidos usando emissões de microondas. Transmissão sem fio O início do rádio Transmissões sem fio evoluíram dos avanços científicos no final do século dezenove. Particularmente, as descrições teóricas das ondas de rádio de James Clarck Maxwell (1864) e a detecção dela no final de 1880 por Hertz, possibilitaram a primeira demonstração de transmissão de rádio feita por Marconi em Salisbury Plain , na Inglaterra, a uma distância de 1.75 milhas (É interessante frisar que, muito antes da era digital, Marconi usou tecnologia digital em forma de pulsos “on-off “ do código Morse). O progresso foi rápido, logo depois. Em 1899 Marconi obteve a primeira transmissão entre França e Inglaterra (atravessando o Canal). A primeira transmissão transatlântica realizou-se em 12 de dezembro de 1901, de Cornwall, Inglaterra para Saint John´s, Newfoundland. Em 1902 o Canadense Reginald Fessenden realizou a primeira transmissão de rádio analógica enviando voz e música a uma distância de 25 milhas . Fessenden fez isso através da técnica de modulação de amplitude, ou magnitude, propagando ondas de rádio com o som das ondas gerado pela fala ou música. O transmissor de rádio gerava a propagação de ondas com características constantes, como amplitude e freqüência. O sinal contendo a informação desejada era então usado para modular o propagador. Essa nova onda, chamada de onda modulada, continha a informação do sinal. Durante a primeira década do século vinte outras técnicas foram desenvolvidas para melhorar a recepção e a transmissão dos sinais de rádio. A mais significante dessas técnicas foi o diodo, ou válvula, produzido por sir Ambrose Fleming em 1905, a qual permitiu detectar ondas de rádio de alta freqüência, e a audion , ou triode inventada por Lee De Forest em 1907, a qual amplificava ondas de rádio. No início da década de 20, a transmissão regular de rádio, com música, entretenimento e notícias, estava acontecendo na Europa e América por companhias públicas e comerciais. Em 1930 o americano, Edwin H. Armstrong, engenheiro de rádio, desenvolveu a técnica de modular a freqüência da onda propagadora (FM) muito mais que sua amplitude (AM), método usado desde Fessenden. Freqüência de rádio modulada provou ser menos propensa à interferência de fontes elétricas naturais ou artificiais, devido a sua constante amplitude. Isso se tornou ideal para as transmissões de televisão e rádio de alta fidelidade. FM foi transmitida em freqüência e potência mais alta que AM rádio (30-300 MHz contra os 0.3-3 MHz) conferindo-lhe uma faixa mais larga que a AM. Esta onda de freqüência muito alta (VHF) capacidade de banda suficiente para propagar dois ou mais canais para produzir, por exemplo, som stereophonic e quadraphonic . Quando a televisão se tornou um veículo de massa após a Segunda Guerra Mundial ela também foi transmitida em VHF a partir do spectrum radiofônico, embora por volta de 1960 a maioria das transmissões de televisão começou a mudar para ultra - alta freqüência (UHF – 300 MHz para 3,000 MHz). Em 1960 mesmo as mais altas freqüências do spectrum de radiofônico começaram ser exploradas muito mais com o propósito de retransmitir chamadas telefônicas que programação.Companhias americanas como Sprint e MCI começaram a explorar transmissões com freqüência super alta de microondas (3,000 para 30.000 MHz), no sentido de conter o monopólio das transmissões das chamadas telefônicas a longa distância da AT&T. Este desenvolvimento tecnológico grande repercussão institucional e política, já que resultou no maior desafio para o monopólio da AT&T em telefonia a longa distância e a conseqüente quebra da AT&T em 1980. (veja capítulo 5) O telefone celular Esse padrão de transmissão híbrida com e sem fio tem sido um destaque na história das telecomunicações. Isso é bem ilustrado pelo desenvolvimento do rádio celular como um meio de estabelecer a telefonia móvel individual. Rádio-telefone não era novo, porém, antes de 1980 era grande e caro, sendo que havia um número limitado de operarações simultâneas por área. Desenvolvido em 1970 pelo laboratório Bell, da AT&T, para ser utilizado em automóveis, o telefone celular foi vendido com grande sucesso para o público durante a década de 1980. O sistema dividia uma área em grupos de células e, cada célula cobria um raio de 8 a 12 milhas , com seu próprio rádio transmissor de cerca de 120 canais de rádio de duas vias. Para eliminar as interferências celulares, células vizinhas não podiam usar a mesma freqüência de rádio, mas a freqüência usada em cada grupo podia ser repetida em grupos adjacentes. Quando o usuário se desloca, o sinal é trocado automaticamente para a célula vizinha. Interatividade Deixando a televisão de lado, o potencial multimídia dos cabos encontra-se no fato de que os cabos coaxiais usados pelas companhias a cabo tem 416.000 vezes mais capacidade do que os pares de fios telefônicos. Isso significa que eles podem entregar não somente pontos de canal de televisão, mas também formas de caminho duplo de comunicação. Com essa combinação de microondas e cabo coaxial algumas operadoras americanas a cabo, por volta de 1970, eram capazes de oferecer a seus assinantes de 50 a 100 canais de televisão com capacidade em dois sentidos completamente ativos, permitindo ao usuário um grau de controle sobre o que lhe é apresentado na tela. Algumas experiências em interatividade à cabo foram conduzidas a partir da década de 70, com variados graus de sucesso. O primeiro, em 1977, foi o Qube , sistema o qual capacitou os usuários responder interativamente, pressionando botões que retornavam os sinais aos computadores a cabo na outra extremidade, para serem analisadas e mostrados. A interatividade oferecida pela Qube para seus assinantes incluía as possibilidades de competição com outros telespectadores em shows de enigma, e voto para a mais popular personalidade dos melodramas, bem como compras. Ainda que o sistema tenha tido grande repercussão, ele não provou ser rentável e foi descontinuado em 1984. Durante os anos 80, a forma mais importante de interatividade era o pay-per-view , onde os telespectadores podiam escolher um programa por uma taxa extra. Na Inglaterra o cabo nunca veio a ser tão difundido quanto nos Estados Unidos, porque a transmissão terrestre geralmente era melhor. Na década de 50, cerca de um milhão de lares ingleses estavam conectados, no sentido de obter melhor recepção, mas como os transmissores se tornaram mais potentes, o número de casas conectadas caiu. Durante a década de 1970 o número de assinantes a cabo parou de crescer e começou a cair. A indústria perdeu 140.000 assinantes em 5 anos, e teve início um lobby por maior liberdade na distribuição adicional da programação, particularmente filmes, com o objetivo de manter os clientes já existentes e atrair outros novos. Até essa época, um forte lobby , da década de 1930, (particularmente pela BBC), restringia às operadoras a cabo simples retransmissão da programação dos canais existentes. Satélite Surpreendentemente, o desenvolvimento tecnológico que mais contribui para o rápido crescimento na televisão a cabo, particularmente nos Estados Unidos foi a comunicação via satélite. Em 1970, somente 11% dos lares americanos estavam com conexão a cabo nos Estados Unidos. Em 1975, ano do primeiro satélite, houve um crescimento para 12 por cento e, na década de 1990, com a distribuição, por satélite, de canais dedicados a filmes e esportes, mais de 63% dos lares americanos estavam conectados a cabo. Cabo, nos Estados Unidos, se tornou um negócio multimilionário, e seu sucesso inspirou outras iniciativas ao redor do mundo, particularmente na Europa. Originalmente, o satélite foi concebido no sentido de tornar a distribuição de microondas mais acessível. O primeiro satélite de comunicação, desenvolvido pela iniciativa priva da Telstar, foi lançado em 1962. A Communications Satellite Corporation (COMSAT) foi incorporada em 01 de fevereiro de 1963 a uma companhia americana privada para criar, em conjunto com as administrações de telecomunicações de outros países, um sistema comercial de satélite de telecomunicações. Em meio de 1964 a International Telecomunication Satellite Consortium (INTELSAT) foi formada por 110 países para gerenciar a comunicação internacional via satélite. Em 1965 a INTELSAT lançou o Intelsat I, mais conhecido como Early Bird – pássaro matutino – o primeiro satélite de comunicação comercial geosicronizado do mundo (que foi precedido, em 1963, pelo satélite Syncom II, também geosicronizado, porém experimental). Um satélite com órbita geosincrônica a uma distância de 22.500 milhas da terra leva vinte e quatro horas para completar uma órbita. Já que, isso é o mesmo tempo que a terra leva para dar uma volta em seu eixo, ele surge “ flutuando “ sobre a mesma localização e pode ser usado para transmitir sinais de comunicação, conseqüentemente para a mesma área de cobertura ( footprint ). A primeira conexão significativa entre satélite e cabo ocorreu em 1975, nos Estados Unidos. A Home Box Office (HBO), um canal de televisão pago, usou o satélite para transmitir a luta de boxe entre os campeões, pesos pesados, Mohammed Ali e Joe Frazier, de Manila nas Filipinas para os assinantes a cabo nos Estados Unidos. HBO, originalmente, tinha sido implantada para fornecer filmes de longa metragem para a rede a cabo usando as conexões das microondas na terra, mas depois do sucesso da transmissão de Ali-Frazier ficou claro que satélite supria com muito mais eficiência e custo-benfício a distribuição. HBO começou vender seus serviços de filme para companhias a cabo nos Estados Unidos e logo foi seguida por outras companhias incluindo o serviço de noticias vinte e quatro horas da CNN e o Superchannel da Geórgia, ambos pertencentes à Turner Broadcasting System of Atlanta . A disponibilidade desses canais extras de televisão tornou a rede a cabo muito atrativa para o público e resultou em grande expansão n a década de 80 com a maioria das principais cidades dos US concedendo franquia para as companhias a cabo. Em 1975, o ano da transmissão de Ali-Frazier, 12% dos lares nos Estados Unidos possuíam TV a cabo; cinco anos mais tarde, em 1980, esse número tinha aumentado mais de 20%. Por volta de 1985, 43% dos lares dos US estava conectado a cabo, e em meados da década de 1990, tinha crescido mais de 63%. Satélite de programação direta ( DBS ) No final da década de 1970 algumas pessoas compraram suas próprias antenas parabólicas com a finalidade de receber gratuitamente os programas que eram transmitidos para as cabos operadoras. A resposta dos provedores de programa de satélite foi dificultar seus sinais, pois desse modo somente as companhias a cabo com decodificador próprio poderiam recebê-los. Oportunamente, na metade da década de 1980, os programadores de satélite permitiram às companhias independentes, vender decodificadores para os proprietários de antenas parabólicas. Ter que pagar por um serviço, inicialmente levou a uma queda de vendas de antenas nos Estados Unidos e o predomínio a cabo significou que o DBS não teve um grande impacto, sendo que por volta de 1988, menos de 4% das residências americanas possuíam antenas. DBS, na Inglaterra, começou em 1989 com o estabelecimento da SKY Television seguida pela British Satellite Broadcasting ( BSB ) em 1990 (entre 1982 a 1989 a Sky operou com um satélite de baixa potência para o sistema a cabo). As duas companhia fundiram-se em 1990 para formar a BSkyB ( British Sky Broadcasting – embora, na verdade, a Sky assumiu a BSB ). Nesse início, a BSkyB lutou para obter lucro. Entretanto essa situação mudou dramaticamente quando a companhia venceu o contrato para mostrar ao vivo, em 1992, o futebol da primeira liga inglesa. Na Inglaterra, as antenas parabólicas foram muito mais absorvidas que em qualquer outro país do mundo A programação de futebol da Sky reavivou a agonizante indústria a cabo ( ao passo que as companhias à cabo habilitadas contribuíram para baixarem as tarifas telefônicas da British Telecom , depois de 1991, que também contribui para o crescimento de assinantes a cabo). Computadores e Comunicação O processo de tornar existente a rede de telecomunicações dentro de portadores potentes de multimídia, começou na década de 60 quando a primeira troca para telefone digital foi implantada usando Pulse Code Modulation ( PCM ). PCM converteu os sinais analógicos de voz em sinais digitais, digitalizando a forma da onda. Nesse estágio a aplicação da tecnologia dos computadores para o sistema de telefone foi visto como um simples meio de aumentar a capacidade de trabalho dos circuitos. No final da década de 1990 a digitalização conduziria a convergência do telefone, cabo e indústrias de programação, como transmissores de multimídia para o mercado de massa. O modem O passo decisivo no processo de convergência digital foi a invenção do modem por Ward Christensen em 1977. Isso tornou possível a conexão de computadores entre si por meio de linha telefônica. Na verdade, bancos de dados comerciais on-line tinham aparecido nos finais dos anos de 1960, mas usavam linhas exclusivas para fornecer informações para clientes em terminais distantes. O mercado de banco de dados, na realidade, somente decolou depois da invenção de Christensen. O modem (da contração de MODulator, DEModulator) converte os sinais digitais do computador em sinais análogos da linha telefônica. Esses são então, transmitidos pela linha telefônica para um outro modem o qual converte de volta as ondas de som em uma corrente de bit ( bit-stream ) que o computador pode ler. O modem reduziu dramaticamente o custo da conexão dos computadores às linhas telefônicas e, em 1979, somente dois anos depois da sua invenção, já havia 33 milhões de transações de dados, por ano, somente entre os computadores ingleses. Em 1983 isso já tinha dobrado para 74 milhões de transações. Durante a década de 1980 várias companhias implantaram serviços de banco de dados que utilizavam modens para entregar informações para assinantes comerciais, particularmente em serviços financeiros, advocacia e bibliotecas. O uso do serviço de banco de dados veio a ser uma fonte significativa de renda para as companhias telefônicas. O modem tornou possível para os computadores a conexão via infra-estrutura da rede mais difundida do mundo, o sistema de telefonia. Entretanto o sistema de telefone a fio de cobre, e o mais novo, mas menos comum rede de cabos, não teve capacidade suficiente na largura da banda ( bandwidth ), para entregar as mais sofisticadas multimídias interativas disponíveis, por exemplo, em CD-ROM. O sistema de dados on-line desenvolvido durante a década de 1980, só podia transmitir texto ou dados numéricos ou, em alguns casos, simples linhas gráficas. As vantagens da digitalização O começo da transmissão digital mostrou que as limitações do fio de cobre, e certamente todo meio de transmissão podiam ser vencidas pela computação. As principais técnicas usadas para melhorar o volume de informações que pode ser transmitido por um certo meio são primeiramente, compressão digital, que converte grande quantia de informação digital para uma quantia menor de transmissão, e segundamente, o packet-switching ( swithtching “empacotado”) que tem tornado possível o fenômeno da Internet. Bandwidth Bandwidth (“largura da banda”) é o termo usado na teoria da comunicação para definir a capacidade de um canal de comunicação em carregar informações medidas em Hertz ou ciclos por segundo. A voz no telefone requer uma bandwidth de 3-4 kHz (milhares de ciclos por segundo), entretanto imagens de televisão requerem 6-8MHz (milhões de ciclos por segundo). A mais extensa bandwidth de um canal de comunicação, o maior alcance de freqüência e, portanto informação, pode ser enviado num tempo determinado. Somente a transmissão de voz em telefone de qualidade normal requer uma bandwidth de 64.000 bits por secundo (64 kilo bits por segundo). Enviar som e imagens em movimento requer a maior de todas as bandwidth com uma quantia dependendo do tamanho da tela e da taxa do frame do vídeo. Uma imagem de vídeo de três cores com 1.024 pixel por 768 pixel correndo trinta frames por segundo requer uma bandwidth de 566Mbits/s (milhões de bits por segundo). Compressão As técnicas de compressão funcionam reduzindo o número de bits que têm que ser transmitido para transportar uma quantia de informação dada. Preferível a aumentar a bandwidth média de transmissão, a compressão usa a força disponível do transmissor e receptor final para reduzir o número de bits a serem transmitidos. O princípio da compressão pode ser melhor compreendido considerando o caso do vídeo digital. Transmitir uma imagem em televisão digital requer uma taxa de dados de 217 megabites por segundo. Entretanto, não se torna necessário repetir isso por todo o frame, já que, de frame para frame grandes partes da cena não trocam. Por transmitir somente aquelas porções de imagens que trocam, a quantia de bits que tem que ser transmitida pode ser, consideravelmente, reduzida. Vários padrões de compressão têm sido adotados, os mais importantes para compressão existente para a compressão de vídeo moção ( motion video ), são aqueles estabelecidos pela Moving Pictures Expert Group ( MPEG ). A compressão MPEG-1 pode reduzir entre 50 e 200- fold a quantidade de dados que precisa ser transmitida para sustentar uma imagem de vídeo de 320 pixels por 240 pixels com um som de qualidade de CD a 30 frames por segundo. A redução dependerá de quanta mudança há de frame para frame. O rápido desenvolvimento de técnicas de switching e compressão de softwares , em laboratórios de pesquisa de companhias telefônicas resultou na metade da década de 90 na possibilidade de transmitir vídeos de qualidade VHS - vídeo de baixa qualidade em fios duplos torcidos de cobre. Como Gilder explica:
Tanto quanto o aperfeiçoamento na qualidade das imagens, quanto a capacidade extra dada às transmissões a fio pela digitalização tornou possível para as companhias a cabo oferecer a seus assinantes um alto nível de interatividade. Por exemplo, em 1993 a companhia de cabo Videotron, com franquias em Londres e sul da Inglaterra, introduziu um sistema que permitia aos telespectadores escolher diferentes câmeras em jogos de futebol tanto assim como assistir aos replays. Switching O uso mais antigo do processo digital na comunicação, como temos visto, foi no telefone central com a introdução do switching eletrônico. A rede de telefone é uma rede switched : isto é, o caminho ou circuito, necessário para conectar um telefone a outro é criado e mantido somente durante cada chamada individual de telefone. Nos primeiros tempos, os sistemas switching de telefone eram realizados por operadores humanos que usavam plugs switchboard para fazer o caminho da uma linha para outra. No início do século vinte centrais telefônicas automática começaram a substituir os operadores manuais. (A primeira central automática de telefone público da Inglaterra abriu em Epson, Surrey em 1912). Essas centrais automatizadas usavam transmissões automecânicas e switches que eram controlados por dígitos discados, um sistema inventado em 1889 por Almon B. Strowger, um empreiteiro em Kansas City. O Switching eletrônico mecânico reduziu a necessidade de operadores, mas não era flexível e precisava de considerável manutenção. Entretanto centrais Strowger ainda operavam em 1990. Uma das últimas, a central Strowger, empresa privada de Catford, Inglaterra, somente fechou em 1995. Entretanto com a introdução dos switches eletrônicos, na década de 1960, foi possível computadorizar os switches eliminando de maneira efetiva a distinção entre comunicação eletrônica e computação já que ambos desviam os bits de informações em torno sob o controle de programas armazenados. Com esse desenvolvimento veio a concepção de “rede inteligente” na qual a rede de telecomunicações podia ‘processar, determinar o caminho e armazenar informações usando switches digitais e conexões de transmissão, computadores e banco de dados'. A vantagem inicial dessas tecnologias para o sistema de telefonia foi que a tornaram mais eficiente, possibilitando detectar e eliminar os erros de transmissão. A digitalização também evitou que o sistema se tornasse congestionado redistribuindo mensagens para fora dos circuitos sobrecarregados. Somente mais tarde foi percebido que switches digitais controlados por programas permitiam serviços extras para serem oferecidos para usuários de telefone, incluindo centrais virtuais, serviços de atendimento, despertador, chamadas reprogramadas e cartão telefônico. Mas definitivamente a digitalização do sistema telefônico aumentou a possibilidade das companhias telefônicas e a cabo superar as limitações da bandwith e da infra-estrutura de cobre existente para entregar serviços multimídias a seus assinantes. Como Gilder explana:
O mais vasto método usado de switching digital para a transmissão integrada de voz, dados e imagens em forma digital através de rede telefônica é a Integrated Services Digital Network - ISDN (Rede Integrada de Serviços Digitais). Uma linha ISDN pode carregar dois canais de 64-kilobits-por-segundo para um cliente usando dois pares de fios de cobre torcidos. A International Telecommunications Union estabeleceu padrões para ISDN já no ano de 1984. As tecnologias seguintes - tais como high bit rate digital subscriber line, HDSL (linha digital de alta taxa de bit assinada) - melhorou consideravelmente o ISDN entregando trinta canais (2 Mbit/s) por duas ou três linhas de cobre para os assinantes. Asynchronous Transfer Mode (ATM) tecnológico é uma outra tecnologia de switching em desenvolvimento pelas companhias de telecomunicações, e é alegado que pode promover o crescimento da disponibilidade máxima de taxa de bit para além de 6 Mbit/s. ATM permite qualidade de vídeo VHS para os lares através de linhas telefônicas de cobre. Nos US vários testes usando ATM foram executados, como o notável Time-Warner Cable/Silicon Graphis Full Network ( FSN ). Em 1994 um estudo piloto envolveu 4.000 lares em Orlando, Florida postos em rede usando as últimas tecnologias de transmissão, switching e compressão. O sistema tinha um tronco de fibra ótica para as imediações de até 500 casas e os serviços entravam nas casas por cabo coaxial. Em 1995 houve um teste ATM em East Anglia , Inglaterra conduzido pela British Telecon (BT), Apple e Oracle no qual as famílias eram habilitadas aptas a selecionar vídeos e outros serviços por transmissão para dentro de suas casas, através de linhas telefônicas de cobre. Packet switching A chave da tecnologia switching para o desenvolvimento de uma infra-estrutura digital universal tem sido o packet switching ( switching “empacotado”). No capítulo 1 nós descrevemos como os cientistas tentando assegurar a sobrevivência do sistema de comunicação militar no evento em que a guerra nuclear fez uso do packet switching . Em uma rede empacotada, mensagens são divididas em pacotes uniformes com um cabeçalho dando (a) o destino para qual ele é endereçado, (b) a mensagem da onde ele pertence e (c) sua posição na mensagem. Os vários hóspedes da rede de computadores lêem e encaminham os pacotes diferentes e, toda a mensagem é então, reunida quando alcança seu destino final. Os primeiros testes de packet switching foram executados na Inglaterra em 1968 pelo National Physical Laboratory (Laboratório Nacional de Física). O packet switching formou a base da Rede de Agências de Programas de Pesquisas Avançadas - Advanced Research Programs Agency Network (ARPANET) – financiada pelo Pentágono, que foi implantada em 1969. Era ARPANET que veio a ser o alicerce da Internet. A Internet O significado do packet switching para a Internet é, conforme Howard Rheingold chama atenção, desdobrável em duas partes:
Falando mais precisamente, “Internet” é qualquer rede de redes e, muitas organizações acadêmicas, comerciais e militares já tiveram seus computadores conectados dentro de uma rede local ( LANs) há alguns anos. O processo pelo qual a Internet – com a letra maiúscula I – começou a existir, é que uma dessas LANs foi progressivamente capaz de falar uns aos outros através do uso de packet switching e padrões comuns para a troca de informação digital, conhecidos como protocolos. Conforme vimos anteriormente as origens da Internet encontra-se com a ARPANET. A espinha dorsal da ARPANET era baseada em computadores PDP 8 e PDP11 situados em universidades americanas que foram ligados por linhas de telefone permanentes abertas. Originalmente usados para facilitar as comunicações entre militares e pesquisadores acadêmicos trabalhando em contratos militares, ARPANET em 1983, generosamente, como resultado de redução militar atravessou uma enorme reorganização. O principal resultado foi que isso a dividiu em seção militar e seção civil. A Internet cresceu na seção civil da ARPANET. Da ARPANET veio o IP - Internet Protocol designado para deixar qualquer computador em comunicação com qualquer outro via sistema telefônico. Nos US, sob a proteção da National Spience Foundation Network (NSFNET), o IP foi adotado por organizações governamentais e acadêmicas com o objetivo de trocar informações entre seus principais computadores e também como método de comunicação escolar usando o correio eletrônico. Eventualmente, sites de educação e pesquisa, que não tinham feito parte da ARPANET original, adotaram o IP como fizeram, mais tarde, quase todas as outras LANs no mundo. O interesse comercial na Internet começou em 1989 quando a companhia americana, CompuServe, primeiro preocupou-se em prover um serviço de banco de dados e começou a oferecer acesso a Internet a seus assinantes ansiosos para usar e-mail. CompusServe foi seguida pela América Online e Delphi, em 1993, que ofereceram acesso a banco de dados, correio eletrônico, assim como, serviços de bate papo on-line. Esses serviços provedores também permitiam a seus assinantes receber e enviar softwares e arquivos de computador usando protocolo de transferência de arquivo (ftp) assim como interagir com computadores mais distantes. (telnet) Internet browsers Um dos problemas em se obter aceitação da Internet pelo público em geral foi a dificuldade de usar o software associado. De muitas maneiras isso se comparou às dificuldades enfrentadas pelos mais antigos computadores pessoais antes da evolução e aceitação da Interface do Usuário Gráfico (Graphical User Interface – GUI) na década de 80.O desenvolvimento que mais superou esse problema e começou a estabelecer a Internet como um meio de massa foi o World Wide Web (Ampla Teia Mundial) - WWW ou W3. A World Wide Web foi desenvolvida por Tim Berners-Lee um físico da CERN ( The European Laboratory for Particle Physics – Laboratório Europeu da Partícula Física) como um meio de facilitar o trabalho em grupo e trocar informações com seus colegas. Em 1991 Berners-Lee dispôs seu programa WWW livremente na Internet. A WWW é baseada na concepção de hipertexto. Hipertexto trabalha com o princípio de criar ligações entre dados digitais que então, ao clicar em uma palavra na tela do computador com um mouse trará à tela uma definição, uma imagem, um texto de artigo ou um som. Na WWW a informação é inserida em documentos na rede usando um formato hipertexto chamado Hypertext Markup Language (HTML) em que o browser interpreta como texto, estilo ou cor ou como um link para outro endereço ou algum lugar a mais na Internet. O WWW usa um protocolo chamado Hypertext Transmission Protocol ( http ) o qual permite a qualquer computador “falar” com outro computador indiferente do seu sistema de operação. O World Wide Web funciona no modelo servidor-cliente onde um provedor de informação passa a um servidor que segura a informação tornando-a disponível para um cliente em qualquer outro lugar pela Internet. A flexibilidade do sistema permite ao indivíduo usar programas “ helper ” (de ajuda) para exibir animação, vídeo ou tocar música. Programas para clientes que permitem ao usuário “navegar” são conhecidos como browsers e se parecem e trabalham muito semelhantemente ao aplicativo Apple´s HyperCard (veja capítulo 3). O primeiro browser bem sucedido foi Mosaic, desenvolvido por Mar Andreeson e Eric Bine do National Centre for Supercomputing Applications ( Centro Nacional de Aplicações de Supercomputador), NCSA nos EUA. Andreeson deixou a NCSA para implantar uma nova companhia, Netscape, com o objetivo de desenvolver suas idéias. Em 1994, o primeiro produto da Netscape, o browser Navigator, foi distribuído livremente pela Netscape, pela Internet, para organizações não lucrativas e educacionais, logo superou o Mosaic em popularidade. Organizações comerciais tiveram que pagar e isto deu a Microsoft a chance de obter uma competitividade aguçada quando eles lançaram seu browser Internet Explorer, baseado no Mosaic, gratuitamente em 1996. A Netscape teve que responder diminuindo o preço comercial do Navigator. Em 1997 a Netscape deu um passo a mais e lançou o código de fonte para Communicator. O código de fonte é o texto do programa produzido pelos programadores em uma linguagem como C++. Costumeiramente o código de fonte é patenteado sem acesso para os usuários. Deixando o código fonte livremente disponível, a Netscape dizia para os usuários que não havia características escondidas no software que poderiam secretamente armazenar informações de seus PCs e isso também deu aos escritores de softwares a oportunidade de desenvolver o próximo programa. No fim da década de 90 um número das então chamadas tecnologias “convergentes” tinham sido desenvolvidas para facilitar a transmissão de canais de televisão na Internet. Exemplos dos produtos convergentes incluem Microsoft´s WebTV, a híbrida TV-PC, com intenção de prover acesso a Internet pelo sistema a cabo. Outro exemplo dessa tendência foi a Apple´s iMac lançada em 1998. Ela é baseada no sistema operacional da Macintosh e combina as funções da WebTV - como um aparelho de acesso a Internet com um CD ou DVD player. Transmissão digital sem fio Uma das outras características da digitalização e packet switching é que eles podem ser aplicados facilmente tanto para transmissão sem fio quanto com fio. Pela metade da década de 90 tecnologias de rádio digital tornaram isso possível ao transmitir a mesma gama de freqüências através do ar tanto quanto por cabo coaxial. Uma vantagem importante da transmissão digital em qualquer meio, como temos visto, é que ela pode levar vantagem nas técnicas de compressão por prover muito mais canais a uma freqüência dada. Para transmissões via satélite isso também significa mais custo-benefício do caro transponder time. A transmissão de televisão digital também tem algumas outras vantagens. Ela torna possível a alta definição nos formatos widescreen , tanto quanto, permite baixar o código para ser salvo pelo receptor para fornecer interatividade, por exemplo, para jogos. A transmissão digital também promete transformar a mais antiga forma de transmissão: o som do rádio. Em 1996 a Bosch da Alemanha e a Deutsche Telekom, as operadoras de telecomunicação, demonstraram um sistema DAB-TV que era um rádio/televisão híbrida, e em 1996 a BBC lançou um serviço digital Áudio Broadcasting (DAB) com som de qualidade de CD. Televisão via satélite digital Pelos anos 90 transmissão direta análoga via satélite estava tecnicamente e financeiramente estabelecida, mas já estava se tornando óbvio que isso era uma fase passageira e que o estímulo real viria com a introdução da transmissão digital. O primeiro sistema digital DBS, o satélite geosincronizado Hughes DirectTV, foi lançado em 1994 oferecendo 150 canais digitais em toda a América do Norte. Isso se tornou rapidamente um dos maiores sucessos de consumo entre produtos eletrônicos de todos os tempos: em seus primeiros sete meses de venda de antena parabólica de dezoito polegadas e caixa set-top, as vendas foram maiores que aquelas obtidas no primeiro ano da VCRs nas vendas em CD players e televisão wide-screen juntas. O mercado nos Estados Unidos da América é extremamente competitivo e a DirecTV logo foi associada aos satélites EchoStar e PrimeStar também com sistema de antena parabólica direct-to-home (DTH). Na Europa vários serviços de satélites digitais começaram em 1990 incluindo DStv na Itália, CanalSatellite Numérique na França e DF1 na Alemanha. No Reino Unido a BSkyB anunciou que estaria lançando um satélite digital DBS geosincronizado com 200 canais no final de 1998. Deixando a televisão de lado e num desenvolvimento que simboliza a independência da forma do meio em relação ao conteúdo, transmissões sem fio rapidamente se tornaram o meio fundamental de comunicação entre pessoas. Esse processo começou com o rádio celular, mas ganhou um impulso adicional quando o satélite digital foi visto por oferecer oportunidades para tráfego de voz e dados. Organizações que têm instalado novos sistemas de comunicação de satélite digital incluem Inmarsat. Esse projeto fundado por 1.200 companhias e oitenta países membros lançou vários satélites geosincronizados para prover telefonia às regiões mais remotas do mundo. No entanto, um inconveniente do satélite geosincronizado é que sua órbita é muito alta para uma telefonia e transmissão de dados eficazes. A distância que o sinal tem que viajar significa que há sempre um ligeiro atraso na recepção e o equipamento terminal tem sido incômodo e caro. Para superar esses problemas, vários sistemas de satélite digital foram desenvolvidos na década de 1990 usando um número maior de satélites menores de baixa órbita, chamados de “constelações”. Em 1990 a Microsoft e a companhia de telefonia móvel McCaw Cellular, formaram um grupo a Teledesic, para lançar um sistema que consistia em 840 pequenos satélites operando em baixa órbita terrestre em 2001. Em 1994 a Motorola começou a trabalhar em um sistema de satélite chamado Iridium que em 1998 tinha colocado 66 satélites espaçados igualmente a 420 milhas da terra. Como eles orbitavam em baixa altitude esse sistema usa menos força para transmitir e receber sinais, permitindo aparelhos de tamanhos menores para o usuário. Televisão Terrestre Digital (DTT) Digital Terrestrial Television Transmissores DTT operam em freqüência muito mais baixa que DST – 0.6 gigahertz bem oposto dos 11 gigahertz do satélite – e têm que transmitir numa estreita faixa de freqüência. Isso significa que o satélite digital pode transmitir centenas de canais, mas a transmissão digital terrestre será capaz de transmitir somente algumas dúzias. Apesar dessas desvantagens o Broadcasting Act do governo Britânico de 1996 plantou a base para a introdução e licença de serviços de televisão digital terrestre. Isso não quer dizer que DTT não tenha vantagens. É mais barato que a DST, tanto para transmitir quanto para receber.Terrestre é também mais adequado para transporte ou recepção móvel do que o satélite ou o cabo e, desde que, transmissores digital terrestre usem menos força que transmissores PAL eles poderiam conduzir para integração com serviços de rádio celular. Crescimento da banda larga por transmissão Fibra ótica Desde os finais de 1960 a industria das telecomunicações é capaz de fazer uso da fibra ótica. Cabo de fibra ótica é um desenvolvimento radical na tecnologia de comunicação porque ele transmite fótons (por ex. luz) onde cabos ou fios de telefones transmitem elétrons (ex. eletricidade). Nós temos visto o quanto à tecnologia digital tem aumentado a capacidade de alcance e a eficiência das infra-estruturas de transmissões a cabo e sem cabo existentes. A tecnologia ótica promete uma ainda maior expansão na banda larga da rede de telecomunicações. Cabos de fibra ótica são fios tão finos quanto fios de cabelo, de vidro, altamente transparente através do qual pulsos de luz de um LASER ( Light Amplification by Stimulated Emission of Radiation - amplificação da luz por emissão de radiação estimulada) são transmitidos. O laser faz uso do fato que, átomos que batem com luz na freqüência certa, são estimulados a liberar um excesso de energia em forma de fótons ou partículas de luz. O sinal eletrônico é digitalmente cifrado e então convertido em pulsos de luz laser por um emissor em que são, então, conduzidos pela fibra para um detector ótico o qual os converte de volta para a forma eletrônica. A idéia de usar fibra, como um sistema de transmissão, foi sugerida em 1966 por Charles K. Kao, um engenheiro chinês que trabalhava no Standard Telecommunicatinos Laboratories (Laboratórios de Telecomunicação Padrão), na Inglaterra, que propôs a possibilidade de converter uma conversa telefônica em pulsos de luz infravermelha que poderiam ser transmitidos através de um fio de vidro puro e então, convertidos novamente em fala. O principal problema técnico era que o vidro precisava ser perfeitamente transparente. Entretanto, dentro de onze anos esse problema tinha sido superado e a primeira conexão de fibra ótica estava operando entre Hitchin e Stevenage em Hertfordshire na Inglaterra. Recentes tentativas de comunicação ótica foram frustradas devido à necessidade de usar amplificadores eletrônicos ao longo do caminho. Esses amplificadores convertiam os fótons em elétrons impulsionava-os e então os convertia novamente para fótons. Isso constituía um retardo. Esse problema foi solucionado pela equipe da Universidade de Southampton, Inglaterra, com o desenvolvimento de todos os amplificadores óticos. Essa equipe descobriu que introduzindo o elemento érbio em uma fibra de comprimento curto, ela funcionaria como um amplificador. Nos anos 90 todas as conexões óticas usando amplificadores de fibra ótica dopados com érbio estavam implantadas entre Chipre e Israel ( 261 km ) e entre Nápoles e Pomezia, na costa oeste da Itália. Um outro importante melhoramento técnico para a tecnologia de transmissão “fotônica” foi o desenvolvimento do soliton: uma forma de moldar pulsos de luz para evitar dispersão e distorção a longa distância. O mais significativo sobre fibra ótica no que diz respeito à comunicação, é que a luz tem freqüência muito mais alta que a eletricidade e pode carregar maior volume de informação. Na verdade, operando em freqüência muito alta de luz infravermelha os cabos de fibra ótica têm uma ilimitada badwidth e podem realmente carregar muito mais sinais do que pode ser transmitido através do ar em todo o spectrum do rádio. George Gilder chama esse potencial do cabo de fibra ótica de “fibresphere”:
Pela década de 1990, a taxa de dados de 1.000 Gigabits por segundo, tinha sido alcançada pela fibra ótica e, 82 companhias telefônicas e de cabo no mundo industrialmente desenvolvido levaram vantagem com a tecnologia ótica elevando sua capacidade de sustentar a rede. Pelo meio da década de 1990 a maioria dos países economicamente avançados estavam conectados por cabo ótico submarino e a principal via de tronco de fibra em cada país já está instalada. A interrupção tem ocorrido entre esses troncos e o “local loop” (laço local) em residências e negócios que ainda estão opressivamente conectados por telefone com fios de cobre e, menos, mas que vem aumentando rapidamente em extensão, por linhas coaxiais de companhias de cabo. Entretanto, a fibra ótica tem algumas desvantagens. Uma delas é que vidro, diferente do cobre, não pode transmitir eletricidade e então pode ser posto fora de ação em queda de força – telefones convencionais continuam funcionando durante a queda de força. Um outro problema é que o custo de conversão de sinais entre domínio elétrico e ótico tende a impossibilitar a comunicação ótica para todos com exceção dos usuários grandes e fortes. O sistema British Telecom´s TPON ( Telecommunication over Passive Optical Networks – telecomunicação por rede ótica passiva) tem procurado superar isso começando com uma única fibra na troca, a qual é então, progressivamente separada espalhando-se na rede e multiplicando o número de terminações servidas pela mudança da fibra original. Em geral, de qualquer forma, ambos custo e uma falta de percepção do interesse do consumidor têm dificultado a expansão da fibra ótica para as residências. Conclusão Nesse capítulo, vimos como a tecnologia de telecomunicações tem experimentado imenso aproveitamento e grande melhoria em sua capacidade e extensão desde a invenção do telégrafo na primeira metade do século dezenove. Por todo esse processo fica a lição de que o conteúdo dos meio não tem necessariamente relação com a tecnologia dos meio empregados para transmiti-lo. No final do século dezenove famílias desfrutaram de entretenimento levado a seus lares através de fios. Famílias no final do século vinte também receberam entretenimento através de fios. Quando o rádio foi inventado em 1896 ele era visto como a pretensão futura da comunicação pessoal. 83 Pela década de 1990, com o desenvolvimento da comunicação móvel digital, a futura comunicação pessoal era novamente conectada a tecnologias sem fio. Ainda no período interveniente wireless (sem fio) foi o principal meio para a transmissão de notícias e entretenimento e fios foram usados para a comunicação pessoal. A convergência de computador digital e o sistema de telecomunicações representam continuidade e troca. A convergência digital pode ser vista, ou como o último estágio num contínuo processo de crescimento tecnológico ou como um novo estágio qualitativo na história da comunicação humana. Tecnologia digital representa uma mudança radical não somente em eficiência e organização da rede de comunicação, mas também, potencialmente em seu papel cultural. Com a tecnologia digital a fidelidade técnica e o alcance da representação dos meios que pode ser transportado para dentro dos lares, decididamente excedem a qualquer coisa que pudesse ter sido imaginada por gerações anteriores de consumidores dos meios de massa. Dada a potência das novas tecnologias de comunicação digital é tentador ver a recente mudança dramática no cenário da mídia como conseqüência desses avanços em tecnologia digital. Contudo no próximo capítulo examinaremos uma proposição de que tem sido muito mais “político” que “força tecnológica” o instrumento de motivação dessas mudanças.
The evolution of networking multimedia IN Wise, Richard. Multimedia: a critical introduction. London: Routledge, 2000. Revisado por Cristina Bocian e Louise Kanefuku |
Volta à página inicial |