Manifesto pela metade

Jaron Lanier


Nos últimos vinte anos, eu me vi inserido em uma revolução, mantendo-me porém fora de seu dogma resplandecente. Agora que esta revolução atingiu a corrente principal de pensamento, e condenou-a à submissão ao tomar controle da economia, creio que é o momento de vociferar minha discordância de forma mais enfática do que vinha fazendo antes.

Portanto, dividirei aqui minhas idéias com os participantes de Edge, muitos dos quais são, mais que ninguém, responsáveis por essa revolução, que defende o assentimento da tecnologia cibernética como cultura.

O dogma a que me oponho é composto de um esquema de crenças integradas e ainda não possui um nome abrangente e amplamente aceito, embora eu o chame às vezes de "totalitarismo cibernético1". Ele tem o potencial de transformar a experiência humana de maneira mais poderosa do que qualquer ideologia, religião ou sistema político anterior, em parte porque pode ser muito atraente, pelo menos no início, para o pensamento, mas sobretudo porque ele pega carona nas tecnologias tremendamente poderosas criadas por pessoas que são, em grande parte, seus devotos.

Os leitores de Edge poderão ficar surpresos pelo meu emprego do termo "cibernética". Eu considero esta uma palavra problemática, e gostaria, portanto, de justificar sua escolha. Procurei um termo que unificasse as diversas idéias que eu estava explorando, e ao mesmo tempo conectasse o pensamento e a cultura atuais com gerações anteriores de pensadores que contemplaram tópicos similares. A aplicação original de "cibernética", por Norbert Weiner, claramente não estava restrita aos computadores digitais. O termo foi originalmente concebido para sugerir uma metáfora entre a navegação marítima e um dispositivo de realimentação que governa um sistema mecânico, como um termostato. Weiner certamente soube identificar e explorar humanitariamente o alcance extraordinário desta metáfora, uma das mais poderosas já expressadas.

Eu espero que ninguém vá pensar que estou igualando a cibernética com aquilo que estou denominando totalitarismo cibernético. A distância entre reconhecer uma boa metáfora e tratá-la como a única metáfora é a mesma distância entre a ciência humilde e a religião dogmática.

Aqui está uma lista parcial das crenças que compõem o totalitarismo cibernético:

1) De que os modelos cibernéticos de informação fornecem a melhor - e definitiva - maneira para compreender a realidade.

2) De que as pessoas não são nada além de modelos cibernéticos.

3) De que a experiência subjetiva ou não existe, ou é irrelevante por ser uma espécie de efeito ambiental ou periférico.

4) De que o descrito por Darwin na biologia, ou algo parecido, é também a única e superior descrição de toda criatividade e cultura.

5) De que tanto os aspectos qualitativos como quantitativos dos sistemas de informação serão acelerados pela Lei de Moore.

E finalmente, o mais dramático:

6) De que a biologia e a física se fundirão às ciências da computação (na forma da biotecnologia e da nanotecnologia) resultando numa vida e num universo físico transientes, alcançando assim a suposta natureza dos programas de computador. Inclusive, tudo isso acontecerá muito em breve! Uma vez que os computadores estão se aprimorando tão rapidamente, eles logo poderão sobrepor-se a todos os outros processos cibernéticos, como as pessoas (indivíduos), e modificar fundamentalmente a natureza do que acontece na familiar vizinhança da Terra, no momento em que uma nova "criticalidade" for atingida. Quem sabe lá pelo ano 2020. Ser um humano após este momento será ou impossível, ou então algo muito diferente do que podemos imaginar.

Nos últimos vinte anos, uma enxurrada de livros gradualmente informou o grande público da estrutura de crenças do círculo interno dos digerati2, começando suavemente, com Godel, Escher e Bach, por exemplo, e tornando-se mais enfática em obras recentes como The Age of Spiritual Machines, de Ray Kurtzweil.

Eu fico bastante curioso sobre quais dos eminentes pensadores que aceitam largamente alguma versão das cinco primeiras crenças, também se sentem confortáveis com a sexta idéia, a escatologia. Em geral, percebo que os tecnólogos, mais do que os cientistas naturais, tendem a vociferar sobre a possibilidade de uma criticalidade em curto prazo. Não faço a menor idéia, por outro lado, do que sujeitos como Richard Dawkins ou Daniel Dennet pensam disso. Por algum motivo não consigo imaginar estes elegantes teóricos especulando se os nanorobôs poderão dominar o planeta daqui a vinte anos. Parece ultrapassar sua dignidade. Ainda assim, as escatologias de Kurtzweil, Moravec e Drexler derivam diretamente e, ao que me parece, inevitavelmente, de uma compreensão do mundo articulada com mais precisão por ninguém mais que Dawkins e Dennet. Será que Dawkins, Dennet, e outros de sua área, enxergam alguma falha lógica que isola seu pensamento de implicações escatológicas? Na minha visão, essa falha é que os ciber-apocalípticos fizeram confusão entre computadores ideais e computadores reais, os quais comportam-se de maneiras diferentes. Minha posição nessa questão pode ser avaliada separadamente de minhas posições assumidamente provocativas em relação às cinco primeiras crenças, e eu espero que seja.

Por que este é apenas um "manifesto pela metade": eu espero que os leitores não pensem que eu mergulhei numa rejeição mal-humorada da tecnologia digital. Na verdade, estou mais empolgado do que nunca por estar trabalhando nas ciências da computação, e acho que não é difícil adotar um enfoque humanista para desenvolver ferramentas digitais. Está ocorrendo um estimulante desabrochar da cultura da informática, cujo surgimento independe, em sua maioria, das elites tecnológicas, e rejeita implicitamente as idéias que estou atacando aqui. Um manifesto completo procuraria descrever e promover essa cultura positiva.

Agora, examinarei as cinco crenças cuja aceitação precede a nova escatologia, para então considerar a própria escatologia.

Lá vamos nós:



Crença totalitarista cibernética #1: de que modelos cibernéticos de informação fornecem a melhor - e definitiva - maneira para compreender a realidade.

Um inegável surto de excitação é vivido por aqueles que têm a primeira oportunidade de perceber um fenômeno ciberneticamente. Enquanto eu acredito poder imaginar, por exemplo, a emoção que deve ter sido utilizar os primeiros equipamentos fotográficos no século 19, eu não consigo imaginar que um leigo pudesse compreender a sensação de estar envolvido com as tecnologias primordiais de computação gráfica nos anos 70. Não se tratava, aqui, de um modo de simplesmente produzir e exibir imagens, mas de um meta-sistema que subordinava todas as imagens possíveis. Uma vez que você compreende algo a ponto de poder socá-lo dentro de um computador, você decifrou o seu código, transcendeu qualquer particularidade que esse algo possa ter num determinado momento. Era como se tivéssemos nos tornado os Deuses da visão e efetivamente criado todas as imagens possíveis, pois elas seriam meramente recombinações dos bits nos computadores diante de nós, sob nosso total comando.

O impulso cibernético é inicialmente motivado pelo ego (embora, como veremos, em seu desfecho vindouro ele se tornará inimigo do ego). Por exemplo, os totalitaristas cibernéticos olham para a cultura e enxergam "memes", ou figuras mentais autônomas (tropos) que competem por espaço cerebral humano de forma semelhante aos vírus. Ao fazer isso eles não apenas cometem um triunfo de "imperialismo acadêmico", situando a si mesmos numa suposta posição de entendimento superior em oposição ao resto das ciências humanas, mas também evitam a necessidade de prestar alguma atenção nas particularidades da cultura numa determinada época e local. Depois que você reduz algo a sua dimensão cibernética, qualquer recombinação particular de seus bits parece não ter importância.

A crença #1 entrou em cena quase instantaneamente com o surgimento dos primeiros computadores. Ela foi articulada pela primeira geração de cientistas da computação: Weiner, Shannon, Turing. Ela é tão fundamental que já não é sequer enunciada no círculo especializado. É tão profundamente enraizada que é difícil para mim colocar-me fora do meu ambiente intelectual circundante por tempo suficiente para articular uma alternativa a ela.

Uma alternativa pode ser essa: um modelo cibernético de um fenômeno nunca poderá ser o único modelo aceito, porque sequer podemos construir computadores em conformidade com tais modelos. Computadores reais são completamente diferentes dos computadores ideais da teoria. Eles pifam por razões que nem sempre são analisáveis, e parecem resistir intrinsecamente a vários de nossos esforços para aperfeiçoá-los, em grande parte devido a complicações como o legado3 (legacy) e o lock-in4. Imaginamos sistemas cibernéticos "puros", mas provamos ser capazes de construir apenas sistemas parcialmente disfuncionais. Estamos tapeando nós mesmos ao pensar que entendemos algo - até mesmo um computador - meramente porque podemos modelá-lo ou digitalizá-lo.

Há também um problema epistemológico que me incomoda, muito embora meus colegas em geral estejam dispostos a ignorá-lo. Eu não creio que se possa medir a função ou até mesmo a existência de um computador sem conferir-lhe um contexto cultural. Não acho que marcianos teriam necessariamente a capacidade de distinguir um Macintosh de um aquecedor de ambientes.

A controvérsia acima, em última instância, torna-se uma combinação de argumentos técnicos sobre teoria da informação com posições filosóficas, em maior parte oriundas de gosto e fé.

Portanto, tento engrandecer minhas posições com considerações pragmáticas, e algumas delas começarão a surgir em minhas idéias sobre a...



Crença #2: De que as pessoas não são nada além de modelos cibernéticos

A fantasia de todo totalitarista cibernético depende da inteligência artificial. Pode não ficar imediatamente claro por que essas fantasias são essenciais para aqueles que as cultivam. Se os computadores se tornarão espertos o suficiente para projetar seus próprios sucessores, dando início a um processo que resultará, após passagens cada vez mais velozes de uma geração de computadores para a seguinte, em uma onisciência divina, alguém vai precisar escrever o programa que dará início ao processo. E não há evidência de que os seres humanos sejam capazes de escrever tal programa. A idéia, portanto, é que os computadores irão de algum modo ficar espertos sozinhos e escrever seus próprios programas.

Minha principal objeção a esse modo de pensar é pragmática: ela resulta na criação de programas de computador de baixa qualidade no mundo real, no presente. Os totalitaristas cibernéticos vivem com suas cabeças no futuro e estão dispostos a tolerar falhas óbvias nos programas atuais em detrimento de um mundo fantasioso que poderá nunca surgir.

Toda a iniciativa da inteligência artificial é baseada num equívoco intelectual, e continua a resultar em programas caros e mal projetados, à medida em que é relançada no mercado com um novo nome, a cada nova geração de programadores. Recentemente, foi chamada de "agentes inteligentes". Antes disso, havia sido chamada de "sistemas especialistas".

Vamos voltar ao início, quando a idéia apareceu pela primeira vez. No famoso experimento imaginário de Turing5, é pedido a um juiz humano que determine qual entre dois respondedores é humano, e qual é uma máquina. Se o juiz não souber, Turing afirma que se deverá considerar que o computador alcançou o status moral e intelectual de um ser humano.

O erro de Turing foi assumir que a única explicação para o sucesso do computador concorrente seria a de que o computador havia atingido alguma espécie de estado elevado, ficado mais inteligente, mais humano. Há contudo outra explicação, igualmente válida, para um computador vencedor: a de que o ser humano ficou menos inteligente, menos humano.

Um teste de Turing oficial é realizado todo ano e, embora o substancial prêmio em dinheiro ainda não tenha sido arrebatado por um programa, ele com certeza será conquistado em algum momento nos próximos anos. Minha opinião é que este acontecimento está distraindo todos dos verdadeiros testes de Turing que já estão sendo vencidos. testes de Turing verdadeiros, ainda que miniaturizados, estão ocorrendo o tempo todo, a cada dia, sempre que uma pessoa se sujeita a computadores com programas burros.

Nos Estados Unidos, por exemplo, organizamos nossas vidas financeiras de modo que faça bonito diante dos programas de computador pateticamente simples que determinam nossos índices de crédito. Emprestamos dinheiro quando não precisamos para alimentar os programas com o tipo de dados aos quais sabemos que eles estão programados para responder favoravelmente.

Ao fazermos isso, nos fazemos de burros para que o programa do computador pareça inteligente. Continuamos a confiar no programa indicador de crédito, mesmo que tenha havido uma epidemia de falências pessoais durante uma época de baixíssimo desemprego e grande prosperidade.

Nós fizemos com que o teste de Turing fosse vencido. Não há diferença epistemológica entre a inteligência artificial e a aceitação de um programa de computador mal desenvolvido.

Meu argumento pode ser considerado um ataque contra a crença na eventual senciência dos computadores. Mas uma interpretação mais sofisticada poderia concluir que ele defende a vantagem pragmática de manter um ceticismo em relação à inteligência artificial (porque aqueles que acreditam na inteligência artificial têm maior chance de se sujeitar aos maus programas). E, mais importante, eu espero que o leitor consiga ver que a inteligência artificial é mais bem compreendida como um sistema de crenças do que como uma tecnologia.

O sistema de crenças da inteligência artificial é uma explicação direta para boa parte dos programas ruins do mundo, como as irritantes funções do Microsoft Word e Power Point, que adivinham o que o usuário realmente pretendia digitar. Quase todas as pessoas com quem falei odeiam esses recursos, e eu nunca encontrei um engenheiro na Microsoft que pudesse desativá-los completamente no meu computador (rodando um Mac Office '98), embora isso deva ser possível.



Crença #3: De que a experiência subjetiva ou não existe, ou é irrelevante por ser uma espécie de efeito ambiental ou periférico.

Há um novo dilema moral se formando sobre a questão dos casos em que o conceito de "alma" poderia ser atribuído a padrões percebidos no mundo.

Os computadores, os genes e a economia são algumas das entidades que os totalitaristas cibernéticos julgam estarem povoando a realidade atual, junto com os seres humanos. É sem dúvida verdade que somos confrontados num ritmo constante por partícipes não-humanos e meta-humanos em nossas vidas, e que esses atores às vezes parecem ser mais poderosos do que nós.

Assim, a nova questão moral é: vamos tomar decisões exclusivamente com base nas necessidades e desejos dos humanos biológicos "tradicionais", ou algum destes outros partícipes também merece consideração?

Proponho o emprego de uma imagem simples para considerar os pontos de vista alternativos. É a imagem de um círculo imaginário que cada pessoa desenha ao redor de si. Vamos chamá-lo de "círculo de empatia". No interior do círculo estão aquelas coisas consideradas merecedoras de empatia, e conseqüentemente de respeito, de direitos, e do tratamento prático dado aos semelhantes. No exterior do círculo estão aquelas coisas consideradas menos importantes, menos vivas, menos merecedoras de direitos. (Esta imagem é apenas uma ferramenta para o pensamento, e não deve de maneira alguma ser tomada como meu modelo completo para a psicologia humana e os dilemas morais). Falando superficialmente, os liberais almejam expandir este círculo, enquanto os conservadores desejam contraí-lo.

Devem os computadores, quem sabe em algum ponto no futuro, ser incluídos dentro do círculo de empatia? A idéia de que eles devem é cultivada com carinho pelos totalitaristas cibernéticos que povoam as academias da elite tecnológica e os negócios da "nova economia".

Na escrita argumentativa dos defensores da eventual senciência dos computadores há com freqüência um humor delicado e não-intencional. A missão de provar racionalmente a possibilidade da senciência em um computador (ou talvez na internet) é a versão moderna da prova da existência de Deus. Como foi o caso com a história de Deus, um grande número de grandes mentes dedicaram energia em excesso a essa missão, e eventualmente um Kant do século 21, voltado à cibernética, surgirá para nos apresentar uma tediosa "prova" de que tais esforços são fúteis. Eu simplesmente não tenho a paciência para ser essa pessoa.

Acontece que, nos últimos cinco ou tantos anos, os argumentos a respeito da senciência dos computadores começaram a diminuir. A idéia é considerada como verdadeira pela maioria dos meus colegas; para eles, a argumentação está encerrada. Mas não está encerrada pra mim.

Devo relatar que na época em que os argumentos ainda estavam quentes, era uma sensação muito estranha a de debater com alguém como o filósofo e totalitarista cibernético Daniel Dennet. Ele afirmaria que os humanos são simplesmente computadores especializados, e que impor alguma distinção ontológica fundamental entre humanos e computadores era uma perda de tempo sentimentalista.

"Mas você não vivencia a sua vida? A experiência não é algo diferente do que você poderia averiguar em um computador?", eu perguntaria. Meu oponente no debate normalmente diria algo como "A experiência é apenas uma ilusão criada pelo fato de haver uma parte da máquina (você) que precisa criar um modelo da função do restante da máquina - esta parte é o seu centro experiencial".

Eu retrucaria que a experiência é a única coisa que não é subjugada à ilusão. Que até mesmo a ilusão é ela mesma uma experiência. O resultado disso, perdoem-me a expressão, é que a experiência é exatamente aquilo que só pode ser vivenciado. Isso me levou à esquisita posição de questionar publicamente se alguns de meus oponentes eram simplesmente desprovidos de experiência interna. (Certa vez sugeri que dentre toda a humanidade, só se poderia provar definitivamente a ausência de experiência interna em certos filósofos profissionais).

Na verdade, penso que meus incansáveis antagonistas possuem, sim, experiência interna, mas optam por não admiti-lo publicamente por uma série de razões, sendo a mais freqüente o simples gosto de aborrecer os outros.

Outra motivação pode ser o "imperialismo acadêmico" que invoquei anteriormente. Representantes de cada disciplina acadêmica ocasionalmente afirmam possuir um ponto de vista mais privilegiado, que de alguma forma contém ou subjuga os pontos de vista de seus rivais. Os físicos foram os "alfa-acadêmicos" durante a maior parte do século 20, embora nas décadas mais recentes os pensadores humanistas "pós-modernos" tenham conseguido encenar uma espécie de reaparição, pelo menos em suas próprias cabeças. Mas os tecnólogos são os vencedores inevitáveis desse jogo, ao modificar os próprios componentes de nossas vidas bem debaixo de nossos olhos. Aparentemente, é tentador para muitos deles alavancar este poder, de modo a sugerir que também possuem uma compreensão acabada da realidade, o que é bastante diferente de exercer uma tremenda influência sobre ela.

Outra forma de explicação pode ser neo-freudiana, considerando que o primeiro inventor da idéia de senciência da máquina, Alan Turing, era uma alma bastante torturada. Turing faleceu num aparente suicídio provocado pelo fato dele ter desenvolvido seios, como resultado de um regime hormonal cujo objetivo era reverter sua homossexualidade. Foi durante este trágico período final de sua vida que ele defendeu apaixonadamente a senciência da máquina, e já me perguntei se ele não estaria se dedicando a uma nova e original forma de fuga e negação psicológicas; tornar-se um computador para fugir da sexualidade e da mortalidade.

De qualquer forma, o que é peculiar e revelador é que meus amigos totalitaristas cibernéticos confundem a viabilidade de uma perspectiva com a sua superioridade triunfante. É perfeitamente verdadeiro que se possa pensar numa pessoa como o método de propagação de um gene, segundo Dawkins, ou como um órgão sexual utilizado por máquinas para fazer mais máquinas, como em McLuhan (citado na cabeceira de cada edição da Wired Magazine), e pode ser até mesmo belo pensar a partir dessas perspectivas de tempos em tempos. Mas como o antropólogo Steve Barnett apontou, contudo, seria igualmente razoável afirmar que "uma pessoa é o meio que a merda utiliza para fazer mais merda".

Portanto, vamos fingir que o novo Kant já surgiu e realizou seu trabalho inevitável. Podemos então dizer que a disposição do círculo de empatia de uma pessoa é em última instância uma questão de fé. Precisamos aceitar o fato de que somos obrigados a posicionar o círculo em algum lugar, e ainda não temos como excluir a fé extra-racional de nossa escolha.

Minha escolha pessoal é de não situar os computadores dentro do círculo. Neste artigo, estou declarando algumas de minhas razões pragmáticas, estéticas e políticas para isso, embora no final das contas minha decisão esteja alicerçada em minha fé particular. Minha posição é impopular e até mesmo ofensiva em meu ambiente profissional e social.



Crença #4: De que o descrito por Darwin na biologia, ou algo parecido com isso, é na verdade a única e superior descrição de toda criatividade e cultura.

Totalitaristas cibernéticos são obcecados por Darwin, porque ele descreveu a coisa mais próxima que temos de um algoritmo para a criatividade. Darwin responde ao que seria um grande buraco no dogma: como os sistemas cibernéticos chegarão a ser inteligentes e criativos o suficiente para inventar um mundo pós-humano? Para aceitar uma escatologia onde os computadores tornam-se inteligentes na mesma medida em que ficam rápidos, algum tipo de Deus ex-Machina precisa ser invocado, e ele tem barba.

Infelizmente, neste momento eu preciso quebrar o clima para declarar que não sou um criacionista. Neste ensaio, estou criticando aquilo que percebo tratar-se de preguiça intelectual, um recuo da tentativa de entender os problemas para, ao invés disso, esperar pelo software6 que evolua por si mesmo. Não estou sugerindo que a natureza precisou de algum elemento extra além da evolução natural para criar o homem.

Tampouco pretendo insinuar que exista um bloco unificado de pessoas se opondo a mim, todas elas pensando exatamente a mesma coisa. Existem, de fato, numerosas variações da escatologia darwinista. Algumas das versões mais dramáticas não vieram de cientistas ou engenheiros, mas de escritores como Kevin Kelly e Robert Wright, que ficaram deslumbrados com interpretações amplas de Darwin. Em seus trabalhos, a realidade é percebida como um grande programa de computador rodando o algoritmo de Darwin, quem sabe em direção a algum tipo de Destino.

Muitos de meus colegas da área técnica também enxergam algum tipo de flecha causal da evolução, apontando ao longo do tempo para algo que nos é difícil caracterizar. As palavras empregadas para descrever esse "algo" são elas mesmas difíceis de definir; diz-se que ele inclui elevada complexidade, organização e representação. Para o cientista da computação Danny Hillis, as pessoas parecem possuir mais desse "algo" do que, digamos, organismos unicelulares, e é natural especularmos se não existirão um dia novas criaturas com ainda mais "algo" do que encontramos no ser humano. (Claro que o futuro nascimento das espécies com "algo a mais" é geralmente relacionado com computadores.) Comparemos esta perspectiva com a de Stephen Jay Gould. Ele argumenta em Full House que, se há uma seta na evolução, é na direção de uma maior diversidade ao longo do tempo, enquanto nós, essas criaturas improváveis conhecidas como humanos, tendo surgido como diminuta manifestação de uma exploração cega e massiva de todas as criaturas possíveis, apenas imaginamos que todo o processo foi projetado para resultar em nós mesmos.

Nenhuma idéia é mais difícil de testar do que uma do tipo antrópico, ou sua refutação. Admito que tendo a me inclinar para o lado de Gould nessa questão, mas o mais importante é apontar um quebra-cabeça epistemológico que deveria ser considerado pelos escatologistas darwinistas. Se a humanidade é a medida da evolução até agora, então também seremos a medida para as espécies sucessoras que poderão ser entendidas como "mais evoluídas" do que nós. Precisaremos antropomorfizar esta forma de vida "maior do que o homem" para poder assimilá-la, especialmente se ela existir dentro de um espaço informatizado como a internet.

Em outras palavras, seremos tão confiáveis para identificar o status dos novos super-seres quanto o somos para identificar a personalidade de cães de estimação hoje em dia. Não estamos à altura da tarefa. Antes de me dizer que a chegada da nova ciberespécie superinteligente será descaradamente óbvia, visite uma exposição de cães. Ou uma reunião de pessoas que acreditam terem sido abduzidas por alienígenas em OVNIs. As pessoas são sabidamente insensatas na hora de identificar senciência não-humana.

Mas não há dúvida de que o movimento por uma interpretação mais ampla de Darwin, em particular por trazê-lo à psicologia e às ciências humanas, ofereceu alguns discernimentos valiosos, que algum dia serão parte de uma compreensão mais avançada da natureza, incluindo a natureza humana. Esta corrente de pensamento me agrada em diversos níveis. E, vamos admitir, é mesmo impossível para um cientista da computação não sentir-se regozijado diante de trabalhos que colocam uma forma de algoritmo computacional no centro da realidade, e tais pensadores tendem a ficar confiantes e animados, e a terem ocasionalmente boas e novas idéias.

Mesmo assim, acho que os darwinistas do totalitarismo cibernético são com freqüência descaradamente incompetentes no discurso público, e podem ser em parte responsáveis, ainda que sem intenção, por incitar o ressurgimento da reação religiosa e fundamentalista contra a biologia racional. Eles produzem tiradas em cima de Darwin que parecem calculadas não apenas para contrariar, mas também alienar aqueles que não aceitam sua visão. As declarações do mais careta dos psicólogos evolucionistas parecem ser particularmente irritantes.

Um exemplo que me vêm à mente é o recente livro Uma história natural do estupro (The Natural History of Rape), de Randy Thornhill e Craig T. Palmer, declarando que o estupro é um método "natural" de espalhar genes por aí. Nós já vimos todo tipo de proposições ligadas a Darwin por um verniz de racionalidade. Na verdade, você pode argumentar praticamente qualquer posição usando uma estratégia darwinista.

Thornhill e Palmer, por exemplo, vão ao ponto de sugerir que quem discorda deles está sendo vítima de uma programação evolucionária, existente pela necessidade de acreditar num altruísmo fictício na natureza humana. Os autores atestam que é uma denotação de altruísmo não acreditar na psicologia evolucionista, porque este ceticismo demonstra a crença do indivíduo no amor fraternal. Demonstrações de altruísmo são descritas como atraentes, e portanto capazes de aumentar a habilidade do indivíduo em atrair parceiros. Por essa lógica, os psicólogos evolucionistas deverão logo eliminar a si mesmos da população. A não ser que eles apelem para o estupro.

De qualquer modo, a idéia darwinista de evolução era de um tipo diferente das teorias científicas anteriores, por no mínimo duas razões. A mais óbvia e explosiva delas era a grande proximidade do objeto de estudo. Foi chocante para a mentalidade do século 19 pensar nos animais como parentes de sangue, e esse choque persiste até hoje.

A segunda razão é reconhecida com menor freqüência. Darwin criou um estilo de redução baseado em princípios de emergência ao invés de leis subjacentes (embora algumas teorias físicas especulativas mais recentes possam apresentar um tempero darwinista). Não existe nenhuma "força" evolucionária análoga, digamos, ao eletromagnetismo. A evolução é um princípio que pode ser reconhecido como manifesto nos acontecimento, mas não pode ser descrito precisamente como uma força que direciona os acontecimentos. É uma distinção sutil. A história de cada fóton é a mesma, num sentido em que a história de cada animal e planta é diferente. (Claro que existem maravilhosos exemplos de afirmações precisas e quantitativas na teoria darwinista e em seus experimentos correspondentes. Mas estes não se dão num nível sequer próximo da experiência humana, que envolve uma totalidade de organismos possuindo comportamentos complexos num dado ambiente). "História" (story) é o termo operacional. O pensamento evolucionista quase sempre foi aplicado a situações específicas através de histórias.

Uma história, ao contrário de uma teoria, é um convite à variação e à ornamentação, e de fato as histórias adquirem seu poder comunicativo através da ressonância com outras histórias primordiais. É possível aprender física sem inventar uma narrativa dentro da cabeça de alguém para das sentido a fótons e buracos negros. Mas parece que é impossível aprender evolução darwinista sem desenvolver, ao mesmo tempo, uma narrativa interna para relacioná-la com outras histórias que se conhece. Pelo menos nenhum pensador público do assunto parece ter enfrentado Darwin sem construir uma ponte para sistemas de valores pessoais.

Mas além da questão do gosto subjetivo, resta o problema de saber se Darwin explicou o suficiente. Não é possível que aí resida uma idéia não-articulada, que explique aspectos performativos e criadores não contemplados por Darwin?

O estilo darwinista de explicação é suficiente, por exemplo, para compreender o processo do pensamento racional? Há uma abundância de teorias recentes nas quais afirma-se que o cérebro produz distribuições aleatórias de idéias subconscientes que competem umas com as outras até que apenas a melhor sobreviva, mas será que essas teorias realmente têm a ver com o que as pessoas fazem?

Na natureza, a evolução aparenta ser brilhante na otimização, mas incompetente em traçar estratégias. (A imagem matemática que expressa esta idéia é a de que a evolução "cega" tem enorme dificuldade em se libertar de uma mínima7 local num campo de energia.) A pergunta clássica seria: Como pôde a evolução ter criado pés, garras, barbatanas e patas tão maravilhosas, mas ter esquecido da roda? Há vários ambientes em que criaturas tirariam grande proveito de rodas; por que nenhuma surgiu? Nem uma só vez? (Um ótimo projeto artístico a longo prazo para alguma criança rebelde, que esteja atualmente em idade escolar: criar um animal com rodas através da engenharia genética! Verificar se o DNA pode ser condicionado a isso.)

O ser humano fez surgir a roda e muitas outras invenções úteis que parecem ter escapado à evolução. Pode ser que a explicação seja simplesmente que as mãos tiveram à sua disposição um conjunto de invenções diferente daquele disponível ao DNA, embora ambos tenham sido guiados por processos similares. Mas tratar uma interpretação assim como uma certeza me parece prematuro. Não seria possível que durante o pensamento racional o cérebro execute algo ainda não inteligível que possa ter se originado de um processo darwinista, mas não possa ser explicado por ele?

As primeiras duas ou três gerações de pesquisadores da inteligência artificial tomaram como certo que a evolução cega em si não poderia ser um caso encerrado, assumindo que havia elementos que distinguiam o processo mental humano dos outros processos terrenos. Por exemplo, muitos pensaram que os humanos construíssem representações abstratas do mundo em suas mentes, enquanto os processos evolutivos não precisam fazer isso. Além do mais, essas representações pareciam possuir qualidades extraordinárias, como o temível e sempre ardiloso "senso comum". Após décadas de tentativas frustradas de construir abstrações semelhantes em computadores, o campo da inteligência artificial desistiu da tarefa, mas sem admiti-lo. A rendição foi abafada como mera série de recuos táticos. A inteligência artificial, hoje em dia, é entendida mais como um ofício do que como um ramo da ciência ou da engenharia. Muitos praticantes com quem conversei ultimamente esperam ver uma evolução dos programas de computador que resulte em várias coisas, mas parecem ter afundado numa falta de preocupação quase pós-moderna, ou cínica, com a compreensão de como essas engenhocas vão de fato funcionar.

É importante ressaltar que culturas baseadas no artesanato podem elaborar muitas tecnologias úteis, e que a motivação de nossos antecessores para abraçar o Iluminismo e a ascensão da racionalidade não era apenas a de produzir mais tecnologias com mais velocidade. Havia também a idéia de humanismo, e uma crença na virtude do pensamento e compreensão racionais. Estamos realmente preparados para abandonar isso?

Finalmente, há uma observação empírica a se fazer: já se completou mais de uma década de trabalho mundial em cima de abordagens darwinistas para desenvolver programas de computador, e ainda que tenha havido alguns resultados isolados fascinantes e impressionantes, e que eu realmente goste de participar desse tipo de pesquisa, nada surgiu deste trabalho que tenha tornado os programas em geral melhores do que eram - como descreverei na próxima seção.

Portanto, por mais que eu adore Darwin, não vou contar com ele para escrever código.



Crença #5: De que tanto os aspectos qualitativos como quantitativos dos sistemas de informação serão acelerados pela Lei de Moore.

O hardware8 dos computadores vai ficando cada vez melhor e mais barato, numa velocidade exponencial conhecida pelo apelido de Lei de Moore. A cada ano e meio, por aí, a computação aproximadamente duplica de velocidade em relação a um custo determinado. As implicações disso são desnorteantes, e tão profundas, que produzem vertigem numa primeira impressão. O que um computador um milhão de vezes mais veloz do que esse em que escrevo este texto seria capaz de fazer? Esse computador seria mesmo incapaz de realizar aquilo que meu cérebro realiza, seja lá o que for? A quantidade de "um milhão" é não apenas demasiado grande para captar intuitivamente; ela não é nem acessível experimentalmente para finalidades atuais, e portanto a especulação não é irracional. O que é atordoante é perceber que muitos de nós descobrirão esta resposta em vida, pois tal computador poderá ser um bem de consumo barato em cerca de, digamos, 30 anos.

Esse panorama de tirar o fôlego precisa ser rigidamente contrastado com a Grande Vergonha da ciência da computação: não parecemos capazes de escrever programas muito melhores na medida em que os computadores ficam muito mais rápidos. Os programas de computador insistem em desapontar. Como eu odiava o UNIX lá nos anos 70 - aquele acumulador demoníaco de informação descartável, ocultador de funções, inimigo do usuário! Se alguém me dissesse naquela época que o retorno para o primitivo e embaraçoso UNIX seria a grande esperança e obsessão dos investidores do ano 2000, simplesmente com a troca de seu nome para LINUX e com uma nova abertura de seu código, eu nunca teria o estômago ou o coração para permancer na ciência da computação.

Se há uma Lei de Moore observável nos programas de computador, ela é invertida. Conforme os processadores ficam mais rápidos e a memória mais barata, os programas tornam-se concomitantemente mais lentos e embotados, consumindo todos os recursos disponíveis. Agora eu sei que não estou sendo inteiramente justo aqui. Hoje temos, por exemplo, reconhecimento de voz e tradução de idiomas melhores do que antes, e estamos aprendendo a rodar bancos de dados e redes cada vez maiores. Mas nossas técnicas e tecnologias essenciais para programas de computador simplesmente não ficaram a par do hardware. (Assim que alguma recém-nascida raça de robôs super-inteligentes estiver prestes a consumir toda a humanidade, nossa velha e querida espécie provavelmente será salva por um travamento do Windows. Os pobres robôs vão definhar pateticamente, nos implorando para serem reiniciados, mesmo sabendo que não lhes ajudaria em nada.)

Há diversas razões para que os programas de computador tendam a ser de difíceis de manejar, mas uma razão principal é o que gosto de chamar de "fragilidade9". O programa quebra antes de dobrar, e portanto exige perfeição, num universo que prefere estatísticas. Isso, por sua vez, conduz a todo o pesadelo do legado, do lock-in, e de outros caprichos. A distância entre os computadores ideais, que imaginamos em nossos experimentos mentais, e os computadores reais, que temos capacidade de introduzir no mundo, não poderia ser mais severa.

É a fetichização da Lei de Moore que seduz os pesquisadores a ponto de torná-los complacentes. Se você possui uma força exponencial do seu lado, ela certamente triunfará sobre todos os desafios. Quem se importa com o pensamento racional quando pode, ao invés dele, contar com um fetiche exponencial extra-humano? Mas poder de processamento não é a única coisa que cresce notavelmente; o mesmo acontece com os problemas que os processadores precisam resolver.

Aqui está um exemplo que ofereço como ilustração deste ponto para aqueles que não pertencem à área técnica. Há dez anos atrás eu tinha um laptop com um programa de catalogação que me permitia pesquisar os arquivos por conteúdo. Para que ele respondesse com velocidade suficiente cada vez que eu solicitasse uma pesquisa, o programa repassava todos os arquivos antecipadamente e os catalogava, do mesmo modo que sistemas de busca como o Google catalogam a internet hoje. O processo de catalogação durava cerca de uma hora.

Hoje eu possuo um laptop com capacidade de armazenamento imensamente superior, e mais veloz em todos os aspectos, como previsto pela Lei de Moore. Entretanto, agora eu preciso deixar meu programa de catalogação rodando noite adentro para que ele execute seu trabalho. Há muitos outros exemplos de computadores aparentando estarem mais lentos, mesmo que seus processadores centrais estejam ficando mais velozes. As interfaces do usuário nos computadores tendem a responder hoje mais lentamente a eventos de interface, como uma tecla pressionada, do que há quinze anos atrás, por exemplo. O que deu errado?

A resposta é complicada.

Uma parte da resposta é fundamental. Acontece que quando os programas e bancos de dados ficam maiores (e as crescentes capacidades de armazenamento e transmissão são governadas pelos mesmos processos que governam a aceleração exponencial de Moore), os custos indiretos10 (overhead) de atividade computacional interna com freqüência aumentam num ritmo mais do que linear. Isso acontece por causa de alguns desagradáveis fatos matemáticos da vida, relacionados aos algoritmos. Duplicar o tamanho de um problema geralmente faz com que ele exija bem mais do que o dobro de tempo para ser solucionado. Alguns algoritmos são piores nesse sentido do que outros, e um dos aspectos para a obtenção de uma sólida educação acadêmica de nível básico em ciência da computação é aprender sobre eles. Muitos problemas apresentam custos indiretos que variam numa escala ainda mais abrupta do que a Lei de Moore. E poucos dos algoritmos mais essenciais, surpreendentemente, apresentam custos indiretos que variem numa escala meramente linear.

Mas este é apenas o começo da história. Também é verdade que se diferentes partes de um sistema se escalonam em diferentes graus - e em geral é esse o caso - uma parte pode ser subjugada pela outra. No caso do meu programa de catalogação, o tamanho dos discos rígidos acabou crescendo mais rápido do que a velocidade de suas interfaces. Os custos indiretos podem ser amplificados por tais exemplos de escalonamento "bagunçado", onde uma parte de um sistema não consegue acompanhar outra. Surge um engarrafamento (bottleneck), semelhante a um entroncamento paralisado numa rodovia mal projetada. O resultado é tão desagradável quanto ir ao trabalho pela manhã num sistema de ruas tipicamente inadequado. E é igualmente complicado e caro de planejar e prevenir. (Dirigir nas ruas de Manhattan era mais rápido há cem anos atrás do que é hoje. Cavalos são mais velozes do que carros).

E então chegamos à nossa velha antagonista, a fragilidade. Quanto maior o pedaço de computador que o programa abocanha, maior é a chance dele ser dominado por alguma forma de legado de código, e mais brutal se torna o custo indireto provocado pelo endereçamento dos inacabáveis exemplos de súbita incompatibilidade, que surgem inevitavelmente entre blocos de software criados originalmente em contextos diferentes.

E ainda além desses efeitos há falhas de caráter humano que agravam a situação do software, e muitas delas são sistemáticas e poderiam aparecer inclusive se agentes não-humanos estivessem escrevendo o código. Por exemplo, é muito demorado e caro o planejamento antecipado com o objetivo de facilitar a tarefa de futuros programadores, de modo que cada programador tende a optar por estratégias que acentuam os efeitos da fragilidade. O aperto de tempo enfrentado pelos programadores é provocado por nada menos que a Lei de Moore, que motiva um ciclo cada vez mais veloz de revisões do código dos programas, com o objetivo de extrair ao menos alguma forma de vantagem do aumento da velocidade de processamento. Por isso o resultado é muitas vezes um programa que fica menos eficiente em alguns aspectos, mesmo que os processadores fiquem mais velozes.

Eu não vejo nenhuma indicação de que a Lei de Moore seja fulminante o suficiente para ultrapassar todos esses problemas sem o implemento de façanhas intelectuais ainda por acontecer.

Um aspecto fundamental da questão que estou examinando aqui é saber se os programas de computador tendem a ser difíceis de manejar apenas devido ao erro humano, ou se essa dificuldade é intrínseca à natureza do próprio software. Se há qualquer credibilidade em todos os cenários escatológicos de Kurtzweil, Drexler, Moravec e outros, então esta é a mais urgente das perguntas relacionadas ao futuro da humanidade.

Há pelo menos algum apoio metafórico para a possibilidade de que a dificuldade de manejo do software seja intrínseca. Para examinar essa possibilidade eu terei que quebrar minha própria regra e ser um totalitarista cibernético por um momento.

A natureza aparenta ser um pouco menos quebradiça do que o software digital, mas se as espécies forem pensadas como "programas", então parece que a Natureza também vive uma crise do software. A própria evolução evoluiu, introduzindo o sexo, por exemplo, mas a evolução nunca encontrou uma forma de escapar à lentidão. Isso pode ocorrer em parte porque leva bastante tempo para explorar o total das variações possíveis de um complexo causal excessivamente vasto e complexo, em busca de novas configurações que sejam viáveis. A lentidão da evolução natural como meio de transformação é aparentemente sistemática, em vez de resultante de alguma vagarosidade inerente a suas partes componentes. Por outro lado, a adaptação é capaz de atingir velocidades sensacionais, em circunstâncias definidas. Um exemplo de rápida mutação é a adaptação dos germes aos nossos esforços de erradicá-los. Resistência a antibióticos é um famoso exemplo contemporâneo de velocidade biológica.

Tanto os programas de computador criados pelo homem quanto a seleção natural parecem originar hierarquias de camadas que variam em seu potencial de mutação rápida. Camadas de mudança lenta protegem cenários locais, dentro dos quais existe potencial de mudança mais rápido. Nos computadores, essa é a divisão entre sistemas operacionais e aplicativos, ou entre navegadores (browsers) e páginas de internet. Na biologia, ela pode ser encontrada, por exemplo, na divisão entre as dinâmicas natural e ambiental que dominam a mente humana. Mas são as camadas mais lentas que habitualmente parecem definir as características e potencial gerais de um sistema.

Na cabeça de alguns de meus colegas, tudo que você precisa fazer é identificar em um sistema cibernético uma camada capaz de mutação rápida, e aguardar que a Lei de Moore aplique sua mágica. Por exemplo, mesmo que você esteja preso ao LINUX, você pode implementar nele um programa de rede neural que eventualmente fique grande e rápido o suficiente (por causa da Lei de Moore) para alcançar um instante de iluminação e reescrever seu próprio sistema operacional. O problema é que em todos os exemplos que conhecemos, uma camada que pode se transformar velozmente não consegue se transformar muito. Os germes podem se adaptar a novas drogas rapidamente, mas ainda assim levariam muito tempo para evoluir em corujas. Isso pode ser uma compensação inerente. Como exemplo no mundo digital, você pode escrever uma nova rotina JAVA rapidamente, mas ela não vai ficar muito diferente das demais rotinas rapidamente escritas - dê uma olhada no que tem sido feito com rotinas JAVA e verá que isso é verdade.

E finalmente chegamos à...



Crença #6, o cataclisma cibernético que se aproxima.

Quando uma pessoa ponderada maravilha-se diante da Lei de Moore, o resultado pode ser estupefação e terror. Uma versão do Terror foi expressada recentemente por Bill Joy, numa matéria de capa para a revista Wired. Bill concorda com os pronunciamentos de Ray Kurtzweil e outros, que acreditam que a Lei de Moore resultará em máquinas autônomas, quem sabe nas proximidades do ano 2020. Esse é o momento em que os computadores se tornarão, de acordo com algumas estimativas, tão poderosos quanto cérebros humanos. (Não que alguém já tenha conhecimento suficiente para realmente avaliar cérebros em comparação a computadores. Mas em nome da argumentação, vamos supor que há algum sentido nessa comparação.) De acordo com esse cenário de terror, os computadores não estarão confinados dentro de caixas. Serão mais como robôs, conectados entre si pela rede, e capazes de um bom número de truques.

Eles serão capazes de realizar nano-fabricação, pra começar. Aprenderão rapidamente a reproduzir e aprimorar a si mesmos. Um belo dia, sem nenhum aviso, as novas super-máquinas vão varrer a humanidade pro canto, tão naturalmente quanto os humanos derrubam uma floresta para um novo empreendimento. Ou, quem sabe, as máquinas vão manter os humanos por perto, como objeto das indignidades retratadas no filme Matrix.

Mesmo que as máquinas optem, no outro caso, por preservar seus progenitores humanos, indivíduos perniciosos terão a chance de manipular as máquinas para infligir um grande mal sobre o resto de nós. É um cenário diferente, que Bill também explora. A biotecnologia terá avançado ao ponto em que programas de computador poderão manipular o DNA como se fosse Javascript. Se computadores podem calcular o efeito de drogas, modificações genéticas e outros conluios biológicos, e se as ferramentas para realizar essas maquinações são baratas, então tudo que falta é um maluco para, digamos, criar uma epidemia direcionada a uma única raça. A biotecnologia tomada isoladamente, sem o apoio de um componente barato e poderoso de tecnologia da informação, não seria potente o suficiente para tornar real este cenário. Ao invés disso, a raiz dessa versão do Terror está na habilidade de rodar programas em computadores com velocidade fabulosa, para modelar e controlar a manipulação da biologia. Não foi possível transmitir a íntegra das preocupações de Bill nesta breve explanação, mas dá pra pegar a idéia.

Minha versão do Terror é diferente. Já podemos verificar o modo como a indústria da biotecnologia está se preparando para enfrentar décadas de dispendiosos problemas de software. Embora haja todo tipo de bancos de dados úteis e pacotes de modelagem sendo desenvolvidos por firmas e laboratórios biotecnológicos, todos eles estão em bolhas de desenvolvimento isoladas. Cada uma dessas ferramentas espera que o mundo suporte seus requisitos. Já que as ferramentas são muito valiosas, o mundo vai fazer exatamente isso, mas podemos prever vastas quantidades de recursos sendo aplicados no problema de permitir que os dados transitem de uma bolha para a outra. Não há um cérebro eletrônico gigante, monolítico, sendo criado com o conhecimento biológico. Há, em lugar disso, uma confusão fragmentada de dados e feudos11 de modelagem. O meio para a transferência de dados biológicos continuará sendo composto de pesquisadores, indivíduos humanos privados de seu sono, até um imaginário momento do futuro onde saberemos como fazer um programa capaz de conectar as bolhas por si próprio.

Como é um cenário a longo prazo no qual o hardware fica cada vez melhor e o software permanece medíocre? O lado bom do software vagabundo é a quantidade de emprego que ele gera. Se a Lei de Moore se sustentar por mais vinte ou trinta anos, não apenas vai haver uma enorme quantidade de informática funcionando no planeta Terra, mas a manutenção dessa informática consumirá os esforços da quase todas as pessoas vivas. Estamos falando do planeta dos profissionais de suporte técnico.

Em outra oportunidade, eu demonstrei que esse mundo futuro seria uma ótima coisa, realizando o sonho socialista do pleno emprego através de meios capitalistas. Mas vamos considerar o lado negativo.

Entre os diversos processos que os sistemas de informação tornam mais eficientes está o processo do próprio capitalismo. Um ambiente econômico praticamente sem atritos permite a acumulação de fortunas em alguns meses, ao invés de algumas décadas, mas a duração da vida dos indivíduos que estão acumulando ainda é a mesma. É até maior, na verdade. Portanto, os indivíduos hábeis em enriquecer têm a chance de ficar mais ricos até o dia de sua morte do que tinham seus antepassados de mesmo talento.

Há dois perigos nisso. O menor e mais imediato perigo é o de que a juventude, aclimatada a um ambiente econômico delirantemente receptivo, fique emocionalmente abalada com o que o resto de nós considera como ligeiros retornos à normalidade. Às vezes eu me pergunto se alguns dos estudantes com quem trabalho, que enriqueceram com empresas "pontocom", seriam capazes de lidar com qualquer espécie de frustração financeira durando mais do que uns poucos dias, sem se entregar a algum tipo de depressão ou raiva destrutiva.

O maior perigo é que o abismo entre os ricos e o resto do mundo atinja uma gravidade transcendental. Ou seja, mesmo que concordemos que uma maré alta eleva todos os navios, se o grau de elevação dos navios mais altos é maior do que o dos mais baixos, eles ficarão ainda mais separados entre si. (E, de fato, as concentrações de riqueza e pobreza aumentaram durante os anos de explosão da internet nos Estados Unidos).

Se a Lei de Moore, ou algo parecido com ela, está dando as cartas, a escala de separação pode tornar-se assombrosa. É aí que reside o meu Terror, na imagem do desfecho da crescente divisão entre os ultra-ricos e os meramente ricos.

Com a tecnologia existente hoje, os ricos não são muito diferentes de todo o resto: ambos sangram quando perfurados, para um exemplo clássico. Mas com a tecnologia dos próximos vinte ou trinta anos, eles podem ficar realmente bastante diferentes entre si. Será que os ultra-ricos e os demais serão sequer reconhecidos como a mesma espécie lá pela metade deste novo século?

As possibilidades de que eles se tornem espécies essencialmente diferentes são tão óbvias e aterrorizantes que beira o banal declará-las. Os ricos poderiam, através da genética, fazer suas crianças serem mais inteligentes, belas, entusiasmadas. Talvez elas pudessem, inclusive, ser geneticamente arranjadas para apresentar uma capacidade superior de empatia, mas apenas em relação a outras pessoas que se encaixem numa estreita faixa de critérios. O simples ato de enunciar isso parece me rebaixar, como se eu estivesse escrevendo literatura de ficção barata, e ainda assim a lógica dessa possibilidade é inevitável.

Vamos explorar apenas uma possibilidade, para fins de argumentação. Um dia os mais ricos entre nós poderiam ficar quase imortais, tornando-se Deuses virtuais para o resto. (Uma aparente ausência de envelhecimento, tanto em culturas de células quando em organismos inteiros, já foi demonstrada em laboratório.)

Não vamos focalizar aqui as questões fundamentais da quase-imortalidade, se ela é moral ou até mesmo desejável, ou se haveria espaço suficiente caso imortais insistissem em continuar gerando filhos. Vamos, ao invés disso, focalizar outra questão: se é ou não provável que a imortalidade tenha um preço elevado.

Meu chute é de que a imortalidade será barata se a tecnologia da informação for bastante aprimorada, e cara se os programas de computador permanecerem toscos como são atualmente.

Eu suspeito que a dicotomia hardware/software reaparecerá na biotecnologia, e mesmo em outras tecnologias do século 21. Pode-se pensar a biotecnologia como uma tentativa de transformar a carne em um computador, no sentido de que a biotecnologia almeja controlar os processos biológicos em profundidade cada vez maior, alcançando um horizonte longínquo de controle perfeito. A nanotecnologia espera fazer o mesmo em relação à ciência dos materiais. Se o corpo e o mundo material como um todo forem mais manipuláveis, mais semelhantes à memória de um computador, então o fator limitante será a qualidade do programa que governa a manipulação.

Embora seja possível programar um computador para fazer virtualmente qualquer coisa, todos sabemos que essa não é uma descrição suficiente dos computadores. Como afirmei acima: Fazer com que computadores realizem tarefas específicas de complexidade significativa, de maneira confiável porém modificável, sem travamentos ou falhas de segurança, é essencialmente impossível. Podemos apenas nos aproximar desse objetivo, e sempre com um custo alto.

Da mesma maneira, pode-se em hipótese programar o DNA para fazer virtualmente qualquer modificação num ser vivo, mas projetar uma modificação em particular e verificá-la de forma completa tende continuar sendo uma imensa dificuldade. (E, como declarei acima, essa pode ser a razão definitiva que explique por que a evolução biológica nunca conseguiu deixar de agir com extrema lentidão). Igualmente, pode-se em hipótese usar a nanotecnologia para conseguir que a matéria faça quase qualquer coisa concebível, mas provavelmente será mais difícil do que imaginamos conseguir com que ela faça algo complexo em particular sem efeitos colaterais perturbadores. Cenários que prevêem que a biotecnologia e a nanotecnologia serão capazes de criar novidades espantosas sob o sol, de forma rápida e barata, precisam também imaginar que os computadores se tornarão engenheiros virtuosos, autônomos e super-inteligentes. Mas isso não acontecerá, se a última metade de século de progresso no software servir como indicativo para a próxima metade.

Em outras palavras, o software de má qualidade tornará as cisões biológicas como a quase-imortalidade caras, ao invés de baratas, no futuro. Mesmo que todo o resto fique mais barato, a parte da tecnologia da informação nesse esforço ficará mais cara.

Quase-imortalidade a baixo custo para todos é uma proposição insustentável. Não há espaço físico suficiente para acomodar tal aventura. Inclusive, superficialmente falando, se a imortalidade ficasse barata, o mesmo ocorreria com as hediondas armas biológicas do cenário de Bill. Por outro lado, quase-imortalidade a altos custos é algo que o mundo poderia absorver, pelo menos por algum tempo, porque haveria menos pessoas envolvidas. Talvez elas pudessem até manter o fato em segredo.

Aqui está, portanto, a ironia. Os mesmos atributos dos computadores que nos tiram do sério hoje em dia, e mantém tantos de nós proveitosamente empregados, são a melhor garantia de sobrevivência a longo prazo que nossa espécie possui, enquanto exploramos os confins das possibilidades tecnológicas. Por outro lado, essas mesmas qualidades são o que pode transformar o século 21 num manicômio pautado pelas fantasias e aspirações desesperadas dos ultra-ricos.



Conclusão

Eu acompanho meus colegas totalitaristas cibernéticos na crença de que haverá súbitas e enormes mudanças trazidas pela tecnologia num futuro próximo. A diferença é que acredito que os acontecimentos, seja lá quais forem, serão responsabilidade de indivíduos que fazem coisas específicas. Acho que tratar a tecnologia como se ela fosse autônoma é a mais auto-realizável das profecias. Não há diferença entre autonomia mecânica e a abdicação da responsabilidade humana.

Vamos considerar o cenário do "domínio dos nano-robôs". Parece-me que os cenários mais plausíveis envolvem um entre os seguintes:

a) Super nano-robôs por tudo, rodando software antigo - LINUX, digamos. Isso pode ser interessante. De qualquer forma, teremos com certeza ótimos videogames.

b) Super nano-robôs que evoluem tão rápido quanto os nano-robôs da natureza - ou seja, não fariam muita coisa antes de um milhão de anos.

c) Super nano-robôs capazes de coisas novas dentro em breve, porém dependentes dos humanos. Em todos os casos como esse, os humanos estarão no controle, pro bem ou pro mal.

Portanto, a partir de agora, vou me preocupar mais com o futuro da cultura humana do que com as engenhocas. E o que me preocupa no temperamento cultural de Jovem Turco12 verificado nos totalitaristas cibernéticos é que eles não parecem terem sido educados na tradição do ceticismo científico. Compreendo por que eles estão intoxicados. Há, de fato uma simples e atraente lógica por trás de seu pensamento, e a elegância de raciocínio é contagiosa.

Há chances concretas de que a psicologia evolucionista, a inteligência artificial, a fetichização da Lei de Moore, e todo o resto do pacote, triunfem com a mesma força que Freud ou Marx triunfaram em suas épocas. Ou com mais força ainda, uma vez que essas idéias podem vir a ser incorporadas como parte essencial nos programas de computador que fazem funcionar nossa sociedade e nossas vidas. Se isso acontecer, a ideologia dos intelectuais do totalitarismo cibernético será catapultada, de uma inovação para o estado de uma força capaz de provocar sofrimento em milhões de pessoas.

O maior crime do marxismo não foi simplesmente o fato de que muito do que ele afirmou era falso, mas sim o pressuposto de que ele era o caminho único e completo para a compreensão da vida e da realidade. A escatologia cibernética possui, como em algumas das mais nocivas ideologias da história, uma doutrina de predestinação histórica. Não existe nada mais cinzento, decadente e sombrio do que uma vida levada dentro dos limites de uma teoria. Esperemos que os totalitaristas cibernéticos aprendam algo sobre humildade antes que chegue o seu lugar ao sol.




Traduzido por Daniel Galera




NOTAS AO TEXTO TRADUZIDO

1 O termo em inglês empregado por Lanier é "totalism", apontado pelo The Random House Webster's Unabridged Dictionary como sinônimo de "totalitarianism", significando "a qualidade ou caráter autocrático de um indivíduo, grupo ou governo". Optamos, portanto, pelo termo em português "totalitarismo".
2 Termo cunhado a partir de analogia com "literati", os literatos, ou os entendidos em literatura. Os digerati são os "literatos da informática", reconhecidos (ou que desejam ser) pelo conhecimento que têm acerca de assuntos e questões relacionadas à tecnologia e cultura digitais, principalmente a internet, ciberespaço e atividades online. O sítio Edge define os digerati como a "cyber elite", os "realizadores, pensadores e escritores que exercem grande influência sobre a revolução emergente das comunicações. Eles não estão na fronteira, pois são a fronteira". Uma lista daqueles que o Edge considera os principais digerati pode ser conferida em http://www.edge.org/digerati/index.html.
3 Jargão da área de informática. Um sistema legado é um computador ou aplicativo que permanece sendo usado apenas porque o custo de seu aprimoramento ou substituição é muito elevado, apesar de sua baixa competitividade e compatibilidade com equivalentes modernos. O resultado é quase sempre um sistema demasiado grande, monolítico e difícil de modificar. Se um software legado roda apenas num hardware antiquado, o custo de manutenção do sistema pode eventualmente ultrapassar o custo de substituição do software e do hardware. O Microsoft Press, dicionário de informática, define um sistema legado como "computador, software, rede ou outro equipamento que continua a ser usado depois que uma empresa ou organização instala novos sistemas. A compatibilidade com sistemas legados é um aspecto importante a ser considerado na instalação de uma nova versão. Por exemplo, uma nova versão do software de planilha será capaz de ler os registros empresariais existentes sem exigir a conversão, que pode ter um custo elevado e exigir muito tempo, para um novo formato?".
4 Outro jargão de informática, não possui expressão equivalente em português. Conforme descrito pelo dicionário online FOLDOC, especializado em informática, o lock-in ocorre quando um padrão (standard) torna-se quase impossível de ser superado, devido aos custos ou dificuldades logísticas necessárias para convencer todos seus usuários a migrar para um padrão diferente e, quase sempre, incompatível com o anterior. Em geral, isso resulta em padrões vigentes apresentando notável inferioridade em relação a outros padrões comparáveis, desenvolvidos anterior ou posteriormente. Alguns exemplos de coisas acusadas de beneficiarem-se do lock-in, ao invés de mérito funcional, para manterem-se como padrões, são os teclados "QWERTY", a maioria dos sistemas operacionais e linguagens de programação, todos os produtos da Microsoft Corporation, bibliotecas de caracteres de 7 ou 8 bits, alguns formatos de transmissão de vídeo e áudio analógicos, e quase todos os formatos de arquivo utilizados hoje em dia. O conceito de lock-in também pode ser aplicado a situações do "mundo real", direta ou indiretamente afetadas pelos computadores, como o sistema métrico imperial ainda hoje empregado nos Estados Unidos (polegadas, onças, etc.) e o sistema de organização interna da maioria dos governos. O lock-in pode ser considerado, portanto, um fenômeno de resistência não apenas técnica/tecnológica, mas também cultural, em favor de padrões inadequados, para os quais já existem uma ou mais soluções superiores.
5 O teste de Turing é um teste da inteligência das máquinas, proposto em 1950 pelo matemático inglês Alan Turing, como forma de responder a pergunta "os computadores podem pensar?". O teste, que Turing chamou de "o jogo da imitação" (The Imitation Game), envolve dois seres humanos e um computador. Um dos humanos, o juiz, é colocado dentro de uma sala, onde usará um terminal de computador para estabelecer duas conversações distintas em sucessão, uma com o ser humano, e a outra com o computador. O juiz, contudo, não é informado de quem é o seu interlocutor em cada conversa. As conversas devem ter duração de cinco a vinte minutos, tratando de quaisquer assuntos "humanos", a após terminadas, o juiz deve dizer qual respondedor era humano, e qual era uma máquina. Se a máquina conseguir "tapear" o juiz, ela vencerá o teste, e será considerada inteligente, ou sencientes. Turing previu que em 50 anos (ou seja, lá pelo ano 2000), o progresso tecnológico produziria computadores com capacidade de processamento suficiente para "tapear" o juiz em 70% das conversas com duração de cinco minutos. Em 1991, Hugh Gene Loebner lançou uma competição anual de inteligência artificial, onde são realizados testes de Turing, com um prêmio de cem mil dólares reservado ao autor do primeiro programa de computador que vencer um teste aberto, ou seja, sem limitação de tópicos. Até hoje, até mesmo os programas mais avançados não resistiram por muito tempo, entregando-se através de repetições ou erros gramaticais. O teste de Turing é objeto de muitas discussões. Alguns defendem que ele é um teste adequado para detectar inteligência, pois exige da máquina que demonstre não apenas conhecimento vasto, mas sobretudo flexibilidade para interpretar e lidar com novas situações. Por outro lado, o filósofo John Searle argumenta em seu artigo "Minds, brains and programs" que o teste de Turing é inadequado, por ser incapaz de demonstrar que a máquina está realmente "entendendo" a linguagem em nível semântico, mesmo que ela eventualmente vença. A expressão "máquina de Turing" é freqüentemente usada como referência à primeira máquina sencientes a ser produzida pelo homem.
6 Programas de computador. No conceito abrangente, instruções que o computador é capaz de entender e executar. As duas categorias principais são os sistemas operacionais (software básico), que controlam o funcionamento do computador, e os softwares aplicativos, que executam tarefas variadas ao usuário.
7 Em matemática, o grau ínfimo a que uma grandeza pode ser reduzida.
8 Os componentes físicos de um sistema de computador.
9 No original "brittleness", aquilo que é quebradiço.
10 "Overhead", traduzido aqui como "custo indireto", é um termo comum à informática, à administração e outras áreas. Refere-se a recursos consumidos por objetivos incidentais, porém não necessários, ao objetivo principal. Por exemplo, manter um empreendimento pode envolver o custo indireto de aquecer o escritório no inverno. Da mesma forma, manter um programa de computador rodando constantemente evita o custo indireto de ter que iniciá-lo a cada uso. Lanier fala aqui do custo indireto de tempo de processamento computacional consumido pelos algoritmos na resolução de problemas.
11 No inglês "fiefdom". Significa, em modo figurativo, toda organização ou empresa controlada por uma pessoa, ou por um grupo pequeno de pessoas.
12 No inglês, Young Turk. Lanier parece estar fazendo aqui um jogo de palavras entre duas acepções possíveis da expressão grifada. A primeira delas é histórica: os "jovens turcos" foram um grupo político que tentou modernizar as instituições do antigo império turco-otomano, e mais tarde se comprometeu em parte com a República Turca. A segunda, mais evidente, refere-se a uma anedota da área de informática: diante de um computador antiquado e extremamente lento, o Jovem Turco afirma que pode construir um computador dez vezes mais rápido. De fato consegue, mas o seu computador comete uma série de erros que o computador antiquado já tinha aprendido a resolver em sua longa existência. O Jovem Turco promete então corrigir as falhas de seu veloz computador, e quando termina, ele está tão lento quando o antigo. A anedota ilustra o temperamento cultural dos totalitaristas cibernéticos em um dos aspectos criticados por Lanier: a idealização dos computadores em detrimento das máquinas reais que somos capazes de construir.




Volta à página inicial