What Will Be

por Michael Dertouzos

adaptado por Jorge Nascimento Rodrigues


Este é um livro sobre a Era da Informação de amanhã, que me deu gozo escrever. Uma imagem simples agrupa, a meu ver, todos os desenvolvimentos desta era - um mercado de aldeia do século XXI, onde pessoas e computadores compram, vendem, trocam livremente informação e serviços de informação. Mas em What Will Be, em vez de me concentrar apenas no que é excitante, procurei avaliar o que é realista, passando por cima dos exageros dos «media». A minha abordagem é feita para além dos pontos de vista dos tecnólogos e dos humanistas, à mistura ocasionalmente com alguma censura a esses dois extremos.

Em dois anos apenas, a Web livrou-se da sua áurea tecnológica e tornou-se um movimento cultural de grandes proporções, envolvendo milhões de pessoas. Mas, curiosamente, enquanto os «media» continuam a colocar os holofotes em noticias velhas e relhas sobre "auto-estradas da informação", correio electrónico, multimedia, CD-ROM, realidade virtual, e até Web, estão a passar-se coisas ainda mais fascinantes, já em protótipo no nosso laboratório aqui no Massachusetts Institute of Technology (Laboratório das Ciências da Computação) e noutros nossos vizinhos (como no Media Lab) ou à volta do mundo. Muito disso é ignorado pelos «media», que nunca se maçaram a vir aqui ver ou que acham que são assuntos chatos que não têm adrenalina suficiente ou impacto imediato.

Também, no plano social e político, é mais "correcto" discutir-se o problema da pornografia na Net (mas não está ela ao virar da esquina?), em vez de assuntos mais cruciais, como o impacto futuro desta Idade da Informação na Paz e na Guerra. As parangonas preferidas são sempre as mesmas: "A TV interactiva" ou "o meio é a mensagem". Mas quanto a mim, de um modo inexorável, ainda que calmo, as tecnologias da informação cedo modificarão o mundo tão profundamente, que o movimento reclamará o seu lugar de direito na História como uma revolução socieconómica similar em escala e impacto às duas anteriores revoluções industriais.

Ora, como a Web é uma fronteira absolutamente crítica em que ocorrerão algumas das grandes mudanças da Era da Informação, subitamente tanto políticos como empresários foram atraídos para ela. Essa é a razão inclusive de um outro cenário ainda mais espetacular e movimentado - o da corrida louca das empresas recém-nascidas na área da Net desde meados dos anos 90, que o mercado de capitais tem generosamente coberto com biliões de dólares, bem como o do corropio de fusões, alianças e guerras entre os tradicionais grandes já estabelecidos no mercado. Algumas das empresas líderes em cada segmento actual crêem poder vir a eclipsar todas as outras e conseguir fornecer sozinhas tudo, absolutamente tudo - tanto os cabos, como o software, o hardware e a programação. Por isso tudo, a corrida pela hegemonia está aí em força.

O mercado de rua digital

Mas, como simbolizar esta revolução? É uma coisa que tenho tentado há mais de duas décadas. Foi em 1980, quando eu preparava uma intervenção para uma conferência sobre correio electrónico e sistemas de mensagem, que me ocorreu a imagem do mercado de rua em Atenas!

Eu conhecia bem esta espécie de Feira da Ladra. Em miúdo eu gastava quase todos os domingos deambulando em ruas estreitas apinhadas de gente que vendia, comprava e trocava toda a espécie de coisas. Eu costumava lá ir à procura de material electrónico, sobretudo uns cristais de contrabando com os quais se podia construir uma pequenita estação de rádio. Toda a gente lá se conhecia, conversando e cavaqueando sobre os mais díspares assuntos. Essa gente formava uma comunidade, que ultrapassava os propósitos comerciais.

E assim me surgiu a ideia do "mercado da informação". O «paper» em que redigi essas linhas viria a ser publicado em 1981 e desde essa altura nunca mais baixei os braços, repetindo esta minha história desde há mais de quinze anos.

Mas, naturalmente, com o tamanho e a riqueza de um tal mercado, ele é muito mais do que um mercadito de aldeia. É uma metrópole. E se numa cidade, as actividades económicas e sociais são suportadas por uma infraestrutura real, também, exactamente na mesma medida, o mercado da informação terá de assentar numa infraestrutura partilhada, que deverá ser propriedade de todos e não de uma só organização.

Mas, apesar de toda a conversa, essa infraestrutura está ainda longe de estar completa. Por exemplo, a mais importante característica de um tal infraestrutura - a capacidade de permitir um sem fim de actividades independentes - ainda não é exequível. Os «navegadores» e a Web não são de grande ajuda neste campo, porque cada um de nós sempre que as usamos temos de acabar por realizar imenso trabalho e queimar tempo sem fim à procura, sem garantia nenhuma de encontrar, no fim, o que se procurava.

Sem dúvida que a Net e a Web são o ponto de partida certo, mas ainda falta muito pela frente. E, lamento escrevê-lo, mas as grandes empresas - dos telefones, dos «media», do software e do hardware - não estão a ajudar muito. Todas elas vêm o futuro sobretudo como uma coutada para os seus produtos e serviços. Quanto à infraestrutura que há-de ligar tudo isso, é, para eles, assunto secundário. Mas, então, donde poderá "brotar" essa infraestrutura? A resposta só pode ser uma - todos, mas absolutamente todos, estes actores não terão outra opção senão contribuir para tal. O desafio que se coloca a eles e a todos nós é o de trazer os concorrentes para a cooperação nessa tarefa. Se o não fizermos, isso pode implicar um lapso de tempo enorme, de uma década ou mais, no surgimento do tal mercado da informação.

Não há ninguém no mundo que não esteja interessado nisso. Os Estados Unidos estão claramente à frente. A Infraestrutura Nacional de Informação é uma iniciativa oficial que envolve anualmente mais de 1 bilião de dólares em investigação e desenvolvimento pela ARPA (a agência americana para projectos de investigação avançada) e por outras dez agências governamentais.

Do outro lado do Atlântico, a Comissão Europeia publicou em 1994 o célebre Relatório Banguemann, que é um plano para o que os europeus chamam a "Sociedade Global da Informação", que é o nome que dão ao mercado da informação. Por seu lado, o Japão planeia transformar em RDIS (rede digital integrada de serviços) toda a sua infraestrutura telefónica - a intenção é ligar qualquer casa e escritório por fibra até ao ano 2000. O custo disto é enormissimo - mais de 300 biliões de dólares. Mas este país não está a prestar muita atenção ao resto.

Contudo, esta excitação não está limitada aos grandes. Singapura decretou um ambicioso plano na base de ideias que os seus dirigentes beberam aqui em visitas ao nosso laboratório. Em Hong Kong, na Suíça ou na Suécia, surge gente que se afirma como intermediários entre fornecedores e utilizadores da informação nesse mercado emergente. Os Estados Bálticos, bem como outros estados da Europa Central, sentem a possibilidade de saltar por cima das etapas que outros países ocidentais percorreram e querem substituir directamente a sua infraestrutura obsoleta por telecomunicações das mais avançadas.

As comunidades de pioneiros

Olhando para o boom público da Web, podemos ser tentados a pensar que este novo mundo da informação é um recém-chegado. De modo nenhum. As suas raízes vão até há 30 anos ou mais atrás, quando as primeiras comunidades da computação surgiram. O que hoje está a suceder a milhões de pessoas - a cada um de nós - e o que poderá acontecer, no futuro, a centenas de milhões bebe as suas origens no que aconteceu a um punhado de pioneiros.

Foi John McCarthy, hoje na Universidade de Stanford, e Fernando Corbató, aqui do MIT, no início dos anos 60, que criaram os primeiros sistemas de computadores partilhados, que, pela primeira vez, geraram uma comunidade de gente centrada em torno do computador, tanto aqui, como em Berkeley, em Stanford ou em Carnegie Mellon. De uma amálgama de utilizadores transformá-mo-nos numa comunidade. Foi a origem do que hoje começa - digo começa, porque ainda falta muito - a acontecer à escala global. Naturalmente, que este «time sharing» nasceu por razões mais prosaicas, como uma maneira expedita de tirar rentabilidade de «mainframes» caríssimos, que, em dólares actuais, custavam qualquer coisa como 5 a 10 milhões de dólares.

Tudo começou com o abanão que provocou na América o lançamento do Sputnik pelos soviéticos em 1957. Então o Departamento de Defesa resolveu criar a ARPA. Eles viam o computador, que então não passava ainda de uma curiosidade de laboratório, como algo decisivo em termos de comando e controlo militar. Mas um dos directores, o falecido J.C.R. Licklider, tinha uma visão mais larga. Como psicólogo de formação, ele via nascer uma nova era em que computadores e pessoas poderiam actuar concertadamente. Lembro-me perfeitamente de ele nos «vender» estas ideias numa intervenção após um jantar em 1964. O nosso próprio Laboratório que foi financiado pela ARPA, reflectia esta visão no seu nome original - projecto MAC, em que esta sigla significava Multiple Access Computer. (Em 74 mudaríamos esta confusão com os hamburgers para o nome que tem hoje - Laboratório de Ciências da Computação).

Segundo um olhar actual, o aspecto mais significativo de tudo isto é que este «time sharing» foi o berço de um força decisiva do mercado da informação: uma viragem gradual mas implacável da partilha de custos elevados para a partilha de informação. Mas, é claro, que o significado destas comunidades não foi imediatamente óbvio para nós, na altura.

Hoje podemos concluir que essa era da partilha dos terminais nos ensinou que as pessoas valorizam enormemente a possibilidade de criar comunidades na base da permuta de informação e que estão também disponíveis para integrarem no seu dia-a-dia novas actividades em torno da informação.

Depois desta primeira fase, no começo dos anos 80, os PC (computadores pessoais) surgiram e deixámos de partilhar terminais por causa do custo. Mas, no reverso da medalha, estes PC, por limitações técnicas de então, não podiam facilmente partilhar informação. Os ganhos em termos de custo nesta segunda fase fizeram-se às expensas das comunidades «on line», que desapareceram. Mas era um passo necessário - o PC quebrou a noção de que uma máquina central e centralista era necessária para coordenar e controlar pessoas em terminais distribuídos.

Mas já por volta de 1976, o meu laboratório tinha definido a meta de conseguir alcançar o mesmo nível de partilha e coordenação entre máquinas independentes, de há uma década antes. Contudo, ainda ninguém o conseguiu, apesar de toda a retórica em contrário. As redes de PC existentes ainda não o são.

Uma palavra mais sobre a ARPA. A sua contribuição foi espetacular para este novo mundo que hoje começamos a saborear. Podemos dar-lhe o crédito de estar na origem entre um terço a metade de toda a vaga de inovações maiores da ciência e tecnologia da computação de então - partilha de computadores, redes, linguagens (como a Lisp), sistemas operativos (como o Multics que levaria ao Unix), memória virtual, sistemas de segurança, sistemas de computação paralela, sistemas distribuídos, reconhecimento de voz, sistemas de visão e inteligência artificial. O mundo empresarial privado contribuíu com o resto, nomeadamente com o «chip» (a Intel), com a mudança dos computadores do laboratório para máquinas vendáveis no retalho (com a Digital), depois com o PC (Xerox, Apple e IBM - exactamente por esta ordem!), e finalmente o software (Microsoft).

Hoje em dia, o efeito de tudo isto representa 10 por cento da economia do mundo industrializado, ou seja perto de 2 triliões de dólares por ano. Não é um mau retorno - 100 mil por cento! - em relação ao 1 bilião gasto pela ARPA em metade do esforço.

Berço do antepassado da Net

Algumas das "histórias" que se contam por aí sugerem que a tal terceira fase - a criação da Arpanet - foi obra dos militares. Mas isso é só parte da história. Foi uma razão prosaica que disparou o movimento - a ARPA pretendia aliviar um pouco os financiamentos em equipamentos, propondo que os grupos de investigação em vários locais partilhassem máquinas distantes umas das outras. Pela mesma altura, também factores técnicos permitiam pensar na possibilidade excitante de ligar máquinas entre si.

Fruto de tudo isto, Robert Taylor e Larry Roberts estimularam e encorajaram a investigação e os projectos no campo das redes. Lembro-me de dar comigo a pensar que isso era uma ideia louca. Mas estávamos habituados a ideias dessas que se tornavam fonte de inovações.

O protótipo da tal rede foi construído em 1969 - quase há 30 anos! - pela empresa de Boston BBN - Bolt, Beranek & Newman. Depois de uma demonstração pública da Arpanet (assim se batizou essa rede) em 1972, a procura cresceu. Por volta de meados dos anos 70, um punhado de instalações militares e cerca de 20 universidades estavam ligadas a ela.

Mas, para além de reestabelecer o correio electrónico e a transferência de ficheiros entre computadores, a Arpanet gerou um novo tipo de gente, que batizámos de "turistas", porque lhes permítiamos alojarem-se nas nossas máquinas a partir de pontos distantes e usarem essas nossas capacidades de computação de borla, quando os nossos investigadores não estavam a trabalhar - tipicamente «visitavam-nos» entre a 1 e as 5 da manhã. Eles jogavam jogos, programavam, e comunicavam entre eles e connosco. A dada altura, tivemos 1500 turistas registados nos nossos quatro grandes computadores. Stanford e Carnegie Mellon tinham números semelhantes. Alguns desses «turistas», então adolescentes, são hoje líderes na academia e na indústria.

Chegámos, finalmente, à Internet a partir de três acontecimentos. O primeiro foi um «paper» em 1974 de Robert Kahn, da ARPA, e de Vinton Cerf, de Stanford, que gerou o que viria a ser o protocolo TCP-IP. O segundo foi o surgimento de uma série de grupos de base que criariam os «standards» da Net, desde o começo dos anos 70 - o que quebrou com a tradição de formulação dos «standards», que vinham de cima. Estes grupos operavam de um modo informal. Julgo que estabeleceram uma metodologia que deve ser legitimada como a nova forma de formular «standards».

Cerf liderou o primeiro destes grupos até 1982, altura em que deixou a ARPA e foi para a MCI. Então, David Clark, um investigador sénior do nosso laboratório, tomou conta da missão. Mas, a Net era pequena. Entra, então, aqui em cena o terceiro evento crucial: o surgimento das redes locais, que ligavam computadores e «workstations» dentro de um edificio. Isso tornou-se possível graças à invenção da Ethernet por Bob Metcalfe, um aluno do nosso laboratório.

Fora da ARPA, o mundo continuou a girar em direcção às redes. Os militares sairam em 1983 e criaram a sua própria rede, a Milnet. E em meados dos anos 80, a Fundação Nacional da Ciência (NSF), criou a NSFnet, que deu um enorme empurrão à Internet.

Enfim, a rede-bébé que era suposta não vir a atingir (prospectivamente, em 1996) mais de 64 computadores suporta hoje 100 mil redes interligadas servindo dezenas de milhões de utilizadores, com um crescimento de 100 por cento ao ano!

Mas, apesar deste boom espetacular, a Net só se transformou num fenómeno cultural com a Web e os «navegadores» Mosaic e Netscape.

No entanto, é dificil de acreditar que vamos entrar no século XXI continuando ainda isolados uns dos outros em virtude de ambientes, interfaces e conceitos de antigamente - DOS, MacOS, OS2, Unix e Windows - que haviam sido desenhados para controlar os computadores individualistas e isolacionistas de outrora. Sem dúvida que novos sistemas surgirão, bem como melhorias incrementais dos velhos. Até receitas antigas aparecerão com nova roupagem, como os «network computers», sem disco - eles poderão ser úteis em certos nichos, sobretudo onde o controlo centralizado seja aceitável. Mas, a meu ver, não destronarão os PC, porque as pessoas quererão sempre "possuir" os seus recursos. Quando nos habituamos aos automóveis, dificilmente voltamos para os autocarros!

De qualquer modo, quer uns quer outros continuam a estar envolvidos por ambientes computacionais que não passam de melhorias incrementais dos anteriores. Isso não basta. Se nos lembrarmos da história, até que o Xerox Parc e a Apple apareceram com os ícones, as janelas e os menús, todos estavamos habituados apenas ao teclado. Foi uma mudança radical então. Será que agora voltará a acontecer o mesmo? Eu julgo que sim! De facto, o nosso laboratório e outros estão a desenvolver investigação exactamente neste campo.

As guerras de titãs

Agora, que sabemos donde veio o mercado da informação, vamos tentar apreciar como se estão a comportar os seus actores principais. Este mercado poderá ter impacto em qualquer coisa como metade do produto nacional bruto do mundo industrializado. Em números de hoje, algo como 9 triliões de dólares à escala mundial.

Compreende-se que cada um dos actores - grupos de «media», operadores telefónicos, multinacionais do software e da computação - estejam com as mãos no bolo. Cada um deles se vê como um jogador dominante, necessitando, apenas, de umas quantas negociatas com alguns «subordinados» para se tornarem hegemónicos no tal mercado da informação. E cada um deles - é seguro - tentará dominar, controlando um aspecto-chave do novo mundo da informação.

Entre as guerras de titãs que se vão seguir, as mais duras serão em torno do controlo dos canais de transporte de informação - ou seja, telefones, TV cabo, satélite e sem fios - numa simples rua ou através dos oceanos ou do espaço.

Com as privatizações e a desregulamentação, e consequente fim da era dos monopólios estatais de telecomunicações, pode parecer que os monopólios desaparecerão. É preciso cautela na conclusão: há uma forte possibilidade de que eles persistam, que eles reapareçam através de um punhado de mega-alianças através do mundo. Esta dança só agora começou.

Muitos prognósticos assentam, também, na ideia de que haverá um só vencedor.

Mas, obviamente, a forma como terminará essa guerra é uma incógnita. O que posso antever com alguma segurança é isto: diferentes tecnologias contribuirão para o mercado da informação, pois cada uma delas tem vantagens próprias. Por isso, não se procure um vencedor único, tal como a retórica proclama, mas provavelmente uma situação de equilíbrio entre vários vencedores.

A meu ver, o terreno é tão vasto e tão diverso que nenhuma organização só por si conseguirá vencer em tudo. Seria mais sensato que cada tipo delas se concentrasse no que sabe fazer melhor - e o fizesse. Além disso, todas deveriam saber dar as mãos para a construção de uma infraestrutura comum da informação - ou pelo menos que ficassem neutrais não a bloqueando. Isto não é uma visão idealista, mas um chamamento para acções concretas que todos podem fazer: software partilhável mais barato, ou mesmo de graça, compatibilidade generalizada entre produtos e serviços, e participação nos esforços de estandardização.

Multimodal e não multimedia

Se há palavra mais gasta nos «media» é a «multimedia», que é suposto ser o último grito em interfaces com o computador, prenhe de dinamismo e interactividade com o utilizador. Pode impressionar, mas, a meu ver, é uma noção sem qualquer sentido e utilidade. Em termos estritos, isso significaria que o seu computador usaria texto, imagens, som e vídeo na mesma aplicação. Mas esta promessa do multimedia é, em grande parte, isso mesmo, uma promessa. Os computadores não conseguem processar as imagens de vídeo da mesma forma que processam texto, e, por isso, é extremamente difícil colocar os dois meios a trabalhar verdadeiramente em conjunto.

Porque é que estou a insistir nisto? Por uma razão forte: o uso indiscriminado do termo tem ocultado os problemas reais existentes. Por exemplo, seria útil ter diferentes modos de comunicação que se reforçassem uns aos outros para um dado propósito. Eu chamo a isso "multimodal". Ou seja, conseguir colocar múltiplos «media» em sintonia.

Vejamos um caso corrente caricato: em certas teleconferências (se já participou nalguma, entende perfeitamente o que vou dizer), é preferível fechar o sistema de vídeo e deixar só o som, para poder melhorar a atenção dos expectadores. Para complicar ainda mais, alguns cientistas da área cognitiva, como John Seely Brown, chefe do Centro de Investigação da Xerox em Palo Alto, dizem-nos que o mais importante num escritório é o que acontece em redor da máquina de café, onde as pessoas cavaqueiam. Inúmeras vezes vamos a conferências não para ouvir o que lá se diz, mas para encontrar pessoas e fazer contactos nos intervalos. Assim, afirma Brown, no campo da interacção humana temos de mudar a atenção para o desenho das "periferias" sociais e de informação, em vez de nos focalizarmos no centro.

Personalização em massa

Se há um aspecto que vai mudar radicalmente no retalho é a publicidade nesse mercado da informação. Com o comércio electrónico está a chegar a publicidade do avesso, o oposto da tradicional publicidade directa. Por exemplo: o leitor é também agricultor e quer comprar um certo tipo de tractor. Só lhe interessa que o abordem com publicidade aqueles construtores ou vendedores que lhe possam oferecer esse tipo preciso de máquina.

Ainda que estejamos habituados com este tipo de publicidade a nível dos pequenos classificados de jornal de coisas em segunda mão - "pretendo comprar isto assim assim" ou "tenho para vender isto assim assim" -, ainda não "estendemos" este comportamento ao nível dos produtos e serviços. A publicidade do avesso é preferível tanto para consumidores como para fornecedores, pois obriga a todos a concentrarem-se exactamente no que interessa. É muito mais produtiva.

Foi assim que me surgiu a ideia da "produção individualizada em massa". Escrevi a ideia pela primeira vez em 1976 numa colectânea publicado pelo MIT (The Computer Age: A Twenty-year View. Agora, esta «buzzword» tem vindo a ganhar a nível da produção grande popularidade sob a etiqueta de "manufactura ágil", ou "produção customizada".

Vejamos outro exemplo: a compra e venda, no futuro, de um carro novo. Uma boa parte da montagem do seu novo carro vai ser feita bem perto de si, talvez numa espécie de combinação entre um stand a seu gosto e uma linha de finalização da produção estabelecida a nível regional. A partir do momento em que você definiu a sua encomenda e a fez electronicamente, o stand vai dar um conjunto de instruções à construtora. Um sistema automatizado dará, depois, essas indicações aos vários locais de produção envolvidos no mundo. A tendência global para a diminuição de stocks levará a que a produção do seu carro seja feita em diferentes locais em poucos dias; depois essas componentes e peças serão rapidamente agrupadas em conjuntos e expedidas para o stand para uma montagem final. Como um «kit», porque não?

O que exige é que os construtores tenham de criar novos tipos de materiais compósitos, de modo a que o seu carro possa ser montado, digamos, em 15 minutos por quatro operários moderadamente especializados, que poderão juntar uns 16 paineis e mais algumas operações para dar corpo ao automóvel dos seus sonhos. Isto começa a ser muito parecido à forma como hoje muita gente já constrói os seus próprios computadores a partir de conjuntos bem definidos.

O quiosque médico

Uma área do mercado da informação em que vai haver um enorme boom, naturalmente depois do entretenimento, é a da saúde. Veja-se por exemplo quão excitante é esse novo módulo de software que dá pelo nome de "Anjo da Guarda". Criado pelo professor Peter Szolovits e pela sua equipa aqui no meu laboratório, trata-se de um módulo com informação médica que acompanhará o bébé desde a nascença. O módulo será distribuído residindo, em parte, nalgum cartão pessoal do próprio, ou no computador pessoal em casa, e também nos computadores do médico de família ou do hospital.

Há, de facto, uma razão que pressiona fortemente o mercado da informação nesta área, e que é a necessidade de baixar os custos da medicina actual. Outra é a necessidade de acelerar a rapidez e aumentar drasticamente a qualidade dos cuidados médicos e dos procedimentos. Outra ainda é que os médicos americanos são das classes mais viradas para a tecnologia - são dos principais utilizadores dos mais avançados «beepers», da videoconferência, da tecnologia de imagem, e de outros «gadgets». Alguns hospitais, clínicas e organizações de saúde começaram já o processo de fusão da Idade da Informação com a medicina.

Uma das proezas é a possibilidade de um médico dar consulta e analisar remotamente um dado doente. Um dos exemplos mais interessantes é o do quiosque médico em Ruby Creek. Outro exemplo é o de ambientes de cirurgia avançada com integração de capacidades de audio e vídeo. Salas de conferência especiais permitirão aos médicos, em qualquer ponto do mundo, examinar em simultâneo um dado teste de um medicamento ou o corpo de um paciente.

O «digitalis advisor», um especialista automático, foi também aqui desenvolvido pelo professor Szolovits, com o envolvimento de médicos do New England Medical Center sobre a direcção de Steve Paulker. Algumas experiências já tiveram lugar aqui em Boston e no Bayler College de Medicina em Houston, no Texas.

Por outro lado, Eric Grimson, do Laboratório de Inteligência Artificial do MIT, já conduz investigação sobre cirurgia manual no cérebro com o apoio de imagens tiradas por sondas MRI registadas a partir do crâneo do doente. Este procedimento já é regularmente usado no Hospital Brigham de Boston. Investigação similar em neurocirurgia guiada através de imagens está a ser levada a cabo no Projecto VISLAN de Alan Colchester no Hospital Guy em Londres e ainda pelo grupo de Philippe Cinquin no IMAG em Grenoble, que também usa esta técnica na espinha dorsal.

Uma nova forma de saber

Deixando-me tentar um pouco por conjecturas de alto risco, talvez venha a acontecer uma nova forma de saber surjida a partir dos computadores. Seymour Papert e Marvin Minsky do Media Lab do MIT foram dos primeiros a reconhecer esta possibilidade. Alan Kay, que com outros colegas no Xerox Parc nos anos 70 criou o computador pessoal, já expôs o que o novo saber sabe fazer: ele pode codificar e descrever acontecimentos que nem a linguagem falada nem a científica consegue. Por exemplo, certos programas de computador captam e explicam processos tão complexos, dinâmicos e terríveis como os que moldam o clima, ou uma chama, ou que causam o crescimento biológico - fazem-no melhor do que qualquer texto, diagrama ou silogismo. Esta nova forma de saber abrirá, sem dúvida, novas portas para a compreensão do mundo que nos rodeia.

Por outro lado, é também a primeira grande revolução socio-económica na História que nos traz tecnologias directamente envolvidas no processo de aprendizagem. Por isso, tem boas hipóteses de gerar saltos revolucionários, que jamais poderiam ter acontecido a partir das duas revoluções industriais. De facto, o novo mundo da informação está directamente ligado ao âmago do Ensino, da Educação, através dos processos de aquisição, organização e transmissão de informação e simulação de processos representando o conhecimento, bem como através de vias como o correio electrónico ou o trabalho em grupo que fazem a mediação entre professor-aluno e aluno-aluno.

Uma das consequências mais óbvias será a expansão simultânea dos mercados de alunos para as escolas e dos mercados de escolas para os alunos. A pergunta é pertinente: porque razão estudar na escola, ou no centro de formação, ou na universidade locais, se é possível estudar à distância na melhor escola de acordo com os nossos interesses?

Esta capacidade remota explica também a possibilidade da emergência de centros de especialistas, de saber, de alta qualidade, com capacidade de execução muito rápida do trabalho, e com preços competitivos. Imagine os actuais «call centers» - em vez de só usar a voz, esta gente terá acesso a diversos recursos e ferramentas do mercado de informação. As pessoas podem estar concentradas num só local ou distribuídas. Podemos imaginar redes de advogados, dos melhores, de várias partes do mundo especializados em lei internacional, por exemplo. Ou na área da consultoria financeira pessoal. Ou de diagnóstico médico. E por aí adiante.

Contra vários mitos

Temos ouvido imenso sobre o «capital intelectual» ou o «capital-conhecimento», o que significa a importância que o mundo dos negócios começou a dar ao papel da informação e do saber. Começou até a falar-se do CKO - o chief knowledge officer, tal como há o CEO (executivo), ou o CFO (para a área financeira) ou o COO (para a parte operacional). Mas, para além da noção um bocado pedante e centralista de ter de haver um «chefe» qualquer para tudo, o problema de fundo é saber se há diferença relevante entre informação e saber. No plano prático, para a maioria das organizações, não o há. Saber é qualquer tipo de utilização da informação que ajude a organização. O resto é retórica!

Por outro lado, começámos a ouvir falar de grandes diferenças entre o mundo digital e o mundo físico. Mas só uma pequena parte do novo mundo da informação - escritos, canções, vídeos e pacotes de software de procura popular - diferem economicamente dos bens físicos, pela simples razão de que podem ser copiados a um custo marginal irrisório. Contudo, a maioria da informação que existe por aí representa trabalho sobre informação, ou informação customizada, que é difícil de copiar ou que não tem interesse para a maioria se for copiada. Em termos económicos, o trabalho sobre a informação é, em grande medida, o mesmo que o trabalho físico, ambos requerendo capital e mão de obra para o fazer. Em suma, a meu ver, o mundo da informação é de um ponto de vista económico muito parecido com o velho mundo das coisas físicas e dos serviços, mais do que se julga. A informação só tem valor para as pessoas a cujas necessidades ela responde.

Outro mito muito popular diz que com a chegada do mundo da informação, serão eliminados os intermediários. Não é assim. Ligar apenas os produtores com os consumidores de informação e de serviços de informação não elimina os intermediários. Apenas seremos inundados com tanto lixo, que não poderemos nem quereremos dedicar as nossas vidas a vasculhar. Por isso, daremos grande valor a quem nos possa fazer isso. O caso dos procedimentos automáticos a que damos o nome de «agentes» serão uma dessas ajudas. Mas isso não chegará e deixará aberto um vasto campo de oportunidades empresariais. Portanto, os intermediários não serão liquidados. Bem pelo contrário, toda a espécie deles florescerá. Os de maior valor acrescentado serão os que actuem no campo dos segmentos do mercado da informação com maior nível de confusão e com maior potencial de personalização do serviço.

Outra monumental estupidez em curso está a ser alimentada pela moda de dividir o mundo da computação entre «servidores» e «clientes». Imagine que se aproxima de alguém e que o cretino lhe responde que é apenas um «cliente» e não um «servidor» e que por isso não lhe pode dar essa informação. Esta assimetria é mais um resíduo da antiga época dos terminais partilhados e das máquinas centrais que ainda não foi deitada fora. Mas a única saída é jogar fora este tipo de distinções, de forma a que qualquer computador - a que darei o nome de «clerver», uma mistura irónica de «client» com «server» - esteja apto a dar ou a aceitar qualquer tipo de informação, se os queremos efectivamente como suportes de um mercado de informação.

Unificar as duas culturas

Sempre me motivei por colocar os contrários em sinergia. No caso, fé e razão. Ou arte e tecnologia. Ou criatividade e análise. Ou humor e seriedade. Ou o mesmo com o contraste entre humanismo e tecnocratismo.

Esta oposição humanismo-tecnocracia é recente. Começou durante o Renascimento, mas engordou nas Luzes. Antes da Época das Luzes, no século XVIII, as pessoas olhavam para a fé, a razão, a natureza e o homem, como um todo - talvez um todo confuso, mas um todo mesmo assim. Mas as Luzes procederam à separação entre a ciência e religião, a moral e a literatura dos antigos. As instituições depois cavaram o fosso investindo num ou noutro lado da divisão.

Ora, com o mercado da informação, esta polarização poderá ainda ser mais agravada, se não for contrariada. O meu desejo é que nesta época se construa também uma Era da Unificação, em que os quatro pilares se reunam numa Quarta Revolução.


OUTRAS OBRAS DE MICHAEL DERTOUZOS RECOMENDADAS: