O Efeito Dominó

Cerca de metade das empresas a nível mundial não vai conseguir, em tempo útil, concluir o processo de manutenção que permita garantir a conformidade com o ano 2000 dos seus sistemas, revela um inquérito realizado em meados deste ano pelo Gartner Goup a 15 mil empresas de 87 países de todo o mundo. Para Andy Butler, director de investigação desta empresa de estudos de mercado, a concretizar-se esta previsão «existe um sério perigo de existir um efeito dominó devido a uma vaga de falências em cadeia». Em piores lençóis estarão 23 por cento empresas, na sua maioria são PME, que nem sequer vão conseguir dar início às tarefas de manutenção antes de 1 de Janeiro de 2000. Dados que parecem querer dar razão às teses mais pessimistas de alguns economistas que apontam para a inevitabilidade de uma recessão mundial ano 2000, consequência da desorganização momentânea de alguns circuitos logísticos e das falências em cadeia. Por exemplo, Edward Yardeni, um prestigiado economista do Deutsche Bank, tem-se destacado entre os mais alarmistas, ao admitir que há 70 por cento de hipóteses de se assistir no ano 2000 a uma recessão mundial com repercussões semelhantes à crise do petróleo de 1973. Tudo porque o tratamento que tem sido dado ao problema tem sido leviano. Yardeni sugere mesmo aos mercados financeiros de todo o mundo que pensem em tirar uma semana de férias logo após o dia 1 de janeiro de 2000.

«A maioria das organizações acordou demasiado tarde», considera também Mark Stabler, especialista em questões do ano 2000 e vice-presidente da Computer Associates . E acrescenta: «A um ano de distância , as organizações de alguma dimensão que comecem agora ainda podem Ter tempo para fazer diagnósticos, para tomar medidas correctivas, mas não terão tempo para fazer as indispensáveis testes e colocar de pé planos de contingência». Para esse estado de coisas tem contribuído a escassez global de recursos humanos na área das tecnologias de informação, situação que está a ser agudizada pela quase simultaneidade do Euro. Em março deste ano, a Business Week revelava que a resolução do problema do ano 2000 requeria uma força de trabalho de cerca de 700.000 pessoas/hora. Apesar do muito que ainda há (vai ficar) por fazer, o problema informático do ano 2000, segundo a empresa norte-americana de estudos de mercado Stamford, será «o mais caro problema de sempre da Humanidade». Só em tarefas de manutenção de sistemas com programação embebida e da resolução do problema da na informática empresarial estão previstos serem gastos em todo o mundo um valor que se vai situar entre os 300 e 600 mil milhões de dólares (50 mil a 100 mil milhões de contos) ou seja, entre 4 e 8 vezes o PIB português.

Por outro lado, também a análise do nível de resolução do problema por países também elaborado pelo Gartner Goup também sugere matéria para reflexão ao revelar o enorme fosso existente entre os países ricos - Estados Unidos, Canada, Holanda, Bélgica, Austrália e Suécia - que levam a dianteira na resolução do problema e os países com escassos recursos - Europa de Leste, Rússia, Índia, Paquistão, Países do Sudoeste asiático - que se encontram mais na retaguarda a cerca de uma ano de distância. O mesmo estudo permite também constatar, com alguma surpresa, que nem sempre uma elevado desenvolvimento económico significa mais atenção em relação ao problema do ano 2000. É caso de países como a Alemanha e o Japão estão significativamente atrasados (cerca de 12 meses em relação aos país líderes. Se para o Japão as causas do atraso são difíceis de explicar, no caso da Alemanha fica a dever-se, na opinião de Andy Butler, «ao efeito distracção que a implementação do Euro tem vindo a provocar».

Por áreas de actividade, o estudo do Gartner Group revela que, a nível mundial, é o sector financeiro (banca, seguros e sociedades de investimento) que está melhor posicionado para garantir a resolução do problema. A industria informática também se encontra nuam zona de risco reduzido. Em pior posição encontram-se as administrações públicas, a agricultura, a construção e obras públicas, medicina, arquitectura e a área jurídica.

Além da manutenção das suas aplicações informáticas, muitas organizações em todo o mundo têm ainda pela frente uma tarefa gigantesca de teste nos 50 mil milhões de sistemas com programação embebida que se calcula possam estar em funcionamento no final de 1999. Segundo estimativas do Gartner Group, apenas 2 ou 3 por cento destes sistemas poderão vir a Ter problemas, mas todos terão de ser considerados como «culpados» até se provar a sua «inocência. Embora seja como encontrar uma agulha no palheiro, não existe um grau de perigosidade em todos eles. No caso dos equipamentos que usam micro-controladores, a situação pode ser resolvida mantendo-os inactivos durante a passagem para 2000, seguindo de perto as indicações dos fabricantes no momento do arrancar novamente. Problemas bem maiores (embora menos prováveis) podem surgir nos chamados «sistemas embebidos de larga escala» que integram muitas vezes sofisticados equipamentos cujo bom desempenho é fundamental para o funcionamento de sectores de alguma perigosidade como minas, petroquímica, exploração de petróleo e gás natural. O grande problema que se coloca é que, até ao ano 2000, não existem recursos disponíveis nem tempo suficiente para inspeccionar todos os sistemas.

Página Anterior
Canal Temático
Topo da Página
Página Principal
Página Seguinte