PrécédentSommaire

Cerveau planétaire (1)

La technique d'Internet est loin d'être exempte de défauts. Il y a des serveurs qui ne sont pas toujours accessibles ou d'autres qui s'effondrent parce qu'un grand nombre d'utilisateurs cherchent à s'y connecter d'un seul coup. Parfois des documents ont été supprimés alors qu'on les trouve encore dans les listes de résultats des moteurs de recherche ou, inversement, qui n'y apparaissent pas même s'ils existent depuis belle lurette. La réorganisation d'un site peut causer ce genre de désagréments pour un temps non négligeable en modifiant les noms ou les emplacements des fichiers concernés. Il arrive que les informations précises recherchées ne puissent être trouvées nulle part tandis que d'autres éléments sont dupliqués en de nombreux exemplaires, occupant de la place sans que ce soit indispensable.

Ces défaillances ne sont pas forcément une fatalité. Elles pourraient éventuellement être corrigées grâce à une évolution du réseau des réseaux, qui devra de toute façon gérer sa croissance quasi exponentielle, aussi bien en nombre de sites que de postes connectés. Celle-ci pose nécessairement un problème au niveau des moteurs de recherche : ils doivent examiner régulièrement chaque site pour pouvoir construire les index qui seront utilisés pour les recherches elles-mêmes, donc il faudrait que leur bande passante augmente aussi vite que le nombre d'emplacements à répertorier pour éviter une durée croissante pendant laquelle il y a un décalage entre ce qu'ils montrent et ce qu'il y a sur la multitude d'ordinateurs accessibles.

Quel moyen utiliser pour éviter d'avoir des serveurs entiers incapables de répondre aux demandes des internautes ? Cela fait immédiatement penser à la tolérance de pannes mais ici il n'est pas nécessaire d'utiliser des moyens drastiques puisqu'on a affaire à une communauté de machines se trouvant aux 4 coins de la planète. Il faudrait qu'Internet lui-même assure un mécanisme de miroirs qui pourraient éventuellement être fractionnés sur plusieurs ordinateurs. La charge et les capacités de chacun d'eux devraient être connues et un disfonctionnement à un moment donné signalerait le besoin d'un miroir. "L'extension" devrait être limitée pour éviter que des petits malins ne comptent sur les systèmes des autres alors que le leur est manifestement sous-dimensionné. Comme la consultation ou le téléchargement constituent le plus gros du travail, des opérations plus spécifiques pourraient être relayées au site d'origine. Pour qu'une telle solution soit possible, il faudrait définir une norme qui serait intégrée dans les logiciels gérant les serveurs.