La charrue avant les bufs
Différents travaux sont menés en intelligence artificielle depuis des années afin d'obtenir une meilleure autonomie des ordinateurs utilisés. En effet, des systèmes experts créés pour travailler dans un domaine particulier peuvent y fonctionner très bien - par exemple en assistant et aidant les décisions d'une personne - mais dérailler dès qu'ils en débordent. Ils sont trop spécifiques parce que leurs concepteurs ne se sont attachés qu'à résoudre au mieux le problème précis qui leur était posé (c'est la logique industrielle). L'une des approches est de développer une énorme base de connaissances dont les règles de fonctionnement sont adaptées et affinées par des chercheurs au fur et à mesure que de nouvelles données - qui apparaissent souvent contradictoires pour le logiciel - sont engrangées.
L'idée est qu'en arrivant à une masse de connaissances générales suffisante l'ordinateur va acquérir une autonomie qui lui permettra de traiter des problèmes très divers pouvant se présenter à un être humain. Cela ressemble à un pari car les informaticiens n'ont pas précisément déterminé avant de commencer la façon dont fonctionne l'esprit humain. Ils partent donc à l'aventure parce qu'ils n'ont pas d'éléments de comparaison. Il faut dire que beaucoup de gens ne se posent même pas la question de faire la différence entre l'intelligence - la capacité à résoudre des problèmes, sans forcément définir leur nature - et la conscience d'exister (rien ne prouve qu'une machine qui aurait une intelligence certaine serait pour autant consciente).
Quand on pense comme moi que l'intelligence humaine se structure en partant de l'inconscient collectif, chaque nouvelle information étant traitée d'après celles qui sont déjà mémorisées, on se dit qu'un logiciel qui n'a pas un mécanisme d'organisation bien défini devrait au final avoir un "comportement" ressemblant à celui d'un autiste. Il ne saura pas de lui-même quoi faire des informations qui continueront à lui parvenir. Nous ignorons si le modèle du cerveau humain est le seul possible pour obtenir une intelligence généraliste, si c'est une solution optimale, si cela en est une parmi d'autres Cependant c'est le résultat de centaines de millions d'années d'évolution par la sélection naturelle (avec des contraintes assez draconiennes : la survie, dès les premiers instants, des individus dans des conditions diverses) et ce que nous en connaissons aura son utilité pour obtenir une intelligence artificielle digne de ce nom. Celle ci pourrait avoir des applications telles que des recherches sur Internet en fonction du contenu effectif des documents plutôt que par mots clés.
De plus il se pose des questions intéressantes : les émotions sont-elles indispensables ou ne se rapportent-elles qu'au biologique ? Et faut-il obligatoirement une séparation conscient-inconscient ? Si ce n'est pas le cas une éventualité vexante apparaît : un ordinateur suffisamment perfectionné pourrait être plus intelligent que nous parce qu'il aurait la capacité de commuter à tout moment entre les modes inconscient masqué - inconscient accessible ou même les faire fonctionner en parallèle.