Le savoir et l'ordinateur

Denis BERTHIER

Novembre 2002


Introduction

There’s not a morning I begin without
A thousand questions running
Through my mind,
That I don’t try to find the reason
And the logic in the world that God
Designed.
The reason why a bird was given wings,
If not to fly […]
What’s wright or wrong,
Where I belong
Within the scheme of things. […]
If not to hunger for the meaning
Of it all,
Then tell me what a soul is for ?
Why have the wings unless you’re
Meant to fly ?`
And tell me please, why have a mind
If not to question why ?
[Yentl, Sony Music Entertainment, 1983]


1. Objet de ce livre

Cet ouvrage trouve son origine dans une interrogation d'apparence naïve sur la signification et la portée culturelles des technologies informatiques du traitement de la connaissance, avec en premier lieu bien sûr l'intelligence artificielle (ou informatique symbolique). Envahissant peu à peu toute notre activité, ces technologies imprègnent sournoisement nos représentations inconscientes de l'intelligence, de la mémoire et autres catégories cognitives, et vont jusqu'à proposer de nouvelles manières de penser l'homme. Ne sont-elles alors que le prolongement banal d'une évolution continue dans les moyens de mémorisation, de diffusion et de traitement de l'information ? Ou bien augurent-elles d'une mutation profonde de la nature même de ce qui est traité par nos ordinateurs, de ce qui n'est a priori qu'information en un sens technique étroit, mais qui parfois commencerait justement à accéder pour ceux-ci à un statut beaucoup plus spécifique de connaissance, leur conférant simultanément une certaine apparence d'"intelligence" et une relative autonomie de comportement ? D'une telle mutation, nous n'entrevoyons pas encore bien les conséquences culturelles et sociétales, mais nous pressentons vaguement qu'elle pourrait induire une révolution simultanément dans notre manière de concevoir la connaissance elle-mème, dans notre relation concrète aux ordinateurs avec qui désormais nous la partagerions, et dans la place que ceux-ci occupent dans notre inconscient collectif et dans notre vie quotidienne.

    On ne saurait trop insister sur le fait que la "révolution" de l'information (et, faut-il le préciser, de la communication) a déjà eu lieu, ou du moins est largement avancée dans la partie riche du globe, et que sa portée, ne serait-ce que par l'informatisation de tous les secteurs de l'économie et de la vie sociale ou par le développement exponentiel du réseau Internet, est aussi évidente que considérable, d'une ampleur comparable à la révolution entraînée par l'invention de l'imprimerie. La continuelle montée en force du secteur tertiaire tout au long de la deuxième moitié du XXe siècle, même si elle a initialement précédé cette informatisation, a fini par en devenir inséparable ; au point qu'il est désormais banal d'associer dans un même constat le passage des pays développés à un stade "postindustriel" et la formation d'une "société de l'information". Certes, il reste, dans le désordre, à maintenir à son rythme effréné actuel l'augmentation des performances des processeurs et mémoires vives pour le traitement de l'information, des disques pour son stockage et des réseaux pour sa transmission, à construire des interfaces plus conviviales que l'écran rigide, le clavier et la souris, à achever avec le tout numérique la convergence de tous les médias, à développer des logiciels "libres" permettant à chacun d'exploiter ces médias à sa guise, à ordonner quelque peu le contenu d'Internet, ou plutôt à améliorer les moyens d'accès à l'information qu'il recèle (au double sens du terme), à en assurer la fiabilité et la sécurité, à mieux maîtriser les processus, toujours artisanaux, de développement du logiciel, et à imaginer bien d'autres innovations technologiques ou services plus ou moins (f)utiles que nous n'entrevoyons pas encore. Certainement, il reste aussi à étudier les conséquences sociétales de cette révolution, liée de près à l'émergence d'une économie du quasi immatériel, en relation étroite avec un processus global de mondialisation sauvage, et à inventer une éthique de l'accès à l'information qui empècherait de redoubler la fracture économique actuelle ou de créer des zones de refuge pour le totalitarisme.

    Mais, si tel en est le contexte, là n'est pas l'objet de notre intérêt dans ce livre. Nous proposons en effet d'étudier un aspect infiniment plus spécifique de ces évolutions, une aventure technologique et intellectuelle au terme de laquelle nous pourrons considérer que l'ordinateur ne traite pas seulement de l'information mais de la connaissance. Dans un second temps, se pose la question de l'impact sur notre connaissance d'humains de cet accès des ordinateurs à un tel niveau, où l'on ne peut plus se contenter de les concevoir comme de simples mémoires externes dont la seule caractéristique serait leur particulière efficacité pour archiver le savoir. Il se pourrait bien en effet que, de la même manière que l'imprimerie n'a pas seulement bouleversé les modes de diffusion de la connaissance, mais a été le prélude à la laïcisation de son contenu, la révolution évidente et massive de l'information masque, tout en en constituant une pré-condition technologique, une révolution bien plus subtile de la connaissance, qui nous touche beaucoup plus profondément en notre être intime, dans la mesure où cette connaissance qui devient objet d'échange, voire de partage, entre l'homme et l'ordinateur, se trouverait modifiée en sa nature mème et en ses principes constitutifs du seul fait de ce partage, en même temps que notre relation à l'ordinateur.

    Les enjeux culturels d'une telle révolution de la connaissance sont beaucoup trop importants pour permettre qu'elle reste affaire d'informaticiens. Devrait-on être obnubilé par le génie génétique, ses dérives potentielles et ses conséquences sur notre environnement biophysique, et laisser par ailleurs se produire, sans y réfléchir à deux fois, une tout aussi formidable modification potentielle de notre environnement mental ? C'est pourquoi ce livre ne s'adresse pas spécifiquement à des experts d'un domaine ou d'un autre, bien qu'il comporte inévitablement certains aspects techniques suffisamment détaillés pour permettre de cerner les technologies dont il traite dans leur réalité concrète plutôt qu'à travers les fantasmes collectifs plus ou moins conscients qui la déforment parfois grossièrement. Il vise avant tout à attirer l'attention sur les diverses facettes de cet accès de l'ordinateur à la connaissance, sur ces "connaissances génétiquement modifiées" qui en sont la clé, et sur les effets potentiels de ce "clonage" Symbolique.

1.1 Information et connaissance

    Au sens strict du terme en informatique, l’information est constituée par des suites de bits (c’est-à-dire de symboles 0 ou 1) et le traitement de l’information consiste en manipulations formelles sur ces bits, identifiables en première approximation à des suites d’instructions élémentaires d’un processeur. Le traitement de l’information se décline en traitement de texte, traitement du signal, traitement d’images, etc, en fonction des types de structures dans lesquelles sont moulées ces suites de bits et des opérations spécialisées qui leur sont appliquées. Chacun de ces traitements spécialisés permet de considérer l’information qu’il manipule à un niveau conceptuel qui n’est plus celui de suites de bits indifférenciés, mais qui est celui des types abstraits de données auxquels il s’applique (textes, sons, images, etc), niveau où la manière dont il est composé à partir des instructions élémentaires du processeur n’est plus directement pertinente. Ainsi peuvent se constituer des niveaux de description abstraits, totalement mathématiques, de certains objets et traitements associés, c’est-à-dire de types abstraits définis de manière axiomatique et susceptibles d’être implémentés sur des machines différentes par des combinaisons différentes d’instructions élémentaires différentes.
    De la même manière, ce que nous entendons par connaissance en informatique ne s’oppose pas à l’information en ce sens étroit, mais se situe par définition à un tout autre niveau conceptuel. Indiquons dès maintenant que les termes généraux en lesquels on parle de l’une ne sont pas ceux en lesquels on parle de l’autre, que les opérations que l’on effectue typiquement sur l’une (stockage, transmission, procédures séquentielles) ne sont pas de même nature que celles que l’on effectue typiquement sur l’autre (modélisation, communication, déduction, raisonnement, argumentation), ce qui, du point de vue de la « philosophie » des types abstraits que nous venons juste d’évoquer, suffirait amplement à en faire un objet différent. Sur un plan plus pratique, la connaissance exige des modes informatiques de représentation à la fois plus variés et plus complexes que l’information en général ; il faudra toutefois attendre quelque peu pour voir cette distinction se préciser et le niveau conceptuel auquel situer la connaissance pour l’ordinateur prendre quelque consistance.

1.2 L’intelligence artificielle et la connaissance
  
    Aussi poserons-nous d’emblée, par définition, que si l’information est le matériau de l’informatique en général, la connaissance est celui de l’intelligence artificielle (IA, par la suite). (Notons pour les spécialistes que nous emploierons toujours cette expression d’IA dans son sens originel, celui d’une informatique « symbolique », c’est-à-dire manipulant des symboles formels ; les raisons de ce choix et l’intérêt toujours actuel de cette IA-là apparaîtront tout au long du livre).
    Le traitement de la connaissance en informatique se distingue ainsi du traitement de l’information dans la mesure exacte où l’intelligence artificielle se distingue de l’informatique générale, c’est-à-dire par le regard que nous portons, et plus concrètement par le discours que nous tenons, de manière indissociable, sur son objet, sur ses méthodes, sur le type de systèmes qu’elle vise à construire, en particulier sur leur autonomie et leur capacité d’adaptation à leur environnement, sur le matériau que ceux-ci traitent et sur les manières dont ils le traitent – affirmations qui ne peuvent ici prétendre qu’à indiquer, à titre de point de repère, ce qui sera développé par la suite. Mentionnons seulement pour l’instant que l’IA permet de décrire et de prévoir le comportement de certains systèmes informatiques à un niveau conceptuel et en des termes qui sont ceux qu’on emploierait pour décrire des comportements humains : à la fois dans leurs aspects intentionnels et dans leur manière d’exploiter des connaissances particulières pour réaliser leurs buts.
    Une question lancinante, qu’on peut étiqueter initialement comme celle des hypothèses fondatrices de l’intelligence artificielle, parcourt donc ces pages sous des formes diverses : peut-on, comme le suppose l’IA, mettre toute connaissance en formules, peut-on subsidiairement réduire son exploitation à un calcul symbolique formel ? Questions éculées, dira-t-on ; et puis, l’IA est passée de mode, on ne lui pardonne pas ses prétentions exorbitantes des débuts, ni son incapacité à tenir les promesses des marchands de miracles des années quatre-vingt ; certains, qui commercialisent des produits recourant à ses méthodes, se gardent d’en faire état, de peur d’effrayer le client ; par ailleurs, beaucoup des techniques qu’elle a développées se trouvent désormais employées de manière diffuse dans toute l’informatique, contribuant à rejeter l’IA dans l’ombre. Pourtant, sortie des projecteurs, elle a poursuivi tranquillement son programme de recherche et évolué en profondeur, au point que son objet même doive être reformulé : car l’objet de l’IA, l’objet effectif, c’est-à-dire tel qu’il ressort de la pratique de cette discipline, ce n’est pas l’intelligence, comme on l’imaginait au début et comme le suggère encore le nom qu’elle a conservé. L’objet de l’IA, c’est l’agent rationnel, c’est la manière dont un agent peut exploiter rationnellement des connaissances particulières pour atteindre certains objectifs, et c’est encore la manière dont il peut interagir avec d’autres agents de même nature, sur des modes coopératifs ou compétitifs, pour finalement participer à de véritables sociétés mixtes (humaines et informatiques), éventuellement réparties aux quatre coins du globe et communiquant à travers le réseau Internet.
    Au cœur de toute réflexion sur l’IA se trouve donc une interrogation sur la nature précise et le rôle de l’ingrédient fondamental de la rationalité de ces agents : des connaissances symboliques formelles, elles aussi hybrides mi-humaines mi-informatiques, compréhensibles par un humain ne sachant rien des subtilités informatiques d’une machine capable de les mettre en œuvre, et exploitables par un ordinateur ne sachant rien des subtilités psychiques d’un humain les comprenant. Car, si l’objet de l’IA est bien en définitive l’agent rationnel, son instrumentation passe par la formalisation symbolique des savoirs. L’IA semble ainsi établir entre l’ordinateur et l’humain un pont dont on n’imagine pas encore clairement les conséquences possibles sur notre conception de ce qu’est la connaissance.

1.3 L’ordre Symbolique de l’IA, accomplissement formel du structuralisme

    Une telle forme de partage de connaissances entre l’homme et l’ordinateur soulève la question plus générale de la place de l’IA dans la société, sous une forme d’autant plus  aiguë que cette discipline technique n’apparaît pas coupée de toutes connexions avec la culture qui l’a précédée. Au contraire, bien qu’elle n’ait pas jusqu’à présent pris conscience de cette parenté et de ses conséquences culturelles, l’IA prolonge à sa manière, formalise et rend technologiquement opérationnelle l’affirmation fondatrice du structuralisme, celle de l’existence et de l’autonomie d’un ordre Symbolique qui est le lieu de manipulations formelles d’éléments a-signifiants en eux-mêmes, mais productrices d’effets de sens. Bien plus, c’est cette coupure inaugurale de la notion de signe d’avec toutes ses adhérences psychologiques et représentationnelles antérieures qui, en IA comme pour le structuralisme, autorise des méthodes d’analyse et de traitement radicalement nouvelles. Le signe participe ainsi à la grande aventure de la science du XXe siècle, gravitant autour de pratiques de modélisation qui n’ont pas vocation à se soucier des questions ontologiques. L’ordre Symbolique de l’IA véhicule d’ailleurs une forme technique de relativité « référentielle » et d’absence de fondements qui permet de contrer les dérives philosophiques du structuralisme qui se produisent habituellement dès qu’il accorde au signifiant une primauté sur le signifié.
    En outre, l’IA partage avec la sémiotique structurale une même prétention de principe à l’universalité d’applicabilité de son regard : le champ de l’IA, comme le champ du structuralisme, c’est a priori toute la culture – prétention à laquelle le constat d’une émergence effective de l’IA à un niveau sociétal commence à donner quelque crédibilité.

1.4 L’ordre Symbolique, les savoirs et la place de l’IA

    En même temps qu’en retraçant les évolutions de l’IA à l’intérieur du paradigme symbolique elles feront apparaître l’agent rationnel comme son objet effectif, les deuxième et troisième parties aboutiront à déterminer précisément l’instrument de la rationalité cet agent : non la connaissance, comme nous l’avons dit précédemment de manière vague (ni une connaissance « en soi », qui serait intrinsèquement fondée dans un quelconque absolu, ni une connaissance qui serait interne à un sujet et indépendante de l’usage pouvant en être fait, comme le supposait implicitement le développement des premiers « systèmes experts »), mais des savoirs doublement subordonnés, sur un plan général au principe de rationalité qui régit les agents de l’IA, et sur un plan particulier aux objectifs institutionnels spécifiquement assignés à chaque agent, des savoirs organisés selon des principes épistémiques précis, formulés et formalisés dans des modes socialisés de communication.
    D’où le constat d’un décalage du centre de gravité initial de l’IA, du champ mental individuel vers le champ socioculturel. D’où aussi la conclusion qu’en fait l’IA est moins une science de la cognition (comme on l’entend dire habituellement) qu’une science de la culture ; qu’elle se situe donc, par rapport à la ligne ténue qui les sépare, plus du côté des sciences de la société que de celui des sciences de l’homme.
    Cette conclusion permet de mieux cerner ce qui fait la cohérence du point de vue sous lequel nous abordons l’IA : l’ordre Symbolique formel comme soubassement, l’agent rationnel comme objet, des savoirs socialisés comme instrument, la rationalité comme principe régulateur de leur usage, et finalement les sciences de la culture comme point de rattachement dans une possible classification des sciences ; elle justifie le lien étroit que nous établissons avec le structuralisme ; elle permettra en particulier, dans la quatrième partie, de montrer comment la sémiotique structurale, avec sa conception du signe comme instrument de communication, comble une lacune de la conception classique du signe en IA. Il appartiendra à la suite de ce travail de montrer l’intérêt de cette approche. Soulignons cependant qu’il ne s’agit pas pour nous de prendre parti pour cette « bonne vieille IA », comme on l’appelle parfois d’une manière qui se veut péjorative, contre des conceptions prétendument plus « modernes », comme les réseaux de neurones ou l’étude des architectures cognitives en général, chacune de ces disciplines ayant ses objectifs et ses mérites propres. Mais il s’agit certainement, avec son repositionnement aux côtés de la sémiotique parmi les sciences de la culture, de montrer que cette bonne vieille IA symbolique est toujours appelée à tenir une place de choix dans la culture, qu’il serait dommageable de méconnaître à cause d’effets de mode intellectuelle.

1.5 L’émergence de l’IA à un niveau sociétal

    Devons-nous alors voir dans cet ordre Symbolique formel, tel que rendu opérationnel par l’IA, et dans ces connaissances hybrides, le point focal d’une nouvelle configuration épistémique, au sens que Michel Foucault donne à cette expression dans son étude « archéologique » du savoir, c’est-à-dire de nouveaux principes d’élaboration, de structuration et de formulation des savoirs, qui seraient influencés par les conceptions qui règnent en IA ?
    Il n’est pas indifférent de constater que le champ couvert par les méthodes de l’IA a largement débordé celui des applications techniques, pour investir la culture par pans entiers et s’étendre à tous les domaines de la connaissance, y compris des sujets autrefois réservés à la philosophie, et jusqu’à aborder le très délicat problème des « connaissances de sens commun », soulevant une nouvelle question, tout aussi lancinante que la première, qui est celle de sa portée socioculturelle - question d’autant plus critique que les développements récents, autour de la technologie des « agents intelligents », capables de communiquer et de coopérer, ouvrent concrètement à l’IA la porte du réseau Internet et de la mondialisation.
    Avec ces masses de savoirs formels développées pour l’IA, avec cette émergence de l’IA à un niveau sociétal, l’hybridation de la connaissance pourrait acquérir une toute nouvelle signification et, de curiosité intellectuelle, devenir un fait de société. Dans ces conditions, les principes de constitution des savoirs en IA pourraient agir en retour sur nos principes généraux de constitution des savoirs, en risquant par exemple de les corseter dans une armature formelle. Et, au fond, ne serait-ce pas un peu dévalorisant pour les savoirs d’être manipulables par un ordinateur ? Les manipuler, c’est-à-dire raisonner, n’en deviendrait-il pas affaire de techniciens du raisonnement, comme calculer serait affaire de comptables ? Voilà de quoi donner à notre question initiale un premier soupçon d’acuité.
    Cette possible action en retour d’une conception de la connaissance spécifique à l’IA sur notre conception générale de la connaissance est d’autant plus plausible, comme le montrera la troisième partie, que : 1°) dans la mesure justement où le paradigme symbolique de l’IA lui donne vocation à investir tous les secteurs de la culture, parler d’un épistémè interne à l’IA fait sens a priori ; 2°) à travers la pratique effective de l’IA, on peut constater de facto des modes de constitution du savoir spécifiquement associés à cette discipline ; il existe bien un épistémè interne à l’IA actuelle ; 3°) il existe également une conception de la langue de l’IA actuelle, essentiellement logiciste, cohérente avec ses conceptions du signe et du savoir ; et 4°) l’IA commence effectivement à émerger massivement à un niveau sociétal, justifiant l’intérêt des points précédents.
    Il en résulte que, quelle que soit la place qu’on consente à leur attribuer en définitive, on ne peut penser aujourd’hui sans penser l’ordre Symbolique formel et le rôle de l’ordinateur dans la constitution des savoirs du troisième millénaire.

1.6 Possibles conséquences épistémiques et sociétales

    Concernant les conséquences sociétales les plus concrètes d’une éventuelle mutation épistémique liée à l’IA, nous en mentionnons quelques enjeux, bien que ce livre n’en traite qu’occasionnellement, se limitant essentiellement à envisager en quoi cette mutation pourrait consister étant données les technologies qui la sous-tendent, ainsi que les pré-conditions de sa survenue effective.
    Qu’on ne s’y trompe cependant pas : aussi abstraits ou techniques que puissent paraître certains questionnements de ce livre, nous sommes aux antipodes d’une spéculation gratuite. Car, après tout, si la connaissance peut être mise en formules librement accessibles sur Internet à la vitesse de la lumière à un assistant électronique qui les retrouverait à la demande et saurait les exploiter à notre place, à quoi bon se fatiguer à les acquérir à la vitesse laborieuse de nos neurones ? De la même manière, s’il s’avère qu’un ordinateur peut raisonner aussi bien qu’il peut calculer, il n’y a plus de valeur ajoutée pour un homme à savoir raisonner, et l’on pourrait abandonner l’apprentissage du raisonnement tout comme on a abandonné de fait l’apprentissage du calcul mental. Et tout comme je contemple ma maraîchère préférée de la rue Daguerre sortir sa calculette pour déterminer le prix d’une livre de cerises à trente francs le kilo, ainsi devrais-je peut-être me résigner à voir mes petits-enfants sortir leur raisonneur électronique pour déterminer si Socrate est mortel.
    Or, sur un plan pratique, l’homme moyen peut-il vivre dans un monde d’artefacts cognitifs dont il ne comprendrait pas les principes généraux de fonctionnement et se contenter d’interagir avec eux, un peu comme il se contente d’allumer la télévision sans ressentir le besoin de savoir comment ça marche ? Il convient de repérer une différence fondamentale entre ces deux cas d’abandon confiant en la compétence des ingénieurs. Regarder la télévision sans rien connaître de ses principes de conception internes n’a aucune raison de poser de grands problèmes métaphysiques : non pas parce que tous ces circuits compliqués n’ont rien de miraculeux ; mais parce qu’ils n’ont aucun rapport avec le contenu de ce qui se donne à voir par leur biais (à cet égard, concernant l’interprétation de ce qui est regardé, quelques connaissances de sémiotique (télé-)visuelle seraient plus utiles que des connaissances techniques). Il en va tout autrement quand il s’agit d’interagir avec un système informatique « intelligent » et cela risque d’être très troublant si l’on n’a pas la moindre idée de sa « manière de penser ». En effet, les concepts abstraits qui en ordonnent la conception et le fonctionnement sont à la fois très proches et subtilement différents des concepts humains, et l’on risque de se trouver en permanence en porte-à-faux par rapport au système, de la même manière qu’on se trouverait en difficulté face à un étranger parlant correctement notre langue mais dont on ne saurait trop dans quelle mesure il ignore notre culture et certains usages : comprend-il bien ce que je veux dire ?, veut-il vraiment dire ce qu’il dit ?, joue-t-il délibérément de sa supposée méconnaissance ?, etc.
    Sur un plan plus abstrait, n’y a-t-il pas dans la manipulation de la connaissance quelque chose de plus intime que dans le calcul mental, qui ferait qu’elle ne peut être totalement déléguée à un robot pensant comme le calcul peut être délégué sans trop de dommage à une calculette, par exemple la maîtrise d’une sorte de complexité intrinsèque au fonctionnement de la pensée, valable dans tous les domaines, ou, plus concrètement, un lien étroit avec la maîtrise du langage dans lequel la connaissance et la pensée trouvent à s’exprimer ? Sinon, comment pourrions-nous continuer à faire de la raison le propre de l’homme, et comment redéfinir notre place face à ces artefacts sémiotiques et cognitifs qui vont bientôt partager notre monde et dont les flux de connaissances qu’ils contrôleront nous seront rapidement aussi indispensables que les flux d’eau courante, de gaz, d’électricité et de paroles superflues dans les téléphones portables ? Y a-t-il fondamentalement dans la connaissance et dans son utilisation rationnelle quelque chose qui échappe à l’ordinateur, y a-t-il fondamentalement dans la rationalité autre chose que de la logique formelle ? Devrons-nous alors, en réaction à cette mise en formules des savoirs, en venir à attacher moins d’importance à l’abstraction formalisatrice et au pur intellect qui dominent actuellement toute la formation de nos enfants au détriment de leur intuition et de la transmission de valeurs, pour promouvoir en contrepartie leur développement spirituel ou leur inculquer les bribes d’écologie mentale et d’éthique sociale qui pourraient sauver la planète de l’explosion, de la pollution ou du totalitarisme ?

1.7 Impact épistémique de l’IA, interopérabilité et accès au sens

    Revenant aux deux questions jumelles de ce livre, celle d’une éventuelle révolution de la connaissance liée à l’IA et celle de notre relation aux ordinateurs, il apparaîtra que, si la première peut se comprendre en termes d’épistémè, la deuxième se pose dans le contexte sociétal d’une forte exigence d’interopérabilité entre l’homme et l’ordinateur, c’est-à-dire d’une plus grande « naturalité » dans la communication, l’échange, le partage et l’exploitation conjointe des savoirs. En nous appuyant sur les travaux de Foucault exposés dans « Les mots et les choses », nous verrons que, reprises en termes de convergence épistémique et d’interopérabilité sémiotique, les deux questions sont étroitement corrélées, ce qui conduit à préciser notre question initiale : il ne s’agit pas de savoir si la culture peut être contaminée par l’épistémè interne de l’IA actuelle, puisqu’il semble bien que celui-ci soit appelé à évoluer en même temps que sa langue, mais quelles mutations prévisibles de l’IA peuvent amener son épistémè et l’épistémè commun à converger.
    Or, prendre au sérieux le positionnement de l’IA parmi les sciences de la culture, c’est aussi considérer que la signification ne peut pas être seulement affaire de mécanismes internes à un système de signes, fût-il qualifié d’agent, ainsi que l’affirme le paradigme symbolique de l’IA, mais qu’elle doit aussi être affaire de communication, comme le postule la sémiotique structurale. Et l’on verra justement que, même quand l’IA s’essaie à définir la signification comme relative aux mécanismes internes de son traitement par un agent artificiel, elle ne peut éviter de retrouver en partie sa nécessaire relativité par rapport aux processus de communication entre agents, qui conditionnent leur interopérabilité. Cela soulève en fin de compte une question aussi embarrassante qu’imprévue, la question du sens : « qu’est-ce que cela signifie de signifier ? ». Et l’on en vient à soupçonner que la véritable question fondamentale à laquelle se trouve confrontée l’IA pourrait bien être celle du sens et de son partage plutôt que celle de l’intelligence.
    L’introduction d’humains dans le champ d’interopérabilité des agents artificiels permet de « raccorder » assez naturellement in abstracto la définition technique du sens élaborée par l’IA à la conception « communicationnelle » de la sémiotique structurale. On souhaiterait évidemment un raccordement plus concret. Mais une question difficile se présente immédiatement : étant données les caractéristiques du savoir en IA, le langage logique permettant de le formuler, que nous pouvons identifier comme étant la langue de l’IA classique, peut-il être l’instrument d’une telle interopérabilité sémiotique, alors qu’il est si éloigné du langage naturel dans sa syntaxe et sa sémantique ? Observant que ce langage logique n’est pas une caractéristique intrinsèque du paradigme symbolique, peut-on entrevoir une possibilité concrète pour l’IA d’atteindre à un autre type de langage sans remettre en cause son paradigme fondateur ? Peut-on plus précisément envisager pour des systèmes artificiels un accès à un mode de signifiance qui serait plus proche du mode naturel que la sémantique logiciste ?

1.8 Modèles symboliques du sens et accès de l’ordinateur au sens

    Avec la sémantique conceptuelle, issue de toute une tradition de recherches linguistiques, et trouvant des justifications précises dans de minutieuses études relatives à une multiplicité de langues, nous verrons que des modèles des structures sémantiques du langage naturel permettent effectivement d’envisager des systèmes de modélisation ou représentation des connaissances plus « naturels » que les systèmes traditionnels de l’IA implicitement basés sur la logique, et qui en outre jouissent de bonnes propriétés d’efficacité représentationnelle et inférentielle. La sémantique conceptuelle constitue à l’intérieur de l’ordre Symbolique le modèle formel d’une couche structurelle universelle de signifiance, partageable entre l’homme et l’ordinateur. A sa manière, elle justifie ainsi l’hypothèse fondamentale du structuralisme et de l’IA, l’autonomie du Symbolique : le signifiant, le signifié et leur relation sont entièrement descriptibles dans l’ordre Symbolique. Il se pourrait bien ainsi que l’IA remplisse dans un avenir pas si lointain les conditions nécessaires à une interopérabilité accrue avec l’homme et à une influence épistémique significative
    Nous verrons par ailleurs que la Sémiophysique de Thom laisse entrevoir la possibilité qu’il y ait une raison mathématique fondamentale à l’existence  d’une couche sémantique autonome et universelle. En confortant l’idée d’une couche structurelle universelle de signifiance modélisable dans l’ordre Symbolique, en justifiant l’autonomie de cette couche par rapport aux processus physiques sous-jacents aux comportements Symboliques de l’homme et de l’ordinateur, processus dont il est évident qu’ils ne peuvent pas être identiques pour l’un et pour l’autre, la Sémiophysique contribue à justifier le paradigme symbolique de l’IA.
    Pas plus qu’aucun autre concept, celui de signification n’a de sens figé : c’est l’une des conséquences que « Les mots et les choses » permettent de tirer de la forte corrélation dont ce livre démontre l’existence entre l’épistémè d’une époque et sa conception de ce que signifie signifier. Etant donnée la place grandissante de l’informatique dans notre vie courante, l’exigence d’interopérabilité et la multiplication des interactions effectives avec l’ordinateur conduisent inéluctablement au développement de langages formels proches (syntaxiquement et sémantiquement) du langage naturel, permettant des interactions relativement « naturelles» avec l’homme. Les modèles sémantiques de ces langages, basés sur les théories linguistiques précédentes, voisins mais peut-être subtilement différents de nos modèles implicites actuels, risquent de devenir nos modèles sémantiques tout court. Des modes de signifiance plus subtils que ceux formalisés dans ces langages risquent de tomber en désuétude du fait de leur inefficacité communicationnelle dans un monde où la signifiance serait évaluée à l’aune de la compréhensibilité par une machine. Tel semble donc le véritable enjeu de la forte exigence sociétale actuelle d’interopérabilité entre l’homme et l’ordinateur et des travaux en IA et en linguistique informatique qui concourent à la satisfaire : définir non seulement ce que sera la langue de nos relations avec l’ordinateur, mais aussi ce à quoi risquent à terme de se limiter nos modes courants de signifiance.

2. Contexte technologique : la révolution numérique et sa portée

Puisque nous n’y reviendrons pas ultérieurement, examinons rapidement le contexte général de la « révolution numérique » dans lequel se situe notre questionnement plus ciblé sur les technologies de la connaissance. Seul ce contexte permet de mesurer la portée concrète et l’actualité de notre étude et de justifier l’objet précis que nous lui avons assigné ci-dessus.

2.1 La révolution numérique et ses bases technologiques

    Ce qu’on appelle couramment « révolution numérique » comporte plusieurs aspects :
- l’ « universalité » de l’ensemble des techniques mathématiques de codage numérique, qui désormais savent traiter tous les types de médias courants (texte structuré, dessin, image, son, animation, vidéo, etc), chacun selon des modes de codage spécifiques normalisés, et les représenter uniformément comme des suites de bits ;
- sa conséquence pratique, la possibilité de stocker tous les médias sur les mêmes supports physiques que les programmes et fichiers informatiques ; avec des implications commerciales très précises, comme l’apparition de la photo numérique ou le passage en quelques années des caméscopes analogiques aux caméscopes numériques, et la possibilité pour tout amateur de faire de la retouche d’images ou du montage vidéo ;
- l’ « universalité » de la technique hypertexte, qui, en essence, permet de combiner des méthodes universelles de codage de l’information avec des protocoles universels de transmission ; on peut ainsi mélanger dans un même « document » tous les médias (ce qui n’était le cas ni du livre, ni de la cassette audio, ni de la bande vidéo) et « naviguer » de manière totalement transparente entre médias d’un même document ou entre documents, où qu’ils soient situés dans le monde ;
- sa conséquence pratique, la quasi-dématérialisation du support physique des médias (au point que ce terme de média, qui désigne littéralement le « moyen », ne signifie plus dans le langage courant que le type de contenu) : une suite de bits, qu’ils soient stockés sur un CD-Rom ou sur un disque dur quelque part sur la planète, est moins matérielle que la suite de caractères sur une page, ou la bobine de film, dont elle est l’équivalent ; la nature du support physique prend un caractère d’autant plus virtuel que la diffusion du contenu est moins restreinte par des questions d’éloignement géographique, de coût du support, ou de délai de reproduction ;
- et, finalement, le fait du développement exponentiel du réseau Internet, qui est devenu une réalité tellement massive aujourd’hui qu’il n’est pas besoin de commentaires.

    Cette « révolution numérique » repose sur trois avancées technologiques majeures, continues depuis les débuts de l’informatique, qui ne nous intéressent pas ici en elles-mêmes, mais par ce qu’elles rendent possible :
- l’augmentation rapide des capacités de stockage d’informations sur toutes sortes de supports physiques, proportionnellement de tailles de plus en plus petites et de coûts de plus en plus bas : en quelques années, par exemple, à taille du support constante, des techniques de gravure de plus en plus fines permettent de passer du CD-Rom (600 Mo) au DVD-Rom (5 Go), puis bientôt au FMD-Rom (le Fluorescent Multilayer Disk de 140 Go pour commencer, et de 1 To annoncés) ; rappelons qu’un octet permet de coder un caractère, un méga-octet (Mo) en code un million (ce qui est environ le volume requis pour un roman formaté de deux cents pages), un giga-octet (Go) en code un milliard (ce qui correspond environ à vingt minutes de films d’un DVD-vidéo) et un téra-octet (To) en code mille milliards ; ainsi, il suffirait de quelques unes de ces futures « galettes » pour stocker (avec des moyens d’acquisition convenables) tout ce qu’une personne moyenne peut lire, entendre ou voir au cours de son existence, ou (ce qui est plus quantifiable) tous les « documents » (au sens le plus général du terme) jamais publiés, c’est-à-dire toute la production culturelle du monde ;
- l’augmentation rapide des capacités de traitement des processeurs, dont la puissance double environ tous les dix-huit mois, autorisant le traitement de données de plus en plus volumineuses en des temps compatibles avec leur exploitation dans des conditions normales, par exemple l’affichage de pages contenant des images fixes ou animées de haute résolution ;
- le développement explosif des technologies de communication, qui permettent d’accéder rapidement à toutes ces informations, où qu’elles se trouvent sur la planète (pour peu qu’on sache où les trouver).

2.2 La question des savoirs face à la révolution numérique

    Concernant plus spécifiquement le savoir, la révolution numérique signifie, dans un premier temps, la possibilité d’archiver sur un même support informatique tous les savoirs, quelles que soient les formes sous lesquelles ils se présentent naturellement ; et, dans un deuxième temps, les besoins d’accès à ces savoirs entraînent naturellement leur mise en réseau, autorisée et accélérée par les technologies de l’Internet et par le développement foudroyant des télécommunications, avec un effet boule-de-neige sur le volume des contenus déposés sur le Réseau. En elle-même, la révolution numérique a donc déjà un impact profond sur les savoirs, leur accessibilité et leur exploitation, qu’exprime bien le slogan : « tous les savoirs du monde à quelques clics de souris ». Elle est, par exemple, à l’origine des évolutions majeures de l’enseignement assisté par ordinateur (EAO), qui avait récemment encore assez mauvaise presse, mais qui a acquis sa respectabilité en se parant des atours chatoyants du multimédia, de l’hypertexte et de l’Internet, et en adoptant des pseudonymes plus chics, comme « e-learning ». Elle est aussi à l’origine d’un mouvement de très grande ampleur dans les bibliothèques, universités et centres de recherche, qui mettent « en ligne » toutes sortes de livres, cours, publications et bases de données. De même, de nombreux éditeurs commencent à rendre leurs ouvrages accessibles sur le réseau.
    Toutefois, il apparaît rapidement, dans un troisième temps, qu’il n’est pas si simple de se repérer dans cette jungle qu’est devenue l’Internet et de trouver les bons clics de souris. L’interconnexion mondiale ne suffit pas en elle-même à assurer aux humains un accès convenable à ces stocks de savoirs qu’ils archivent sur les disques durs et font transiter à travers le réseau. Il faudrait qu’en outre les ordinateurs soient capables de retrouver sélectivement le savoir adéquat, au moment voulu et de manière aussi simple que possible pour l’utilisateur ; il faudrait donc qu’ils aient une certaine compréhension, un certain accès au « sens » des savoirs qu’ils manipulent , pour les filtrer « intelligemment » ; l’IA entre ainsi d’ores et déjà en scène, de manière plus ou moins discrète. Dans un quatrième temps, on ne se contentera plus de retrouver les savoirs bruts, on attendra de l’ordinateur qu’il sache les manipuler et les exploiter lui-même à des fins particulières, par exemple nous faire un résumé synthétique des cinq mille références trouvées sur le sujet qui nous intéresse, ou nous aider à affiner nos critères de recherche, ou encore mener sur ce qu’il a trouvé quelques raisonnements pour répondre à la question précise que nous lui avons posée ; l’IA règnera alors en maître sur le réseau du savoir, ouvrant à chacun la possibilité d’exploiter à sa guise des savoirs spécialisés dans des domaines où il n’a pas de connaissances très précises.
    Ce scénario reste bien entendu une reconstitution mythique, puisque dans la réalité les quatre phases se déroulent en partie en parallèle, se justifiant et s’alimentant mutuellement. Pour situer le début du troisième millénaire : nous sommes au cœur de la troisième phase – c’est-à-dire que les besoins qui la motivent sont clairement exprimés et que les recherches qui pourraient conduire à son succès sont largement avancées, comme cela sera montré dans la troisième partie. Et, pour situer notre étude, elle est principalement concernée par les troisième et quatrième phases, qui seules font entrer en jeu les technologies de la connaissance, c’est-à-dire traitent l’information à un niveau où elle apparaît comme savoirs, supposant un certain accès de l’ordinateur à leur sens ; seules ces technologies sont susceptibles d’exiger quelques adaptations réciproques de l’homme et de l’ordinateur pour parvenir à une conception du savoir qui leur serait commune, c’est-à-dire exploitable sous la même forme par tous deux.
    Or, le croisement technologique entre l’IA et Internet, que présupposent ces deux phases, s’est justement produit au cours des années récentes, avec plusieurs types de développements : 1°) langages de représentation des connaissances compatibles avec les normes du « web » (c’est-à-dire construits au-dessus de XML) ; 2°) technologies d’agents intelligents capables de communiquer et de coopérer à travers le réseau ; 3°) applications concrètes de ces agents à la recherche d’informations et au commerce électronique (entre autres) ; 4°) apparition de normes de codage « sémantique » des informations déposées sur le « web » ; 5°) bibliothèques de « composants distribués » permettant de créer des modèles d’entreprises communicantes, etc. A terme, c’est-à-dire modulo quelques développements supplémentaires non triviaux, dont la quatrième partie montrera qu’il faut y inclure un certain accès de l’IA au langage naturel, ce croisement devrait bénéficier aux deux, procurant potentiellement aux agents de l’IA des pâturages quasi illimités où aller brouter de nouvelles connaissances et permettant inversement de doter Internet de fonctionnalités « intelligentes ».

2.3 Nécessité d’étendre notre champ d’étude à « tous les savoirs du monde »

    Notre réflexion sur le savoir serait (relativement) facile si nous la restreignions à l’étude des problèmes d’organisation posés par le développement d’un CD-Rom, d’un DVD-Rom ou d’un système à base de connaissances de quelques milliers ou dizaines de milliers de règles d’expertise dans un domaine particulier ; cela nous placerait en tout cas sur un terrain assez sûr et relativement bien balisé (comme la deuxième partie le montrera en détail).
    Mais les potentialités quasi illimitées ouvertes par la « révolution numérique » imposent l’affirmation qui constitue simultanément le contexte et la justification de ce livre : ce qui, dans le domaine du savoir, est concerné par « la révolution numérique », c’est d’emblée « tous les savoirs du monde ». Toute réflexion sur la connaissance se trouve donc aujourd’hui confrontée à l’obligation impérieuse de prendre la mesure exacte du potentiel technologique des prochaines décennies, de définir en conséquence l’ampleur de son champ d’investigation, et d’adopter ou de se forger des outils conceptuels adaptés à l’analyse de l’impact sur la connaissance de la révolution numérique et, en particulier, des technologies de la connaissance. En pratique, elle ne peut donc échapper à la triple nécessité : 1°) de se situer au niveau, non des savoirs particuliers, mais des principes dessinant l’organisation du champ complet des savoirs, c’est-à-dire de l’épistémè ; 2°) d’essayer d’entrevoir quel pourrait être l’impact épistémique des technologies informatiques de la connaissance ; et 3°) d’analyser les conditions de survenue effective d’une mutation épistémique liée à ces technologies. Autre manière de dire qu’il ne semble pas possible aujourd’hui de faire l’économie de notre programme de travail.

3. Questions de méthode et d’exposition

    Cet ouvrage aborde (à divers degrés de détail) un faisceau de disciplines scientifiques concernées de manières variées par le traitement informatique de la connaissance. Pourtant, il ne se veut principalement ni de vulgarisation scientifique, ni d’introduction à ces disciplines, ni de philosophie de la science, ni d’histoire de la science, ni d’épistémologie générale, bien qu’il doive en permanence flirter avec ces différentes approches. Il prétend se situer dans un mouvement réflexif critique interne à ce faisceau de disciplines, qui nécessite la mise en suspens de tout discours idéologique externe tenu sur elles (fût-ce par ceux-là mêmes qui les produisent). Dès lors se posent deux questions cruciales :
- la première de méthode : comment à la fois rester au plus près des pratiques scientifiques effectives et créer la distanciation nécessaire à toute réflexivité ? ; deux types principaux de distanciation s’offrent à nous : « spatiale » et « temporelle » ;
- la seconde d’exposition : quelles connaissances préalables peut-on exiger du lecteur et que faut-il exposer ici ?

3.1 Nécessité d’un recul adéquat

    Trouver le lieu adéquat d’où répondre à notre question initiale n’est pas si évident qu’il pourrait y paraître.
    C’est d’abord qu’il manque un espace naturel où la poser avec le recul suffisant. A serrer de trop près les technologies concernées, qui en sont encore à un stade de développement technique en évolution rapide, on manque en effet de concepts réflexifs qui autoriseraient une distanciation et une mise en perspective. Le cognitivisme symbolique, par exemple, c’est-à-dire une certaine vision computationnelle de l’esprit, interprétation philosophico-psychologique de l’intelligence artificielle basée sur ses concepts fondateurs et qui la considère comme pourvoyeuse de modèles de la cognition humaine, offre en la matière peu de ressources et semble une bien piètre et partielle manière d’inscrire l’IA dans la culture de notre époque. Car il n’est que l’expression particulière d’une tendance universelle, et somme toute bien naturelle, à faire des systèmes techniques les plus complexes d’une époque le modèle de l’homme. D’ailleurs, même s’il nous arrive, à l’occasion, de faire quelques commentaires sur l’interprétation cognitiviste de l’IA, là n’est pas le centre d’intérêt de ce travail : il ne s’agit pas pour nous d’analyser si l’IA technique fournit des modèles adéquats de l’intelligence, la cognition, l’esprit, etc. C’est à l’IA en tant que science et technique que nous nous intéressons, aux artefacts qu’elle produit, à une certaine conception de la connaissance qu’elle promeut implicitement, et quand nous nous interrogeons sur ses conséquences socioculturelles, il s’agit bien des conséquences de cette IA technique, et non de philosophie cognitiviste. D’une manière générale, le projet de ce livre se distingue par son principal objet d’intérêt (la notion de savoir nécessaire au fonctionnement des artefacts construits par l’IA) du projet des sciences cognitives, centrées sur l’étude de diverses catégories cognitives humaines – ce qu’exprime aussi notre classement de l’IA parmi les sciences de la culture plutôt que de la cognition.
    C’est aussi qu’il manque inversement un espace naturel où poser notre question sans trop de recul, et que les principaux discours généraux qui pourraient naturellement prétendre à tracer les contours d’un tel espace, restent trop généraux justement, et trop étrangers aux technologies nouvelles et à la « révolution » qu’elles annoncent, pour y apporter une lumière suffisamment vive. La réflexion sur la connaissance en général, par opposition à la connaissance spécifique à tel ou tel domaine (mathématiques, physique, psychologie, etc), est traditionnellement, depuis la Métaphysique d’Aristote en Occident, l’affaire de la philosophie. Selon cette tradition, la question est la plupart du temps rapidement piégée par la question de l’Etre, et ce qui devrait être épistémologie est rabattu sur l’Ontologie, « que puis-je connaître ? » se retrouvant malencontreusement subordonné à « qu’est-ce qui Est ? ». Quant aux approches plus récentes, la « philosophie de la science » issue du positivisme logique, la « philosophie de la connaissance » issue de la critique kantienne, ainsi que les diverses formes de l’ « épistémologie » apparues depuis le début du XXe siècle, quoiqu’elles portent elles-mêmes les traces d’une mutation profonde intervenue dans la conception de la connaissance, disons depuis la critique kantienne, elles tiennent aussi peu compte de la place potentielle des technologies modernes. Une nuance doit être apportée à ces remarques en ce qui concerne quelques aspects de la philosophie analytique, dont nous analyserons certaines des relations qu’elle entretient avec l’IA.
    C’est enfin que ces discours philosophiques généraux ne sauraient plus aujourd’hui être considérés comme les seuls autorisés, ou même les principaux, qu’ils sont indirectement concurrencés, au niveau de recul qui est le leur, mais sous une perspective différente, par le discours d’origine un peu plus technique du structuralisme, lequel semble au premier abord en meilleure consonance avec l’IA, ne serait-ce que par sa conception du signe, comme nous l’avons indiqué plus haut. S’appuyant sur le modèle linguistique, le structuralisme a développé des méthodes générales qui ont fait accéder au statut de science un certain nombre de disciplines jusque-là considérées comme « du côté des humanités », remettant en cause le divorce entre sciences et humanités qui s’était consommé au cours du XIXe siècle. Autour des concepts fondamentaux du structuralisme, les concepts de signe et de structure, s’est cristallisée toute une conception des sciences humaines et sociales qui leur a fait rejoindre les sciences « dures » dans une démarche commune basée sur l’idée de modélisation.
    Malheureusement, le structuralisme, lui-même agrégat instable de disciplines auxquelles, s’il est facile de trouver une origine historique commune au renouveau qu’elles ont connu, il n’est pas évident de trouver un noyau commun, le structuralisme est débordé de toutes parts par l’évolution interne de ces disciplines, pour lesquelles il n’est plus, au mieux, qu’un lointain ancêtre plus ou moins avouable ; c’est qu’en effet sur ses développements proprement scientifiques sont venues se greffer des options philosophiques suspectes dont il n’est pas toujours évident de décider sur quelles bases s’autoriser à les en séparer. Aussi devrons-nous consacrer quelque temps à mettre à jour les caractéristiques du structuralisme essentielles pour notre propos, c’est-à-dire à définir ce que nous adopterons comme étant le discours du structuralisme scientifique.

3.2 Nécessité d’une perspective temporelle

    Nous produirons également une certaine distanciation « temporelle » grâce à l’étude des évolutions effectives de l’IA. Ces évolutions, qui restent trop souvent non analysées, peuvent être lourdes de sens. Implicites resteront toutefois les principes et champs d’application de l’hypothèse, qui ne peut évidemment être admise sans restrictions, qu’une évolution suppose un progrès sous-jacent de la connaissance - au sens minimal d’une meilleure compréhension de l’objet, des méthodes ou des résultats d’une discipline, sans qu’il soit nécessaire d’adopter une vision idéaliste du progrès. On ne peut évidemment déduire du constat d’une évolution ni qu’elle était logiquement nécessaire ni qu’elle était la seule possible, mais il ne s’agit pas ici d’établir une preuve formelle de ce qui est avancé. Notre approche ne se justifie cependant que si l’on essaie de remonter aux causes des évolutions, ne pouvant se satisfaire d’une description purement factuelle. Aussi avons-nous mis un soin tout particulier à retracer dans les textes originaux les conceptions précises des chercheurs qui ont marqué cette discipline (d’où une assez abondante bibliographie technique).

3.3 Problème d’exposition

    Tout travail trans-disciplinaire se heurte inévitablement aux mêmes problèmes. Utilisant des concepts, se référant à des discours et s’adressant à un public issus de disciplines parfois totalement étrangères les unes aux autres, doit-il se contenter de renvoyer le lecteur aux textes originaux et laisser chacun essayer d’y voir clair dans les domaines qu’il connaît mal ? Et sinon, ne va-t-il pas rapidement lasser d’autres lecteurs en exposant des sujets qu’ils considèrent comme élémentaires, voire dépassés ?
    Parler aujourd’hui du structuralisme expose tout particulièrement à cette critique ; et pourtant comment tirer un trait sur un moment aussi incontournable de l’histoire de la pensée, dont nous verrons que l’IA renouvelle l’actualité et l’intérêt ? De même, fallait-il un aussi long chapitre sur le savoir, le signe et la langue, alors que les idées de Foucault sont largement connues dans le grand public dont la culture est orientée vers les « humanités » ? Mais elles le sont très certainement beaucoup moins parmi les lecteurs scientifiques, que nous ne voulons pas décourager par la nécessité d’aller chercher ailleurs pour comprendre de manière concrète de quoi nous parlons.
    Du côté technique, dans les domaines de l’IA et de la linguistique informatique, centraux pour notre exposé, nous ne pouvons éviter d’entrer dans un certain nombre de « détails » techniques. Nous essayons par exemple de montrer (dans les grandes lignes) comment des agents intelligents et des sociétés virtuelles constituées de tels agents peuvent être conçus, et comment peut être développé un langage formel, hybride mi-humain mi-informatique, pour les spécifier. Pour faire sentir la faisabilité de ces agents, nous devons établir un pont suffisamment précis avec la dérisoire petite machine de Turing dont ils semblent à des années-lumière en complexité et qui leur est pourtant formellement équivalente. Seuls ces « détails » permettent de comprendre précisément la puissance et l’actualité du paradigme symbolique.
    De la même manière, lorsque nous parlons de la modélisation du savoir en IA, plutôt que des considérations un peu vagues sur toutes les méthodologies existantes, nous avons préféré choisir un exemple et l’analyser de manière détaillée, faute de quoi nos propos n’auraient pu rester qu’au stade d’un bavardage dénué de fondement concret dans les pratiques effectives ; nous avons choisi la méthodologie KADS, car c’est, selon nous, la plus élaborée et la plus souple ; cela peut toujours être débattu, mais a peu d’importance en regard de l’objet de ce livre ; chacun pourra vérifier que les conclusions générales que nous tirons sur la conception du savoir et de la langue en IA restent valables pour sa méthodologie préférée.
    En ce qui concerne la linguistique informatique, il n’est évidemment pas question, en quelques pages, d’en faire une présentation générale, qui n’apporterait rien à notre propos ; mais il nous faut cependant en décrire de manière précise quelques aspects choisis qui nous permettent de laisser entrevoir : 1°) la possibilité d’une approche de la sémantique et de son lien avec la syntaxe, profondément différente de celle, beaucoup plus connue, qui a cours dans la logique formelle et l’IA classique, 2°) son intérêt technique concret pour l’IA, et 3°) le rôle critique qu’elle est appelée à jouer pour qu’advienne une véritable interopérabilité entre l’homme et l’ordinateur et pour définir la  place de l’IA dans la culture.
    Pour chacun de ces domaines, le spécialiste trouvera certainement le survol trop rapide, mais devra considérer que ce livre n’a aucune prétention à faire une revue de leurs divers problèmes ou techniques et qu’il laisse pour cette raison dans l’ombre de très nombreux aspects de sa discipline, dont il ne faudrait pas conclure qu’ils sont intrinsèquement moins intéressants que ceux que nous avons choisi d’exposer ; nous espérons que le non-spécialiste y puisera suffisamment d’informations pour en entrevoir les principes généraux et ne pas rester sur l’idée que tout cela lui est incompréhensible ; car nous sommes convaincus que, puisque l’IA investit massivement et subrepticement la culture, et puisque l’avenir de l’IA passe par son accès au langage naturel, une certaine connaissance des possibilités actuelles de l’IA et de la linguistique informatique doit diffuser largement dans la culture. Or, nous avons pu constater, par exemple, que des étudiants en écoles d’ingénieur ou de management (à bac + 3, 4 ou 5), pourtant spécialisés dans les technologies de l’information, gardaient sur l’IA des idées à peu près aussi vagues que le grand public pour lequel le terme ou bien renvoie aux jeux d’échecs ou bien fusionne avec celui de robot pour évoquer la rationalité meurtrière de l’ordinateur HAL dans l’ « Odyssée de l’Espace », le gentil R2D2 de la « Guerre des Etoiles », les romans d’Asimov et, depuis peu, le film « AI » de Spielberg.

3.4 Fils conducteurs

    Pour faciliter une lecture sélective, et au risque de quelques redondances, les quatre parties du livre sont (relativement) indépendantes les unes des autres, et à l’intérieur de chaque partie la plupart des chapitres sont aussi relativement indépendants.
    Les mêmes principaux fils conducteurs s’entremêlent cependant étroitement, dans des proportions variées, d’un chapitre à l’autre :
1°) un fil « informatique symbolique » (aussi peu technique que possible, mais aussi précis que nécessaire) présente les machines de Turing universelles et le paradigme symbolique de l’IA, ainsi que les évolutions internes de cette discipline, jusqu’au développement du paradigme des agents intelligents qui lui ouvre la porte d’Internet ;
2°) un fil « sémiotique » présente notre perception du structuralisme scientifique et quelques rudiments de sémiotique structurale, montre comment le paradigme symbolique prolonge et accomplit la conception structuraliste des systèmes de signes, puis comment les agents intelligents obligent à réintroduire en IA une dimension communicationnelle du signe qu’elle avait initialement occultée ; il étudie avec un certain détail la sémantique conceptuelle de Jackendoff, en tant que un système de modélisation de la sémantique du langage naturel, dépouillée de ses surinterprétations cognitivistes ; il montre que la combinaison de différents aspects complémentaires du signe linguistique permet d’envisager un accès de l’ordinateur à des fragments significatifs du langage naturel ;
3°) un fil « archéologique » trouve son origine dans la corrélation repérée par Michel Foucault entre les conceptions du savoir du signe et de la langue à chaque époque ; il se décline concrètement en IA à travers l’étude détaillée des méthodologies et des langages de modélisation des connaissances ; il aboutit à exhiber une langue et un épistémè propres à l’IA « classique » ;
4°) un fil « épistémologique » aborde le paradigme scientifique de la modélisation en général et la reconnaissance tardive par l’IA de la nécessité de s’y plier ; il traite de questions d’universalité, de relativité et de fondements, que l’on retrouve ensuite à tous les niveaux d’organisation de l’ordre Symbolique formel ; il analyse la forme radicale d’absence de fondements absolus qui caractérise le paradigme symbolique, le distinguant en particulier des approches neuronales (toujours plus ou moins en quête de fondements physicalistes) qui l’ont supplanté dans les sciences de la cognition ; implicitement (car cette idée ne sera pas développée ici en tant que telle), il montre comment une approche « disciplinaire » de l’épistémologie peut conduire à des considérations pointues inaccessibles aux approches « généralistes » (qu’elle ne prétend pas récuser pour autant) ;
5°) un fil « sociétal » suggère à travers quelques exemples l’immensité du champ investi par l’informatique symbolique (laissant entrevoir des possibilités d’extension encore plus considérables) ; le gigantisme de certaines réalisations (lexiques, bases de connaissances techniques, bases de connaissances de sens commun, ontologies de « composants métiers » pour la modélisation des organisations et la construction de leurs systèmes d’information, etc) répond ici au gigantisme des besoins sociétaux (qu’on songe par exemple à la recherche et à la synthèse d’informations ou de connaissances sur Internet) ; ce fil passe aussi par l’examen de quelques conséquences sociétales possibles de l’IA ;
6°) enfin, un fil « applicatif » se fera surtout remarquer par sa relative minceur (si ce n’est pour les aspects en rapport avec Internet) ; entrer dans le détail d’applications particulières nous aurait trop éloigné de notre propos général ; pour compenser cette absence, il convient donc de rappeler qu’il n’y a pas aujourd’hui un seul domaine de connaissance, pas un seul secteur d’activité, qui échappe aux assauts de l’IA.