Retour à l'accueil Sciences et Technologies
de l´Information et
de la Communication pour
l´Éducation et la Formation
version pleine page
version à télécharger (pdf)

Volume 11, 2004
Rubrique



Contact : infos@sticef.org

Le rôle de l’ingénierie ontologique dans le domaine des EIAH

 

Riichiro MizoguchiInstitute of Scientific and Industrial Research, Osaka University

Entretien réalisé par

Jacqueline Bourdeau Centre de recherche LICEF, Télé-université, Montréal

 

RÉSUMÉ : Dans cet entretien, Riichiro Mizoguchi nous révèle ses pensées les plus profondes sur le rôle que joue l’Ingénierie Ontologique (IO) dans le domaine des EIAH. Il insiste sur la nature conceptuelle d’une ontologie, faite pour pouvoir partager des connaissances entre humains et ordinateurs, et entre ordinateurs. Conceptualisation, partage et réutilisation sont donc les concepts-clés d’une ontologie. Dans le domaine des EIAH, le rôle de l’IO n’est pas de modéliser les connaissances pour résoudre des problèmes comme en IA, mais pour aider des humains à résoudre des problèmes grâce à la médiation de l’ordinateur. L’IO a un rôle important à jouer pour l’avancement de la recherche dans ce domaine, notamment pour la modélisation des connaissances théoriques et pratiques du domaine et la création d’un consensus au sujet de ces connaissances.

MOTS CLÉS : Ontologie; ingénierie ontologique ; conceptualisation ; partage ; réutilisation

ABSTRACT : In this interview, Riichiro Mizoguchi unveils his deepest thoughts about the role of Ontological Engineering (OE) in the field of AIED. He stresses the conceptual nature of an ontology, aimed at sharing knowledge between humans and computers, and among computers. Conceptualisation, sharing and reuse are therefore the key concepts of an ontology. In the field of AIED, OE’s role is not to model knowledge for problem-solving as in AI, but rather to model knowledge to help humans solve problems with computers as mediators. OE has an important role to play in the advancement of knowledge in this field, namely towards the modeling of the field’s theoretical and practical knowledge, and for the creation of a consensus about this knowledge.

KEYWORDS : ontology ; ontological engineering; conceptualisation ; sharing ; reuse

 

Pouvez-vous nous dire ce qu’est et ce que n’est pas une ontologie ?

Ma première réponse est qu’une ontologie est un système conceptuel qui permet de partager et de réutiliser des concepts grâce à une sémantique computationnelle. À l’origine, l’Ontologie est une branche de la philosophie dans laquelle les philosophes ont tenté de rendre compte de l’existant de façon formelle. En informatique, une ontologie est comprise comme un système de concepts fondamentaux qui sont représentés sous une forme compréhensible par un ordinateur. Le domaine des ontologies attire l’attention parce qu’une ontologie fournit :
1) une structure conceptuelle de base à partir de laquelle il est possible de développer des systèmes à base de connaissances qui soient partageables et réutilisables,
2) l’interopérabilité entre les sources d’information et de connaissances. L’ingénierie ontologique succède à l’ingénierie des connaissances, et l’on s’attend à ce qu’elle devienne une technologie-clé pour la prochaine génération des technologies de traitement des connaissances.

Considérons les différences entre deux types d’ontologies : une ontologie orientée Web sémantique, et une ontologie orientée Concept. Une ontologie orientée Web sémantique est un vocabulaire compréhensible par un ordinateur, et qui définit la signification des métadonnées (par ex. Learning Object Metadata, LOM); elle est utilisée principalement pour réaliser l’interopérabilité sémantique entre les ressources informationnelles grâce aux métadonnées. Ce type d’ontologie peut être qualifiée d’ontologie de surface, puisqu’elle ne traite pas nécessairement de la structure conceptuelle profonde du monde-cible. Par contre, une ontologie orientée Concept traite des concepts fondamentaux du monde-cible qui demandent à être examinés en profondeur. Des exemples typiques de ces ontologies sont l’ontologie supérieure standard du groupe de travail P1600.1 d’IEEE (Standard Upper Ontology Working Group) et l’ontologie des fonctions [KitamuraMizoguchi03], [Mizoguchi04b].

À mes yeux, une ontologie n’est pas un vocabulaire, puisqu’un vocabulaire est simplement un ensemble de termes. Un terme (mot) et un concept peuvent être vus comme similaires en ce que chacun d’eux est composé d’un nom (étiquette) et d’une signification. La différence est que lorsqu’on parle d’un terme, son nom est une question importante, alors que lorsqu’on parle d’un concept, son nom n’a aucune importance. Un concept est indépendant de la façon dont on le nomme. Nombreux sont ceux qui se font prendre au piège dans des problèmes terminologiques quand ils développent une ontologie. Il est donc tout à fait essentiel de faire la distinction appropriée entre une question terminologique et une question ontologique. Si vous ne trouvez pas de terme approprié, vous pouvez créer un nouveau terme qui dénote bien le concept considéré. Par ailleurs, un nom inapproprié ne veut pas dire que le concept en question est incorrect.

En quoi une ontologie diffère-t-elle d’une base de connaissances ?

J’aimerais expliquer cette différence à partir d’une explication fournie par Farquhar en 1997 lors d'un forum de discussion sur l'ontologie. Celui-ci propose de poser les questions suivantes : "Est-ce que cela exprime la connaissance consensuelle d’une communauté de gens ? Est-ce que les gens l’utilisent comme une référence de termes définis avec précision? Est-ce que cela exprime la connaissance consensuelle d’une communauté d’agents ? Est-ce que le langage utilisé est suffisamment expressif pour que les gens puissent dire ce qu’ils veulent dire? Est-ce que cela peut être utilisé pour de multiples cas de résolution de problèmes? Est-ce que c’est stable? Est-ce que cela peut être utilisé pour résoudre une variété de différents types de problèmes? Est-ce que cela peut être utilisé comme point de départ pour construire de multiples types d’applications incluant une base de connaissances, un schéma de base de données ou un programme orienté-objet?". Farquhar ajoute : "Plus la réponse à ces questions est positive, plus c’est ontologique".

L’opinion de Farquhar se fonde sur l’idée qu’il n’existerait pas de frontière bien définie entre ontologie et connaissance. Cela parait raisonnable si l’on considère CYC [Mizoguchi04a], dont la partie supérieure est certainement une ontologie mais dont l’ensemble apparaît comme une base de connaissances. Toutefois, cette opinion induit en erreur –même si elle est partagée par de nombreux chercheurs en intelligence artificielle - puisqu’elle ne cherche pas à capturer une propriété essentielle de l’ontologie, à savoir que celle-ci s’attache aux concepts plutôt qu’au vocabulaire, et qu’elle porte sur ce qui existe dans le monde-cible. Ma réponse personnelle est que nous avons besoin d’introduire la notion de relativité pour bien comprendre ce qu’est une ontologie. Je veux dire par là qu’une différenciation claire entre "ontologie" et "base de connaissances" devrait se faire à partir de son rôle, c’est-à-dire qu’une ontologie vous fournit un système de concepts qui sont utilisés pour construire une base de connaissances par-dessus ; par conséquent, une ontologie peut être une spécification de la conceptualisation du monde-cible que se fait l’ingénieur qui construit la base de connaissances, donc un méta-système d’une base de connaissances traditionnelle.

En quoi une ontologie diffère-t-elle d’une hiérarchie de classes dans le paradigme orienté-objet ?

La méthodologie de développement d’une ontologie et celle d’une hiérarchie orientée-objet sont similaires au niveau supérieur. Cependant, au niveau inférieur, l’ontologie se concentre sur les aspects déclaratifs tandis que la hiérarchie orientée-objet se concentre sur les aspects reliés à la performance. Par conséquent, la différence essentielle entre les deux est que l’ontologie exploite la représentation déclarative, tandis que le paradigme orienté-objet est intrinsèquement procédural. Dans le paradigme orienté-objet, la signification d’une classe, d’une relation entre des classes, ainsi que les méthodes sont intégrées de façon procédurale et sont implicites. Dans le paradigme ontologique, par contre, les descriptions sont faites de façon déclarative dans la plupart des cas afin d’assurer les caractères formel et explicite.

Qu’est-ce que l’ingénierie ontologique et en quoi est-elle différente de l’ingénierie des connaissances ?

Une ontologie est un système de concepts fondamentaux, c’est-à-dire un système de connaissances qui constitue les connaissances d’arrière-plan d’une base de connaissances; une ontologie offre une conceptualisation du monde-cible ainsi qu’une base solide sur laquelle construire des bases de connaissances partageables, et plus largement utilisables qu’une base de connaissances conventionnelle. Ainsi peut-on dire que l’ingénierie des connaissances a évolué pour devenir l’ingénierie ontologique. J’appelle cette évolution "De l’intelligence artificielle à l’amplificateur d’intelligence" - ou à l’accès à l’information, ou encore à l’assistant intelligent (en anglais : "From AI to IA", Intelligence Amplifier, Information Access or Intelligent Assistant). L’amplificateur d’intelligence n’est pas un logiciel de résolution de problème qui résout votre problème pour vous, mais un partenaire intelligent qui vous accompagne tout en restant invisible, et qui vous aide quand c’est nécessaire. C’est pour réaliser ce type de partenaire intelligent, donc pour raffiner et augmenter l’ingénierie des connaissances conventionnelles que l’ingénierie ontologique a été proposée [Mizoguchi03].

L’ingénierie ontologique est une méthodologie qui nous donne la logique du design d’une base de connaissances, le cœur d’une conceptualisation du monde-cible, des contraintes sémantiques de ces concepts ainsi que des théories et des technologies permettant l’accumulation de connaissances qui est indispensable pour le traitement des connaissances dans le monde réel.

Ce bref historique peut se résumer de la façon suivante : l’ingénierie des connaissances est la recherche d’heuristiques spécifiques au domaine pour la résolution d’un problème ; l’ingénierie ontologique est la recherche de concepts généraux, réutilisables, partageables, et durables pour construire un modèle de connaissances capable d’aider des personnes à résoudre des problèmes.

Vous référez souvent au caractère "profond" comme à un critère d’une "bonne" ingénierie ontologique. Qu’entendez-vous par "profond" ?

Le caractère "profond" signifie "près de la conceptualisation fondamentale". Toutefois, il faut noter que la question "est-ce profond ?" n'est pas une question appropriée. Il faut plutôt se demander : "existe-il quelque chose de plus profond ?". La raison en est que le concept "profond" est relatif par sa nature. Une connaissance plus profonde explique pourquoi une connaissance de surface est plus "de surface", et explique également des phénomènes plus larges que la connaissance de surface ne peut le faire. En d'autres termes, "plus profond" signifie "plus près de l'essence". Les propriétés essentielles d'une chose sont le cœur de la conceptualisation ontologique. Par conséquent, plus cette conceptualisation est "profonde", plus elle est ontologique.

Les philosophes recherchent la nature profonde des choses ; vous aussi ?

Oui, de ce point de vue, nous avons beaucoup en commun. Cependant, les philosophes sont des scientifiques et ils n'ont pas pour but de construire des choses concrètes, tandis qu'en ce qui me concerne, je suis un ingénieur à la recherche d'une méthodologie pour partager et réutiliser la connaissance. Ce qui est important, c'est que, à la différence de nombreux ingénieurs, je n'emploie pas un moyen rapide d'atteindre ce but. Au contraire, j'essaie d'être patient et d'apprendre la façon de penser des philosophes tout en gardant le point de vue d'un ingénieur, c'est-à-dire produire quelque chose d'utile. Les philosophes savent bien analyser les choses aussi objectivement que possible pour trouver les propriétés essentielles de l'être. Cette attitude pourrait contribuer à la réalisation d'une technologie permettant de partager et de réutiliser la connaissance. Je crois qu'un bon équilibre entre l'attitude des philosophes et celle des ingénieurs pourrait nous conduire au succès.

Diriez-vous que vous laissez le travail purement scientifique aux philosophes ?

Oui. Par exemple, une question aussi fondamentale que "qu'est-ce que le sens?" doit être étudiée par les philosophes. Une ontologie de haut niveau qui serait construite à partir des résultats de cette étude devrait être étudiée par des chercheurs en ingénierie ontologique (Standard Upper Ontology Working Group, SUO WG) [SUO04]. Les ingénieurs ont un but, celui de construire un système, et cela nous donne une orientation qui nous empêche de tomber dans des discussions sans fin.

La puissance des ontologies résiderait dans le fait qu'elles sont déclaratives. Pouvez-vous expliquer cette affirmation ?

La représentation de connaissances déclaratives fait partie de beaucoup de systèmes d'intelligence artificielle, puisque c'est la garantie que "le système sait ce qu'il sait", ce qui permet au système de modifier son comportement en modifiant la connaissance qu'il possède. Si la connaissance est intégrée de façon procédurale, il ne peut changer son comportement. Les connaissances déclaratives permettent à un système d'expliquer son comportement. Lorsqu'elles sont représentées sous la forme d'une ontologie, elles permettent à un système de justifier ses connaissances et de garantir que le modèle produit – une instance – est conforme à l'ontologie. Une ontologie n'est pas utilisée directement pour la résolution de problèmes; elle fournit une spécification des connaissances et des modèles dans le système, tandis que les bases de connaissances conventionnelles sont utilisées pour la résolution de problèmes. Le rôle d'une ontologie envers une base de connaissances est de donner des définitions des concepts utilisés dans la représentation des connaissances ; c'est aussi de spécifier les contraintes entre les concepts, afin de rendre la base consistante et transparente, deux propriétés nécessaires pour pouvoir partager et réutiliser la connaissance – c'est le cœur des systèmes d'intelligence artificielle.

Quel est votre raisonnement pour sélectionner une source de connaissance quand vous construisez une ontologie ?

Construire une ontologie signifie qu'on a l'intention de fournir une explication du monde-cible qui soit libre – ou aussi libre que possible – de tout postulat implicite. Face à cette tâche, l'ingénieur ontologique considère les différentes sources de connaissance qui sont à sa disposition et donne explicitement les raisons pour lesquelles il choisit une ou plusieurs de ces sources. Ces sources de connaissance peuvent être classées de la façon suivante :

  • les connaissances de sens commun, c'est-à-dire les connaissances acquises par l'expérience sensorielle et accumulées différemment selon la culture

  • l'expertise, c'est-à-dire des connaissances élaborées – quelquefois de façon sophistiquée – acquises par une expérience spécialisée, intégrant dans certains cas des connaissances scientifiques appliquées

  • des connaissances théoriques, c'est-à-dire des connaissances purement spéculatives, composées d'un discours logique pour expliquer ou interpréter des phénomènes, ainsi que d'hypothèses et de preuves.

Pourquoi et comment les ingénieurs ontologiques choisissent-ils une ou plusieurs de ces sources ? Voici au moins quatre bonnes raisons :
1) le but de l'ontologie contraint ce choix,
2) telle source de connaissance n'est pas disponible,
3) les connaissances de sens commun ne sont pas suffisamment fiables en fonction du but de l'ontologie,
4) les connaissances de sens commun sont fiables, mais le but de l'ontologie requiert des connaissances théoriques.

Le premier cas se produit lorsque par exemple le but de l'ontologie est tel que les variations des théories dans un champ donné doivent être évitées. Un premier exemple en est "Enterprise ontology" [Mizoguchi04a], où l'intention de l'ingénieur ontologique était peut-être d'utiliser uniquement des connaissances pratiques (sens commun et expertise).

Dans le deuxième cas, c'est qu'une des sources n'est tout simplement pas disponible; un exemple est celui de "Gene ontology", où l'expérience directe des gènes n'est pas possible [Mizoguchi04a]. Dans ce cas, la seule source de connaissance est la connaissance théorique, qui peut être complétée parfois par la connaissance expérimentale. Un autre exemple est celui des nanotechnologies, où, de façon similaire, aucune expérience directe n'est possible; cependant, dans ce cas, d'autres connaissances sont disponibles, comme des connaissances théoriques et d'expert provenant de domaines apparentés (chimie, physique) et qui forment une partie de ce nouveau champ.

Un exemple du troisième cas est PSL, dans le domaine du génie des procédés [Mizoguchi04a], où la connaissance théorique existe seulement ou presque sous la forme de connaissance mathématique, par conséquent non exploitable pour construire une ontologie.

Un exemple du quatrième cas est une ontologie des théories de l'enseignement, où l'intention de l'ingénieur ontologique est de rendre explicite les variations entre les théories de façon à les exploiter pour sélectionner des théories durant la tâche de design pédagogique [BourdeauMizoguchi02], [PsychéAl03]. Un autre exemple est celui des théories de l'apprentissage sur lesquelles repose la formation d'un groupe d'étudiants [InabaAl03].

Diriez-vous que les ontologies ouvrent des portes dans le domaine des EIAH en apportant la possibilité d'avoir des connaissances réutilisables pour les Systèmes Tutoriels Intelligents ?

Oui. L'ingénierie ontologique joue un rôle essentiel dans l'avancement de la recherche comme celle qui se fait dans le domaine des EIAH, avec les différents champs de recherche qui lui sont reliés: intelligence artificielle, informatique, sciences cognitives, sciences de l'éducation, etc. Je parlerais de partage et de réutilisation de connaissances grâce à la médiation faite par l'ordinateur, ce qui requiert la modélisation des connaissances pour les rendre exploitables par l'ordinateur. Cette idée conduit à la systématisation des connaissances aux fins d'exploitation par l'ordinateur.

Comme je le disais plus tôt avec ma formule "From AI to IA", ce qu'on attend d'un ordinateur, ce n'est pas qu'il résolve un problème, mais qu'il aide des personnes à résoudre des problèmes. Cela veut dire que l'ordinateur peut être un médiateur pour la dissémination de la connaissance entre les personnes travaillant dans des domaines variés. Ce serait un élément critique pour le succès de champs de recherche "riches en connaissances".

Je crains que l'introduction des ontologies ne puisse générer de nouveaux problèmes, et que la prolifération d'ontologies idiosyncratiques ne puisse amener notre domaine à un état chaotique. Comment peut-on l'éviter ?

C'est une des préoccupations les plus sérieuses dans le domaine des ontologies. C'est la question du contrôle réparti ou centralisé. Pour le Web sémantique, une ontologie pour les métadata peut être sous contrôle réparti ou sous aucun contrôle, tandis que pour la communauté en ingénierie des connaissances, une ontologie est mieux contrôlée, pour pouvoir en faire autre chose qu'un simple vocabulaire compréhensible par l'ordinateur. Personne n'accepte l'idée de "l'ontologie universelle". Cependant, il est vrai également qu'une ontologie ne peut être totalement arbitraire. Une stratégie d'ontologies complètement réparties conduit facilement à un désordre d'ontologies mal conçues. La solution se trouve entre les deux extrêmes comme d'habitude.

Une solution à ce problème serait de se rattacher à une ontologie de haut niveau bien élaborée. En théorie, une ontologie devrait être développée par une communauté dont les membres partagent la nécessité de posséder une ontologie commune sur laquelle les membres peuvent se reposer. En outre, les développeurs d'ontologies doivent se rattacher à une ontologie de haut niveau capable de les guider pour construire des ontologies "raisonnables", avec un environnement sophistiqué de construction d'ontologies. Cette façon de construire des ontologies vous évite d'avoir des ontologies faites n'importe comment et plutôt laides !

Si les ontologies sont orientées par un but et par une utilisation – c'est-à-dire spécifiques plutôt que générales, alors comment pouvons-nous en construire une qui soit partageable ?

L'utilité et la généralité entrent habituellement en conflit l'une avec l'autre ; cette situation se retrouve souvent dans les systèmes d'intelligence artificielle (IA). Celle-ci ne possède pas un principe unique qui gouvernerait tous les phénomènes intelligents; on l'obtient par l'accumulation d'heuristiques, ce qui signifie qu'un système a tendance à être spécifique quand nous voulons le rendre utile ; en d'autres termes, un principe général est trop faible pour venir à bout de la réalité. Le problème, cependant, est que nous devons différencier ce qui est résolution de problèmes de ce qui est partage et réutilisation de connaissances ; en effet, ce conflit ne s'applique qu'à la résolution de problèmes, qui requiert un haut niveau de performance pour un problème spécifique, aux dépens de la généralité. C'est exactement ce que font les systèmes-experts, et ils souffrent sérieusement d'un manque de réutilisabilité de leurs connaissances dans une base de connaissances. Le partage et la réutilisation de connaissances sont une vision bien différente, qui s'appuie sur la philosophie de l'amplification d'intelligence plutôt que sur l'intelligence artificielle, celle-ci visant la résolution automatique de problèmes. Le partage et la réutilisation de connaissances requièrent un fondement général et commun sur lequel nous pouvons construire des connaissances durables et partageables par beaucoup de monde. Une ontologie nous offre ce fondement conceptuel commun.

Une ontologie de haut niveau n'est pas orientée par un but; elle est suffisamment objective et générale pour rendre compte d'un bon nombre de choses et de phénomènes. Le problème avec une ontologie de haut niveau est que nous n'en avons pas encore de vraiment convaincante. Cependant, une fois que vous vous rattachez à une ontologie de haut niveau bien élaborée, c'est beaucoup mieux que rien pour développer votre propre ontologie du domaine. Si vous avez un désaccord concernant un aspect spécifique de l'organisation des connaissances du domaine, ou sur la construction de l'ontologie du domaine, vous pouvez le résoudre en utilisant l'ontologie de haut niveau comme un guide.

Envisagez-vous un processus "top-down" comme dans le cas des standards imposés par IEEE ou ISO ?

Je comprends votre préoccupation, mais ce n'est pas le cas. Les standards s'occupent principalement des questions de forme ou de format, pas de contenu. Chaque ontologie du domaine doit être développée respectivement par les communautés correspondantes d'une manière "bottom-up", avec un consensus solide sur la nécessité d'avoir une ontologie à partager et sur laquelle se reposer. C'est seulement quand vous utilisez une ontologie de haut niveau que vous pouvez vous trouver face à un processus "top-down". Cependant, comme je l'ai expliqué précédemment, une ontologie de haut niveau n'est utilisée que pour fins de référence pour guider le processus de construction d'une ontologie. Pour être plus précis, construire une ontologie de haut niveau est une question de contenu. Toutefois, il s'agit d'un contenu de très haut niveau qui se conduit presque comme une "forme" et qui ne contraint que très faiblement le contenu réel du niveau inférieur.

Un scénario de type "bottom-up" ressemblerait à ce qui suit:

  • Beaucoup de gens veulent avoir leur propre ontologie

  • Naturellement, ils s'aperçoivent des difficultés d'interopérabilité entre les connaissances et entre les systèmes.

  • Ils prennent conscience du besoin de se rassembler et de former une petite communauté pour partager une ontologie commune.

  • Ils prennent également conscience de la difficulté d'intégrer leurs ontologies sans avoir un principe pour le faire.

  • Ils s'entendent pour utiliser une ontologie de haut niveau comme principe d'orientation.

Cette vision ne semble-t-elle pas converger avec celle des communautés de pratique ?

Oui, le développement d'une ontologie devrait être motivé par le bénéfice mutuel, et il devrait aider les gens à partager une expérience de construction. C'est ce que j'appellerais un processus de formation de consensus par la médiation de l'ontologie. On entend dire qu'il est difficile d'avoir une ontologie commune en raison de la difficulté d'arriver à un consensus. Mais je propose l'inverse. Je crois que l'ontologie peut être utilisée pour aider les gens à parvenir à une entente. Un des rôles d'une ontologie est d'aider les gens à expliciter ce qu'ils pensent avoir pris pour acquis. Habituellement, une ontologie rend explicite les postulats sous-jacents que les gens ne remarquent pas quand ils commencent à construire une ontologie. Quand des gens se rassemblent dans une réunion avec le but commun d'une compréhension mutuelle à l'intérieur de leur propre ontologie, cette ontologie peut jouer le rôle d'un médiateur grâce auquel les gens peuvent découvrir des différences ainsi que des points communs en ce qui concerne leur compréhension du monde-cible. Dans le pire des cas, ils prennent clairement conscience de ce sur quoi ils ne sont pas d'accord.

Comment voyez-vous que les ontologies pourront être partagées dans différentes cultures et que pensez-vous de la question du multilinguisme ?

Tout d'abord, une ontologie n'est pas un vocabulaire mais bien un système de concepts, par conséquent elle est beaucoup moins dépendante de la langue. Si un terme n'existe pas dans une langue, cela ne veut pas dire que ceux qui parlent cette langue ne peuvent pas comprendre ce concept; cela veut seulement dire qu'ils ne se sont pas intéressés à ce concept jusqu'ici; si vous leur expliquez ce concept, ils peuvent le comprendre. Il est vrai qu'une ontologie est dépendante de la culture jusqu'à un certain point. Cependant, ceci est négligeable par exemple quand on parle de sujets appartenant à la science ou au génie (au sens de "ingénierie"), qui sont pour la plupart objectifs et universels. J'entrevois une langue de type Esperanto (JB: EsperOnto?, RM: Oui!). En science, une théorie est indépendante de la culture. Vous pouvez penser qu'une théorie de l'apprentissage ne s'appliquerait pas dans une culture, ce qui est vrai. Toutefois, ceci n'est pas un problème de l'ontologie, mais plutôt un problème de modèle. Toute théorie de l'apprentissage possède une valeur s'il y a au moins une culture dans laquelle elle s'applique.

J'aimerais ajouter que les valeurs, qui sont fondamentales dans une culture, ne sont pas un problème ontologique. Une culture possède un système de valeurs où par exemple les concepts de liberté, de bonheur, d'harmonie ont un certain poids, et ces valeurs sont partagées par la plupart des gens dans cette culture.

Pouvez-vous envisager une ontologie de théories pour les Systèmes Tutoriels Intelligents qui pourrait avoir une signification universelle ?

Du point de vue de l'informatique, je dois répondre oui. En ce qui concerne les théories de l'apprentissage, elles n'ont pas à expliquer tous les phénomènes de l'apprentissage [MizoguchiBourdeau00], [InabaAl03]. Si une théorie s'applique dans un cas, cela suffit. Une ontologie pour les Systèmes Tutoriels Intelligents est quelque chose qui nous donne une structure conceptuelle commune pour reconstruire les théories et pour expliquer les raisons pour lesquelles une théorie s'applique ou non dans certaines situations [BourdeauMizoguchi02]. Ceci implique qu'une telle ontologie peut être qualifiée d'universelle, même si ce n'est pas la seule.

Comment les ingénieurs ontologiques peuvent-ils prétendre faire avancer les connaissances si l'ingénierie ontologique est seulement la réutilisation ou la réorganisation d'idées existantes dans un domaine ?

Il est vrai que l'ingénierie ontologique réorganise des connaissances existantes, ce qui ne semble pas créer de connaissances nouvelles dans un domaine. Toutefois, la prétention modeste de l'ingénierie ontologique, c'est de découvrir des relations manquantes, qui seraient restées implicites et imprécises, ce qui peut apporter des changements ou des défis à la connaissance existante. De façon analogue, l'ingénierie ontologique pourrait correspondre à un bon article de revue des connaissances dans un domaine. Celui-ci vous donne une bonne structure des problèmes dans un domaine en révélant ce qui manqué, ce qui est caché, et en mettant en évidence la compréhension commune de ce qui a été fait, etc.; il vous donne une base solide sur laquelle nous pouvons travailler ensemble pour produire de nouvelles connaissances dans le domaine. Et même si nous ne faisons aucun progrès dans les connaissances du domaine, l'ontologie constitue un progrès significatif en représentation des connaissances pour l'informatique, en termes de nouveaux concepts, de fondements, et de méthodologies.

En dehors d'un progrès en termes d'avancement de l'ingénierie des connaissances, voyez-vous un progrès en termes d'impact sur les technologies du jour, par exemple le Web sémantique ou l'extraction de données (data mining) ?

Oui, en ce qui concerne l'ingénierie des connaissances, l'ontologie contribue à la construction de bases de connaissances partageables et réutilisables, et aussi durables. En ce qui concerne le Web sémantique, ce dont ils ont besoin est une ontologie "légère", un vocabulaire compréhensible par l'ordinateur, qui puisse être utilisé comme source d'information pour l'interopérabilité sémantique du contenu du Web.

Quel est le plus grand succès de l'ingénierie ontologique que vous aimeriez voir se produire d'ici 10 ans ?

Le plus grand succès que nous ayons connu jusqu'ici est le partage et la réutilisation de connaissances sur les fonctions (dans le domaine manufacturier) à partir des connaissances des ingénieurs sur les appareils dans le département des systèmes de production chez Sumitomo Electric Industries, une grande entreprise de fibre optique, de semi-conducteurs, et de composés chimiques [KitamuraAl04]. Ceux-ci utilisent dans leurs activités quotidiennes un cadre de description de la connaissance des fonctions qui s'appuie sur une ontologie des fonctions et des appareils développée par mon laboratoire. C'est le premier déploiement de l'ingénierie ontologique au moins au Japon. Ce cadre a été développé sur la base des résultats d'un projet à long terme sur une ontologie des fonctions conduit pendant 5 ans. Dans la compagnie Sumitomo Electric Industries, les employés trouvent un grand bénéfice à utiliser ce cadre, étant donné qu'il n'existait pas de représentation de la structure fonctionnelle des appareils qui soit compréhensible par l'ordinateur d'une manière consistante. Ce cadre a été le premier à leur permettre de partager la connaissance des fonctions.

Le succès que j'aimerais voir, c'est la dissémination de la connaissance par la médiation de l'ontologie dans la direction verticale. Alors qu'il existe de nombreuses théories par exemple les théories de l'apprentissage, de l'enseignement, du design pédagogique, de la génération de tests, elles ne sont pas prêtes pour être utilisées, et par conséquent ne sont pas faciles d'accès pour les praticiens ou les ingénieurs. Développer des ontologies de ces théories et les rendre accessibles à ceux qui construisent des environnements de soutien à l'apprentissage s'appuyant sur les théories, voilà de quoi je rêve dans un avenir proche.

Je sais que vous vous intéressez également aux connaissances pratiques: comment abordez-vous le problème difficile de relier connaissances pratiques et connaissances théoriques ?

Je pense que les connaissances pratiques peuvent être élevées au rang de théories. Ce que font les systèmes "conscients de la théorie" (theory-aware) est de réaliser une circulation fluide entre la théorie et la pratique. Je crois que l'ingénierie ontologique peut aussi contribuer à faire circuler la connaissance entre théorie et pratique. Voici un scénario possible: prendre les meilleures pratiques, extraire la connaissance, décrire chaque connaissance en termes de concepts dans l'ontologie des théories, former une théorie en utilisant la structure d'une théorie et ensuite décider si elle devrait être incluse dans la base théorique ou non. Un forum de discussion peut être organisé pour implémenter la dernière étape.

De cette façon, l'ontologie contribue à permettre les interactions entre les mondes de la théorie et de la pratique, qui restent malheureusement trop souvent éloignés l'un de l'autre. C'est ce que j'appellerais l'harmonisation par la médiation de l'ontologie.

Je crains que les nuances des théories puissent être perdues avec une telle méthode de circulation des connaissances.

Vous avez raison. Cependant, je crois que ce n'est pas vraiment un problème. Ce que vous donne une ontologie, c'est le squelette d'un monde conceptuel du monde-cible. Elle tente d'expliciter la structure conceptuelle sous-jacente commune aux différents objets du monde-cible, c'est-à-dire, dans notre cas, des théories. C'est la source de la puissance de l'ontologie, qui permet l'interopérabilité sémantique. Nous devons être tolérants envers la perte possible des nuances de ces théories pour pouvoir obtenir une circulation efficace de la connaissance entre ces deux mondes.

Pour atteindre un but d'un aussi haut niveau, nous avons besoin de méthodologies et d'outils solides, n'est-ce pas ?

C'est le principal travail de l'ingénierie ontologique. Nous devons produire des méthodologies et des outils utiles pour construire et utiliser des ontologies. Nous disposons déjà de nombreux outils et environnements de construction d'ontologies [Staab03], [Mizoguchi04b]. Nous pourrons avoir, grâce à ces méthodologies et outils, des systèmes "conscients de leur ontologie" (ontology-aware systems) tels des systèmes-auteurs. Nous pourrions obtenir une base commune pour l'unification des connaissances théoriques et pratiques. Si nous pouvons l'accomplir dans un horizon de 10 ans, l'ingénierie ontologique aura fait une contribution majeure à l'avancement de l'ingénierie des connaissances.

En quoi est-ce qu'une éventuelle unification des connaissances théoriques et pratiques serait significative pour le domaine des EIAH1 ?

Ce serait une réelle contribution de l'ingénierie ontologique à la communauté des chercheurs en EIAH. Les théories de l'apprentissage et de l'enseignement deviendraient accessibles aux praticiens, l'expérience des praticiens serait accumulée et organisée pour former de nouvelles connaissances théoriques prêtes à être évaluées formellement. Une telle circulation fluide des connaissances pourrait être réalisée dans la communauté des chercheurs en EIAH. Alors que l'ingénierie ontologique ne semble pas, en apparence, pouvoir faire une contribution à un domaine, cette unification des connaissances théoriques et pratiques, si elle se réalise, pourrait aussi changer la compréhension qu'ont les chercheurs de l'ingénierie ontologique, qui est une technologie de contenu.

Si l'ingénierie ontologique est indépendante du domaine, peut-elle donner aux chercheurs dans le domaine de l'EIAH le moyen de faire une contribution significative en informatique ?

Absolument, le domaine des EIAH est un bon domaine d'application pour l'ingénierie ontologique grâce à sa richesse en théories et en connaissances, et à son haut niveau de multi- disciplinarité ; ces traits du domaine exigent une technologie du contenu qui soit suffisamment sophistiquée pour permettre une circulation fluide des connaissances et l'interopérabilité sémantique entre elles. En pratiquant l'ingénierie ontologique comme une technologie de contenu, les chercheurs dans le domaine de l'EIAH peuvent facilement contribuer à l'avancement des connaissances en ingénierie ontologique en tant que branche avancée de l'informatique.

Oui, le domaine des EIAH est un bon champ d'application pour l'ingénierie ontologique ; mais il est aussi un champ de recherche pour le domaine de l'ingénierie ontologique.

Références

Références bibliographiques

[BourdeauMizoguchi02]

Bourdeau J. and Mizoguchi R. (2002). Collaborative Ontological Engineering of Instructional Design Knowledge for an ITS Authoring Environment, in Cerri, S., Gouardères, G. & Paraguaçu, F., Intelligent Tutoring Systems. Springer, Heidelberg: Lecture Notes in Computer Science, 399-409.

[InabaAl03]

Inaba A., Ohkubo R., Ikeda M., and Mizoguchi R. (2003). 'Modeling Learner-To-Learner Interaction Process in Collaborative Learning - An Ontological Approach to Interaction. Supplementary Proceedings of the International Conference on Computer Support for Collaborative Learning (CSCL2003), pp. 4-6, Bergen, Norway, June 14-18.

[KitamuraMizoguchi03]

Kitamura, Y. and Mizoguchi R. (2003). Ontology-based description of functional design knowledge and its use in a functional way server, Expert Systems with Application, Vol. 24, Issue 2, pp. 153-166.

[KitamuraAl04]

Kitamura Y. et al.. (2004) Deployment of an Ontological Framework of Functional Design Knowledge, Journal of Advanced Engineering Informatics (nd).

[MizoguchiBourdeau00]

Mizoguchi R., and Bourdeau J.. (2000). Using Ontological Engineering to Overcome AI-ED Problems, International Journal of Artificial Intelligence in Education, Vol.11, No.2, pp.107-121.

[Mizoguchi03]

Mizoguchi R. (2003). Tutorial on Ontological Engineering. Part 1: Introduction to Ontological Engineering. New Generation Computing, 21, 365-384, Ohmsha and Springer Verlag.

[Mizoguchi04a]

Mizoguchi R. (2004). Tutorial on Ontological Engineering. Part 2: Ontology Development, Tools and Languages. New Generation Computing, 22, 61-96, Ohmsha and Springer Verlag.

[Mizoguchi04b]

Mizoguchi R. (2004). Tutorial on Ontological Engineering. Part 3: Advanced Course on Ontological Engineering. New Generation Computing, 22, 196-220, Ohmsha and Springer Verlag.

[PsychéAl03]

Psyché V., Bourdeau J. and Mizoguchi R. (2003). Ontology Development at the Conceptual Level for Theory-Aware ITS Authoring Systems, in Hoppe, U., Verdejo, F. & Kay, J., AI in Education, Shaping the future of Learning through Intelligent Technologies, IOS Press & Ohmsha, 491-493.

Références à des sites Internet

[MIZ04]

Mizoguchi Lab : http://www.ei.sanken.osaka-u.ac.jp/.index.html (consulté en septembre 2004)

[SUO04]

Standard Upper Ontology Working Group (SUO WG): http://suo.ieee.org/ (consulté en septembre 2004)

A propos des auteurs

Riichiro MIZOGUCHI est professeur à l’Université d’Osaka et directeur du "Knowledge Systems Lab" de cette institution. Pionnier dans le domaine de l’ingénierie ontologique, il est celui qui l’a introduit dans le monde des Systèmes tutoriels intelligents et des EIAH. Sa présentation au colloque ITS '96, intitulée "Task Ontology Design for IntelligentEducational/Training Systems" fait date à ce sujet. Il est l’auteur de nombreux articles et communications sur le thème de l’ingénierie ontologique pour les environnements de formation. Président de la "International AI in Education Society" de 2001 à 2003, il est président élu de la "Japanese Society for Artificial Intelligence". Sa collaboration avec Jacqueline Bourdeau date de 1997, depuis le colloque "Artificial Intelligence and Education" dont il était l’hôte à Kobe.

Adresse : Institute of Scientific and Industrial Research, Osaka University, 8-1 Mihogaoka, Ibaraki, Osaka, 567-0047, Japan

Courriel : miz@ei.sanken.osaka-u.ac.jp

Toile : http://www.ei.sanken.osaka-u.ac.jp/members/miz/

 

Jacqueline BOURDEAU est professeure à Télé-université en Technologie éducationnelle, et impliquée dans le domaine des EIAH depuis 1986. Sa collaboration avec Riichiro Mizoguchi date de 1997, depuis le colloque "Artificial Intelligence and Education" dont il était l’hôte à Kobe. Elle a publié plusieurs articles sur l’ingénierie ontologique des connaissances théoriques pour les systèmes-auteurs. Elle a dirigé le Centre de recherche en Informatique Cognitive et Environnements de Formation (LICEF) de 2000 à 2003.

Adresse : Centre de recherche LICEF, Télé-université 4750 Henri-Julien, Montréal (Québec) Canada H2T 3E4.

Courriel : bourdeau@licef.teluq.uquebec.ca

Toile : http://www.licef.teluq.uquebec.ca/bourdeau/.


[1] Dans ce texte, EIAH est considéré comme l’équivalent de AIED – Artificial Intelligence and EDucation (note de la traductrice)

 
Référence de l'article :
Riichiro MIZOGUCHI, Le rôle de l’ingénierie ontologique dans le domaine des EIAH, Entretien réalisé par Jacqueline BOURDEAU, Revue STICEF, Volume 11, 2004, Rubrique, ISSN : 1764-7223, mis en ligne le 30/11/2004, http://sticef.org
[Retour en haut de cette page] Haut de la page
Mise à jour du 1/12/04