Le
rôle de l’ingénierie ontologique dans le domaine
des EIAH
Riichiro
MizoguchiInstitute
of Scientific and Industrial Research, Osaka University
Entretien réalisé par
Jacqueline Bourdeau Centre
de recherche LICEF, Télé-université, Montréal
|
RÉSUMÉ : Dans
cet entretien, Riichiro Mizoguchi nous révèle ses pensées
les plus profondes sur le rôle que joue l’Ingénierie
Ontologique (IO) dans le domaine des EIAH. Il insiste sur la nature conceptuelle
d’une ontologie, faite pour pouvoir partager des connaissances entre
humains et ordinateurs, et entre ordinateurs. Conceptualisation, partage
et réutilisation sont donc les concepts-clés d’une
ontologie. Dans le domaine des EIAH, le rôle de l’IO n’est
pas de modéliser les connaissances pour résoudre des problèmes
comme en IA, mais pour aider des humains à résoudre des
problèmes grâce à la médiation de l’ordinateur.
L’IO a un rôle important à jouer pour l’avancement
de la recherche dans ce domaine, notamment pour la modélisation
des connaissances théoriques et pratiques du domaine et la création
d’un consensus au sujet de ces connaissances.
MOTS CLÉS : Ontologie;
ingénierie ontologique ; conceptualisation ; partage ;
réutilisation |
|
ABSTRACT : In
this interview, Riichiro Mizoguchi unveils his deepest thoughts about the role
of Ontological Engineering (OE) in the field of AIED. He stresses the conceptual
nature of an ontology, aimed at sharing knowledge between humans and computers,
and among computers. Conceptualisation, sharing and reuse are therefore the key
concepts of an ontology. In the field of AIED, OE’s role is not to model
knowledge for problem-solving as in AI, but rather to model knowledge to help
humans solve problems with computers as mediators. OE has an important role to
play in the advancement of knowledge in this field, namely towards the modeling
of the field’s theoretical and practical knowledge, and for the creation
of a consensus about this knowledge.
KEYWORDS : ontology
; ontological engineering; conceptualisation ; sharing ; reuse |
Pouvez-vous nous dire ce qu’est
et ce que n’est pas une ontologie ?
Ma première réponse est qu’une ontologie est
un système conceptuel qui permet de partager et de réutiliser
des concepts grâce à une sémantique computationnelle.
À l’origine, l’Ontologie est une branche de la
philosophie dans laquelle les philosophes ont tenté de rendre
compte de l’existant de façon formelle. En informatique,
une ontologie est comprise comme un système de concepts fondamentaux
qui sont représentés sous une forme compréhensible
par un ordinateur. Le domaine des ontologies attire l’attention
parce qu’une ontologie fournit :
1) une structure conceptuelle de base à partir de laquelle
il est possible de développer des systèmes à
base de connaissances qui soient partageables et réutilisables,
2) l’interopérabilité entre les sources d’information
et de connaissances. L’ingénierie ontologique succède
à l’ingénierie des connaissances, et l’on
s’attend à ce qu’elle devienne une technologie-clé
pour la prochaine génération des technologies de traitement
des connaissances.
Considérons les différences entre deux types d’ontologies :
une ontologie orientée Web sémantique, et une ontologie
orientée Concept. Une ontologie orientée Web sémantique
est un vocabulaire compréhensible par un ordinateur, et qui
définit la signification des métadonnées (par
ex. Learning Object Metadata, LOM);
elle est utilisée principalement pour réaliser l’interopérabilité
sémantique entre les ressources informationnelles grâce
aux métadonnées. Ce type d’ontologie peut être
qualifiée d’ontologie de surface, puisqu’elle
ne traite pas nécessairement de la structure conceptuelle
profonde du monde-cible. Par contre, une ontologie orientée
Concept traite des concepts fondamentaux du monde-cible qui demandent
à être examinés en profondeur. Des exemples
typiques de ces ontologies sont l’ontologie supérieure
standard du groupe de travail P1600.1 d’IEEE
(Standard Upper Ontology Working Group) et l’ontologie des
fonctions [KitamuraMizoguchi03],
[Mizoguchi04b].
À mes yeux, une ontologie n’est pas un vocabulaire,
puisqu’un vocabulaire est simplement un ensemble de termes.
Un terme (mot) et un concept peuvent être vus comme similaires
en ce que chacun d’eux est composé d’un nom (étiquette)
et d’une signification. La différence est que lorsqu’on
parle d’un terme, son nom est une question importante, alors
que lorsqu’on parle d’un concept, son nom n’a
aucune importance. Un concept est indépendant de la façon
dont on le nomme. Nombreux sont ceux qui se font prendre au piège
dans des problèmes terminologiques quand ils développent
une ontologie. Il est donc tout à fait essentiel de faire
la distinction appropriée entre une question terminologique
et une question ontologique. Si vous ne trouvez pas de terme approprié,
vous pouvez créer un nouveau terme qui dénote bien
le concept considéré. Par ailleurs, un nom inapproprié
ne veut pas dire que le concept en question est incorrect.
En quoi une ontologie diffère-t-elle
d’une base de connaissances ?
J’aimerais expliquer cette différence à partir
d’une explication fournie par Farquhar en 1997 lors d'un forum
de discussion sur l'ontologie. Celui-ci propose de poser les questions
suivantes : "Est-ce que cela exprime
la connaissance consensuelle d’une communauté de gens ?
Est-ce que les gens l’utilisent comme une référence
de termes définis avec précision? Est-ce que cela
exprime la connaissance consensuelle d’une communauté
d’agents ? Est-ce que le langage utilisé est suffisamment
expressif pour que les gens puissent dire ce qu’ils veulent
dire? Est-ce que cela peut être utilisé pour de multiples
cas de résolution de problèmes? Est-ce que c’est
stable? Est-ce que cela peut être utilisé pour résoudre
une variété de différents types de problèmes?
Est-ce que cela peut être utilisé comme point de départ
pour construire de multiples types d’applications incluant
une base de connaissances, un schéma de base de données
ou un programme orienté-objet?". Farquhar ajoute :
"Plus la réponse à ces
questions est positive, plus c’est ontologique".
L’opinion de Farquhar se fonde sur l’idée qu’il
n’existerait pas de frontière bien définie entre
ontologie et connaissance. Cela parait raisonnable si l’on
considère CYC [Mizoguchi04a],
dont la partie supérieure est certainement une ontologie
mais dont l’ensemble apparaît comme une base de connaissances.
Toutefois, cette opinion induit en erreur –même si elle
est partagée par de nombreux chercheurs en intelligence artificielle
- puisqu’elle ne cherche pas à capturer une propriété
essentielle de l’ontologie, à savoir que celle-ci s’attache
aux concepts plutôt qu’au vocabulaire, et qu’elle
porte sur ce qui existe dans le monde-cible. Ma réponse personnelle
est que nous avons besoin d’introduire la notion de relativité
pour bien comprendre ce qu’est une ontologie. Je veux dire
par là qu’une différenciation claire entre "ontologie"
et "base de connaissances" devrait se
faire à partir de son rôle, c’est-à-dire
qu’une ontologie vous fournit un système de concepts
qui sont utilisés pour construire une base de connaissances
par-dessus ; par conséquent, une ontologie peut être
une spécification de la conceptualisation du monde-cible
que se fait l’ingénieur qui construit la base de connaissances,
donc un méta-système d’une base de connaissances
traditionnelle.
En quoi une ontologie diffère-t-elle
d’une hiérarchie de classes dans le paradigme orienté-objet ?
La méthodologie de développement d’une ontologie
et celle d’une hiérarchie orientée-objet sont
similaires au niveau supérieur. Cependant, au niveau inférieur,
l’ontologie se concentre sur les aspects déclaratifs
tandis que la hiérarchie orientée-objet se concentre
sur les aspects reliés à la performance. Par conséquent,
la différence essentielle entre les deux est que l’ontologie
exploite la représentation déclarative, tandis que
le paradigme orienté-objet est intrinsèquement procédural.
Dans le paradigme orienté-objet, la signification d’une
classe, d’une relation entre des classes, ainsi que les méthodes
sont intégrées de façon procédurale
et sont implicites. Dans le paradigme ontologique, par contre, les
descriptions sont faites de façon déclarative dans
la plupart des cas afin d’assurer les caractères formel
et explicite.
Qu’est-ce que l’ingénierie
ontologique et en quoi est-elle différente de l’ingénierie
des connaissances ?
Une ontologie est un système de concepts fondamentaux, c’est-à-dire
un système de connaissances qui constitue les connaissances
d’arrière-plan d’une base de connaissances; une
ontologie offre une conceptualisation du monde-cible ainsi qu’une
base solide sur laquelle construire des bases de connaissances partageables,
et plus largement utilisables qu’une base de connaissances
conventionnelle. Ainsi peut-on dire que l’ingénierie
des connaissances a évolué pour devenir l’ingénierie
ontologique. J’appelle cette évolution "De
l’intelligence artificielle à l’amplificateur
d’intelligence" - ou à l’accès à
l’information, ou encore à l’assistant intelligent
(en anglais : "From AI to IA", Intelligence
Amplifier, Information Access or Intelligent Assistant). L’amplificateur
d’intelligence n’est pas un logiciel de résolution
de problème qui résout votre problème pour
vous, mais un partenaire intelligent qui vous accompagne tout en
restant invisible, et qui vous aide quand c’est nécessaire.
C’est pour réaliser ce type de partenaire intelligent,
donc pour raffiner et augmenter l’ingénierie des connaissances
conventionnelles que l’ingénierie ontologique a été
proposée [Mizoguchi03].
L’ingénierie ontologique est une méthodologie
qui nous donne la logique du design d’une base de connaissances,
le cœur d’une conceptualisation du monde-cible, des contraintes
sémantiques de ces concepts ainsi que des théories
et des technologies permettant l’accumulation de connaissances
qui est indispensable pour le traitement des connaissances dans
le monde réel.
Ce bref historique peut se résumer de la façon suivante :
l’ingénierie des connaissances est la recherche d’heuristiques
spécifiques au domaine pour la résolution d’un
problème ; l’ingénierie ontologique est
la recherche de concepts généraux, réutilisables,
partageables, et durables pour construire un modèle de connaissances
capable d’aider des personnes à résoudre des
problèmes.
Vous référez souvent au
caractère "profond" comme à
un critère d’une "bonne" ingénierie ontologique.
Qu’entendez-vous par "profond" ?
Le caractère "profond" signifie
"près de la conceptualisation fondamentale".
Toutefois, il faut noter que la question "est-ce
profond ?" n'est pas une question appropriée.
Il faut plutôt se demander : "existe-il
quelque chose de plus profond ?". La raison en est que
le concept "profond" est relatif par
sa nature. Une connaissance plus profonde explique pourquoi une
connaissance de surface est plus "de surface",
et explique également des phénomènes plus larges
que la connaissance de surface ne peut le faire. En d'autres termes,
"plus profond" signifie "plus
près de l'essence". Les propriétés essentielles
d'une chose sont le cœur de la conceptualisation ontologique.
Par conséquent, plus cette conceptualisation est "profonde",
plus elle est ontologique.
Les philosophes recherchent la nature
profonde des choses ; vous aussi ?
Oui, de ce point de vue, nous avons beaucoup en commun. Cependant,
les philosophes sont des scientifiques et ils n'ont pas pour but
de construire des choses concrètes, tandis qu'en ce qui me
concerne, je suis un ingénieur à la recherche d'une
méthodologie pour partager et réutiliser la connaissance.
Ce qui est important, c'est que, à la différence de
nombreux ingénieurs, je n'emploie pas un moyen rapide d'atteindre
ce but. Au contraire, j'essaie d'être patient et d'apprendre
la façon de penser des philosophes tout en gardant le point
de vue d'un ingénieur, c'est-à-dire produire quelque
chose d'utile. Les philosophes savent bien analyser les choses aussi
objectivement que possible pour trouver les propriétés
essentielles de l'être. Cette attitude pourrait contribuer
à la réalisation d'une technologie permettant de partager
et de réutiliser la connaissance. Je crois qu'un bon équilibre
entre l'attitude des philosophes et celle des ingénieurs
pourrait nous conduire au succès.
Diriez-vous que vous laissez le travail
purement scientifique aux philosophes ?
Oui. Par exemple, une question aussi fondamentale que "qu'est-ce
que le sens?" doit être étudiée par les
philosophes. Une ontologie de haut niveau qui serait construite
à partir des résultats de cette étude devrait
être étudiée par des chercheurs en ingénierie
ontologique (Standard Upper Ontology Working Group,
SUO WG) [SUO04].
Les ingénieurs ont un but, celui de construire un système,
et cela nous donne une orientation qui nous empêche de tomber
dans des discussions sans fin.
La puissance des ontologies résiderait
dans le fait qu'elles sont déclaratives. Pouvez-vous expliquer
cette affirmation ?
La représentation de connaissances déclaratives fait
partie de beaucoup de systèmes d'intelligence artificielle,
puisque c'est la garantie que "le système
sait ce qu'il sait", ce qui permet au système de modifier
son comportement en modifiant la connaissance qu'il possède.
Si la connaissance est intégrée de façon procédurale,
il ne peut changer son comportement. Les connaissances déclaratives
permettent à un système d'expliquer son comportement.
Lorsqu'elles sont représentées sous la forme d'une
ontologie, elles permettent à un système de justifier
ses connaissances et de garantir que le modèle produit –
une instance – est conforme à l'ontologie. Une ontologie
n'est pas utilisée directement pour la résolution
de problèmes; elle fournit une spécification des connaissances
et des modèles dans le système, tandis que les bases
de connaissances conventionnelles sont utilisées pour la
résolution de problèmes. Le rôle d'une ontologie
envers une base de connaissances est de donner des définitions
des concepts utilisés dans la représentation des connaissances ;
c'est aussi de spécifier les contraintes entre les concepts,
afin de rendre la base consistante et transparente, deux propriétés
nécessaires pour pouvoir partager et réutiliser la
connaissance – c'est le cœur des systèmes d'intelligence
artificielle.
Quel est votre raisonnement pour sélectionner
une source de connaissance quand vous construisez une ontologie
?
Construire une ontologie signifie qu'on a l'intention de fournir
une explication du monde-cible qui soit libre – ou aussi libre
que possible – de tout postulat implicite. Face à cette
tâche, l'ingénieur ontologique considère les
différentes sources de connaissance qui sont à sa
disposition et donne explicitement les raisons pour lesquelles il
choisit une ou plusieurs de ces sources. Ces sources de connaissance
peuvent être classées de la façon suivante :
-
les connaissances de sens commun, c'est-à-dire
les connaissances acquises par l'expérience sensorielle
et accumulées différemment selon la culture
-
l'expertise, c'est-à-dire des connaissances
élaborées – quelquefois de façon
sophistiquée – acquises par une expérience
spécialisée, intégrant dans certains cas
des connaissances scientifiques appliquées
-
des connaissances théoriques, c'est-à-dire
des connaissances purement spéculatives, composées
d'un discours logique pour expliquer ou interpréter des
phénomènes, ainsi que d'hypothèses et de
preuves.
Pourquoi et comment les ingénieurs ontologiques choisissent-ils
une ou plusieurs de ces sources ? Voici au moins quatre bonnes
raisons :
1) le but de l'ontologie contraint ce choix,
2) telle source de connaissance n'est pas disponible,
3) les connaissances de sens commun ne sont pas suffisamment fiables
en fonction du but de l'ontologie,
4) les connaissances de sens commun sont fiables, mais le but de
l'ontologie requiert des connaissances théoriques.
Le premier cas se produit lorsque par exemple le but de l'ontologie
est tel que les variations des théories dans un champ donné
doivent être évitées. Un premier exemple en
est "Enterprise ontology" [Mizoguchi04a],
où l'intention de l'ingénieur ontologique était
peut-être d'utiliser uniquement des connaissances pratiques
(sens commun et expertise).
Dans le deuxième cas, c'est qu'une des sources n'est tout
simplement pas disponible; un exemple est celui de "Gene
ontology", où l'expérience directe des gènes
n'est pas possible [Mizoguchi04a].
Dans ce cas, la seule source de connaissance est la connaissance
théorique, qui peut être complétée parfois
par la connaissance expérimentale. Un autre exemple est celui
des nanotechnologies, où, de façon similaire, aucune
expérience directe n'est possible; cependant, dans ce cas,
d'autres connaissances sont disponibles, comme des connaissances
théoriques et d'expert provenant de domaines apparentés
(chimie, physique) et qui forment une partie de ce nouveau champ.
Un exemple du troisième cas est PSL,
dans le domaine du génie des procédés [Mizoguchi04a],
où la connaissance théorique existe seulement ou presque
sous la forme de connaissance mathématique, par conséquent
non exploitable pour construire une ontologie.
Un exemple du quatrième cas est une ontologie des théories
de l'enseignement, où l'intention de l'ingénieur ontologique
est de rendre explicite les variations entre les théories
de façon à les exploiter pour sélectionner
des théories durant la tâche de design pédagogique
[BourdeauMizoguchi02],
[PsychéAl03].
Un autre exemple est celui des théories de l'apprentissage
sur lesquelles repose la formation d'un groupe d'étudiants
[InabaAl03].
Diriez-vous que les ontologies ouvrent
des portes dans le domaine des EIAH en apportant la possibilité
d'avoir des connaissances réutilisables pour les Systèmes
Tutoriels Intelligents ?
Oui. L'ingénierie ontologique joue un rôle essentiel
dans l'avancement de la recherche comme celle qui se fait dans le
domaine des EIAH, avec les différents champs de recherche
qui lui sont reliés: intelligence artificielle, informatique,
sciences cognitives, sciences de l'éducation, etc. Je parlerais
de partage et de réutilisation de connaissances grâce
à la médiation faite par l'ordinateur, ce qui requiert
la modélisation des connaissances pour les rendre exploitables
par l'ordinateur. Cette idée conduit à la systématisation
des connaissances aux fins d'exploitation par l'ordinateur.
Comme je le disais plus tôt avec ma formule "From
AI to IA", ce qu'on attend d'un ordinateur, ce n'est pas
qu'il résolve un problème, mais qu'il aide des personnes
à résoudre des problèmes. Cela veut dire que
l'ordinateur peut être un médiateur pour la dissémination
de la connaissance entre les personnes travaillant dans des domaines
variés. Ce serait un élément critique pour
le succès de champs de recherche "riches
en connaissances".
Je crains que l'introduction des ontologies
ne puisse générer de nouveaux problèmes, et
que la prolifération d'ontologies idiosyncratiques ne puisse
amener notre domaine à un état chaotique. Comment
peut-on l'éviter ?
C'est une des préoccupations les plus sérieuses dans
le domaine des ontologies. C'est la question du contrôle réparti
ou centralisé. Pour le Web sémantique, une ontologie
pour les métadata peut être sous contrôle réparti
ou sous aucun contrôle, tandis que pour la communauté
en ingénierie des connaissances, une ontologie est mieux
contrôlée, pour pouvoir en faire autre chose qu'un
simple vocabulaire compréhensible par l'ordinateur. Personne
n'accepte l'idée de "l'ontologie universelle".
Cependant, il est vrai également qu'une ontologie ne peut
être totalement arbitraire. Une stratégie d'ontologies
complètement réparties conduit facilement à
un désordre d'ontologies mal conçues. La solution
se trouve entre les deux extrêmes comme d'habitude.
Une solution à ce problème serait de se rattacher
à une ontologie de haut niveau bien élaborée.
En théorie, une ontologie devrait être développée
par une communauté dont les membres partagent la nécessité
de posséder une ontologie commune sur laquelle les membres
peuvent se reposer. En outre, les développeurs d'ontologies
doivent se rattacher à une ontologie de haut niveau capable
de les guider pour construire des ontologies "raisonnables",
avec un environnement sophistiqué de construction d'ontologies.
Cette façon de construire des ontologies vous évite
d'avoir des ontologies faites n'importe comment et plutôt
laides !
Si les ontologies sont orientées
par un but et par une utilisation – c'est-à-dire spécifiques
plutôt que générales, alors comment pouvons-nous
en construire une qui soit partageable ?
L'utilité et la généralité entrent
habituellement en conflit l'une avec l'autre ; cette situation
se retrouve souvent dans les systèmes d'intelligence artificielle
(IA). Celle-ci ne possède pas
un principe unique qui gouvernerait tous les phénomènes
intelligents; on l'obtient par l'accumulation d'heuristiques, ce
qui signifie qu'un système a tendance à être
spécifique quand nous voulons le rendre utile ; en d'autres
termes, un principe général est trop faible pour venir
à bout de la réalité. Le problème, cependant,
est que nous devons différencier ce qui est résolution
de problèmes de ce qui est partage et réutilisation
de connaissances ; en effet, ce conflit ne s'applique qu'à
la résolution de problèmes, qui requiert un haut niveau
de performance pour un problème spécifique, aux dépens
de la généralité. C'est exactement ce que font
les systèmes-experts, et ils souffrent sérieusement
d'un manque de réutilisabilité de leurs connaissances
dans une base de connaissances. Le partage et la réutilisation
de connaissances sont une vision bien différente, qui s'appuie
sur la philosophie de l'amplification d'intelligence plutôt
que sur l'intelligence artificielle, celle-ci visant la résolution
automatique de problèmes. Le partage et la réutilisation
de connaissances requièrent un fondement général
et commun sur lequel nous pouvons construire des connaissances durables
et partageables par beaucoup de monde. Une ontologie nous offre
ce fondement conceptuel commun.
Une ontologie de haut niveau n'est pas orientée par un but;
elle est suffisamment objective et générale pour rendre
compte d'un bon nombre de choses et de phénomènes.
Le problème avec une ontologie de haut niveau est que nous
n'en avons pas encore de vraiment convaincante. Cependant, une fois
que vous vous rattachez à une ontologie de haut niveau bien
élaborée, c'est beaucoup mieux que rien pour développer
votre propre ontologie du domaine. Si vous avez un désaccord
concernant un aspect spécifique de l'organisation des connaissances
du domaine, ou sur la construction de l'ontologie du domaine, vous
pouvez le résoudre en utilisant l'ontologie de haut niveau
comme un guide.
Envisagez-vous un processus "top-down"
comme dans le cas des standards imposés par IEEE
ou ISO ?
Je comprends votre préoccupation, mais ce n'est pas le cas.
Les standards s'occupent principalement des questions de forme ou
de format, pas de contenu. Chaque ontologie du domaine doit être
développée respectivement par les communautés
correspondantes d'une manière "bottom-up",
avec un consensus solide sur la nécessité d'avoir
une ontologie à partager et sur laquelle se reposer. C'est
seulement quand vous utilisez une ontologie de haut niveau que vous
pouvez vous trouver face à un processus "top-down".
Cependant, comme je l'ai expliqué précédemment,
une ontologie de haut niveau n'est utilisée que pour fins
de référence pour guider le processus de construction
d'une ontologie. Pour être plus précis, construire
une ontologie de haut niveau est une question de contenu. Toutefois,
il s'agit d'un contenu de très haut niveau qui se conduit
presque comme une "forme" et qui ne contraint
que très faiblement le contenu réel du niveau inférieur.
Un scénario de type "bottom-up" ressemblerait
à ce qui suit:
-
Beaucoup de gens veulent avoir leur propre ontologie
-
Naturellement, ils s'aperçoivent des difficultés
d'interopérabilité entre les connaissances et
entre les systèmes.
-
Ils prennent conscience du besoin de se rassembler
et de former une petite communauté pour partager une
ontologie commune.
-
Ils prennent également conscience de la
difficulté d'intégrer leurs ontologies sans avoir
un principe pour le faire.
-
Ils s'entendent pour utiliser une ontologie de
haut niveau comme principe d'orientation.
Cette vision ne semble-t-elle pas converger
avec celle des communautés de pratique ?
Oui, le développement d'une ontologie devrait être
motivé par le bénéfice mutuel, et il devrait
aider les gens à partager une expérience de construction.
C'est ce que j'appellerais un processus de formation de consensus
par la médiation de l'ontologie. On entend dire qu'il est
difficile d'avoir une ontologie commune en raison de la difficulté
d'arriver à un consensus. Mais je propose l'inverse. Je crois
que l'ontologie peut être utilisée pour aider les gens
à parvenir à une entente. Un des rôles d'une
ontologie est d'aider les gens à expliciter ce qu'ils pensent
avoir pris pour acquis. Habituellement, une ontologie rend explicite
les postulats sous-jacents que les gens ne remarquent pas quand
ils commencent à construire une ontologie. Quand des gens
se rassemblent dans une réunion avec le but commun d'une
compréhension mutuelle à l'intérieur de leur
propre ontologie, cette ontologie peut jouer le rôle d'un
médiateur grâce auquel les gens peuvent découvrir
des différences ainsi que des points communs en ce qui concerne
leur compréhension du monde-cible. Dans le pire des cas,
ils prennent clairement conscience de ce sur quoi ils ne sont pas
d'accord.
Comment voyez-vous que les ontologies
pourront être partagées dans différentes cultures
et que pensez-vous de la question du multilinguisme ?
Tout d'abord, une ontologie n'est pas un vocabulaire mais bien
un système de concepts, par conséquent elle est beaucoup
moins dépendante de la langue. Si un terme n'existe pas dans
une langue, cela ne veut pas dire que ceux qui parlent cette langue
ne peuvent pas comprendre ce concept; cela veut seulement dire qu'ils
ne se sont pas intéressés à ce concept jusqu'ici;
si vous leur expliquez ce concept, ils peuvent le comprendre. Il
est vrai qu'une ontologie est dépendante de la culture jusqu'à
un certain point. Cependant, ceci est négligeable par exemple
quand on parle de sujets appartenant à la science ou au génie
(au sens de "ingénierie"), qui
sont pour la plupart objectifs et universels. J'entrevois une langue
de type Esperanto (JB: EsperOnto?, RM: Oui!). En science, une théorie
est indépendante de la culture. Vous pouvez penser qu'une
théorie de l'apprentissage ne s'appliquerait pas dans une
culture, ce qui est vrai. Toutefois, ceci n'est pas un problème
de l'ontologie, mais plutôt un problème de modèle.
Toute théorie de l'apprentissage possède une valeur
s'il y a au moins une culture dans laquelle elle s'applique.
J'aimerais ajouter que les valeurs, qui sont fondamentales dans
une culture, ne sont pas un problème ontologique. Une culture
possède un système de valeurs où par exemple
les concepts de liberté, de bonheur, d'harmonie ont un certain
poids, et ces valeurs sont partagées par la plupart des gens
dans cette culture.
Pouvez-vous envisager une ontologie de
théories pour les Systèmes Tutoriels Intelligents
qui pourrait avoir une signification universelle ?
Du point de vue de l'informatique, je dois répondre oui.
En ce qui concerne les théories de l'apprentissage, elles
n'ont pas à expliquer tous les phénomènes de
l'apprentissage [MizoguchiBourdeau00],
[InabaAl03].
Si une théorie s'applique dans un cas, cela suffit. Une ontologie
pour les Systèmes Tutoriels Intelligents est quelque chose
qui nous donne une structure conceptuelle commune pour reconstruire
les théories et pour expliquer les raisons pour lesquelles
une théorie s'applique ou non dans certaines situations [BourdeauMizoguchi02].
Ceci implique qu'une telle ontologie peut être qualifiée
d'universelle, même si ce n'est pas la seule.
Comment les ingénieurs ontologiques
peuvent-ils prétendre faire avancer les connaissances si
l'ingénierie ontologique est seulement la réutilisation
ou la réorganisation d'idées existantes dans un domaine
?
Il est vrai que l'ingénierie ontologique réorganise
des connaissances existantes, ce qui ne semble pas créer
de connaissances nouvelles dans un domaine. Toutefois, la prétention
modeste de l'ingénierie ontologique, c'est de découvrir
des relations manquantes, qui seraient restées implicites
et imprécises, ce qui peut apporter des changements ou des
défis à la connaissance existante. De façon
analogue, l'ingénierie ontologique pourrait correspondre
à un bon article de revue des connaissances dans un domaine.
Celui-ci vous donne une bonne structure des problèmes dans
un domaine en révélant ce qui manqué, ce qui
est caché, et en mettant en évidence la compréhension
commune de ce qui a été fait, etc.; il vous donne
une base solide sur laquelle nous pouvons travailler ensemble pour
produire de nouvelles connaissances dans le domaine. Et même
si nous ne faisons aucun progrès dans les connaissances du
domaine, l'ontologie constitue un progrès significatif en
représentation des connaissances pour l'informatique, en
termes de nouveaux concepts, de fondements, et de méthodologies.
En dehors d'un progrès en termes
d'avancement de l'ingénierie des connaissances, voyez-vous
un progrès en termes d'impact sur les technologies du jour,
par exemple le Web sémantique ou l'extraction de données
(data mining) ?
Oui, en ce qui concerne l'ingénierie des connaissances,
l'ontologie contribue à la construction de bases de connaissances
partageables et réutilisables, et aussi durables. En ce qui
concerne le Web sémantique, ce dont ils ont besoin est une
ontologie "légère", un
vocabulaire compréhensible par l'ordinateur, qui puisse être
utilisé comme source d'information pour l'interopérabilité
sémantique du contenu du Web.
Quel est le plus grand succès
de l'ingénierie ontologique que vous aimeriez voir se produire
d'ici 10 ans ?
Le plus grand succès que nous ayons connu jusqu'ici
est le partage et la réutilisation de connaissances sur
les fonctions (dans le domaine manufacturier) à partir des
connaissances des ingénieurs sur les appareils dans le département
des systèmes de production chez Sumitomo Electric Industries,
une grande entreprise de fibre optique, de semi-conducteurs, et
de composés chimiques [KitamuraAl04].
Ceux-ci utilisent dans leurs activités quotidiennes un cadre
de description de la connaissance des fonctions qui s'appuie sur
une ontologie des fonctions et des appareils développée
par mon laboratoire. C'est le premier déploiement de l'ingénierie
ontologique au moins au Japon. Ce cadre a été
développé sur la base des résultats d'un projet
à long terme sur une ontologie des fonctions conduit pendant
5 ans. Dans la compagnie Sumitomo Electric Industries, les
employés trouvent un grand bénéfice à
utiliser ce cadre, étant donné qu'il n'existait pas
de représentation de la structure fonctionnelle des appareils
qui soit compréhensible par l'ordinateur d'une manière
consistante. Ce cadre a été le premier à leur
permettre de partager la connaissance des fonctions.
Le succès que j'aimerais voir, c'est la dissémination
de la connaissance par la médiation de l'ontologie dans la
direction verticale. Alors qu'il existe de nombreuses théories
par exemple les théories de l'apprentissage, de l'enseignement,
du design pédagogique, de la génération de
tests, elles ne sont pas prêtes pour être utilisées,
et par conséquent ne sont pas faciles d'accès pour
les praticiens ou les ingénieurs. Développer des ontologies
de ces théories et les rendre accessibles à ceux qui
construisent des environnements de soutien à l'apprentissage
s'appuyant sur les théories, voilà de quoi je rêve
dans un avenir proche.
Je sais que vous vous intéressez
également aux connaissances pratiques: comment abordez-vous
le problème difficile de relier connaissances pratiques et
connaissances théoriques ?
Je pense que les connaissances pratiques peuvent être élevées
au rang de théories. Ce que font les systèmes "conscients
de la théorie" (theory-aware) est de réaliser
une circulation fluide entre la théorie et la pratique. Je
crois que l'ingénierie ontologique peut aussi contribuer
à faire circuler la connaissance entre théorie et
pratique. Voici un scénario possible: prendre les meilleures
pratiques, extraire la connaissance, décrire chaque connaissance
en termes de concepts dans l'ontologie des théories, former
une théorie en utilisant la structure d'une théorie
et ensuite décider si elle devrait être incluse dans
la base théorique ou non. Un forum de discussion peut être
organisé pour implémenter la dernière étape.
De cette façon, l'ontologie contribue à permettre
les interactions entre les mondes de la théorie et de la
pratique, qui restent malheureusement trop souvent éloignés
l'un de l'autre. C'est ce que j'appellerais l'harmonisation par
la médiation de l'ontologie.
Je crains que les nuances des théories
puissent être perdues avec une telle méthode de circulation
des connaissances.
Vous avez raison. Cependant, je crois que ce n'est pas vraiment
un problème. Ce que vous donne une ontologie, c'est le squelette
d'un monde conceptuel du monde-cible. Elle tente d'expliciter la
structure conceptuelle sous-jacente commune aux différents
objets du monde-cible, c'est-à-dire, dans notre cas, des
théories. C'est la source de la puissance de l'ontologie,
qui permet l'interopérabilité sémantique. Nous
devons être tolérants envers la perte possible des
nuances de ces théories pour pouvoir obtenir une circulation
efficace de la connaissance entre ces deux mondes.
Pour atteindre un but d'un aussi haut
niveau, nous avons besoin de méthodologies et d'outils solides,
n'est-ce pas ?
C'est le principal travail de l'ingénierie ontologique.
Nous devons produire des méthodologies et des outils utiles
pour construire et utiliser des ontologies. Nous disposons déjà
de nombreux outils et environnements de construction d'ontologies
[Staab03],
[Mizoguchi04b].
Nous pourrons avoir, grâce à ces méthodologies
et outils, des systèmes "conscients de
leur ontologie" (ontology-aware systems) tels des
systèmes-auteurs. Nous pourrions obtenir une base commune
pour l'unification des connaissances théoriques et pratiques.
Si nous pouvons l'accomplir dans un horizon de 10 ans, l'ingénierie
ontologique aura fait une contribution majeure à l'avancement
de l'ingénierie des connaissances.
En quoi est-ce qu'une éventuelle
unification des connaissances théoriques et pratiques serait
significative pour le domaine des EIAH1
?
Ce serait une réelle contribution de l'ingénierie
ontologique à la communauté des chercheurs en EIAH.
Les théories de l'apprentissage et de l'enseignement deviendraient
accessibles aux praticiens, l'expérience des praticiens serait
accumulée et organisée pour former de nouvelles connaissances
théoriques prêtes à être évaluées
formellement. Une telle circulation fluide des connaissances pourrait
être réalisée dans la communauté des
chercheurs en EIAH. Alors que l'ingénierie
ontologique ne semble pas, en apparence, pouvoir faire une contribution
à un domaine, cette unification des connaissances théoriques
et pratiques, si elle se réalise, pourrait aussi changer
la compréhension qu'ont les chercheurs de l'ingénierie
ontologique, qui est une technologie de contenu.
Si l'ingénierie ontologique est
indépendante du domaine, peut-elle donner aux chercheurs
dans le domaine de l'EIAH le moyen
de faire une contribution significative en informatique ?
Absolument, le domaine des EIAH est
un bon domaine d'application pour l'ingénierie ontologique
grâce à sa richesse en théories et en connaissances,
et à son haut niveau de multi- disciplinarité ;
ces traits du domaine exigent une technologie du contenu qui soit
suffisamment sophistiquée pour permettre une circulation
fluide des connaissances et l'interopérabilité sémantique
entre elles. En pratiquant l'ingénierie ontologique comme
une technologie de contenu, les chercheurs dans le domaine de l'EIAH
peuvent facilement contribuer à l'avancement des connaissances
en ingénierie ontologique en tant que branche avancée
de l'informatique.
Oui, le domaine des EIAH est un bon
champ d'application pour l'ingénierie ontologique ;
mais il est aussi un champ de recherche pour le domaine de l'ingénierie
ontologique.
Références
Références bibliographiques
[BourdeauMizoguchi02]
Bourdeau J. and Mizoguchi R. (2002). Collaborative Ontological
Engineering of Instructional Design Knowledge for an ITS Authoring
Environment, in Cerri, S., Gouardères, G. & Paraguaçu,
F., Intelligent Tutoring Systems. Springer, Heidelberg: Lecture
Notes in Computer Science, 399-409.
[InabaAl03]
Inaba A., Ohkubo R., Ikeda M., and Mizoguchi R. (2003). 'Modeling
Learner-To-Learner Interaction Process in Collaborative Learning
- An Ontological Approach to Interaction. Supplementary Proceedings
of the International Conference on Computer Support for Collaborative
Learning (CSCL2003), pp. 4-6, Bergen, Norway, June 14-18.
[KitamuraMizoguchi03]
Kitamura, Y. and Mizoguchi R. (2003). Ontology-based description
of functional design knowledge and its use in a functional way server,
Expert Systems with Application, Vol. 24, Issue 2, pp. 153-166.
[KitamuraAl04]
Kitamura Y. et al.. (2004) Deployment of an Ontological Framework
of Functional Design Knowledge, Journal of Advanced Engineering
Informatics (nd).
[MizoguchiBourdeau00]
Mizoguchi R., and Bourdeau J.. (2000). Using Ontological Engineering
to Overcome AI-ED Problems, International Journal of Artificial
Intelligence in Education, Vol.11, No.2, pp.107-121.
[Mizoguchi03]
Mizoguchi R. (2003). Tutorial on Ontological Engineering. Part
1: Introduction to Ontological Engineering. New Generation Computing,
21, 365-384, Ohmsha and Springer Verlag.
[Mizoguchi04a]
Mizoguchi R. (2004). Tutorial on Ontological Engineering. Part
2: Ontology Development, Tools and Languages. New Generation
Computing, 22, 61-96, Ohmsha and Springer Verlag.
[Mizoguchi04b]
Mizoguchi R. (2004). Tutorial on Ontological Engineering. Part
3: Advanced Course on Ontological Engineering. New Generation
Computing, 22, 196-220, Ohmsha and Springer Verlag.
[PsychéAl03]
Psyché V., Bourdeau J. and Mizoguchi R. (2003). Ontology
Development at the Conceptual Level for Theory-Aware ITS Authoring
Systems, in Hoppe, U., Verdejo, F. & Kay, J., AI in Education,
Shaping the future of Learning through Intelligent Technologies,
IOS Press & Ohmsha, 491-493.
Références à des sites Internet
[MIZ04]
Mizoguchi Lab : http://www.ei.sanken.osaka-u.ac.jp/.index.html
(consulté en septembre 2004)
[SUO04]
Standard Upper Ontology Working Group (SUO WG): http://suo.ieee.org/ (consulté en septembre
2004)
A
propos des auteurs
Riichiro MIZOGUCHI est professeur
à l’Université d’Osaka et directeur du
"Knowledge Systems Lab" de cette institution. Pionnier dans le domaine
de l’ingénierie ontologique, il est celui qui l’a
introduit dans le monde des Systèmes tutoriels intelligents
et des EIAH. Sa présentation au colloque ITS '96, intitulée
"Task Ontology Design for IntelligentEducational/Training Systems"
fait date à ce sujet. Il est l’auteur de nombreux articles
et communications sur le thème de l’ingénierie
ontologique pour les environnements de formation. Président
de la "International AI in Education Society" de 2001 à 2003,
il est président élu de la "Japanese Society for Artificial
Intelligence". Sa collaboration avec Jacqueline Bourdeau date de
1997, depuis le colloque "Artificial Intelligence and Education"
dont il était l’hôte à Kobe.
Adresse : Institute of Scientific
and Industrial Research, Osaka University, 8-1 Mihogaoka, Ibaraki,
Osaka, 567-0047, Japan
Courriel : miz@ei.sanken.osaka-u.ac.jp
Toile : http://www.ei.sanken.osaka-u.ac.jp/members/miz/
Jacqueline BOURDEAU est professeure
à Télé-université en Technologie éducationnelle,
et impliquée dans le domaine des EIAH depuis 1986. Sa collaboration
avec Riichiro Mizoguchi date de 1997, depuis le colloque "Artificial
Intelligence and Education" dont il était l’hôte
à Kobe. Elle a publié plusieurs articles sur l’ingénierie
ontologique des connaissances théoriques pour les systèmes-auteurs.
Elle a dirigé le Centre de recherche en Informatique Cognitive
et Environnements de Formation (LICEF) de 2000 à 2003.
Adresse : Centre de recherche
LICEF, Télé-université 4750 Henri-Julien, Montréal
(Québec) Canada H2T 3E4.
Courriel : bourdeau@licef.teluq.uquebec.ca
Toile : http://www.licef.teluq.uquebec.ca/bourdeau/.
[1] Dans ce texte, EIAH
est considéré comme l’équivalent de AIED
– Artificial Intelligence and EDucation (note de la traductrice)
|