> Archives 2007-2008
- Monday, Mach 10th, 2008
Pierre Zweigenbaum, LIMSI-CNRS, Orsay
Acquisition de ressources lexicales spécialisées monolingues et multilingues
Summary:
Pierre Zweigenbaum présentera des travaux menés dans l'équipe du LIMSI et en collaboration pour mettre au point et appliquer des méthodes d'aide à l'acquisition de ressources lexicales spécialisées. Ces travaux visent à aider à obtenir plusieurs types de connaissances sur des mots et des termes : relations morphologiques, variantes, traductions. Les méthodes employées incluent l'exploitation de thésaurus existants et de corpus monolingues et multilingues.
poster, presentation media
- Monday, February 25th, 2008
Chritophe Lejeune, Liège University
Cassandre, ou la rencontre de l'analyse textuelle et de la sociologie qualitative
Summary:
Docteur en sociologie, l'auteur présente le logiciel Cassandre, issu d'un partenariat entre l'Université de Liège et l'Université de Technologie de Troyes. Destiné à l'analyse qualitative en sciences humaines et sociales, Cassandre repose sur des dictionnaires construits par les utilisateurs. Grâce au protocole Hypertopic, il constitue en outre une plateforme collaborative (un /collaboratoire/) permettant aux chercheurs de confronter leurs analyses. La conférence discute en outre l'apport de fonctionnalités lexicométriques à un outil de ce type.
poster, website
- Monday, February 11th, 2008
Matthieu Constant, Paris-Est University
LGExtract : un outil générique pour reformater les informations des tables du lexique-grammaire.
Summary :
Les tables du lexique-grammaire forment un lexique-syntaxique à large couverture d'une précision linguistique remarquable. Leur forme tabulaire facilite leur lecture et leur maintenance. Cependant, ce format est très rarement compatible avec le format de lexiques utilisés dans des applications de TAL comme les analyseurs syntaxiques. Pour pallier ce problème, nous proposons un outil de reformatage des tables dans différents formats. Contrairement aux approches travaillant table par table avec une configuration différente pour chaque table, notre outil n'a qu'une seule configuration et est conçu pour fonctionner à l'aide de la table des tables (en cours de construction à l'IGM). Nous avons mis au point un petit langage où chaque propriété est associée à une opération et un objet linguistique sous la forme de listes ou/et de structures de traits. Suivant les propriétés sélectionnées pour chaque entrée, les opérations et objets linguistiques associés seront combinés pour former une entrée reformatée. Dans cet exposé, nous présenterons d'abord une description des principes généraux de l'outil. Nous illustrerons ensuite notre propos de différents exemples de lexiques que l'on peut obtenir et d'une démonstration.
poster
- Monday, January 28th, 2008
Olivier Ferret, CEA, Paris.
Segmentation thématique de textes : au-delà de la récurrence lexicale
Summary :
A la suite de la méthode TextTiling proposée par Marti Hearst, de nombreux algorithmes de segmentation thématique de textes fondés sur le contenu, et plus précisément sur la récurrence lexicale, ont été développés. Toutes ces méthodes se fondent plus ou moins explicitement sur l'hypothèse que la proximité thématique de deux segments de texte est liée au nombre de mots qu'ils partagent. Cette hypothèse est opérante lorsque les concepts véhiculés par les textes se manifestent au travers d'un vocabulaire spécifique mais se trouve mise en défaut lorsqu'ils apparaissent sous des formes plus diverses. Dans cette présentation, je proposerai deux pistes de solution pour faire face à ce problème. La première est de nature endogène et exploite la similarité distributionnelle des mots au sein des documents pour en découvrir les thèmes. Ces thèmes sont ensuite utilisés pour faciliter l'identification des similarités thématiques entre segments de texte. La seconde réalise le même but en faisant appel à une ressource externe, en l'occurrence un réseau de cooccurrences lexicales construit à partir d'un large corpus.
poster , presentation media
- Monday, December 10th, 2007
Jean-Michel Renders, XEROX XRCE
Quelques perspectives récentes en recherche documentaire trans-lingue et trans-media
Summary :
Cette presentation sera consacrée à un panorama non-exhaustif de méthodes récentes en recherche d'information multi-lingue d'une part, et multi-media (texte + image) d'autre part. Nous montrerons comment certaines de ces méthodes peuvent émerger d'un cadre commun, en mettant en évidence la similarité des processus mis en oeuvre (processus de "traduction" et d'enrichissement généralisés). En particulier, nous examinerons comment des mécanismes de pseudo-boucles de pertinence permettent de résoudre, primo, des problèmes d'adaptation de dictionnaires de traduction (cas multi-lingue) et, secundo, des problèmes de représentation transmodale (texte vers image ou image vers texte) pour combler le fossé sémantique entre les deux modes. Les concepts présentés seront illustrés dans le cadre de tâches de la Conférence d'Evaluation CLEF 2007.
poster
- Monday, November 19th, 2007
Guy Deville
Mise en oeuvre d'un outil original d'aide en ligne à la lecture de textes en langue étrangère
poster, presentation media
- Monday, October 22th, 2007
Sophie Roekhaut
L'analyse morpho-syntaxique dans un synthétiseur de parole
poster , presentation media
- Wednesday, October 3rd, 2007
Carl Vogel
Intensional Semantics for Sense Extension and Metaphoricity
poster
- Thursday, May 10th, 2007
Laurent Kevers
Traitement des expressions temporelles dans les dépêches de presse
poster
- Friday, May 4th, 2007
Richard Beaufort
Synthèse de la parole par sélection d'unités non uniformes
poster , presentation media
- Thursday, April 26th, 2007
Hubert Naets
Traitement automatique des langues peu dotées
poster
- Friday, April 20th, 2007
Piet Mertens
Un analyseur syntaxique pour grammaires de dépendance et de valence
poster