Skip to content

Commit

Permalink
fix build error from duplicate bibkeys
Browse files Browse the repository at this point in the history
also, fix python warning from string escapes
  • Loading branch information
Dan Gildea committed Aug 5, 2024
1 parent 7673016 commit 8e919f6
Show file tree
Hide file tree
Showing 2 changed files with 6 additions and 6 deletions.
6 changes: 3 additions & 3 deletions bin/anthology/latexcodec.py
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@
# PSF (Python Software Foundation) license found here:
# http://www.python.org/psf/license/

'''Translates unicode to bibtex-friendly encoding.
r"""Translates unicode to bibtex-friendly encoding.
bibtex-friendly features:
Expand Down Expand Up @@ -54,7 +54,7 @@
D. Eppstein, October 2003.
'''
"""

from __future__ import generators
import codecs
Expand Down Expand Up @@ -548,7 +548,7 @@ def candidates(self, offset):
_blacklist.add(None) # shortcut candidate generation at end of data

# Construction of inverse translation table
_l2u = {'\ ': ord(" ")} # unexpanding space makes no sense in non-TeX contexts
_l2u = {'\\ ': ord(" ")} # unexpanding space makes no sense in non-TeX contexts

for _tex in latex_equivalents:
if _tex <= 0x0020 or (_tex <= 0x007F and len(latex_equivalents[_tex]) <= 1):
Expand Down
6 changes: 3 additions & 3 deletions data/xml/2024.jeptalnrecital.xml
Original file line number Diff line number Diff line change
Expand Up @@ -343,7 +343,7 @@
<abstract>L’arrivée de l’apprentissage auto-supervisé dans le domaine du traitement automatique de la parole a permis l’utilisation de grands corpus non étiquetés pour obtenir des modèles pré-appris utilisés comme encodeurs des signaux de parole pour de nombreuses tâches. Toutefois, l’application de ces méthodes de SSL sur des langues telles que le français s’est montrée difficile due à la quantité limitée de corpus de parole du français publiquement accessible. C’est dans cet objectif que nous présentons le corpus Audiocite.net comprenant 6682 heures d’enregistrements de lecture par 130 locuteurs et locutrices. Ce corpus est construit à partir de livres audio provenant du site audiocite.net. En plus de décrire le processus de création et les statistiques obtenues, nous montrons également l’impact de ce corpus sur les modèles du projet LeBenchmark dans leurs versions 14k pour des tâches de traitement automatique de la parole.</abstract>
<url hash="7cc00cc2">2024.jeptalnrecital-jep.28</url>
<language>fra</language>
<bibkey>felice-etal-2024-audiocite</bibkey>
<bibkey>felice-etal-2024-audiocite-net</bibkey>
</paper>
<paper id="29">
<title>Comparaison de mesures pour la détection automatique de déviance dans la dysarthrie ataxique</title>
Expand Down Expand Up @@ -986,7 +986,7 @@
<abstract>La factualité des modèles de langue se dégrade avec le temps puisque les événements postérieurs à leur entraînement leur sont inconnus. Une façon de maintenir ces modèles à jour pourrait être la mise à jour factuelle à l’échelle de faits atomiques. Pour étudier cette tâche, nous présentons WikiFactDiff, un jeu de données qui représente les changements survenus entre deux dates sous la forme d’un ensemble de faits simples, sous format RDF, divisés en trois catégories : les faits à apprendre, les faits à conserver et les faits obsolètes. Ces faits sont verbalisés afin de permettre l’exécution des algorithmes de mise à jour et leur évaluation, qui est présentée dans ce document. Contrairement aux jeux de données existants, WikiFactDiff représente un cadre de mise à jour réaliste qui implique divers scénarios, notamment les remplacements de faits, leur archivage et l’insertion de nouvelles entités.</abstract>
<url hash="5749cda8">2024.jeptalnrecital-taln.18</url>
<language>fra</language>
<bibkey>ammar-khodja-etal-2024-wikifactdiff</bibkey>
<bibkey>ammar-khodja-etal-2024-wikifactdiff-un</bibkey>
</paper>
<paper id="19">
<title>Adaptation des modèles de langue à des domaines de spécialité par un masquage sélectif fondé sur le genre et les caractéristiques thématiques</title>
Expand Down Expand Up @@ -1473,7 +1473,7 @@
<abstract>Les modèles de langue préentraînés (PLM) constituent aujourd’hui de facto l’épine dorsale de la plupart des systèmes de traitement automatique des langues. Dans cet article, nous présentons Jargon, une famille de PLMs pour des domaines spécialisés du français, en nous focalisant sur trois domaines : la parole transcrite, le domaine clinique / biomédical, et le domaine juridique. Nous utilisons une architecture de transformeur basée sur des méthodes computationnellement efficaces(LinFormer) puisque ces domaines impliquent souvent le traitement de longs documents. Nous évaluons et comparons nos modèles à des modèles de l’état de l’art sur un ensemble varié de tâches et de corpus d’évaluation, dont certains sont introduits dans notre article. Nous rassemblons les jeux de données dans un nouveau référentiel d’évaluation en langue française pour ces trois domaines. Nous comparons également diverses configurations d’entraînement : préentraînement prolongé en apprentissage autosupervisé sur les données spécialisées, préentraînement à partir de zéro, ainsi que préentraînement mono et multi-domaines. Nos expérimentations approfondies dans des domaines spécialisés montrent qu’il est possible d’atteindre des performances compétitives en aval, même lors d’un préentraînement avec le mécanisme d’attention approximatif de LinFormer. Pour une reproductibilité totale, nous publions les modèles et les données de préentraînement, ainsi que les corpus utilisés.</abstract>
<url hash="b739b07a">2024.jeptalnrecital-trad.6</url>
<language>fra</language>
<bibkey>segonne-etal-2024-jargon</bibkey>
<bibkey>segonne-etal-2024-jargon-une</bibkey>
</paper>
<paper id="7">
<title><fixed-case>LOCOST</fixed-case>: Modèles Espace-État pour le Résumé Abstractif de Documents Longs</title>
Expand Down

0 comments on commit 8e919f6

Please sign in to comment.