Le système de notation numérique des moines


En 2001, David. A. King, spécialiste des mathématiques dans le monde arabe du Moyen Âge, se permet une petite sortie de son domaine d’expertise principal pour publier The ciphers of the monks – A forgotten number-notation of the Middle Ages. Dans cet ouvrage il fait état de sa recherche concernant un système de notation numérique utilisé notamment par des moines à partir XIIIe siècle et possiblement jusqu’au XVIIIe siècle pour la notation de quantité de vin en barrique. Peu documenté et étudié avant lui, ce système a pour particularité de pouvoir écrire les nombre de 1 à 9999 en un seul signe composite.

Pourquoi ce système ?

D’après les travaux de King, ce système (comprenant de nombreuses variantes) a été utilisé pour la création d’index, la pagination ou la notation des années sur des manuscrits et même sur un astrolabe du XIVe siècle. Cette notation serait inspirée par un système sténographique grec importé en Angleterre par le moine John de Basingstoke. La méthode se serait ensuite propagé en actuelle Belgique et France et plus largement en Europe puisqu’il fait état de son utilisation dans des ouvrages en Espagne et en Italie. Il faut prendre en considération qu’à l’époque la notation en chiffres indo-arabes n’était pas totalement répandue, et que la notation romaine était encore très présente. S’agissant de notations de nombres sans besoin de calcul, ce système pouvait être considéré comme plus performant que la notation romaine du type « MCMXCIII » (1993), qui, je pense pouvoir le dire, n’est pas des plus aisée à interpréter de par son mode de fonctionnement. Le système, à priori très peu utilisé (le corpus est en tout cas très limité) a fini par être abandonné au profit de la notation indo-arabe que nous connaissons et utilisons aujourd’hui couramment.

Fonctionnement

Ce « code » est fondé sur une construction extrêmement simple : un fût sert d’axe principal, il a en soit une valeur numérique nulle, soit zéro. Il sert surtout de « point d’appui ». Quatre zones sont délimitées de part et d’autre de cet axe, chaque zone correspondant au milliers, centaines, dizaines et unités. Un signe (à base de barres la plupart du temps) codant pour une valeur numérique de 1 à 9 peut être adjoint à une des zones, signifiant le nombre soit de milliers, soit de centaines, de dizaines, ou d’unités selon sont positionnement. La valeur nulle étant simplement signifiée par l’absence d’élément dans la zone correspondante. Le signe de base est toujours le même, mais il peut être inversé horizontalement et/ou verticalement selon la zone qu’il occupe. De fait, un nombre tel que 9999 aura une construction symétrique étant donné qu’il y a [9] quantités dans chacune des catégories : [9] milliers, [9] centaines, etc.

Les nombres 4582, 1993, 7777 et 4692 dans la variante anglaise du système

Dans l’ensemble, même si l’on ne connait pas la signification de ces signes, on peut néanmoins inférer un sens caché, la forme étant trop précise pour être due au simple hasard ou à une erreur. D’où certaines interprétations ésotériques, et autres fonctions plus ou moins « secrètes » connues des seuls moines. De fait, King utilise le terme cipher, littéralement le code (dans un sens cryptographique). De là à en faire tout un thriller au temps des moines copistes, il n’y a qu’un pas qu’Umberto Eco ne renierait pas. Formellement, l’aspect global du système – et surtout lorsqu’il utilise des barres obliques – peut faire penser à de l’écriture runique. Ces deux systèmes n’ont toutefois pas une origine commune.

Variantes

On peut distinguer dans ce système deux variantes majeures, caractérisées par l’orientation du fût principal, en gardant toutefois à l’esprit que le système était en réalité plus varié que ce qui va être montré ci-après en ce qui concerne les détails de notation des valeurs numériques.

En Grande Bretagne il est vertical, le sens de lecture se fait de manière différente par rapport à notre mode de lecture habituel (de haut en bas et de gauche à droite), puisque les milliers sont situés en bas à gauche, les centaines en bas à droite, les dizaines en haut à gauche et enfin les unités en haut à droite, on lit donc de gauche à droite, mais de bas en haut. Toutes les valeurs numériques sont notées avec des segments simples ou composés, avec des composants parfois horizontaux, parfois verticaux et parfois obliques.

La variante anglaise, David A. King

En actuelle France et Belgique, une forme horizontale semble privilégiée, tout en gardant les mêmes méthodes de construction. On note toutefois l’introduction de point ou de cercles en lieu et place des barres pour la valeur [5] voire [6]. Cette forme aurait en particulier été utilisée dans des index de manuscrit, où sa forme compacte était avantageuse, et ce malgré l’utilisation dans le même ouvrage des systèmes romain et indo-arabe.

La variante Franco-belge, David A. King

Critique du travail de King

Comme expliqué précédemment, le corpus à étudier montrant l’utilisation de cette notation est très limité : 25 manuscrits datés entre le XIIIe et le XVIe, plus des textes et mentions poussant jusqu’au tout début du XIXe siècle. C’est probablement la finesse de ce corpus qui a justement poussé David A. King à faire ce travail de recherche, faisant de lui un pionnier de la recherche dans ce domaine. Force est de constater que je n’ai pu trouver d’autres recherches scientifiques sur le sujet qui auraient pu compléter, s’opposer ou confirmer de manière claire les propos de King. N’ayant pas pu me procurer l’ouvrage, je ne peux pas prétendre à une analyse exhaustive. Je n’ai de toute façon pas le bagage scientifique adéquat pour en juger. Je me base donc ici sur des travaux d’autres personnes. Plusieurs sources (publiées dans des revues notamment) font néanmoins un retour sur l’ensemble de son ouvrage et semblent au moins confirmer la qualité de sa méthodologie et par extension de la solidité de ses résultats au vu du corpus étudié. Quelques erreurs de chronologie ou de renvois ont toutefois été repérées. Si des critiques peuvent se faire jour dans le futur, le travail de David A. King est au moins admis comme une base de recherche solide pour des études ultérieures.

En somme ce système fut une sorte de parenthèse très spécifique dans l’histoire de la notation des nombres, presque une anecdote, mais c’est justement ce qui en fait son charme.


Si vous voulez générer les signes à partir de chiffres indo-arabes, j'ai développé un petit outil disponbile en ligne à cette adresse.


  1. The Ciphers of the Monks – A forgotten Number-Notation of the Middle Ages, David A. King, Franz Steiner Verlag, 2001 (source)
  2. Système cistercien de notation numérique, Wikipedia (source)
  3. « David A. King , The Ciphers of the Monks. A forgotten Number-Notation of the Middle Ages », Alain Boureau, Histoire & mesure XVIII 1/2, pp.199-201, 2003 (source)
  4. « David A. King, The Ciphers of the Monks: A forgotten Number-Notation of the Middle Ages » [compte-rendu], Revue d’histoire des sciences, 58-1, pp. 253-255, 2004 (source)
  5. « Wine-Gauging at Damme [The evidence of a late medieval manuscript] », Ad Meskens - Germain Bonte - Jacques de Groot - Mike de Jonghe & David A. King, Histoire & Mesure, 14-1-2, pp. 51-77, 1999 (source)
  6. « Se mettre à l’heure des moines », Loïc Mangin, pourlascience.fr, 10 octobre 2018 (source)
  7. « The forgotten Number System », Numberphile (chaine YouTube), 5 nov. 2020 (source YouTube)

Le point d’interfinité


Vous a-t-on déjà posée une question qui a à la fois un nombre infini de réponses et une aucune réponse ? Vous a-t-on déjà posé une question où au final, la question est bien plus intéressante que la ou les éventuelles réponses ? Si oui, le point d’interfinité est fait pour vous.

Interfinité, késako ?

Le point d’interfinité (interfinity sign en version originale) est une proposition de nouveau point de ponctuation proposé par Radim Peško, typographe, et Zak Kyes, designer, et initialement utilisé en 2010 dans Everything You Always Wanted to Know About Curating (Sternberg Press). Dans ce recueil d’interviews, un commissaire d’exposition avait tendance à poser beaucoup de questions. À priori trop. À priori des questions plus intéressantes que les réponses, des questions avec une infinité de réponse. À tel point que le besoin d’un signe typographique spécifique ce fit vraissemblablement ressentir.

Après tout, un point d’interrogation « classique » suffit-il pour des questions comme :
Est-ce Dieu existe ?
Quel est le sens de la vie ?
Êtes-vous heureux ?
But Why?

Le point d’interfinité est donc là pour signifier des interrogations qui vont déclencher bien plus qu’une réponse facile et rapide, une question qui se suffit à elle-même, une question sans réponse, une question qui en réponse amènera d’autres interrogations dans un cycle infini. Tout et son contraire en somme. Interrogation + infinité = interfinité. CQFD.

Anatomie

Du point de vue typographique, le point d’interfinité est beau de simplicité : un point d’interrogation dans lequel la partie supérieure a été remplacée par le signe « ∞ » utilisé en mathématiques pour signifier l’infini mais renversé verticalement. La forme est suffisamment proche du point d’interrogation pour permettre à la plupart des personnes de comprendre ce qu’évoque le signe, j’en ai en tout cas l’impression. De ce fait, parmi tous les tentatives d’ajout de nouveaux signes de ponctuation (ironie, aparté, etc.) qui ont été proposé jusqu’à présent, celui-ci me semble avoir la meilleure affordance, mais nous reparlerons de quelques une de ces propositions dans le futur je l’espère.

Le point dinterfinité, Radim Peško & Zak Kyes

Où le trouver ?

Depuis son introduction en 2010, ce signe typographique est inclus dans toutes les productions typographiques de Radim Peško. Il n’est néanmoins pas un signe officiellement reconnu dans Unicode, contrairement au point exclarogatif « ‽ » plus connu sous le nom d’interrobang. Sa diffusion est donc assez limitée en l’état, et je doute qu’elle aille beaucoup plus loin que le cercle des amateurs de créations typographiques.

Du reste, ce point d’interfinité a le mérite d’exister. Il a une construction à la fois simple et claire, il a été créé en réponse à un besoin spécifique pour lequel les outils déjà existant étaient jugés insuffisants. C’est ainsi qu’évolue la langue. À voir ce que l’avenir fera de cela.


  1. Everything You Always Wanted to Know About Curating, Hans Ulrich Obrist, Sternberg Press, 2010.
  2. “Interfinity mark”, Radim Peško, 14/03/2011 (source).
  3. “Interfinity mark specimen”, Radim Peško, 17/01/2018 (source).

Monotypie


Je discutais il y a peu avec l’un de mes collègues professeur à l’Ésad Orléans de mon attrait pour les systèmes d’écritures étranges, les tentatives de langues universelles. Celui-ci, – fortement impliqué dans l’organisation des Rencontres de Lure – m’a alors parlé d’un système qui avait été présenté aux dernières Rencontres par Sophie Pierret : la Monotypie.

De quoi s’agit-il ?

La source originale est une brochure de moins de 30 pages, parue en 1797, signée « par un citoyen français », qui pourrait se prénommer Thirion si l’on en croit une note ajoutée sur l’ouvrage. Passé la page titre, la brochure commence tout d’abord par un texte introductif général sur la langue et les systèmes d’écriture avant de proposer, évidemment, un nouveau système de représentation des sons de la langue, à « l’usage des Peuples de tous les Pays ».

Ce nouveau système a une particularité : il n’utilise qu’un seul caractère de base, composé de divers cercles disposés d’une part sur les rebords d’une forme circulaire (9 éléments) et d’autre part sur une barre verticale (3 éléments), soit 12 éléments au total. L’ensemble de ces cercles sont de base seulement des contours, mais en remplissant un ou plusieurs de ces cercles, ont obtient assez de combinaisons pour permettre d’associer à chacune d’elle un phonème, mais également les signes de ponctuations. On peut d’une certaine manière faire un parallèle avec la notation du braille, qui utilise également cette méthode de remplissage de points sur une grille. Cet ouvrage présente en tout 40 combinaisons, mais cela ne représente qu’une petite partie des possibilités offertes par ce système, si l’on s’en tient purement aux mathématiques. Notons que des variante sont dédiées à la représentation de l’ironie et de l’aparté (dans le sens téâtrale semble-t-il), et qu’il y a aussi une variante permettant de séparer les syllabes à l’intérieur d’un mot.

Les phonèmes sont représentés par la forme circulaire, dans la partie gauche du signe, en noircissant de 1 à 2 de ses cercles. La ponctuations est représentée sur la barre verticale, en noircissant de 1 à 3 cercles, mais également sur la forme circulaire, avec le noircissement de 3 cercles alignés.

Dans l'ordre : [a], [fe], la virgule, l'ironie

Une utopie illisible

Comme l’ensemble des propositions pour des systèmes d’écriture universelle, c’est sans surprise que la Monotypie n’a pas dépassée le stade de proposition.

Comme pour l’[Ehmay Ghee Chah], si la structure de base des glyphes est géométrique, symétrique et donc en quelque sorte conceptuellement logique, il est facile de voir que ce système est proprement inutilisable. Et ce problème tient à la construction du glyphe de base : il est très complexe de différencier facilemet et rapidement les phonèmes, les mots et la ponctuation entre eux (voir l’exemple si après). Le tout forme une sorte de grille de point compacte. La proposition montre le signe dans un corps relativement grand, mais il parait peut probable que l’on puisse en faire une version de petit corps. On serait donc contrain d’imprimer des ouvrages de grande taille avec des corps imposant. En terme d’économie pour l’impression, c’est le niveau zéro. Quid également de l’écriture manuscrite ? En l’état, je ne vois pas comment cela serait possible sans prendre des heures et des heures, tel un copiste, à former chacun des caractères.

« À tous les coeurs bien nés, que la patrie est chère ! Vive la République Française ! »

La Monotypie rejoint donc ses camarades : les systèmes d’écritures universels pensés pour mettre à égalité tous les hommes, construits par la logique pure et les mathématiques, mais qui ne sont proprement pas utilisables.

Comme quoi, penser trop comme un ingénieur et être guidé seulement par la raison pure ne donne pas que du bon, tout du moins pour ce qui est de la typographie.


  1. La Monotypie ou l’art d’écrire et d’imprimer avec un seul caractère, Thirion, 1797 (source Google books).
  2. “La Monotypie, une rêverie typographique révolutionnaire”, Sophie Pierret, Rencontres de Lure, 2022 (source).

Emoji-nation


Je parlais il y a quelque temps du film Emoji Movie, film d’animation mettant en scène la vie des emojis dans nos téléphones. Et bien il semblerait que l’intérêt pour ces petits éléments graphiques suscitent toujours un certain intérêt puisqu’ils font l’objet d’un documentaire diffusé par Arte et disponible gratuitement sur YouTube, tout du moins à l’écriture de ces lignes.

À propos du documentaire

La naissance de ce documentaire est simplement issue du questionnement de son autrice, Stéphanie Cabre, qui les utilise tous les jours, sans pourtant connaitre leur histoire. Emoji-nation se structure ainsi sur ce questionnement en revenant logiquement en premier lieu par la création des emojis que nous connaissons, par Shigetaka Kurita. Puis il revient sur les raisons de leur succès, leurs designs, leurs caractéristiques linguistiques et sémantiques, la manière dont ils sont créés, et enfin un regard plus politique et plus large sur ces éléments visuels. Une part importante du documentaire est portée sur Unicode, qui est à la fois le réceptacle informatique des emojis, et également la norme qui les régit. Tous ces questionnements sont basés sur des interviews d’acteurs ayant un rapport particulier avec les emojis : créateurs, sémiologues, sociologues, membres d’Unicode, etc.

Ça vaut le coup ?

Et bien il me semble qu’Emoji-nation vaille le coup d’être vu, pour peu que l’on s’intéresse aux emojis au delà de leur simple aspect et de leur seule utilisation. Évidemment il s’agit d’un documentaire, on s’attend donc à ce qu’il nous informe sur les emojis, mais le sujet est abordé de manière large et on embrasse à la fois l’histoire et les enjeux contemporains de ces derniers. Le tout est vulgarisé efficacement, et laisse entrevoir des voies d’élargissement pour celles et ceux qui voudraient creuser le sujet. Les personnes interrogées sont diverses, n’ont pas forcément des opinions convergentes, tout en ayant des bonne raison de pouvoir parler le sujet. Je n’ai pas les compétences nécessaires pour donner un avis d’autorité, mais Emoji-nation semble faire preuve d’une rigueur journalistique digne de confiance, et donne suffisamment de cartes pour que le spectateur puisse entrevoir le spectre des enjeux liés à ces formes graphiques que l’on pourrait qualifier de banales et quotidiennes.

Pour ne pas être que dans le positif, j’ai néanmoins quelques retours critiques. Emoji-nation évoque, et c’est assez logique, beaucoup Unicode, en particulier son fonctionnement et comment sont créés de nouveaux éléments. Aussi il aurait peut-être été intéressant d’ouvrir sur les systèmes d'écritures et certains projets défendant l’inclusion de systèmes minoritaires, comme certains emojis liés à des minorités tentent d’être ajoutés. Dans ce cadre un petit détour par le Script Encoding Initiative, et des projets comme Decode Unicode, porté par Johannes Bergehausen, auraient pu aider à mieux saisir les enjeux sociaux et politiques liés à cette norme internationale, et qui vont bien au delà des seuls emojis. Le sujet de la politique est abordé, mais de manière assez discrète, et il n’est finalement pas fait mention directe d’évènements précis : le procès de menace de mort avec l’utilisation d’emojis pistolet qui a mené à une condamnation, et qui a été un des argument pour transformer le dit emoji en pistolet à eau. La transformation de l’emoji est expliquée, mais l’exemple du procès non, ce qui me semble dommage, car la porte était ouverte. Dans un autre temps la censure de certains emojis pourrait être montrée de manière plus directe, je pense ici à la censure de l’emoji représentant le drapeau Taïwanais, mais il ne s’agit que d’un exemple parmi d’autre. À ce titre Emojipedia, est une bonne ressource.

En une cinquantaine de minute Emoji-nation brosse un portrait riche et large de son sujet. Les enjeux sont posés clairement et de manière claire. La partie sur Unicode est abordée de manière simple, là où elle aurait pu être très technique, ce qui est très bien pour des personnes découvrant le sujet. Évidemment tout ne peut pas être dit, mais suffisamment de ressources sont évoquées pour que quiconque puisse aller plus loin. À voir donc, avant que ce documentaire ne soit retiré de la plateforme.


  1. Emoji-nation (52min), Stéphanie Cabre, Arte, 2021 (source YouTube).
  2. The Emoji Code, Vyvyan Evans, Michael O’Mara Books, 2017.
  3. SEI (Script Encoding Initiative), Département de linguistique de l’université de Californie à Berkeley, États-Unis, depuis 2002 (source).
  4. Decode Unicode, Hoschschule Mainz, Mainz, Allemagne, depuis 2005 (source).
  5. « China’s Annual Emoji Censorship », Keith Broni, Emojipedia.org, 15 juin 2021 (source).

Panneau jaune


Habitué aux panneaux de signalisation avec fond rouge, le jaune-orange est plutôt associé, chez nous en tous cas, aux éléments de signalisation temporaires, en premier lieu lors de travaux de voirie. Aujourd’hui donc place à une petite anecdote sur la signalisation routière.

Red is the new Yellow

Si je vous dit panneau de signalisation octogonal, tout le monde comprend duquel il s’agit, puisque sa forme octogonale le rend unique dans le paysage de la signalétique routière. Ce panneau Stop, son fond rouge, son écriture blanche, tout le monde le connait. Il fait presque partie des meubles, comme s’il avait toujours été là.

Pourtant, aux origines de ce panneau, son fond n’était pas blanc sur fond rouge, mais noir sur fond jaune, d’après l’accord de standardisation américain de 1924. Ce n’est que plus tard que le fond fut changé pour le rouge que nous connaissons actuellement. Sa forme octogonale a elle été gardée, car elle permettait de différencier très clairement ce panneau, par sa forme unique, des autres du système de signalisation routière. Pourquoi donc ce changement de couleur ? Et bien la réponse est tout à faire pragmatique : à l’époque cette peinture jaune était celle qui était la plus résistante dans le temps, assurant une tenue de longue durée, plutôt pratique pour un élément de signalisation routière. Ce n’est donc que plus tard que la peinture rouge, une fois rendue assez résistante, fut adoptée et ce n’est qu’encore plus tard que l’effet de réflection lumineuse fut introduit.

Le panneau stop sur fond jaune
Le panneau stop sur fond jaune – wikimedia

C’est en 1954 que les États-Unis adoptent définitivement le changement de jaune au rouge pour le fond du panneau, et en 1968 qu’il fut adopté par la Convention de Vienne sur la signalisation routière, rendant le système routier cohérent à l’échelle mondiale.


  1. « Stop sign », Wikipedia (source)
  2. « The cost of Colour », § ’Stop for Yellow’, The Politics of Design, Ruben Pater, p.73, Bis publishers, 2017
  3. « Stop Signs Used to Be Yellow More Recently Than You Think », Reader’s Digest, Meghan Jones, 31 décembre 2017 (source)