%% This is a LaTeX document. Hey, Emacs, -*- latex -*- , get it? \documentclass[mathserif,a4paper,aspectratio=169]{beamer} %\documentclass[a4paper]{article} %\usepackage[envcountsect,noxcolor]{beamerarticle} \usepackage[shorthands=off,french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{lmodern} \DeclareUnicodeCharacter{00A0}{~} \DeclareUnicodeCharacter{2026}{...} % Beamer theme: \usetheme{Goettingen} %\usecolortheme{albatross} %\usecolortheme{lily} %\setbeamercovered{transparent} % A tribute to the worthy AMS: \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage{amsthm} % \usepackage{mathrsfs} \usepackage{mathpartir} \usepackage{flagderiv} % \usepackage{graphicx} \usepackage{tikz} \usetikzlibrary{arrows,automata,calc} % \newcommand{\itempoint}{\strut\hbox{\color{beamerstructure}\donotcoloroutermaths$\blacktriangleright$}\nobreak\hskip.5em plus.5em\relax} \renewcommand{\thefootnote}{\textdagger} \newcommand{\dbllangle}{\mathopen{\langle\!\langle}} \newcommand{\dblrangle}{\mathclose{\rangle\!\rangle}} \mathchardef\emdash="07C\relax \setlength{\derivskip}{4pt} % % % \title{Typage simple} \subtitle{INF110 (Logique et Fondements de l'Informatique)} \author[David Madore]{David A. Madore\\ {\footnotesize Télécom Paris}\\ \texttt{david.madore@enst.fr}} \date{2023–2024} \mode{% \beamertemplatenavigationsymbolsempty \usenavigationsymbolstemplate{\vbox{\hbox{\footnotesize\hyperlinkslideprev{$\leftarrow$}\insertframenumber/\inserttotalframenumber\hyperlinkslidenext{$\rightarrow$}}}} } \setbeamercolor{myhighlight}{fg=black,bg=white!90!green} \colorlet{mydarkgreen}{green!50!black} \begin{document} \mode
{\maketitle} % \setlength\abovedisplayskip{2pt plus 2pt minus 2pt} \setlength\belowdisplayskip{2pt plus 2pt minus 2pt} % \begin{frame} \titlepage {\footnotesize\center{\url{http://perso.enst.fr/madore/inf110/transp-inf110.pdf}}\par} {\tiny \immediate\write18{sh ./vc > vcline.tex} \begin{center} Git: \input{vcline.tex} \end{center} \immediate\write18{echo ' (stale)' >> vcline.tex} \par} \end{frame} % \section*{Plan} \begin{frame} \frametitle{Plan} \tableofcontents \end{frame} % \section{Généralités sur le typage} \begin{frame} \frametitle{Qu'est-ce que le typage ?} {\footnotesize Philosophie opposée du « codage de Gödel » en calculabilité, lequel représente toute donnée finie par un entier.\par} \medskip \itempoint Informellement, un \textbf{système de typage} est une façon d'affecter à toute \alert{expression} et/ou \alert{valeur} manipulée par un langage informatique un \textbf{type} qui contraint son usage {\footnotesize (p.ex., « entier », « fonction », « chaîne de caractères »)}. \medskip \textbf{Buts :} \begin{itemize} \item attraper plus tôt des \textbf{erreurs de programmation} {\footnotesize (« ajouter un entier et une chaîne de caractères » est probablement une erreur, ou demande une conversion explicite)}, \item éviter des \textbf{plantages ou problèmes de sécurité} {\footnotesize (exécution d'un entier)}, \item garantir certaines \textbf{propriétés du comportement} des programmes ($\rightarrow$ analyse statique), forcément de façon limitée (cf. théorème de Rice), p.ex., la \alert{terminaison}, \item aider à l'\textbf{optimisation} {\footnotesize (fonction pure : sans effet de bord)}. \end{itemize} \medskip {\footnotesize Cf. systèmes d'unités (homogénéité) en physique.\par} \end{frame} % \begin{frame} \frametitle{Variétés de typage} Il y a autant de systèmes de typage que de langages de programmation ! \medskip \itempoint Typage \textbf{statique} (à compilation) vs \textbf{dynamique} (à exécution) ou mixte. {\footnotesize Mixte = « graduel ». On préfère : erreur de compilation $>$ erreur à l'exécution $>$ plantage.\par} \medskip \itempoint Typage \textbf{inféré} par le langage ou \textbf{annoté} par le programmeur. {\footnotesize Type = promesse donnée par le langage au programmeur ou par le programmeur au langage ?\par} \medskip \itempoint Typage « sûr » ou partiel/contournable (\textit{cast} de la valeur, manipulation de la représentation mémoire, suppression ou report à l'exécution de vérification). \medskip \itempoint Typage superficiel {\footnotesize (« ceci est une liste »)} ou complexe {\footnotesize (« ceci est une liste d'entiers »)}. \medskip \itempoint Diverses annotations possibles {\footnotesize (« cette fonction est pure », « soulève une exception »)}. \medskip \itempoint Liens avec les mécanismes de sécurité (qui peut faire quoi ?), de gestion de la mémoire (système de typage linéaire), l'évaluation (exceptions), la mutabilité. \medskip \itempoint Les types sont-ils citoyens de première classe {\footnotesize (:= manipulables dans le langage)} ? {\footnotesize Juvénal : « Quis custodiet ipsos custodes? » Quel est le type des types eux-mêmes ?\par} \end{frame} % \begin{frame} \frametitle{Opérations de base sur les types} En plus de types de base (p.ex. $\texttt{Nat}$ = entiers, $\texttt{Bool}$ = booléens), les opérations suivantes sur les types sont \emph{souvent} proposées par les systèmes de typage : \bigskip \itempoint Types \textbf{produits} (= couples, triplets, $k$-uplets). P.ex. $\texttt{Nat} \times \texttt{Bool}$ = type des paires formées d'un entier et d'un booléen. \smallskip Composantes éventuellement nommées $\rightarrow$ structures (= enregistrements). \smallskip Produit vide = type trivial, $\texttt{Unit}$ (une seule valeur). \bigskip \itempoint Types \textbf{sommes} (= unions). P.ex. $\texttt{Nat} + \texttt{Bool}$ = type pouvant contenir un entier \emph{ou} un booléen, avec un \alert{sélecteur} de cas. \smallskip Cas particulier : $\texttt{Unit} + \cdots + \texttt{Unit}$ = type « énumération » (pur sélecteur). \smallskip Somme vide = type inhabité (impossible : aucune valeur). \bigskip \itempoint Types \textbf{fonctions} (= exponentielles). P.ex. $\texttt{Nat} \rightarrow \texttt{Bool}$ (f\textsuperscript{n} de $\texttt{Nat}$ vers $\texttt{Bool}$). \bigskip \itempoint Types \textbf{listes}. P.ex. $\texttt{List}~\texttt{Nat}$ = type des listes d'entiers. \end{frame} % \begin{frame} \frametitle{Quelques fonctionnalités fréquentes} \itempoint \textbf{Sous-typage} = les valeurs d'un type sont automatiquement des valeurs possibles d'un autre. \bigskip \itempoint \textbf{Polymorphisme} = utilisation de plusieurs types possibles, voire de n'importe quel type (cf. transp. suivant). P.ex. la fonction « identité » $(\forall\mathtt{t})\; \mathtt{t} \rightarrow \mathtt{t}$. \bigskip \itempoint \textbf{Familles de types} = fabriquent un type à partir d'un (ou plusieurs) autres. P.ex. $\texttt{List}$ (fabrique le type « liste de $\mathtt{t}$ » à partir de $\mathtt{t}$). \bigskip \itempoint \textbf{Types récursifs} = construits par les opérateurs (produits, sommes, fonctions, familles…) à partir des types définis eux-mêmes. P.ex. $\texttt{Tree} = \texttt{List}~\texttt{Tree}$. \bigskip \itempoint \textbf{Types dépendants} = un type à partir d'une valeur. P.ex. $k \mapsto \texttt{Nat}^k$. \bigskip \itempoint \textbf{Types opaques} (abstraits, privés…) = types dont les valeurs sont cachées, l'usage est limité à une interface publique. \end{frame} % \begin{frame} \frametitle{Polymorphisme} On distingue deux (trois ?) sortes de polymorphismes : \medskip \itempoint Polymorphisme \textbf{paramétrique} (ou « génériques ») : la même fonction \alert{s'applique à l'identique} à une donnée de n'importe quel type. \smallskip Exemples : \begin{itemize} \item $\texttt{head} : (\forall\mathtt{t})\; \texttt{List}~\mathtt{t} \to \mathtt{t}$ (renvoie le premier élément d'une liste) \item $\lambda xy.\langle x,y\rangle : (\forall\mathtt{u},\mathtt{v})\; \mathtt{u} \to \mathtt{v} \to \mathtt{u}\times \mathtt{v}$ (fabrique un couple) \item $\lambda xyz.xz(yz) : (\forall\mathtt{u},\mathtt{v},\mathtt{w})\; (\mathtt{u} \to \mathtt{v} \to \mathtt{w}) \to (\mathtt{u} \to \mathtt{v}) \to \mathtt{u} \to \mathtt{w}$ \end{itemize} \smallskip Pas seulement pour les fonctions ! $\texttt{[]} : (\forall\mathtt{t})\; \texttt{List}~\mathtt{t}$ (liste vide) \smallskip {\footnotesize Et même : $\texttt{while~true~do~pass~done} : (\forall\mathtt{t})\; \mathtt{t}$ (boule infinie)\par} \bigskip \itempoint Polymorphisme \textbf{ad hoc} (ou « surcharge » / « \textit{overloading} ») : la fonction \alert{agit différemment} en fonction du type de son argument (connu à la compilation !). \bigskip {\footnotesize Le sous-typage est parfois considéré comme une forme de polymorphisme, voire la coercion (\textit{cast}). Les limites de ces notions sont floues.\par} \end{frame} % \begin{frame} \frametitle{Tâches d'un système de typage} \itempoint \textbf{Vérification} de type : vérifier qu'une expression \emph{annotée} a bien le type prétendu par les annotations. \bigskip \itempoint \textbf{Inférence} (« reconstruction » / « assignation ») de type : calculer le type de l'expression \alert{en l'absence d'annotations} (ou avec annotations partielles). \medskip Algorithme important : \textbf{Hindley-Milner} (inférence de type dans les langages fonctionnels à polymorphisme paramétrique). Utilisé dans OCaml, Haskell, etc. \medskip \textbf{N.B.} Dans un système de typage trop complexe, l'inférence (voire la vérification !) \textcolor{orange}{peut devenir indécidable} (notamment si types de première classe / dépendant de valeurs arbitraires à l'exécution). \bigskip {\footnotesize Rarement utile en informatique mais essentiel en logique ($\cong$ recherche de preuves) :\par} \itempoint \textbf{Habitation} de type : trouver un \alert{terme} (=expression) ayant un type donné. {\footnotesize P.ex. : y a-t-il un terme de type $(\forall\mathtt{p},\mathtt{q})\; ((\mathtt{p} \to \mathtt{q}) \to \mathtt{p}) \to \mathtt{p}$ ?\par} {\footnotesize \textbf{N.B.} Dans les langages usuels, \alert{tous} les types sont habités par une boucle infinie (« \texttt{while true do pass done} » ou « \texttt{let rec f () = f () in f ()} »), \alert{même} le type vide.\par} \end{frame} % \begin{frame} \frametitle{Utilisations du typage au-delà des valeurs stockées} \itempoint Annotation des \textbf{exceptions soulevables} (fréquent, p.ex. Java). \bigskip \itempoint Annotation de la \textbf{mutabilité} par le type. P.ex. $\texttt{Nat}$ = type d'un entier (immuable) mais $\texttt{Ref~Nat}$ = type d'une \alert{référence} vers un entier (mutable). \bigskip \itempoint Annotation des \textbf{effets de bord} par le type. P.ex., en Haskell, $\texttt{Char}$ = caractère = fonction de zéro argument renvoyant un caractère (fonction pure : toujours le même retour), mais $\texttt{IO~Char}$ = \alert{action} avec effets de bord renvoyant un caractère ($\texttt{IO}$ est une famille de type appelé « monade » I/O). \bigskip \itempoint Typage \textbf{linéaire} (forme de typage « sous-structurel ») ou types à unicité : assure qu'une valeur est utilisée \alert{une et une seule fois} dans un calcul (ni duplication ni perte sauf manœuvre spéciale). \smallskip Permet d'optimiser la gestion de la mémoire (Rust) et/ou d'annoter les effets de bord (Clean). \end{frame} % \begin{frame} \frametitle{Quelques exemples (1)} Les langages impératifs \emph{tendent} à avoir des systèmes de typage moins complexes que les langages fonctionnels. \medskip {\footnotesize Éviter les termes de typage « faible » et « fort », qui veulent tout (ou rien) dire.\par} \medskip \itempoint Assembleur (langage machine) : aucun typage (tout est donnée binaire). {\footnotesize Idem : machine de Turing, fonctions générales récursives (tout est entier), $\lambda$-calcul non typé (tout est fonction).\par} \medskip \itempoint C : annoté, vérifié à la compilation (\emph{aucune} vérification à l'exécution), moyennement complexe et contournable (pointeurs génériques \texttt{void*}). \medskip \itempoint Python, JavaScript, Perl, Scheme, etc. : typage vérifié à l'exécution, superficiel. Suffisant pour éviter les comportements indéfinis. \medskip \itempoint Java : annoté, mixte compilation/exécution (double vérification), initialement superficiel (listes non typées), puis introduction de « génériques » ($\rightarrow$ polymorphisme paramétrique) avec Java 5, puis diverses sortes d'inférence. \medskip \itempoint Rust : interaction avec la gestion de la mémoire ($\approx$ typage linéaire/affine). \end{frame} % \begin{frame} \frametitle{Quelques exemples (2)} {\footnotesize Qqs exemples de langages, généralement fonctionnels, ayant un système de typage (très) complexe, mélangeant plusieurs fonctionnalités évoquées (interactions parfois délicates !) :\par} \medskip \itempoint OCaml : inférence de type à la H-M, types récursifs, polymor\textsuperscript{sme} paramétrique. \smallskip Système de « modules » (« signatures » $\approx$ interfaces abstraites, « foncteurs » entre signatures…), comparable aux « classes » des langages orientés objet. \medskip \itempoint Haskell : beaucoup de similarité avec OCaml : \smallskip + polymorphisme ad hoc : « classes de type », comparable aux « modules » de OCaml, aux « classes » des langages orientés objet. \smallskip + purement fonctionnel (toutes les fonctions sont « pures ») : les effets de bord sont enrobés dans des « monades ». \medskip \itempoint Mercury (langage de type fonctionnel+logique, inspiré de Haskell+Prolog) : typage comparable à Haskell ; + sous-typage, linéarité. \medskip \itempoint Idris : langage fonctionnel + assistant de preuve. \end{frame} % \begin{frame} \frametitle{Quelques curiosités} \itempoint En F\#, les unités de mesure sont intégrées au système de typage, qui peut donc vérifier l'homogénéité physique. \bigskip \itempoint En Rust, le système de typage évite non seulement les fuites de mémoire mais aussi certains problèmes de concurrence (absence de \textit{race condition} sur les données). \bigskip \itempoint Certains langages spécialisés assurent, éventuellement en lien avec leur système de typage, des propriétés diverses de leurs programmes : terminaison garantie en temps polynomial (Bellantoni \& Cook 1992), voire constant (langage Usuba), validation XML (langage CDuce), absence de fuite d'information (langage Flow Caml), etc. \bigskip \itempoint En Idris, le système de typage est aussi un système de preuve (cf. Curry-Howard après) et permet de certifier des invariants quelconques d'un programme (p.ex., correction d'un algorithme de tri). \end{frame} % \begin{frame} \label{typing-and-termination} \frametitle{Typage et terminaison} Un système de typage \alert{peut} garantir que \textbf{tout programme bien typé termine}. \bigskip Ce \alert{n'est pas le cas} pour les langages de programmation usuels (en OCaml, Haskell, etc., un programme bien typé peut faire une boucle infinie). \bigskip Si on veut que le système de typage soit décidable, ceci met forcément des \alert{limites sur l'expressivité} du langage ($\leftarrow$ indécidabilité du problème de l'arrêt). \bigskip Notamment, le langage ne permettra pas d'écrire son propre interpréteur (même argument « diagonal » que pour les fonctions p.r. par thm. de réc\textsuperscript{sion} de Kleene). \bigskip Notamment aussi : pas de boucle illimitée, pas d'appels récursifs \emph{non contraints}, pas de type tel que $\mathtt{t} \,\cong\, (\mathtt{t}\rightarrow \mathtt{t})$. Aucun terme de type vide ! \bigskip Néanmoins, le langage peut être \alert{beaucoup plus puissant} que les fonctions p.r. \bigskip Exemple de tel langage : Coq. \end{frame} % \begin{frame} \frametitle{La correspondance de Curry-Howard (avant-goût)} Idée générale : établir une analogie, voire une correspondance précise entre \begin{itemize} \item \textbf{types} et \textbf{termes} (=programmes) de ces types dans un système de typage, \item \textbf{propositions} et \textbf{preuves} de ces propositions dans un système logique. \end{itemize} \smallskip P.ex., la preuve évidente de l'affirmation $(A \land B) \Rightarrow A$ (« si $A$ et $B$ sont vraies alors $A$ est vraie ») correspond à la « première projection » de type $a \times b \rightarrow a$. \smallskip {\footnotesize Ceci « explique » que le type d'un terme tel que $\lambda xy.x$, soit $u \to v \to u$, soit une vérité logique, en l'occurrence $U \Rightarrow V \Rightarrow U$ (« si $U$ est vrai alors, si $V$ est vrai alors $U$ est vrai »).\par} \bigskip Beaucoup de variations sur cette correspondance, mais il y a des restrictions : \begin{itemize} \item le langage informatique doit garantir la terminaison (pas d'appels récursifs !), sinon cela reviendrait à permettre les preuves circulaires, \item la logique concernée est plutôt « intuitionniste » (sans tiers exclu), \item diverses subtilités notamment dans la correspondance entre types sommes paramétriques (types $\Sigma$) et $\exists$ côté logique. \end{itemize} \end{frame} % \begin{frame} \frametitle{La correspondance de Curry-Howard (illustration graphique)} \begin{center} \begin{tabular}{c@{\hskip 30bp}c} \includegraphics[height=150bp]{images/sean-connery-in-name-of-the-rose.jpg} &\includegraphics[height=150bp]{images/sean-connery-in-zardoz.jpg} \\ Preuves mathématiques&Programmes informatiques \\ {\footnotesize (contemplatives ?)}&{\footnotesize (dynamiques ?)} \end{tabular} \bigskip On a du mal à le croire, mais c'est la même chose ! {\footnotesize (N.B. : ne pas prendre ce résumé simpliste trop au sérieux.)\par} \end{center} \end{frame} % \begin{frame} \frametitle{La correspondance de Curry-Howard (premier aperçu)} {\footnotesize\textcolor{gray}{Divulgâchis pour la suite !}\par} \smallskip La correspondance de Curry-Howard fait notamment correspondre : \begin{itemize} \item type \textbf{fonction} $A \to B$ avec \textbf{implication} logique $A \Rightarrow B$, \item \textbf{application} d'une fonction ($A \to B$ à un argument de type $A$) avec \textbf{\textit{modus ponens}} (si $A \Rightarrow B$ et $A$, alors $B$), \item \textbf{abstraction} (= création d'une fonction) avec ouverture d'une \textbf{hypothèse} (« supposons $A$ : alors (…) donc $B$ ; ceci prouve $A \Rightarrow B$ »), \item type \textbf{produit} (= couples) $A \times B$ avec \textbf{conjonction} (« et ») logique $A \land B$, \item type \textbf{somme} $A + B$ avec \textbf{disjonction} (« ou ») logique $A \lor B$, \item types \textbf{trivial} ($\texttt{Unit}$) et \textbf{vide} avec \textbf{vrai} $\top$ et \textbf{faux} $\bot$ logiques, \item mais pour la \textbf{négation}… c'est plus délicat. \end{itemize} \bigskip {\footnotesize Les détails demandent un système de typage et un système logique précisément définis.\par} \end{frame} % \begin{frame} \frametitle{Paradoxe de Curry (interlude distrayant)} {\footnotesize Variante plus sophistiquée de « cette phrase est fausse ». C'est un exemple de preuve circulaire ($\leftrightarrow$ combinateur $\mathsf{Y}$ de Curry par la correspondance de C-H), invalide en logique.\par} \medskip Je tiens l'affirmation : « \textcolor{teal}{si j'ai raison, alors je suis un grand génie} ». \begin{itemize} \item clairement, si j'ai raison, je suis un grand génie ; \item mais c'était justement mon affirmation : donc j'ai raison ; \item donc je suis un grand génie. \qedsymbol \end{itemize} {\footnotesize Remplacer « j'ai raison » par « cette phrase est vraie » (voire utiliser l'astuce de Quine pour éviter « cette phrase ») et « je suis un grand génie » par absolument n'importe quoi.\par} \bigskip \itempoint Ce qui est correct : \alert{si on peut construire} un énoncé $A$ tel que $A \Leftrightarrow (A \Rightarrow B)$ (ici $A$ est l'affirmation tenue et $B$ est la conclusion voulue) alors $B$ vaut : \[ (A \Leftrightarrow (A \Rightarrow B)) \, \Rightarrow \, B \] {\footnotesize (Preuve correcte : supposons $A$ : par hypothèse, ceci signifie $A \Rightarrow B$ ; on a donc $B$ ; tout ceci prouve $A \Rightarrow B$. Bref on a $A \Rightarrow B$. Mais par hypothèse c'est $A$. Donc $A$ vaut. Donc $B$ aussi.)\par} \medskip \itempoint Ce qui est \textcolor{orange}{fallacieux} : la supposition tacite qu'on peut construire un tel $A$. {\footnotesize L'astuce de Quine permet de faire une auto-référence sur la syntaxe, pas sur la vérité.\par} \end{frame} % \begin{frame} \frametitle{Théories des types pour la logique (très bref aperçu)} \itempoint Langages spécialisés pour servir à la fois à l'écriture de programmes informatiques et de preuves mathématiques ; ils peuvent être soit sous forme de systèmes abstraits, soit sous forme d'implémentation informatique (« assistants de preuve » : Coq, Agda, Lean…). \bigskip \itempoint Dans tous les cas il s'agit de langages assurant la terminaison des programmes (cf. transp. \ref{typing-and-termination}), ou, puisqu'il s'agit de variantes du $\lambda$-calcul, la \emph{normalisation forte}. Le type vide doit être inhabité ! \bigskip Quelques grandes familles (chacune avec énormément de variantes) : \begin{itemize} \item théories des types à la Martin-Löf (« MLTT ») : suit jusqu'au bout la correspondance de Curry-Howard (\emph{aucune} distinction entre types et propositions ; {\footnotesize pas de $\exists$ mais plutôt un $\Sigma$}), $\rightarrow$ Agda ; \item variantes du « calcul des constructions » (« CoC »), $\rightarrow$ Coq ; \item théorie homotopique des types (« HoTT ») : « égalité = isomorphisme ». \end{itemize} \end{frame} % \begin{frame} \frametitle{Le $\lambda$-cube de Barendregt (très bref aperçu)} Il s'agit d'un ensemble de $8 = 2^3$ théories des types pour la logique : la plus faible est le « $\lambda$-calcul simplement typé » ($\lambda_\rightarrow$, décrit plus loin), la plus forte le « calcul des constructions » (« CoC »). \medskip Chaque théorie du cube est caractérisée par l'absence ou la présence de chacune des $3$ fonctionnalités suivantes ($\lambda_\rightarrow$ n'a aucune des trois, CoC a les trois) : \begin{itemize} \item \textcolor{blue}{termes pouvant dépendre de types}, ou polymorphisme paramétrique « explicitement quantifié » (p.ex. $\prod t.\; (t \rightarrow t)$) ; \item \textcolor{blue}{types pouvant dépendre de types}, ou familles de types ; \item \textcolor{blue}{types pouvant dépendre de termes}, ou « types dépendants », correspondant côté logique à la quantification sur les individus. \end{itemize} \medskip {\footnotesize On peut ensuite encore ajouter des fonctionnalités : par exemple, Coq est basé sur le « calcul des constructions inductives » qui ajoute au calcul des constructions des mécanismes systématiques pour former des types (positivement !) récursifs.\par} \end{frame} % \section{Le \texorpdfstring{$\lambda$}{lambda}-calcul simplement typé} \begin{frame} \frametitle{Le $\lambda$-calcul simplement typé : description sommaire} \itempoint Le $\lambda$-calcul simplement typé (=: $\lambda$CST ou $\lambda_\rightarrow$) est une \alert{variante typée} du $\lambda$-calcul, assurant la propriété de terminaison (normalisation forte). \medskip \itempoint Il a une seule opération sur les types, le type \textbf{fonction} : donnés deux types $\sigma,\tau$, on a un type $\sigma\to\tau$ pour les fonctions de l'un vers l'autre. \medskip \itempoint L'application et l'abstraction doivent respecter le typage : \begin{itemize} \item si $P$ a pour type $\sigma\to\tau$ et $Q$ a type $\sigma$ alors $PQ$ a pour type $\tau$, \item si $E$ a pour type $\tau$ en faisant intervenir une variable $v$ libre de type $\sigma$ alors $\lambda(v:\sigma).E$ {\footnotesize (« fonction prenant $v$ de type $\sigma$ et renvoyant $E$ »)} a pour type $\sigma\to\tau$. \end{itemize} \medskip \itempoint Typage \textbf{annoté} (=« à la Church ») : on écrit $\lambda(v:\sigma).E$ pas juste $\lambda v.E$. \medskip \itempoint On notera « $x_1:\sigma_1,\ldots,x_k:\sigma_k \vdash E:\tau$ » pour dire « $E$ est bien typé avec pour type $\tau$ lorsque $x_1,\ldots,x_k$ sont des variables libres de types $\sigma_1,\ldots,\sigma_k$ : \begin{itemize} \item $x_1:\sigma_1,\ldots,x_k:\sigma_k$ s'appelle un \textbf{contexte} de typage (souvent $\Gamma$), \item $\Gamma \vdash E:\tau$ s'appelle un \textbf{jugement} de typage. \end{itemize} \end{frame} % \begin{frame} \frametitle{Exemples de termes et de typages} {\footnotesize On donnera les règles précises plus tard, commençons par quelques exemples.\par} \begin{itemize} \item $f:\alpha\to\beta,\; x:\alpha \;\vdash\; fx:\beta$\\ Lire : « dans le contexte où $f$ est une variable de type $\alpha\to\beta$ et $x$ une variable de type $\alpha$, alors $fx$ est de type $\beta$ ». \item $f:\beta\to\alpha\to\gamma,\; x:\alpha,\; y:\beta \;\vdash\; fyx : \gamma$\\ {\footnotesize (Parenthéser $\beta\to\alpha\to\gamma$ comme $\beta\to(\alpha\to\gamma)$ et $fyx$ comme $(fy)x$.)} \item $f:\beta\to\alpha\to\gamma,\; x:\alpha \;\vdash\; \lambda(y:\beta).fyx \;:\; \beta\to\gamma$\\ {\footnotesize Comprendre $\lambda(y:\beta).fyx$ comme « fonction prenant $y$ de type $\beta$ et renvoyant $fyx$ ».} \item $x:\alpha \;\vdash\; \lambda(f:\alpha\to\beta).fx\;:\;(\alpha\to\beta)\to\beta$\\ « Si $x$ est de type $\alpha$ alors le terme $\lambda(f:\alpha\to\beta).fx$ est de type $(\alpha\to\beta)\to\beta$. » \item $\vdash\; \lambda(x:\alpha). \lambda(f:\alpha\to\beta).fx\;:\;\alpha\to(\alpha\to\beta)\to\beta$\\ « Le terme $\lambda(x:\alpha).\lambda(f:\alpha\to\beta).fx$ a type $\alpha\to(\alpha\to\beta)\to\beta$ dans le contexte vide. »\\ {\footnotesize (Parenthéser $\alpha\to(\alpha\to\beta)\to\beta$ comme $\alpha\to((\alpha\to\beta)\to\beta)$.)} \end{itemize} \end{frame} % \begin{frame} \frametitle{Types et prétermes} \itempoint Un \textbf{type} du $\lambda$CST est (inductivement) : \begin{itemize} \item une \textbf{variable de type} ($\alpha$, $\beta$, $\gamma$... en nombre illimité), \item un \textbf{type fonction} $(\sigma\to\tau)$ où $\sigma$ et $\tau$ sont deux types. \end{itemize} \bigskip \itempoint Un \textbf{préterme} du $\lambda$CST est (inductivement) : \begin{itemize} \item une \textbf{variable de terme} ($a$, $b$, $c$... en nombre illimité), \item une \textbf{application} $(PQ)$ où $P$ et $Q$ sont deux termes, \item une \textbf{abstraction} $\lambda(v:\sigma).E$ avec $v$ variable, $\sigma$ type et $E$ préterme. \end{itemize} \medskip \itempoint Conventions d'écriture : \begin{itemize} \item « $\rho\to\sigma\to\tau$ » signifie « $(\rho\to(\sigma\to\tau))$ » ; « $xyz$ » signifie « $((xy)z)$ » ; \item {\footnotesize on note « $\lambda (x:\sigma,t:\tau).E$ » ou « $\lambda (x:\sigma)(t:\tau).E$ » pour « $\lambda (x:\sigma). \lambda (t:\tau). E$ » ;} \item l'abstraction est moins prioritaire que l'application ; \item on considère les termes à renommage près des variables liées {\footnotesize ($\alpha$-conversion)}. \end{itemize} \end{frame} % \begin{frame} \frametitle{Règles de typage} \itempoint Un \textbf{typage} est la donnée d'un préterme $M$ et d'un type $\sigma$. On note « $M:\sigma$ ». \medskip \itempoint Un \textbf{contexte} est un ensemble fini $\Gamma$ de typages $x_i:\sigma_i$ où $x_1,\ldots,x_k$ sont des \alert{variables} de terme \alert{distinctes}. On le note « $x_1:\sigma_1,\ldots,x_k:\sigma_k$ ». \medskip \itempoint Un \textbf{jugement} de typage est la donnée d'un contexte $\Gamma$ et d'un typage $E:\tau$, sujet aux règles ci-dessous. On note $\Gamma \vdash E:\tau$ (ou juste $\vdash E:\tau$ si $\Gamma = \varnothing$), et on dit que $E$ est un « \textbf{terme} (= bien typé) de type $\tau$ dans le contexte $\Gamma$ ». \medskip \textbf{Règles} de typage du $\lambda$CST : {\footnotesize (quels que soient $\Gamma,x,\sigma,\ldots$,)} \begin{itemize} \item \textcolor{olive}{(« variable »)} si $(x:\sigma) \in \Gamma$ alors $\Gamma \vdash x:\sigma$ ; \item \textcolor{olive}{(« application »)} si $\Gamma \vdash P:\sigma\to\tau$ et $\Gamma \vdash Q:\sigma$ alors $\Gamma \vdash PQ:\tau$ ; \item \textcolor{olive}{(« abstraction »)} si $\Gamma, v:\sigma \vdash E:\tau$ alors $\Gamma \vdash \lambda(v:\sigma).E : \sigma\to\tau$. \end{itemize} \smallskip {\footnotesize (Comprendre : l'ensemble des jugements de typage est l'ensemble engendré par les règles ci-dessus, i.e., le plus petit ensemble qui les respecte.)\par} \medskip \itempoint Une \textbf{dérivation} d'un jugement est un arbre (d'instances de) règles qui aboutit au jugement considéré. \end{frame} % \begin{frame} \frametitle{Représentation des règles de typage} Les trois règles de typage du $\lambda$CST : \[ \inferrule*[left=\llap{Var}]{ }{\Gamma,x:\sigma \vdash x:\sigma} \] \[ \inferrule*[left=\llap{App},sep=4em]{\Gamma \vdash P:\sigma\to\tau\\ \Gamma \vdash Q:\sigma}{\Gamma \vdash PQ:\tau} \] \[ \inferrule*[left=\llap{Abs}]{\Gamma, v:\sigma \vdash E:\tau}{\Gamma \vdash \lambda(v:\sigma).E : \sigma\to\tau} \] \bigskip \itempoint Chaque « fraction » indique que le jugement écrit \alert{en-dessous} découle par la règle inscrite \alert{à côté} à partir des hypothèses portées \alert{au-dessus}. \end{frame} % \begin{frame} \label{example-typing-derivation} \frametitle{Exemple de dérivation} Montrons le jugement selon lequel $\lambda(f:\beta\to\alpha\to\gamma). \lambda(x:\alpha). \lambda(y:\beta). fyx$ est un terme de type $(\beta\to\alpha\to\gamma) \to (\alpha\to\beta\to\gamma)$ dans le contexte vide : \vskip-2ex {\footnotesize \[ \inferrule*[left=\llap{Abs}]{ \inferrule*[left=\llap{Abs}]{ \inferrule*[left=\llap{Abs}]{ \inferrule*[left=\llap{App}]{ \inferrule*[left=\llap{App}]{ \inferrule*[left=\llap{Var}]{ }{\mbox{$\begin{array}{cc}\scriptscriptstyle f:\beta\to\alpha\to\gamma,\\ \scriptscriptstyle x:\alpha,y:\beta\\ \end{array}$} \vdash f : \beta\to\alpha\to\gamma} \\ \inferrule*[right=\rlap{Var}]{ }{\mbox{$\begin{array}{cc}\scriptscriptstyle f:\beta\to\alpha\to\gamma,\\ \scriptscriptstyle x:\alpha,y:\beta\\ \end{array}$} \vdash y : \beta} }{\mbox{$\begin{array}{cc}\scriptscriptstyle f:\beta\to\alpha\to\gamma,\\ \scriptscriptstyle x:\alpha,y:\beta\\ \end{array}$} \vdash fy : \alpha\to\gamma} \\ \inferrule*[right=\rlap{Var}]{ }{\mbox{$\begin{array}{cc}\scriptscriptstyle f:\beta\to\alpha\to\gamma,\\ \scriptscriptstyle x:\alpha,y:\beta\\ \end{array}$} \vdash x : \alpha} }{f:\beta\to\alpha\to\gamma, x:\alpha, y:\beta \vdash fyx : \gamma} }{f:\beta\to\alpha\to\gamma, x:\alpha \vdash \lambda(y:\beta). fyx : \beta\to\gamma} }{f:\beta\to\alpha\to\gamma \vdash \lambda(x:\alpha). \lambda(y:\beta). fyx : \alpha\to\beta\to\gamma} }{\vdash \lambda(f:\beta\to\alpha\to\gamma). \lambda(x:\alpha). \lambda(y:\beta). fyx : (\beta\to\alpha\to\gamma) \to (\alpha\to\beta\to\gamma)} \] \par} Chaque barre horizontale justifie le jugement écrit \alert{en-dessous} par la règle inscrite \alert{à côté} à partir des hypothèses portées \alert{au-dessus}. \medskip Ceci est typographiquement abominable et hautement redondant, ce qui explique qu'on écrive rarement de tels arbres complètement. \end{frame} % \begin{frame} \frametitle{Propriétés du typage} Les propriétés suivantes sont faciles mais utiles : \medskip \itempoint \textbf{Affaiblissement :} si $\Gamma \subseteq \Gamma'$ sont deux contextes et $\Gamma \vdash M:\sigma$ alors $\Gamma' \vdash M:\sigma$ aussi. \smallskip {\footnotesize On pouvait présenter les règles en limitant la règle « variable » à « $x:\sigma \vdash x:\sigma$ » et en prenant l'affaiblissement comme règle. C'est peut-être préférable.\par} \medskip \itempoint \textbf{Duplication :} si $\Gamma, x:\rho, x':\rho \vdash M:\sigma$ alors $\Gamma, x:\rho \vdash M[x'\backslash x]:\sigma$ aussi (où $M[x'\backslash x]$ désigne la substitution correcte de $x'$ par $x$). \smallskip {\footnotesize \emph{Remarque :} Le typage linéaire supprime notamment l'affaiblissement et la duplication.\par} \medskip \itempoint \textbf{Variables libres :} si $x_1:\sigma_1,\ldots,x_k:\sigma_k \vdash E:\tau$ alors toute variable libre de $E$ est une des $x_1,\ldots,x_k$. \medskip \itempoint \textbf{Variables inutiles :} si $\Gamma \vdash E:\tau$ alors $\Gamma|_{\operatorname{free}(E)} \vdash E:\tau$ où $\Gamma|_{\operatorname{free}(E)}$ est la partie de $\Gamma$ concernant les variables libres de $E$. \medskip \itempoint \textbf{Renommage :} si $\Gamma \vdash E:\tau$ alors ceci vaut encore après tout renommage des variables libres. \end{frame} % \begin{frame} \frametitle{Construction de la dérivation} La dérivation du jugement de typage $\Gamma \vdash M : \sigma$ d'un (pré)terme $M$ du $\lambda$CST se construit systématiquement et évidemment à partir de $M$ (\alert{aucun choix} à faire !) : \begin{itemize} \item si $M = x$ est une variable, alors un $x:\sigma$ doit être dans le contexte $\Gamma$ (sinon : échouer), et la dérivation est par la règle « variable » ; \item si $M = PQ$ est une application, construire des dérivations de jugements $\Gamma \vdash P : \rho$ et $\Gamma \vdash Q : \sigma$, on doit avoir $\rho = (\sigma\to\tau)$ (sinon : échouer), et la dérivation est par la règle « application » ; \item si $M = \lambda(v:\sigma).E$ est une abstraction, construire une dérivation de jugement $\Gamma' \vdash E : \tau$ dans $\Gamma' := \Gamma \cup \{v:\sigma\}$ {\footnotesize (quitte à renommer $v$)}, et la dérivation est par la règle « abstraction ». \end{itemize} \bigskip \itempoint \textbf{Donc :} aussi bien la vérification de type (vérifier $\Gamma \vdash M : \sigma$) que l'assignation de type (trouver $\sigma$ à partir de $\Gamma,M$) sont (très facilement) \alert{décidables} dans le $\lambda$CST. De plus, $\sigma$ est \alert{unique} (donnés $\Gamma$ et $M$). \end{frame} % \begin{frame} \frametitle{Problèmes faciles et moins faciles} \itempoint Facile (transp. précédent) : donné un (pré)terme $M$, trouver son (seul possible) type $\sigma$ est facile (notamment : vérifier que $M$ est un terme = bien typé, ou vérifier un jugement de type). \smallskip \textcolor{blue}{Le terme donne directement l'arbre de dérivation.} \bigskip \itempoint Facile aussi : réciproquement, donné un arbre de dérivation où on a effacé les termes pour ne garder que les types, retrouver un terme (transp. suivant). \smallskip \textcolor{blue}{L'arbre de dérivation redonne directement le terme.} \bigskip \itempoint Moins facile : donné un terme « désannoté », i.e., un terme du $\lambda$-calcul non typé, p.ex. $\lambda xyz.xz(yz)$, savoir s'il correspond à un terme (typable) du $\lambda$CST. \smallskip \textcolor{brown}{$\rightarrow$ Algorithme de Hindley-Milner.} \bigskip \itempoint Moins facile : donné un type, savoir s'il existe un terme ayant ce type. \smallskip \textcolor{brown}{$\rightarrow$ Décidabilité du calcul propositionnel intuitionniste.} \end{frame} % \begin{frame} \label{reconstructing-typed-term} \frametitle{Reconstruction du terme typé} Peut-on retrouver les termes manquants dans un arbre de dérivation dont on n'a donné que les types et les règles appliquées ? {\footnotesize \[ \inferrule*[left=\llap{Abs}]{ \inferrule*[left=\llap{Abs}]{ \inferrule*[left=\llap{Abs}]{ \inferrule*[left=\llap{App}]{ \inferrule*[left=\llap{App}]{ \inferrule*[left=\llap{Var}]{ }{\mbox{$\begin{array}{cc}\scriptscriptstyle \textbf{?}:\beta\to\alpha\to\gamma,\\ \scriptscriptstyle \textbf{?}:\alpha,\textbf{?}:\beta\\ \end{array}$} \vdash \textbf{?} : \beta\to\alpha\to\gamma} \\ \inferrule*[right=\rlap{Var}]{ }{\mbox{$\begin{array}{cc}\scriptscriptstyle \textbf{?}:\beta\to\alpha\to\gamma,\\ \scriptscriptstyle \textbf{?}:\alpha,\textbf{?}:\beta\\ \end{array}$} \vdash \textbf{?} : \beta} }{\mbox{$\begin{array}{cc}\scriptscriptstyle \textbf{?}:\beta\to\alpha\to\gamma,\\ \scriptscriptstyle \textbf{?}:\alpha,\textbf{?}:\beta\\ \end{array}$} \vdash \textbf{?} : \alpha\to\gamma} \\ \inferrule*[right=\rlap{Var}]{ }{\mbox{$\begin{array}{cc}\scriptscriptstyle \textbf{?}:\beta\to\alpha\to\gamma,\\ \scriptscriptstyle \textbf{?}:\alpha,\textbf{?}:\beta\\ \end{array}$} \vdash \textbf{?} : \alpha} }{\textbf{?}:\beta\to\alpha\to\gamma, \textbf{?}:\alpha, \textbf{?}:\beta \vdash \textbf{?} : \gamma} }{\textbf{?}:\beta\to\alpha\to\gamma, \textbf{?}:\alpha \vdash \textbf{?} : \beta\to\gamma} }{\textbf{?}:\beta\to\alpha\to\gamma \vdash \textbf{?} : \alpha\to\beta\to\gamma} }{\vdash \textbf{?} : (\beta\to\alpha\to\gamma) \to (\alpha\to\beta\to\gamma)} \] \par} \textbf{Oui} (aux noms des variables près) à condition, en cas de types identiques dans le contexte, d'identifier l'élément utilisé pour chaque règle « variable ». \bigskip \itempoint\textcolor{blue}{Le terme typé représente exactement l'arbre de dérivation} du jugement le concernant. \end{frame} % \begin{frame} \frametitle{Lemme de substitution} \itempoint\textbf{Lemme :} Si $\Gamma, v:\sigma \vdash E : \tau$ et $\Gamma \vdash T : \sigma$ alors $\Gamma \vdash E[v\backslash T] : \tau$, où $E[v\backslash T]$ désigne le terme obtenu par substitution correcte de $v$ par $v$ dans $E$. \bigskip \underline{Esquisse de preuve :} reprendre l'arbre de dérivation de $\Gamma, v:\sigma \vdash E : \tau$ en supprimant $v:\sigma$ du contexte et en substituant $v$ par $E$ partout à droite du ‘$\vdash$’. Les règles s'appliquent à l'identique, sauf la règle « variable » introduisant $v:\sigma$, qui est remplacée par l'arbre de dérivation de $\Gamma \vdash T : \sigma$.\qed \medskip \centerline{*} \medskip Remarquer la similarité entre \[ \inferrule*[left=App]{ \inferrule*[left=Abs]{\Gamma, v:\sigma \vdash E : \tau}{ \Gamma \vdash \lambda(v:\sigma).E : \sigma\to\tau} \\ \Gamma \vdash T : \sigma }{\Gamma \vdash (\lambda(v:\sigma).E)T : \tau} \] et \[ \inferrule*[left=Subs]{\Gamma, v:\sigma \vdash E : \tau \\ \Gamma \vdash T : \sigma }{\Gamma \vdash E[v\backslash T] : \tau} \] \end{frame} % \begin{frame} \frametitle{Typage et $\beta$-réduction} On rappelle que la « $\beta$-réduction » désigne le remplacement en sous-expression d'un « redex » $(\lambda (v:\sigma). E)T$ par son « réduit » $E[v\backslash T]$. \medskip On note $X \rightarrow_\beta X'$ pour une $\beta$-réduction, et $X \twoheadrightarrow_\beta X'$ pour une suite de $\beta$-réductions. \bigskip \itempoint D'après le lemme de substitution, si $\Gamma \vdash (\lambda (v:\sigma). E)T : \tau$ alors on a aussi $\Gamma \vdash E[v\backslash T] : \tau$. \bigskip \itempoint Toujours d'après ce lemme, si $X \twoheadrightarrow_\beta X'$ et $\Gamma \vdash X:\tau$ alors $\Gamma \vdash X':\tau$. \bigskip \textcolor{blue}{\textbf{Moralité :}} le typage est compatible avec l'évaluation du $\lambda$-calcul (un terme bien typé reste bien typé quand on effectue la $\beta$-réduction et le type ne change pas). \end{frame} % \begin{frame} \frametitle{Normalisation forte} \itempoint\textbf{Théorème} (Turing, Tait, Girard) : le $\lambda$-calcul simplement typé est \textbf{fortement normalisant}, c'est-à-dire que toute suite de $\beta$-réductions sur un terme (bien typé !) termine. \bigskip {\footnotesize \textcolor{blue}{Idée cruciale de la preuve :} une induction directe échoue ($P,Q$ fortement normalisables $\not\Rightarrow$ $PQ$ fortement normalisable). À la place, on introduit une notion \emph{plus forte} permettant l'induction : \smallskip \itempoint\textbf{Définition} technique : un terme $P$ de type $\rho$ est dit « fortement calculable » lorsque : \begin{itemize} \item si $\rho = \alpha$ est une variable de type (type « atomique ») : $P$ est fortement normalisable, \item si $\rho = (\sigma\to\tau)$ est un type fonction : pour \alert{tout} $Q$ de type $\sigma$ fortement calculable, $PQ$ est fortement calculable. \end{itemize} \smallskip On prouve alors successivement : \begin{itemize} \item tout terme fortement calculable est fortement normalisable (induction facile sur le type), \item si $x_1:\sigma_1,\ldots,x_k:\sigma_k \vdash E:\tau$ et si $v_1,\ldots,v_k$ sont de types $\sigma_1,\ldots,\sigma_k$, fortement calculables et n'impliquant pas $x_1,\ldots,x_k$, alors la substitution de $v_i$ pour $x_i$ dans $E$ est fortement calculable (preuve par induction sur la dérivation du jugement, i.e., induction sur $E$ : le cas délicat est l'abstraction). \end{itemize} \par} \end{frame} % \section{Le calcul propositionnel intuitionniste} \begin{frame} \frametitle{Le calcul propositionnel : présentation sommaire} \itempoint Le \textbf{calcul propositionnel} est une forme de logique qui ne parle que de « propositions » (énoncés logiques) : pas de variables d'individus (p.ex. entiers naturels, ensembles…), \alert{pas de quantification}. \medskip \itempoint Les \textbf{connecteurs logiques} sont : $\Rightarrow$ (implication), $\land$ (conjonction logique : « et »), $\lor$ (disjonction : « ou »), $\top$ (« vrai ») et $\bot$ (« faux » ou « absurde »). {\footnotesize Tous sont binaires sauf $\top$, $\bot$ (nullaires).\par} \smallskip On peut y ajouter $\neg$ (négation logique) unaire : $\neg P$ est une abréviation de $P \Rightarrow \bot$ (soit : « $P$ est absurde »). \medskip On distingue {\footnotesize (les règles précises seront décrites plus loin)} : \begin{itemize} \item la logique \textbf{classique} qui admet la règle du \alert{tiers exclu} (« tertium non datur ») sous une forme ou une autre ; logique usuelle des mathématiques ; on peut la modéliser par $2$ valeurs de vérité (« vrai » et « faux ») ; \item la logique \textbf{intuitionniste}, plus \emph{faible}, qui n'admet pas cette règle : il n'y a pas vraiment de « valeur de vérité ». \end{itemize} \end{frame} % \begin{frame} \frametitle{Le calcul propositionnel : syntaxe} \itempoint Une \textbf{formule} du calcul propositionnel est (inductivement) : \begin{itemize} \item une \textbf{variable propositionnelle} ($A$, $B$, $C$...), \item l'application d'un connecteur : $(P\Rightarrow Q)$, $(P\land Q)$, $(P\lor Q)$ où $P,Q$ sont deux formules, ou encore $\top$, $\bot$. \end{itemize} \medskip \itempoint Conventions d'écriture : \begin{itemize} \item $\neg P$ abrège « $(P \Rightarrow \bot)$ » ; \item on omet certaines parenthèses : $\neg$ est prioritaire sur $\land$ qui est prioritaire sur $\lor$ qui est prioritaire sur $\Rightarrow$ {\footnotesize (\textcolor{purple}{ne pas abuser de l'omission des parenthèses, merci})} ; \item $\land$ et $\lor$ associent à gauche disons (ça n'aura pas d'importance) ; mais $\Rightarrow$ associe à droite : $P \Rightarrow Q\Rightarrow R$ signifie $(P\Rightarrow(Q\Rightarrow R))$ ; \item parfois : $P \Leftrightarrow Q$ pour $(P\Rightarrow Q) \land (Q\Rightarrow P)$ {\footnotesize (priorité encore plus basse ?)}. \end{itemize} \medskip \itempoint Si $P_1,\ldots,P_r, Q$ sont des formules, $P_1,\ldots,P_r \vdash Q$ s'appelle un \textbf{séquent}, à comprendre comme « sous les hypothèses $P_1,\ldots,P_r$, on a $Q$ ». \end{frame} % \begin{frame} \frametitle{Le calcul propositionnel intuitionniste : connecteurs} \itempoint Chaque connecteur logique a des règles d'\textbf{introduction} permettant de \alert{démontrer} ce connecteur, et des règles d'\textbf{élimination} permettant de l'\alert{utiliser}. \bigskip En français, et un peu informellement : \begin{itemize} \item pour introduire $\Rightarrow$ : on démontre $Q$ \alert{sous l'hypothèse} $P$, ce qui donne $P\Rightarrow Q$ (hypothèse déchargée) ; \item pour éliminer $\Rightarrow$ : si on a $P\Rightarrow Q$ et $P$, on a $Q$ (\textit{modus ponens}) ; \item pour introduire $\land$ : on démontre $Q_1$ et $Q_2$, ce qui donne $Q_1\land Q_2$ ; pour l'éliminer : si on a $Q_1 \land Q_2$ on en tire $Q_1$ resp. $Q_2$ ; \item pour introduire $\lor$ : on démontre $Q_1$ et $Q_2$, ce qui donne $Q_1\land Q_2$ ; \item pour éliminer $\lor$ : si on a $P_1 \lor P_2$, on démontre $Q$ successivement sous les hypothèses $P_1$ et $P_2$, ce qui donne $Q$ (hypothèses déchargées) ; \item pour introduire $\top$, c'est trivial, et on ne peut pas l'éliminer ; \item pour éliminer $\bot$, on tire la conclusion qu'on veut (\textit{ex falso quodlibet}), et on ne peut pas l'introduire. \end{itemize} \end{frame} % \begin{frame} \frametitle{Le calcul propositionnel intuitionniste : règles} Axiomes : si $Q \in \{P_1,\ldots,P_r\}$ alors $P_1,\ldots,P_r \vdash Q$. \medskip Introduction et élimination des connecteurs en style « déduction naturelle » : \smallskip \begin{tabular}{c|c|c} &Intro&Élim\\\hline $\Rightarrow$ &$\inferrule{\Gamma,{\color{mydarkgreen}P}\vdash Q}{\Gamma\vdash P\Rightarrow Q}$ &$\inferrule{\Gamma\vdash P\Rightarrow Q\\\Gamma\vdash P}{\Gamma\vdash Q}$ \\\hline $\land$ &$\inferrule{\Gamma\vdash Q_1\\\Gamma\vdash Q_2}{\Gamma\vdash Q_1\land Q_2}$ &$\inferrule{\Gamma\vdash Q_1\land Q_2}{\Gamma\vdash Q_1}$ \quad$\inferrule{\Gamma\vdash Q_1\land Q_2}{\Gamma\vdash Q_2}$ \\\hline $\lor$ &$\inferrule{\Gamma\vdash Q_1}{\Gamma\vdash Q_1\lor Q_2}$ \quad$\inferrule{\Gamma\vdash Q_2}{\Gamma\vdash Q_1\lor Q_2}$ &$\inferrule{\Gamma\vdash P_1\lor P_2\\\Gamma,{\color{mydarkgreen}P_1}\vdash Q\\\Gamma,{\color{mydarkgreen}P_2}\vdash Q}{\Gamma\vdash Q}$ \\\hline $\top$ &$\inferrule{\strut}{\Gamma\vdash \top}$ &(néant) \\\hline $\bot$ &(néant) &$\inferrule{\Gamma\vdash \bot}{\Gamma\vdash Q}$ \\ \end{tabular} {\footnotesize Les hypothèses en \textcolor{mydarkgreen}{vert} sont « déchargées », c'est-à-dire qu'elles disparaissent.\par} \end{frame} % \begin{frame} \label{example-propositional-proofs} \frametitle{Exemples de démonstrations} Indiquant à côté de chaque barre une abréviation de la règle utilisée (« $\Rightarrow$Int » pour introduction de $\Rightarrow$, « $\land$Élim$_2$ » pour la 2\textsuperscript{e} règle d'élimination de $\land$, etc.) : \bigskip {\footnotesize \[ \inferrule*[left={$\Rightarrow$Int},right=\hphantom{Int}]{ \inferrule*[left=\llap{$\land$Int}]{ \inferrule*[left=\llap{$\land$Élim$_2$}]{ \inferrule*[left=\llap{Ax}]{ }{A\land B \vdash A\land B} }{A\land B \vdash B} \\ \inferrule*[right=\rlap{$\land$Élim$_1$}]{ \inferrule*[right=\rlap{Ax}]{ }{A\land B \vdash A\land B} }{A\land B \vdash A} }{A\land B \vdash B\land A} }{\vdash A\land B \Rightarrow B\land A} \] \par} \bigskip {\footnotesize \[ \inferrule*[left={$\Rightarrow$Int},right=\hphantom{Int}]{ \inferrule*[left=\llap{$\lor$Élim}]{ \inferrule*[left=\llap{Ax}]{ }{A\lor B \vdash A\lor B} \\ \inferrule*[right={$\lor$Int$_2$}]{ \inferrule*[right=\rlap{Ax}]{ }{A\lor B,A \vdash A} }{A\lor B,A \vdash B\lor A} \\ \inferrule*[right=\rlap{$\lor$Int$_1$}]{ \inferrule*[right=\rlap{Ax}]{ }{A\lor B,B \vdash B} }{A\lor B,B \vdash B\lor A} }{A\lor B \vdash B\lor A} }{\vdash A\lor B \Rightarrow B\lor A} \] \par} \end{frame} % \begin{frame} \frametitle{Présentation différente} On peut aussi n'écrire que les conclusions (partie droite du signe « $\vdash$ »), à condition d'indiquer pour chaque hypothèse déchargée à quel endroit elle l'a été (ceci sacrifie de la lisibilité pour un gain de place) : \medskip {\footnotesize \[ \inferrule*[left={$\Rightarrow$Int(\textcolor{mydarkgreen}{$u$})},right=\hphantom{Int}]{ \inferrule*[left=\llap{$\land$Int}]{ \inferrule*[left=\llap{$\land$Élim$_2$}]{ \inferrule*[left=\llap{\textcolor{mydarkgreen}{$u$}}]{ }{A\land B} }{B} \\ \inferrule*[right=\rlap{$\land$Élim$_1$}]{ \inferrule*[right=\rlap{\textcolor{mydarkgreen}{$u$}}]{ }{A\land B} }{A} }{B\land A} }{A\land B \Rightarrow B\land A} \] \par} \medskip {\footnotesize \[ \inferrule*[left={$\Rightarrow$Int(\textcolor{mydarkgreen}{$u$})},right=\hphantom{Int}]{ \inferrule*[left=\llap{$\lor$Élim(\textcolor{mydarkgreen}{$v$},\textcolor{mydarkgreen}{$v'$})}]{ \inferrule*[left=\llap{\textcolor{mydarkgreen}{$u$}}]{ }{A\lor B} \\ \inferrule*[right={$\lor$Int$_2$}]{ \inferrule*[right=\rlap{\textcolor{mydarkgreen}{$v$}}]{ }{A} }{B\lor A} \\ \inferrule*[right=\rlap{$\lor$Int$_1$}]{ \inferrule*[right=\rlap{\textcolor{mydarkgreen}{$v'$}}]{ }{B} }{B\lor A} }{B\lor A} }{A\lor B \Rightarrow B\lor A} \] \par} \medskip {\footnotesize\textbf{N.B.} : une même hypothèse \emph{peut} être déchargée à plusieurs endroits ($u$ dans le 1\textsuperscript{er} exemple).\par} \end{frame} % \begin{frame} \frametitle{Encore une présentation différente} Présentation « drapeau », plus proche de l'écriture naturelle, commode à vérifier : {\footnotesize \begin{flagderiv}[example-proof1] \assume{conj}{A\land B}{} \step{partb}{B}{$\land$Élim$_2$ sur \ref{conj}} \step{parta}{A}{$\land$Élim$_1$ sur \ref{conj}} \step{newconj}{B\land A}{$\land$Int sur \ref{partb}, \ref{parta}} \conclude{}{A\land B \Rightarrow B\land A}{$\Rightarrow$Int de \ref{conj} dans \ref{newconj}} \end{flagderiv} \par} \vskip-2ex {\footnotesize \begin{flagderiv}[example-proof2] \assume{disj}{A\lor B}{} \assume{parta}{A}{} \step{fromparta}{B\lor A}{$\lor$Int$_2$ sur \ref{parta}} \done \assume{partb}{B}{} \step{frompartb}{B\lor A}{$\lor$Int$_1$ sur \ref{partb}} \done \step{newdisj}{B\lor A}{$\lor$Élim sur \ref{disj} de \ref{parta} dans \ref{fromparta} et de \ref{partb} dans \ref{frompartb}} \conclude{}{A\lor B \Rightarrow B\lor A}{$\Rightarrow$Int de \ref{disj} dans \ref{newdisj}} \end{flagderiv} \par} \end{frame} % \begin{frame} \frametitle{Quelques tautologies du calcul propositionnel intuitionniste} \itempoint Lorsque $\vdash P$ (sans hypothèse), on dit que $P$ est \textbf{valable} dans le calcul propositionnel intuitionniste, ou est une \textbf{tautologie} de celui-ci. \medskip {\footnotesize Quelques tautologies importantes (« $P\Leftrightarrow Q$ » abrège « $P \Rightarrow Q$ et $Q \Rightarrow P$ ») : \begin{tabular}{|c|c|} \hline $A\Rightarrow A$\quad\quad\quad $A\Rightarrow B\Rightarrow A$&$(A\Rightarrow B\Rightarrow C) \Rightarrow (A\Rightarrow B)\Rightarrow A\Rightarrow C$\\ \hline $(A\Rightarrow B\Rightarrow C) \Leftrightarrow (A\land B \Rightarrow C)$ &$A\land A \mathrel{\color{olive}\Leftrightarrow} A$\quad\quad\quad$A\lor A \mathrel{\color{olive}\Leftrightarrow} A$\\ \hline $A\land B \Rightarrow A$\quad\quad\quad$A\land B \Rightarrow B$&$A\Rightarrow A\lor B$\quad\quad\quad$B \Rightarrow A\lor B$\\ \hline $A\Rightarrow B\Rightarrow A\land B$&$(A\Rightarrow C)\Rightarrow(B\Rightarrow C)\Rightarrow A\lor B\Rightarrow C$\\ \hline $A\land B \Leftrightarrow B\land A$&$A\lor B \Leftrightarrow B\lor A$\\ \hline $(A\land B)\land C \Leftrightarrow A\land(B\land C)$&$(A\lor B)\lor C \Leftrightarrow A\lor(B\lor C)$\\ \hline $(A\Rightarrow B)\land (A\Rightarrow C) \Leftrightarrow (A\Rightarrow B\land C)$ &$(A\Rightarrow C)\land (B\Rightarrow C) \Leftrightarrow (A\lor B \Rightarrow C)$\\ \hline $(A\Rightarrow B)\lor (A\Rightarrow C) \mathrel{\color{red}\Rightarrow} (A\Rightarrow B\lor C)$ &$(A\Rightarrow C)\lor (B\Rightarrow C) \mathrel{\color{red}\Rightarrow} (A\land B \Rightarrow C)$\\ \hline $A\land(B\lor C) \Leftrightarrow (A\land B)\lor (A\land C)$ &$A\lor(B\land C) \mathrel{\color{olive}\Leftrightarrow} (A\lor B)\land (A\lor C)$\\ \hline $\top$&$\bot \Rightarrow C$\\ \hline $\top\land A \Leftrightarrow A$\quad\quad\quad$\bot \land A \Leftrightarrow \bot$ &$\top\lor A \mathrel{\color{olive}\Leftrightarrow} \top$\quad\quad\quad$\bot \lor A \Leftrightarrow A$\\ \hline $\neg A \land \neg B \Leftrightarrow \neg(A\lor B)$&$\neg A \lor \neg B \mathrel{\color{red}\Rightarrow} \neg(A\land B)$\\ \hline $A \mathrel{\color{red}\Rightarrow} \neg\neg A$&$(\neg\neg A\Rightarrow \neg\neg B) \Leftrightarrow \neg\neg (A\Rightarrow B)$\\ \hline $(\neg\neg A\land \neg\neg B) \Leftrightarrow \neg\neg (A\land B)$ &$(\neg\neg A\lor \neg\neg B) \mathrel{\color{red}\Rightarrow} \neg\neg (A\lor B)$\\ \hline $(A\Rightarrow B) \mathrel{\color{red}\Rightarrow} (\neg B\Rightarrow \neg A)$ &$\neg A \Leftrightarrow \neg\neg\neg A$\\ \hline $\neg(A\land\neg A)$&$\neg\neg(A\lor\neg A)$\\ \hline \end{tabular} \par} \end{frame} % \begin{frame} \frametitle{Quelques non-tautologies} {\footnotesize Rappelons qu'\textcolor{blue}{on ne permet pas de raisonnement par l'absurde} dans notre logique.\par} \bigskip Les énoncés suivants \alert{ne sont pas} des tautologies du calcul propositionnel intuitionniste (même s'ils \emph{sont} valables en calcul propositionnel \emph{classique}) : \begin{itemize} \item $((A\Rightarrow B)\Rightarrow A)\Rightarrow A$ (« loi de Peirce ») \item $A \lor \neg A$ (« tiers exclu ») \item $\neg\neg A \Rightarrow A$ (« élimination de la double négation ») \item $\neg(A\land B) \Rightarrow \neg A\lor\neg B$ (une des « lois de De Morgan ») \item $(A\Rightarrow B) \Rightarrow \neg A\lor B$ {\footnotesize (la réciproque est bien valable intuitionnistement)} \item $(\neg B\Rightarrow \neg A) \Rightarrow (A\Rightarrow B)$ {\footnotesize (même remarque)} \item $(A\Rightarrow B) \lor (B\Rightarrow A)$ (« loi de Dummett ») \item $\neg A \lor \neg\neg A$ (« tiers exclu faible ») \item $(\neg\neg A \Rightarrow A) \Rightarrow (A \lor \neg A)$ {\tiny (même si $(\neg\neg A \Rightarrow A)$ pour \emph{tout} $A$ donne $A \lor \neg A$ pour tout $A$)} \end{itemize} \bigskip {\footnotesize\textcolor{brown}{Mais comment sait-on que quelque chose \emph{n'est pas} une tautologie, au juste ?}\par} \end{frame} % \begin{frame} \frametitle{Preuve de la négation vs raisonnement par l'absurde} \itempoint Rappel : la négation $\neg A$ abrège $A \Rightarrow \bot$ {\footnotesize(« si $A$ est vrai alors \textsc{absurdité} »)}. \bigskip Bien distinguer : \medskip \itempoint d'une part la \textbf{preuve de la négation} de $A$ : \smallskip \textcolor{teal}{« Supposons $A$ [vrai]. Alors (...), ce qui est absurde. Donc $A$ est faux. »} \smallskip qui \alert{est valable} intuitionnistement : c'est prouver $A \Rightarrow \bot$ par la règle $\Rightarrow$Intro, \medskip \itempoint et la \textbf{preuve par l'absurde} de $A$ d'autre part : \smallskip \textcolor{teal}{« Supposons $A$ faux [i.e., $\neg A$]. Alors (...), ce qui est absurde. Donc $A$ est vrai. »} \smallskip qui \alert{n'est pas valable} intuitionnistement : tout ce qu'on peut en tirer est $\neg\neg A$. \bigskip \itempoint On peut lire $\neg A$ comme « $A$ est faux » et $\neg\neg A$ comme « $A$ n'est pas faux ». \smallskip {\footnotesize \itempoint Noter que $\neg\neg\neg A$ équivaut à $\neg A$ (donc $\neg\neg\neg\neg A$ à $\neg\neg A$, etc.). \par} \end{frame} % \begin{frame} \frametitle{Logique classique} La logique \textbf{classique} ou \textbf{booléenne} modifie la règle \[ \inferrule*[left={$\bot$Élim}]{\Gamma\vdash \bot}{\Gamma\vdash Q} \quad\quad\quad \text{~en~} \quad\quad\quad \inferrule*[left={Absurde}]{\Gamma,{\color{mydarkgreen}\neg Q}\vdash \bot}{\Gamma\vdash Q} \] \bigskip Elle est donc \alert{plus forte} (= a plus de tautologies) que la logique intuitionniste. \bigskip \itempoint\textbf{Théorème} {\footnotesize (« complétude de la sémantique booléenne du calcul propositionnel classique »)} : $P$ est une tautologie de la logique classique \alert{ssi} pour toute substitution de $\bot$ ou $\top$ à chacune des variables propositionnelles de $P$ a la valeur de vérité $\top$. \bigskip Tableaux de vérité : \smallskip \begin{tabular}{c||c||c} $ \begin{array}{c|cc} \land&\bot&\top\\\hline \bot&\bot&\bot\\ \top&\bot&\top\\ \end{array} $ & $ \begin{array}{c|cc} \lor&\bot&\top\\\hline \bot&\bot&\top\\ \top&\top&\top\\ \end{array} $ & $ \begin{array}{c|cc} A \Rightarrow B&B=\bot&B=\top\\\hline A=\bot&\top&\top\\ A=\top&\bot&\top\\ \end{array} $ \end{tabular} \end{frame} % \begin{frame} \frametitle{Un peu d'histoire des maths : Brouwer et l'intuitionnisme} \itempoint L'\textbf{intuitionnisme} est à l'origine une philosophie des mathématiques développée (à partir de 1912) par L. E. J. Brouwer (1881–1966) en réaction/opposition au \textbf{formalisme} promu par D. Hilbert (1862–1943). \medskip Quelques principes de l'intuitionnisme \emph{à l'origine} : \begin{itemize} \item rejet de la loi du tiers exclu (« principe d'omniscience ») pour demander des preuves \alert{constructives} (pour Brouwer, montrer que $x$ ne peut pas ne pas exister n'est pas la même chose que montrer que $x$ existe), \item refus de la logique formelle (pour Brouwer, les maths sont « créatives »), \item principes de continuité (notamment : toute fonction $\mathbb{R} \to \mathbb{R}$ est continue). \end{itemize} \medskip \itempoint Idées rejetées par Hilbert (et la plupart des mathématiciens). $\rightarrow$ « controverse Hilbert-Brouwer » {\footnotesize (rapidement devenue querelle personnelle)} \medskip Hilbert : « Retirer au mathématicien le principe du tiers exclu serait comme empêcher à un boxeur d'utiliser ses poings. » \end{frame} % \begin{frame} \frametitle{Les maths constructives après Brouwer} \itempoint L'intuitionnisme a été ensuite reformulé et modifié par les élèves de Brouwer et leurs propres élèves (notamment A. Heyting, A. Troelstra) et d'autres écoles (analyse constructive d'E. Bishop, constructivisme russe de A. Markov fils) : \begin{itemize} \item dans le cadre de la logique formelle (ou compatible avec elle), \item sans impliquer de principe \emph{contredisant} les maths classiques, \item mais toujours \alert{sans la loi du tiers exclu}. \end{itemize} \bigskip \itempoint Les termes de « \textbf{mathématiques constructives} » et « intuitionnisme » sont devenus plus ou moins interchangeables pour « maths sans le tiers exclu ». \bigskip \itempoint Dans \emph{certains} tels systèmes, prouver $P\lor Q$ resp. $\exists x.P(x)$ passe forcément par la preuve de $P$ ou de $Q$, resp. par la construction d'un $x$ vérifiant $P(x)$. \end{frame} % \begin{frame} \frametitle{Pourquoi vouloir « boxer sans ses poings » ?} {\footnotesize Évidence : l'\alert{écrasante majorité des maths} se fait en logique classique (loi du tiers exclu admise) !\par} \medskip Une preuve « constructive » (sans tiers exclu) est plus restrictive qu'une preuve classique, donc \alert{apporte plus} : \begin{itemize} \item principe de parcimonie ; \quad \itempoint curiosité purement théorique ; \item intérêt philosophique (pas de « principe d'omniscience ») ; \item validité dans un cadre mathématique plus large ($\rightarrow$ « topos ») ; \item lien avec les systèmes de typage (via Curry-Howard) ; \item extraction d'algorithme (p.ex., d'une preuve de $\forall m. \exists n. P(m,n)$ dans certains systèmes on peut extraire un algo qui \alert{calcule} $n$ à partir de $m$) ; \item compatibilité avec des axiomes qui contredisent les maths classiques (p.ex. « toute fonction $\mathbb{R}\to\mathbb{R}$ est continue », « toute fonction $\mathbb{N}\to\mathbb{N}$ est calculable » [$\leftarrow$ « calculabilité synthétique »]) qu'on peut vouloir étudier. \end{itemize} \end{frame} % \begin{frame} \frametitle{Preuves classiques pas toujours satisfaisantes} Que penser de la preuve suivante ? \medskip \textbf{Affirmation :} Il existe un algo qui donné $k \in \mathbb{N}$ \alert{termine en temps fini} et renvoie \begin{itemize} \item soit le rang de la première occurrence de $k$ chiffres $7$ dans l'écriture décimale de $\pi$, \item soit « $\infty$ » si une telle occurrence n'existe pas. \end{itemize} \medskip {\footnotesize \underline{Preuve} (classique !) : soit $f\colon \mathbb{N} \to \mathbb{N} \cup \{\infty\}$ la fonction qui à $k$ associe le rang recherché. \alert{De deux choses l'une :} \begin{itemize} \item soit il existe $k_0$ tel que $f(k) = \infty$ pour $k\geq k_0$ : alors $f$ est calculable car $f$ est déterminée par $k_0$ et un nombre \emph{fini} de valeurs $(f(0),\ldots,f(k_0-1))$ ; \item soit $f(k)$ est fini pour tout $k \in \mathbb{N}$ : alors $f$ est calculable par l'algorithme qui, donné $k$, calcule indéfiniment des décimales de $\pi$ jusqu'à en trouver $k$ consécutives valant $7$, et renvoie le rang (cet algorithme termine toujours par hypothèse). \end{itemize} Dans tous les cas $f$ est calculable.\qed \par} \medskip \textcolor{blue}{Objection :} cette preuve (correcte en maths classiques) ne nous donne pas du tout d'algorithme ! Elle montre juste qu'il « existe » classiquement. \end{frame} % \begin{frame} \frametitle{L'interprétation de Brouwer-Heyting-Kolmogorov} Interprétation \alert{informelle/intuitive} des connecteurs de la logique intuitionniste, due à A. Kolmogorov, A. Heyting, G. Kreisel, A. Troelstra et d'autres : \begin{itemize} \item un témoignage de $P\land Q$, est un témoignage de $P$ et un de $Q$, \item un témoignage de $P\lor Q$, est un témoignage de $P$ ou un de $Q$, et la donnée duquel des deux on a choisi, \item un témoignage de $P\Rightarrow Q$ est un moyen de transformer un témoignage de $P$ en un témoignage de $Q$, \item un témoignage de $\top$ est trivial, \quad \itempoint un témoignage de $\bot$ n'existe pas, \item {\color{darkgray} un témoignage de $\forall x.P(x)$ est un moyen de transformer un $x$ quelconque en un témoignage de $P(x)$,} \item {\color{darkgray} un témoignage de $\exists x.P(x)$ est la donnée d'un certain $x_0$ et d'un témoignage de $P(x_0)$.} \end{itemize} \medskip {\footnotesize J'écris « témoignage », mais Kolmogorov parlait de « solution » d'un problème, Heyting de « preuve », etc.\par} \end{frame} % \begin{frame} \frametitle{Correspondance de Curry-Howard : implication seule} \begin{tabular}{c|c} Typage du $\lambda$-calcul simplement typé &Calcul propositionnel intuitionniste\\[1ex]\hline\\ $\inferrule*[left={Var}]{ }{\Gamma,x:\sigma \vdash x:\sigma}$ & $\inferrule*[left={Ax}]{ }{\Gamma,P \vdash P}$ \\[2ex] $\inferrule*[left={App},sep=3em]{\Gamma \vdash f:\sigma\to\tau\\ \Gamma \vdash x:\sigma}{\Gamma \vdash fx:\tau}$ & $\inferrule*[left={$\Rightarrow$Élim},sep=3em]{\Gamma \vdash P\Rightarrow Q\\ \Gamma \vdash P}{\Gamma \vdash Q}$ \\[2ex] $\inferrule*[left={Abs}]{\Gamma, v:\sigma \vdash t:\tau}{\Gamma \vdash \lambda(v:\sigma).t : \sigma\to\tau}$ & $\inferrule*[left={$\Rightarrow$Int}]{\Gamma, P \vdash Q}{\Gamma \vdash P\Rightarrow Q}$ \end{tabular} \bigskip \itempoint Ce sont \alert{exactement les mêmes règles}, aux notations/nommage près… \smallskip \itempoint …sauf que la colonne de droite n'a pas le terme typé, mais on sait qu'on peut le reconstruire (transp. \ref{reconstructing-typed-term}), à partir de l'arbre de dérivation. \smallskip \itempoint On peut donc \alert{identifier} termes du $\lambda$CST et arbres de preuve en déduction naturelle du calcul propositionnel intuitionniste restreint au seul connecteur $\Rightarrow$. \end{frame} % \begin{frame} \frametitle{Correspondance de Curry-Howard : exemple avec implication} \itempoint Transformons en démonstration le terme \[\lambda(f:\beta\to\alpha\to\gamma). \lambda(x:\alpha). \lambda(y:\beta). fyx\] qu'on a typé (transp. \ref{example-typing-derivation}) comme $(\beta\to\alpha\to\gamma) \to (\alpha\to\beta\to\gamma)$ : {\footnotesize \[ \inferrule*[left=\llap{$\Rightarrow$Élim}]{ \inferrule*[left=\llap{$\Rightarrow$Élim}]{ \inferrule*[left=\llap{$\Rightarrow$Élim}]{ \inferrule*[left=\llap{$\Rightarrow$Int}]{ \inferrule*[left=\llap{$\Rightarrow$Int}]{ \inferrule*[left=\llap{Ax}]{ }{\mbox{$\begin{array}{cc}\scriptscriptstyle B \Rightarrow A \Rightarrow C ,\\ \scriptscriptstyle A ,B \\ \end{array}$} \vdash B \Rightarrow A \Rightarrow C } \\ \inferrule*[right=\rlap{Ax}]{ }{\mbox{$\begin{array}{cc}\scriptscriptstyle B \Rightarrow A \Rightarrow C ,\\ \scriptscriptstyle A ,B \\ \end{array}$} \vdash B } }{\mbox{$\begin{array}{cc}\scriptscriptstyle B \Rightarrow A \Rightarrow C ,\\ \scriptscriptstyle A ,B \\ \end{array}$} \vdash A \Rightarrow C } \\ \inferrule*[right=\rlap{Ax}]{ }{\mbox{$\begin{array}{cc}\scriptscriptstyle B \Rightarrow A \Rightarrow C ,\\ \scriptscriptstyle A ,B \\ \end{array}$} \vdash A } }{B \Rightarrow A \Rightarrow C , A , B \vdash C } }{B \Rightarrow A \Rightarrow C , A \vdash B \Rightarrow C } }{B \Rightarrow A \Rightarrow C \vdash A \Rightarrow B \Rightarrow C } }{\vdash (B \Rightarrow A \Rightarrow C ) \Rightarrow (A \Rightarrow B \Rightarrow C )} \] \par} \end{frame} % \begin{frame} \frametitle{Correspondance de Curry-Howard : conjonction} On veut \alert{étendre} le $\lambda$CST avec un \textbf{type produit} pour refléter les règles de la conjonction logique : \medskip \begin{tabular}{c|c} Typage du $\lambda$-calcul &Calcul propositionnel intuitionniste\\[1ex]\hline\\ $\inferrule*[left=Proj$_1$]{\Gamma \vdash t:\tau_1\times\tau_2}{\Gamma \vdash \pi_1 t:\tau_1}$ &$\inferrule*[left={$\land$Élim$_1$}]{\Gamma\vdash Q_1\land Q_2}{\Gamma\vdash Q_1}$ \\[2ex] $\inferrule*[left=Proj$_2$]{\Gamma \vdash t:\tau_1\times\tau_2}{\Gamma \vdash \pi_2 t:\tau_2}$ &$\inferrule*[left={$\land$Élim$_2$}]{\Gamma\vdash Q_1\land Q_2}{\Gamma\vdash Q_2}$ \\[2ex] $\inferrule*[left=Pair]{\Gamma \vdash t_1:\tau_1\\\Gamma \vdash t_2:\tau_2}{\Gamma \vdash \langle t_1,t_2\rangle : \tau_1\times\tau_2}$ &$\inferrule*[left={$\land$Int}]{\Gamma\vdash Q_1\\\Gamma\vdash Q_2}{\Gamma\vdash Q_1\land Q_2}$ \end{tabular} \medskip \itempoint Ici, $\langle\emdash,\emdash\rangle$ sert à construire des couples, et $\pi_1,\pi_2$ à les déconstruire. \smallskip {\footnotesize \itempoint Nouvelle règle de réduction : $\pi_i\langle t_1,t_2\rangle$ se réduit en $t_i$ (pour $i\in\{1,2\}$). \par} \end{frame} % \begin{frame} \frametitle{Correspondance de Curry-Howard : exemple avec conjonction} \itempoint Transformons en programme la démonstration qu'on a donnée de $A\land B \Rightarrow B\land A$ (transp. \ref{example-propositional-proofs} et suivants) : {\footnotesize \[ \inferrule*[left={Abs},right=\hphantom{Abs}]{ \inferrule*[left=\llap{Pair}]{ \inferrule*[left=\llap{Proj$_2$}]{ \inferrule*[left=\llap{Var}]{ }{u:\alpha\times \beta \vdash u:\alpha\times \beta} }{u:\alpha\times \beta \vdash \pi_2 u:\beta} \\ \inferrule*[right=\rlap{Proj$_1$}]{ \inferrule*[right=\rlap{Var}]{ }{u:\alpha\times \beta \vdash u:\alpha\times \beta} }{u:\alpha\times \beta \vdash \pi_1 u:\alpha} }{u:\alpha\times \beta \vdash \langle \pi_2 u, \pi_1 u\rangle:\beta\times \alpha} }{\vdash \lambda(u:\alpha\times\beta).\,\langle \pi_2 u, \pi_1 u\rangle : \alpha\times \beta \rightarrow \beta\times \alpha} \] \par} \bigskip \itempoint Il s'agit de la fonction $\lambda(u:\alpha\times\beta).\,\langle \pi_2 u, \pi_1 u\rangle$ (polymorphe de type $\alpha\times\beta \to \beta\times\alpha$) qui échange les deux termes d'un couple. \end{frame} % \begin{frame} \frametitle{Correspondance de Curry-Howard : disjonction} On veut étendre le $\lambda$CST avec un \textbf{type somme} pour refléter les règles de la disjonction logique : \medskip \begin{tabular}{c|c} Typage du $\lambda$-calcul &Calcul propositionnel intuitionniste\\[1ex]\hline\\ $\inferrule*[left={Inj$_1$}]{\Gamma\vdash t:\tau_1}{\Gamma\vdash \iota_1^{(\tau_1,\tau_2)} t: \tau_1 + \tau_2}$ &$\inferrule*[left={$\lor$Int$_1$}]{\Gamma\vdash Q_1}{\Gamma\vdash Q_1\lor Q_2}$ \\[2ex] $\inferrule*[left={Inj$_2$}]{\Gamma\vdash t:\tau_2}{\Gamma\vdash \iota_2^{(\tau_1,\tau_2)} t: \tau_1 + \tau_2}$ &$\inferrule*[left={$\lor$Int$_2$}]{\Gamma\vdash Q_2}{\Gamma\vdash Q_1\lor Q_2}$ \\[2ex] \textcolor{gray}{ci-dessous $\downarrow$} &{\footnotesize $\inferrule*[left={$\lor$Élim}]{\Gamma\vdash P_1\lor P_2\\\Gamma,P_1\vdash Q\\\Gamma,P_2\vdash Q}{\Gamma\vdash Q}$} \end{tabular} \[ \inferrule*[left={Match}]{\Gamma\vdash r:\sigma_1+ \sigma_2\\\Gamma,v_1:\sigma_1\vdash t_1:\tau\\\Gamma,v_2:\sigma_2\vdash t_2:\tau}{\Gamma\vdash (\texttt{match~}r\texttt{~with~}\iota_1 v_1 \mapsto t_1,\; \iota_2 v_2 \mapsto t_2) : \tau} \] {\footnotesize N.B. : ici, $v_1,v_2$ sont des \alert{variables} et $r,t_1,t_2$ des \alert{termes}.\par} \end{frame} % \begin{frame} \frametitle{Remarques sur types produits et sommes} \itempoint À côté de la $\beta$-réduction usuelle du $\lambda$-calcul, $(\lambda (v:\sigma). e)t \rightsquigarrow e[v\backslash t]$, on introduit des nouvelles règles de réduction pour la conjonction et la disjonction : \begin{itemize} \item $\pi_i\langle t_1,t_2\rangle \;\rightsquigarrow\; t_i$ (pour $i\in\{1,2\}$) \item $(\texttt{match~}\iota_i^{(\tau_1,\tau_2)}s\texttt{~with~}\iota_1 v_1 \mapsto t_1,\; \iota_2 v_2 \mapsto t_2) \;\rightsquigarrow\; t_i[v_i\backslash s]$ (pour $i\in\{1,2\}$) \end{itemize} \medskip \itempoint Côté démonstrations : cette réduction court-circuite une règle \textsc{Intro} immédiatement suivie par une règle \textsc{Élim} (ce qu'on appelle un « détour »). \medskip \itempoint Le $\lambda$-calcul simplement typé reste fortement normalisant avec ces extensions par types produits et sommes et les réductions ci-dessus. \medskip \itempoint Les injections $\iota_i : \tau_i \to \tau_1+\tau_2$ portent l'exposant $(\tau_1,\tau_2)$ pour que les annotations de type soient complètes (mais il est inutile dans le matching). \medskip \itempoint Aucune des notations $\pi_i,\ \langle,\rangle,\ \iota_i,\ \texttt{match}...\texttt{with}$ n'est standardisée (bcp de variations existent), mais il n'y a aucun doute sur la correspondance elle-même. \end{frame} % \begin{frame} \frametitle{Correspondance de Curry-Howard : exemple avec conjonction} \itempoint Transformons en programme la démonstration qu'on a donnée de $A\lor B \Rightarrow B\lor A$ (transp. \ref{example-propositional-proofs} et suivants) : {\footnotesize \[ \inferrule*[left={Abs},right=\hphantom{Int}]{ \inferrule*[left=\llap{Match}]{ \inferrule*[left=\llap{Var}]{ }{u:\alpha+\beta \vdash u:\alpha+\beta} \\ \inferrule*[right={Inj$_2$}]{ \inferrule*[right=\rlap{Var}]{ }{\ldots,v:\alpha \vdash v:\alpha} }{{\scriptstyle\cdots} \vdash \iota_2^{(\beta,\alpha)} v : \beta+\alpha} \\ \inferrule*[right=\rlap{Inj$_1$}]{ \inferrule*[right=\rlap{Var}]{ }{\ldots,v':\beta \vdash v':\beta} }{{\scriptstyle\cdots} \vdash \iota_1^{(\beta,\alpha)} v' : \beta+\alpha} }{u:\alpha+\beta \vdash (\texttt{match~} u\texttt{~with~}\iota_1 v \mapsto \iota^{(\beta,\alpha)}_2 v,\; \iota_2 v' \mapsto \iota_1^{(\beta,\alpha)} v') : \beta+\alpha} }{\vdash \lambda (u:\alpha+\beta) . (\texttt{match~} u\texttt{~with~}\iota_1 v \mapsto \iota^{(\beta,\alpha)}_2 v,\; \iota_2 v' \mapsto \iota_1^{(\beta,\alpha)} v') : \alpha+\beta \to \beta+\alpha} \] \par} \bigskip \itempoint Il s'agit de la fonction \[ \lambda (u:\alpha+\beta) . (\texttt{match~} u\texttt{~with~}\iota_1 v \mapsto \iota^{(\beta,\alpha)}_2 v,\; \iota_2 v' \mapsto \iota_1^{(\beta,\alpha)} v') \] (polymorphe de type $\alpha+\beta \to \beta+\alpha$) qui échange les deux cas d'une somme. \end{frame} % \begin{frame} \frametitle{Correspondance de Curry-Howard : vrai et faux} On veut étendre le $\lambda$CST avec un \textbf{type unité} et un \textbf{type vide} pour refléter les règles du vrai et du faux : \medskip \begin{tabular}{c|c} Typage du $\lambda$-calcul &Calcul propositionnel intuitionniste\\[1ex]\hline\\ $\inferrule*[left={Unit}]{ }{\Gamma\vdash \bullet:\top}$ &$\inferrule*[left={$\top$Int}]{ }{\Gamma\vdash \top}$ \\[2ex] $\inferrule*[left={Void}]{\Gamma\vdash r:\bot}{\Gamma\vdash \texttt{exfalso}^{(\tau)} r : \tau}$ &$\inferrule*[left={$\bot$Élim}]{\Gamma\vdash \bot}{\Gamma\vdash Q}$ \end{tabular} \medskip \itempoint Ici, $\bullet$ désigne la valeur triviale de type unité (\texttt{()} en OCaml), et $\texttt{exfalso}$ est un matching vide. {\footnotesize (Notations pas standardisées du tout.)} \smallskip \itempoint Pas de nouvelle règle de réduction à ajouter. \end{frame} % \begin{frame} \frametitle{Correspondance de Curry-Howard : exemples divers} \itempoint L'implication $(A\Rightarrow B\Rightarrow C) \Rightarrow (A\Rightarrow B)\Rightarrow A\Rightarrow C$ est démontrée par le terme (« combinateur $\mathsf{S}$ ») : \[ \lambda (x:\alpha\to\beta\to\gamma).\, \lambda (y:\alpha\to\beta).\, \lambda (z:\alpha).\, xz(yz) \] \medskip \itempoint L'équivalence $(A\land B \Rightarrow C) \Leftrightarrow (A\Rightarrow B\Rightarrow C)$ est démontrée par les fonctions de « curryfication » \[ \lambda (f:\alpha\times\beta\to\gamma).\, \lambda (x:\alpha).\, \lambda(y:\beta).\, f\langle x,y\rangle \] et « décurryfication » \[ \lambda (f:\alpha\to\beta\to\gamma).\, \lambda (z:\alpha\times\beta).\, f(\pi_1 z)(\pi_2 z) \] \medskip \itempoint L'équivalence $A\lor(B\land C) \Leftrightarrow (A\lor B)\land (A\lor C)$ est démontrée par les termes {\footnotesize \[ \lambda (u:\alpha+(\beta\times\gamma)).\, (\texttt{match~}u\texttt{~with~}\iota_1 v \mapsto \langle \iota^{(\alpha,\beta)}_1 v, \iota^{(\alpha,\gamma)}_1 v\rangle,\; \iota_2 w \mapsto \langle \iota^{(\alpha,\beta)}_2 (\pi_1 w), \iota^{(\alpha,\gamma)}_2 (\pi_2 w)\rangle) \] \vskip-1ex et\vskip-5ex \[ \begin{aligned} \lambda (u:(\alpha+\beta)\times(\alpha+\gamma)).\, &(\texttt{match~}\pi_1 u\texttt{~with~}\iota_1 v \mapsto \iota_1^{(\alpha,\beta\times\gamma)} v,\\ \iota_2 v' \mapsto &(\texttt{match~}\pi_2 u\texttt{~with~}\iota_1 w \mapsto \iota_1^{(\alpha,\beta\times\gamma)} w,\; \iota_2 w' \mapsto \iota_2^{(\alpha,\beta\times\gamma)}\langle v',w'\rangle )) \end{aligned} \] } \end{frame} % \begin{frame} \frametitle{Correspondance de Curry-Howard : exemple en OCaml} Reprise de l'équivalence $A\lor(B\land C) \Leftrightarrow (A\lor B)\land (A\lor C)$ typée par OCaml : \bigskip {\footnotesize\tt let pi1 = fun (x,y) -> x ;; (* $\pi_1$ *)\\ {\color{purple}val pi1 : 'a * 'b -> 'a = }\\ let pi2 = fun (x,y) -> y ;; (* $\pi_2$ *)\\ {\color{purple}val pi2 : 'a * 'b -> 'b = }\\ type ('a, 'b) sum = Inj1 of 'a | Inj2 of 'b ;; (* $\alpha+\beta$ *)\\ {\color{purple}type ('a, 'b) sum = Inj1 of 'a | Inj2 of 'b}\\ fun u -> match u with Inj1 v -> (Inj1 v, Inj1 v)\\ \ \ | Inj2 w -> (Inj2 (pi1 w), Inj2 (pi2 w)) ;;\\ {\color{purple}- : ('a, 'b * 'c) sum -> ('a, 'b) sum * ('a, 'c) sum = }\\ fun u -> (match (pi1 u) with Inj1 v -> Inj1 v\\ \ \ | Inj2 v\_ -> (match (pi2 u) with Inj1 w -> Inj1 w\\ \ \ \ \ | Inj2 w\_ -> Inj2 (v\_,w\_))) ;;\\ {\color{purple}- : ('a, 'b) sum * ('a, 'c) sum -> ('a, 'b * 'c) sum = } } \end{frame} % \begin{frame} \frametitle{Les preuves ne sont pas uniques} {\footnotesize La question de l'égalité est compliquée, on ne l'abordera guère.\par} \itempoint Une même proposition peut avoir des preuves (fonctionnellement) \alert{différentes}. \medskip Par exemple, les entiers de Church typés : \begin{itemize} \item $\overline{0}_{\alpha} := \lambda(f:\alpha\to\alpha).\lambda(x:\alpha).x$ \item $\overline{1}_{\alpha} := \lambda(f:\alpha\to\alpha).\lambda(x:\alpha).fx$ \item $\overline{2}_{\alpha} := \lambda(f:\alpha\to\alpha).\lambda(x:\alpha).f(fx)$ etc. \end{itemize} tous de type $(\alpha\to\alpha)\to(\alpha\to\alpha)$ prouvent tous $(A\Rightarrow A)\Rightarrow(A\Rightarrow A)$. \medskip {\footnotesize ($\overline{0}$) : « [\textbf{(1)} Supposons $A\Rightarrow A$. [\textbf{(2)} Supposons $A$.] \textbf{(3)} On a $A\Rightarrow A$ par $\Rightarrow$Int de (2) dans (2).] \textbf{(4)} On a $(A\Rightarrow A)\Rightarrow(A\Rightarrow A)$ par $\Rightarrow$Int de (1) dans (3). » \medskip ($\overline{1}$) : « [\textbf{(1)} Supposons $A\Rightarrow A$. [\textbf{(2)} Supposons $A$. \textbf{(3)} On a $A$ par $\Rightarrow$Élim sur (1) et (2).] \textbf{(4)} On a $A\Rightarrow A$ par $\Rightarrow$Int de (2) dans (3).] \textbf{(5)} On a $(A\Rightarrow A)\Rightarrow(A\Rightarrow A)$ par $\Rightarrow$Int de (1) dans (4). » \medskip ($\overline{2}$) : « [\textbf{(1)} Supposons $A\Rightarrow A$. [\textbf{(2)} Supposons $A$. \textbf{(3)} On a $A$ par $\Rightarrow$Élim sur (1) et (2). \textbf{(4)} On a $A$ par $\Rightarrow$Élim sur (1) et (3).] \textbf{(5)} On a $A\Rightarrow A$ par $\Rightarrow$Int de (2) dans (4).] \textbf{(6)} On a $(A\Rightarrow A)\Rightarrow(A\Rightarrow A)$ par $\Rightarrow$Int de (1) dans (5). » \par} \end{frame} % % TODO: % - discussion de la négation et double négation % - substitution des variables propositionnelles par des formules % - substitution d'équivalences % - présentation en calcul des séquents % - élimination des coupures % - Kripke % - inférence de type de Hindley-Milner % \end{document}