%% This is a LaTeX document. Hey, Emacs, -*- latex -*- , get it? \documentclass[mathserif,a4paper,aspectratio=169]{beamer} %\documentclass[a4paper]{article} %\usepackage[envcountsect,noxcolor]{beamerarticle} \usepackage[shorthands=off,francais]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \DeclareUnicodeCharacter{00A0}{~} \DeclareUnicodeCharacter{2026}{...} \DeclareUnicodeCharacter{1E25}{\d{h}} % Beamer theme: \usetheme{Goettingen} %\usecolortheme{albatross} %\usecolortheme{lily} %\setbeamercovered{transparent} % A tribute to the worthy AMS: \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage{amsthm} % \usepackage{mathrsfs} % \usepackage{graphicx} \usepackage{tikz} \usetikzlibrary{arrows,automata,calc} % \newcommand{\itempoint}{\strut\hbox{\color{beamerstructure}\donotcoloroutermaths$\blacktriangleright$}\nobreak\hskip.5em plus.5em\relax} \renewcommand{\thefootnote}{\textdagger} \newcommand{\dbllangle}{\mathopen{\langle\!\langle}} \newcommand{\dblrangle}{\mathclose{\rangle\!\rangle}} % % % \title{Calculabilité} \subtitle{INF110 (Logique et Fondements de l'Informatique)} \author[David Madore]{David A. Madore\\ {\footnotesize Télécom Paris}\\ \texttt{david.madore@enst.fr}} \date{2023–2024} \mode{% \beamertemplatenavigationsymbolsempty \usenavigationsymbolstemplate{\vbox{\hbox{\footnotesize\hyperlinkslideprev{$\leftarrow$}\insertframenumber/\inserttotalframenumber\hyperlinkslidenext{$\rightarrow$}}}} } \setbeamercolor{myhighlight}{fg=black,bg=white!90!green} \begin{document} \mode
{\maketitle} % \setlength\abovedisplayskip{2pt plus 2pt minus 2pt} \setlength\belowdisplayskip{2pt plus 2pt minus 2pt} % \begin{frame} \titlepage {\footnotesize\center{\url{http://perso.enst.fr/madore/inf110/transp-inf110.pdf}}\par} {\tiny \immediate\write18{sh ./vc > vcline.tex} \begin{center} Git: \input{vcline.tex} \end{center} \immediate\write18{echo ' (stale)' >> vcline.tex} \par} \end{frame} % \section*{Plan} \begin{frame} \frametitle{Plan} \tableofcontents \end{frame} % \section{Introduction} \begin{frame} \frametitle{Qu'est-ce que la calculabilité ?} \itempoint À l'interface entre \textbf{logique mathématique} et \textbf{informatique théorique} \begin{itemize} \item née de préoccupations venues de la logique (Hilbert, Gödel), \item à l'origine des 1\textsuperscript{ers} concepts informatiques ($\lambda$-calcul, machine de Turing). \end{itemize} \bigskip \itempoint But : étudier les limites de ce que \textbf{peut ou ne peut pas faire un algorithme} \begin{itemize} \item sans limite de ressources (temps, mémoire juste « finis »), \item sans préoccupation d'efficacité ($\neq$ complexité, algorithmique), \item y compris résultats négatifs (« \emph{aucun} algorithme ne peut… »), \item voire relatifs (calculabilité relative), \item admettant diverses généralisations (calculabilité supérieure). \end{itemize} \end{frame} % \begin{frame} \frametitle{Quelques noms} \itempoint Muḥammad ibn Mūsá al-\b{H}wārizmī (v.780–v.850) : $\rightsquigarrow$« algorithme » \itempoint Blaise Pascal (1623–1662) : machine à calculer $\rightsquigarrow$automates \itempoint Charles Babbage (1791–1871) : \textit{Analytical Engine} (Turing-complète !) \itempoint Ada (née Byron) Countess of Lovelace (1815–1852) : programmation \itempoint Richard Dedekind (1831–1916) : définitions primitives récursives \itempoint David Hilbert (1862–1943) : \textit{Entscheidungsproblem} (décider la vérité) \itempoint Jacques Herbrand (1908–1931) : fonctions générales récursives \itempoint Kurt Gödel (1906–1978) : incomplétude en logique \itempoint Alonzo Church (1903–1995) : $\lambda$-calcul \itempoint Alan M. Turing (1912–1954) : machine de Turing, problème de l'arrêt \itempoint Emil Post (1897–1954) : ensembles calculablement énumérables \itempoint Stephen C. Kleene (1909–1994) : $\mu$-récursion, th. de récursion, forme normale \end{frame} % \begin{frame} \frametitle{Fonction calculable} « Définition » : une fonction $f$ est \textbf{calculable} quand il existe un algorithme qui \begin{itemize} \item prenant en entrée un $x$ du domaine de définition de $f$, \item \textbf{termine en temps fini}, \item et renvoie la valeur $f(x)$. \end{itemize} \bigskip Difficultés : \begin{itemize} \item Comment définir ce qu'est un algorithme ? \item Quel type de valeurs ? \item Et si l'algorithme ne termine pas ? \item Distinction entre intention (l'algorithme) et extension (la fonction). \end{itemize} \end{frame} % \begin{frame} \frametitle{Sans préoccupation d'efficacité} \itempoint La calculabilité \alert{ne s'intéresse pas à l'efficacité} des algorithmes qu'elle étudie, uniquement leur \textbf{terminaison en temps fini}. \medskip P.ex. : pour savoir si $n$ est premier, on peut tester si $i\times j=n$ pour tout $i$ et $j$ allant de $2$ à $n-1$. (Hyper inefficace ? On s'en fout.) \bigskip \itempoint La calculabilité \alert{n'a pas peur des grands entiers}. \medskip P.ex. : \textbf{fonction d'Ackermann} définie par : \[ \begin{aligned} A(m,n,0) &= m+n \\ A(m,1,k+1) &= m \\ A(m,n+1,k+1) &= A(m,\,A(m,n,k+1),\,k) \end{aligned} \] définition algorithmique (par appels récursifs), donc calculable. \smallskip Mais $A(2,6,3) = 2^{2^{2^{2^{2^2}}}} = 2^{2^{65\,536}}$ et $A(2,4,4) = A(2,65\,536,3)$ est inimaginablement grand (et que dire de $A(100,100,100)$ ?). $\Rightarrow$ Ingérable sur un vrai ordinateur. \end{frame} % \begin{frame} \frametitle{Approches de la calculabilité} \itempoint Approche informelle : \textbf{algorithme = calcul finitiste} mené par un humain ou une machine, selon des instructions précises, en temps fini, sur des données finies \medskip \itempoint Approche pragmatique : tout ce qui peut être fait sur un langage de programmation « Turing-complet » (Python, Java, C, Caml…) idéalisé \begin{itemize} \item sans limites d'implémentation (p.ex., entiers arbitraires !), \item sans source de hasard ou de non-déterminisme. \end{itemize} \medskip \itempoint Approches formelles, p.ex. : \begin{itemize} \item fonctions générales récursives (Herbrand-Gödel-Kleene), \item $\lambda$-calcul (Church) ($\leftrightarrow$ langages fonctionnels), \item machine de Turing (Turing), \item machines à registres (Post…). \end{itemize} \bigskip \itempoint\textbf{« Thèse » de Church-Turing} : \alert{tout ceci donne la même chose}. \end{frame} % \begin{frame} \frametitle{Thèse de Church-Turing} \itempoint\textbf{Théorème} (Post, Turing) : les fonctions (disons $\mathbb{N} \dasharrow \mathbb{N}$) \textbf{(1)} générales récursives, \textbf{(2)} exprimables en $\lambda$-calcul, et \textbf{(3)} calculables par machine de Turing, coïncident toutes. \smallskip $\Rightarrow$ On parle de \alert{calculabilité au sens de Church-Turing}. \bigskip \itempoint\textbf{Observation} : tous les langages de programmation informatiques généraux usuels, idéalisés, calculent aussi exactement ces fonctions ($\rightarrow$ « Turing-complets »). \bigskip \itempoint\textbf{Thèse philosophique} : la calculabilité de C-T définit précisément la notion d'algorithme finitiste. \bigskip \itempoint\textbf{Conjecture physique} : la calculabilité de C-T correspond aux calculs réalisables mécaniquement dans l'Univers (en temps/énergie finis mais illimités). {\footnotesize $\uparrow$ (même avec un ordinateur quantique)} \bigskip Pour toutes ces raisons, le sujet mérite d'être étudié ! \end{frame} % \begin{frame} \frametitle{Données finies} Un algorithme travaille sur des \textbf{données finies}. \medskip Qu'est-ce qu'une « donnée finie » ? Tout objet représentable informatiquement : booléen, entier, chaîne de caractères, structure, liste/tableau de ces choses, ou même plus complexe (p.ex., graphe). \medskip $\rightarrow$ Comment y voir plus clair ? \bigskip Deux approches opposées : \begin{itemize} \item\textbf{typage} : distinguer toutes ces sortes de données, \item\textbf{codage de Gödel} : tout représenter comme des entiers ! \end{itemize} \bigskip Le typage est plus élégant, plus satisfaisant, plus proche de l'informatique réelle. \smallskip Le codage de Gödel simplifie l'approche/définition de la calculabilité (on étudie juste des fonctions $\mathbb{N} \dasharrow \mathbb{N}$). \end{frame} % \begin{frame} \frametitle{Codage de Gödel (« tout est un entier »)} \itempoint Représenter \textbf{n'importe quelle donnée finie par un entier}. \bigskip \itempoint Codage des couples : par exemple, \[ \langle m,n\rangle := m + \frac{1}{2}(m+n)(m+n+1) \] définit une bijection calculable $\mathbb{N}^2 \to \mathbb{N}$ (calculable dans les deux sens). \bigskip \itempoint Codage des listes finies : par exemple, \[ \dbllangle a_0,\ldots,a_{k-1}\dblrangle := \langle a_0, \langle a_1, \langle\cdots,\langle a_{k-1},0\rangle+1\cdots\rangle+1\rangle+1 \] définit une bijection calculable $\{\text{suites finies dans $\mathbb{N}$}\} \to \mathbb{N}$ {\footnotesize (avec $\dbllangle\dblrangle := 0$)}. \bigskip \itempoint Il sera aussi utile de représenter les \alert{programmes} par des entiers. \bigskip \itempoint Les détails précis du codage sont \textbf{sans importance}. \bigskip \itempoint\textcolor{orange}{Ne pas utiliser dans la vraie vie} (hors calculabilité) ! \end{frame} % \begin{frame} \frametitle{Fonctions partielles} \itempoint Même si on s'intéresse à des algorithmes qui \textbf{terminent}, la définition de la calculabilité \alert{doit forcément} passer aussi par ceux qui ne terminent pas. {\footnotesize (Aucun langage Turing-complet ne peut exprimer uniquement des algorithmes qui terminent toujours, à cause de l'indécidabilité du problème de l'arrêt.)\par} \bigskip \itempoint Lorsque l'algorithme censé calculer $f(n)$ ne termine pas, on dira que $f$ n'est pas définie en $n$, et on notera $f(n)\uparrow$. Au contraire, s'il termine, on note $f(n)\downarrow$. \bigskip \itempoint Notation : $f\colon \mathbb{N} \dasharrow \mathbb{N}$ : une fonction $D \to \mathbb{N}$ définie sur une partie $D \subseteq \mathbb{N}$. \itempoint Notation : $f(n) \downarrow$ signifie « $n \in D$ », et $f(n) \uparrow$ signifie « $n \not\in D$ ». \itempoint Notation : $f(n) \downarrow = g(m)$ signifie « $f(n)\downarrow$ et $g(m)\downarrow$ et $f(n) = g(m)$ ». \itempoint Convention : $f(n) = g(m)$ signifie « $f(n)\downarrow$ ssi $g(m)\downarrow$, et $f(n) = g(m)$ si $f(n)\downarrow$ ». (Certains préfèrent écrire $f(n) \simeq g(m)$ pour ça.) \medskip \itempoint Convention : si $g_i(\underline{x})\uparrow$ pour un $i$, on convient que $h(g_1(\underline{x}),\ldots,g_k(\underline{x}))\uparrow$. \medskip \itempoint Terminologie : une fonction $f\colon \mathbb{N} \to \mathbb{N}$ est dite \textbf{totale}. {\footnotesize Une fonction totale est un \alert{cas particulier} de fonction partielle !\par} \end{frame} % \begin{frame} \frametitle{Terminologie à venir (avant-goût)} \itempoint Une fonction partielle $f\colon \mathbb{N} \dasharrow \mathbb{N}$ est dite \textbf{calculable} (partielle) lorsqu'il existe un algorithme qui prend $n$ en entrée et : \begin{itemize} \item termine (en temps fini) et renvoie $f(n)$ lorsque $f(n)\downarrow$, \item ne termine pas lorsque $f(n)\uparrow$. \end{itemize} \bigskip \itempoint Une partie $A \subseteq \mathbb{N}$ est dite \textbf{décidable} lorsque sa fonction indicatrice $\mathbb{N}\to\mathbb{N}$ \[ \mathbf{1}_A\colon n \mapsto \left\{ \begin{array}{ll} 1&\text{~si~}n\in A\\ 0&\text{~si~}n\not\in A\\ \end{array} \right. \] est calculable (répondre « oui » ou « non » selon que $n\in A$ ou $n\not\in A$). \bigskip \itempoint Une partie $A \subseteq \mathbb{N}$ est dite \textbf{semi-décidable} lorsque sa fonction partielle « semi-indicatrice » $\mathbb{N}\dasharrow\mathbb{N}$ (d'ensemble de définition $A$) \[ n \mapsto \left\{ \begin{array}{ll} 1&\text{~si~}n\in A\\ \uparrow&\text{~si~}n\not\in A\\ \end{array} \right. \] est calculable (répondre « oui » ou « ... » selon que $n\in A$ ou $n\not\in A$). \end{frame} % \begin{frame} \frametitle{Point terminologique : « récursif »} Le mot « récursif » et ses cognats (« récursion », « récursivité ») a plusieurs sens \alert{apparentés mais non identiques} : \begin{itemize} \item « récursif » = « défini par récurrence » (Dedekind 1888) $\rightarrow$ fonctions primitives récursives, générales récursives (cf. après) ; \item « récursif » = « calculable » (par glissement à cause de la définition de la calculabilité par les fonctions générales récursives) ; \item « récursif » = « faisant appel à lui-même dans sa définition » (appels récursifs, récursivité en informatique). \end{itemize} \bigskip On va définir les fonctions « \textbf{primitives récursives} » (1\textsuperscript{er} sens) et « \textbf{(générales) récursives} » (1\textsuperscript{er} et aussi 2\textsuperscript{e} sens) ci-après. \medskip Pour le 3\textsuperscript{e} sens, on dira « appels récursifs ». \end{frame} % \section{Fonctions primitives récursives} \begin{frame} \frametitle{Fonctions primitives récursives : aperçu} \itempoint Avant de définir les fonctions générales récursives ($\cong$ calculables), on va commencer par les \textbf{primitives récursives}, plus restreintes. {\footnotesize« primitive\alert{ment} récursives » ?\par} \bigskip \itempoint Historiquement antérieures à la calculabilité de Church-Turing. \bigskip \itempoint Pédagogiquement utile comme « échauffement ». \bigskip \itempoint À cheval entre calculabilité (\textbf{PR} est une petite classe de calculabilité) et complexité (c'est une grosse classe de complexité). \bigskip \itempoint Correspond à des programmes à \textbf{boucles bornées a priori}. \bigskip \itempoint Énormément d'algorithmes usuels sont p.r. \bigskip \itempoint Mais pas tous : p.ex. la fonction d'Ackermann n'est pas p.r. \end{frame} % \begin{frame} \label{primitive-recursive-definition} \frametitle{Fonctions primitives récursives : définition} \itempoint $\textbf{PR}$ est la plus petite classe de fonctions $\mathbb{N}^k \dasharrow \mathbb{N}$ (en fait $\mathbb{N}^k \to \mathbb{N}$), pour $k$ variable qui : \begin{itemize} \item contient les projections $\underline{x} := (x_1,\ldots,x_k) \mapsto x_i$ ; \item contient les constantes $\underline{x} \mapsto c$ ; \item contient la fonction successeur $x \mapsto x+1$ ; \item est stable par composition : si $g_1,\ldots,g_\ell\colon \mathbb{N}^k \dasharrow \mathbb{N}$ et $h\colon \mathbb{N}^\ell \dasharrow \mathbb{N}$ sont p.r. alors $\underline{x} \mapsto h(g_1(\underline{x}),\ldots, g_\ell(\underline{x}))$ est p.r. ; \item est stable par récursion primitive : si $g\colon \mathbb{N}^k \dasharrow \mathbb{N}$ et $h\colon \mathbb{N}^{k+2} \dasharrow \mathbb{N}$ sont p.r., alors $f\colon \mathbb{N}^{k+1} \dasharrow \mathbb{N}$ est p.r., où : \[ \begin{aligned} f(\underline{x},0) &= g(\underline{x})\\ f(\underline{x},z+1) &= h(\underline{x},f(\underline{x},z),z) \end{aligned} \] \end{itemize} \medskip {\footnotesize Les fonctions p.r. sont automatiq\textsuperscript{t} totales, mais il est commode de garder la définition avec $\dasharrow$.\par} \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : exemples} \itempoint $f\colon (x,z) \mapsto x+z$ est p.r. : \[ \begin{aligned} f(x,0) &= x\\ f(x,z+1) &= f(x,z)+1 \end{aligned} \] {\footnotesize où $x \mapsto x$ et $(x,y,z) \mapsto y+1$ sont p.r.\par} \medskip \itempoint $f\colon (x,z) \mapsto x\cdot z$ est p.r. : \[ \begin{aligned} f(x,0) &= 0\\ f(x,z+1) &= f(x,z)+x \end{aligned} \] \medskip \itempoint $f\colon (x,z) \mapsto x^z$ est p.r. \bigskip \itempoint $f\colon (x,y,0) \mapsto x, \; (x,y,z) \mapsto y\text{~si~}z\geq 1$ est p.r. : \[ \begin{aligned} f(x,y,0) &= x\\ f(x,y,z+1) &= y \end{aligned} \] \medskip \itempoint $(u,v) \mapsto \max(u-v,0)$ est p.r. (exercice !) ou même $u\% v$. \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : programmation} Les fonctions p.r. sont celles définies par un \textbf{langage de programmation à boucles bornées}, c'est-à-dire que : \begin{itemize} \item les variables sont des entiers naturels (illimités !), \item les manipulations de base sont permises (constantes, affectations, test d'égalité, conditionnelles), \item les opérations arithmétiques basiques sont disponibles, \item on peut faire des appels de fonctions \alert{sans appels récursifs}, \item on ne peut faire que des boucles \alert{de nombre borné \textit{a priori}} d'itérations. \end{itemize} \medskip Les programmes dans un tel langage \textbf{terminent forcément par construction}. \bigskip \textbf{N.B.} $(m,n) \mapsto \langle m,n\rangle := m + \frac{1}{2}(m+n)(m+n+1)$ et $\langle m,n\rangle \mapsto m$ et $\langle m,n\rangle \mapsto n$ sont p.r. \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : lien avec la complexité} En anticipant sur la notion de machine de Turing : \medskip \itempoint La fonction $(M,C) \mapsto C'$ qui à une machine de Turing $M$ et une configuration (= ruban+état) $C$ de $M$ associe la configuration suivante \textbf{est p.r.} \medskip \itempoint Conséquence : la fonction $(n,M,C) \mapsto C^{(n)}$ qui à $n\in\mathbb{N}$ et une machine de Turing $M$ et une configuration $C$ de $M$ associe la configuration atteinte après $n$ étapes d'exécution, \textbf{est p.r.} {\footnotesize (Par récursion primitive sur le point précédent.)} \medskip \itempoint Conséquence : une fonction calculable en complexité p.r. par une machine de Turing est elle-même p.r. \smallskip {\footnotesize (Calculer une borne p.r. sur le nombre d'étapes, puis appliquer le point précédent.)} \medskip \itempoint Réciproquement : une p.r. est calculable en complexité p.r. \medskip \itempoint Moralité : p.r. $\Leftrightarrow$ de complexité p.r. \smallskip {\footnotesize Notamment $\textbf{EXPTIME} \subseteq \textbf{PR}$.\par} \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : limitations} {\footnotesize La classe $\textbf{PR}$ est « à cheval » entre la calculabilité et la complexité.\par} \bigskip Rappel : la \textbf{fonction d'Ackermann} (pour $m=2$) définie par : \[ \begin{aligned} A(2,n,0) &= 2+n \\ A(2,1,k+1) &= 2 \\ A(2,n+1,k+1) &= A(2,\,A(2,n,k+1),\,k) \end{aligned} \] devrait être calculable. Mais cette définition \alert{n'est pas une récursion primitive} (pourquoi ?). \bigskip \itempoint On peut montrer que : si $f \colon \mathbb{N}^k \to \mathbb{N}$ est p.r., il existe $r$ tel que \[ f(x_1,\ldots,x_k) \leq A(2,\, (x_1+\cdots+x_k+2),\, r) \] \medskip \itempoint Notamment, $r \mapsto A(2, 2, r)$ \textbf{n'est pas p.r.} \medskip Pourtant, \alert{elle est bien définie par un algorithme} clair (et terminant clairement). \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : numérotation (idée)} \itempoint On veut \alert{coder} les fonctions p.r. {\footnotesize (et plus tard : gén\textsuperscript{ales} récursives)} \alert{par des entiers}. \bigskip \itempoint Pour (certains) entiers $e \in \mathbb{N}$, on va définir $\psi_e^{(k)}\colon \mathbb{N}^k \to \mathbb{N}$ primitive récursive, la fonction p.r. \alert{codée} par $e$ ou ayant $e$ comme \textbf{code} (source). \bigskip \itempoint Toute fonction p.r. $f\colon \mathbb{N}^k \to \mathbb{N}$ sera un $\psi_e^{(k)}$ pour un certain $e$. \smallskip \itempoint Ce $e$ décrit la manière dont $f$ est construite selon la définition de $\mathbf{PR}$ (cf. transp. \ref{primitive-recursive-definition}). \smallskip \itempoint Il faut l'imaginer comme le \alert{code source} de $f$ (au sens informatique). \smallskip \itempoint Il n'est \alert{pas du tout unique} : $f = \psi_{e_1}^{(k)} = \psi_{e_2}^{(k)} = \cdots$ \bigskip {\footnotesize \itempoint On va ensuite se demander si $(e,\underline{x}) \mapsto \psi_e^{(k)}(\underline{x})$ est \alert{elle-même p.r.} (divulgâchis : \alert{non}). \par} \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : numérotation (définition)} On définit $\psi_e^{(k)}\colon \mathbb{N}^k \dasharrow \mathbb{N}$ par induction suivant la déf\textsuperscript{n} de $\mathbf{PR}$ (cf. transp. \ref{primitive-recursive-definition}) : \begin{itemize} \item si $e = \dbllangle 0, k, i\dblrangle$ alors $\psi_e^{(k)}(x_1\ldots,x_k) = x_i$ (projections) ; \item si $e = \dbllangle 1, k, c\dblrangle$ alors $\psi_e^{(k)}(x_1\ldots,x_k) = c$ (constantes) ; \item si $e = \dbllangle 2\dblrangle$ alors $\psi_e^{(k)}(x) = x+1$ (successeur) ; \item si $e = \dbllangle 3, k, d, c_1,\ldots,c_\ell\dblrangle$ et $g_i := \psi_{c_i}^{(k)}$ et $h := \psi_d^{(\ell)}$, alors $\psi_e^{(k)} \colon \underline{x} \mapsto h(g_1(\underline{x}),\ldots, g_\ell(\underline{x}))$ (composition) ; \item si $e = \dbllangle 4, k, d, c\dblrangle$ et $g := \psi_c^{(k)}$ et $h := \psi_d^{(k+2)}$, alors (récursion primitive) \[ \begin{aligned} \psi_e^{(k+1)}(\underline{x},0) &= g(\underline{x})\\ \psi_e^{(k+1)}(\underline{x},z+1) &= h(\underline{x},f(\underline{x},z),z) \end{aligned} \] \end{itemize} (Autres cas non définis, i.e., donnent $\uparrow$.) \bigskip \itempoint Alors $f\colon \mathbb{N}^k \dasharrow \mathbb{N}$ est p.r. \alert{ssi} $\exists e \in\mathbb{N}.\,(f = \psi_e^{(k)})$. {\tiny P.ex., $e = \dbllangle 4,1,\dbllangle 3,3,\dbllangle 2\dblrangle,\dbllangle 0,3,2\dblrangle\dblrangle,\dbllangle 0,1,1\dblrangle\dblrangle$ définit $\psi^{(2)}_e(x,z) = x+z$ sauf erreur (probable) de ma part.\par} \end{frame} % \begin{frame} \frametitle{Manipulation de programmes (version p.r.)} \itempoint Penser à $e$ dans $\psi_e^{(k)}$ comme un programme écrit en « langage p.r. ». \medskip \itempoint La fonction $\psi_e^{(k)}\colon \mathbb{N}^k \dasharrow \mathbb{N}$ « interprète » le programme $e$. \medskip \itempoint Une fonction p.r. a généralement \alert{beaucoup d'indices} : $\psi_{e_1}^{(k)} = \psi_{e_2}^{(k)} = \cdots$ (programmes équivalents). \medskip \centerline{*} \bigskip La numérotation (transp. précédent) rend p.r. beaucoup de manipulations usuelles de programmes (composition, récursion, etc.). Notamment : \medskip \itempoint\textbf{Théorème s-m-n} (Kleene) : il existe $s_{m,n} \colon \mathbb{N}^{m+1} \to \mathbb{N}$ p.r. telle que \[ (\forall e,\underline{x},\underline{y})\quad \psi^{(n)}_{s_{m,n}(e,x_1,\ldots,x_m)}(y_1,\ldots,y_n) = \psi^{(m+n)}_e(x_1,\ldots,x_m,\,y_1,\ldots,y_n) \] {\footnotesize\underline{Preuve :} $s_{m,n}(e,\underline{x}) = \dbllangle 3, n, e, \dbllangle 1, n, x_1\dblrangle, \ldots, \dbllangle 1, n, x_m\dblrangle, \; \dbllangle 0, n, 1\dblrangle, \ldots, \dbllangle 0, n, n\dblrangle \dblrangle$ avec nos conventions (composition de fonctions constantes et de projections).\qed\par} \medskip \emph{En clair :} $s_{m,n}$ prend un programme $e$ qui prend $m+n$ arguments en entrée et « fixe » la valeur des $m$ premiers arguments à $x_1,\ldots,x_m$, les $n$ arguments suivants ($y_1,\ldots,y_n$) étant gardés variables. \end{frame} % \begin{frame} \frametitle{Digression : l'astuce de Quine (intuition)} {\footnotesize Le nom de Willard Van Orman Quine (1908–2000) a été associé à cette astuce par Douglas Hofstadter. En fait, l'astuce est plutôt due à Cantor, Gödel, Turing ou Kleene.\par} \smallskip \textcolor{teal}{Les mots suivants suivis des mêmes mots entre guillemets forment une phrase intéressante : « les mots suivants suivis des mêmes mots entre guillemets forment une phrase intéressante ».} \bigskip Pseudocode : \smallskip {\footnotesize\texttt{% str="somefunc(code) \{ /*...*/ \}\textbackslash nsomefunc(\textbackslash"str=\textbackslash"+quote(str)+str);\textbackslash n";\\ somefunc(code) \{ /*...*/ \}\\ somefunc("str="+quote(str)+str); }\par} \smallskip $\Rightarrow$ La fonction \texttt{somefunc} (arbitraire) est appelée avec le code source du programme \alert{tout entier}. \medskip {\footnotesize\textbf{Exercice :} utiliser cette astuce pour écrire un programme écrivant son propre code source.\par} \bigskip \textcolor{blue}{\textbf{Moralité :}} \alert{on peut toujours donner aux programmes accès à leur code source}, même si ce n'est pas prévu par le langage. \end{frame} % \begin{frame} \frametitle{Le théorème de récursion de Kleene (version p.r.)} Version formelle de l'astuce de Quine \smallskip \itempoint\textbf{Théorème} (Kleene) : si $h \colon \mathbb{N}^{k+1} \dasharrow \mathbb{N}$ est p.r., il existe $e$ tel que \[ (\forall\underline{x})\quad \psi^{(k)}_e(\underline{x}) = h(e,\underline{x}) \] Plus précisément, il existe $b \colon \mathbb{N}^2 \to \mathbb{N}$ p.r. telle que \[ (\forall\underline{x})\quad \psi^{(k)}_e(\underline{x}) = \psi^{(k+1)}_d(e,\underline{x}) \text{~si~}e := b(k,d) \] \bigskip \underline{Preuve :} soit $s := s_{m,1}$ donné par le théorème s-m-n. La fonction $(t,\underline{x}) \mapsto h(s(t,t),\underline{x})$ est p.r., disons $= \psi_c^{(k+1)}(\underline{x})$. Alors \[ \psi_{s(c,c)}^{(k)}(\underline{x}) = \psi_{c}^{(k+1)}(c, \underline{x}) = h(s(c,c),\underline{x}) \] donc $e := s(c,c)$ convient. Les fonctions $d \mapsto c \mapsto e$ sont p.r.\qed \bigskip \textcolor{blue}{\textbf{Moralité :}} \alert{on peut donner aux programmes accès à leur propre numéro} (= « code source », ici $e$), cela ne change rien. \end{frame} % \begin{frame} \label{primitive-recursive-no-universality} \frametitle{Fonctions primitives récursives : absence d'universalité} \itempoint\textbf{Théorème :} il n'existe pas de fonction p.r. $u\colon \mathbb{N}^2 \to \mathbb{N}$ telle que $u(e,x) = \psi^{(1)}_e(x)$ si $\psi^{(1)}_e(x)\downarrow$. \bigskip \underline{Preuve :} par l'absurde : si un tel $u$ existe, alors $(e,x) \mapsto u(e,x)+1$ est p.r. Par le théorème de récursion de Kleene, il existe $e$ tel que $\psi^{(1)}_e(x) = u(e,x) + 1$, ce qui contredit $u(e,x) = \psi^{(1)}_e(x)$.\qed \medskip \centerline{*} \medskip \textcolor{blue}{\textbf{Moralité :}} \alert{un interpréteur du langage p.r. ne peut pas être p.r.} (preuve : on peut interpréter l'interpréteur s'interprétant lui-même, en ajoutant $1$ au résultat ceci donne un paradoxe ; c'est un argument diagonal de Cantor). \bigskip \itempoint Cet argument dépend du théorème s-m-n et du fait que les fonctions p.r. sont \alert{totales}. Pour définir une théorie satisfaisante de la calculabilité, on va sacrifier la totalité pour sauver le théorème s-m-n. {\footnotesize Cette même preuve deviendra alors la preuve de l'indécidabilité du problème de l'arrêt.\par} \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : absence d'universalité (variante)} Rappel : la \textbf{fonction d'Ackermann} est définie par : \[ \begin{aligned} A(m,n,0) &= m+n \\ A(m,1,k+1) &= m \\ A(m,n+1,k+1) &= A(m,\,A(m,n,k+1),\,k) \end{aligned} \] \bigskip \itempoint Pour un $k$ \alert{fixé}, la fonction $(m,n) \mapsto A(m,n,k)$ est p.r. (par récurrence sur $k$, récursion primitive sur $A(m,n,k-1)$). \bigskip \itempoint Il existe même $k \mapsto a(k)$ p.r. telle que $\psi^{(2)}_{a(k)}(m,n) = A(m,n,k)$. \smallskip I.e., on peut calculer de façon p.r. en $k$ le \alert{code} d'un programme p.r. qui calcule $(m,n) \mapsto A(m,n,k)$. \bigskip \itempoint Si (une extension de) $(e,n) \mapsto \psi^{(1)}_e(n)$ était p.r., on pourrait calculer $(n,k) \mapsto \psi^{(1)}_{s_{1,1}(a(k),2)}(n) = \psi^{(2)}_{a(k)}(2,n) = A(2,n,k)$, or elle n'est pas p.r. \end{frame} % \section{Fonctions générales récursives} \begin{frame} \frametitle{Fonctions générales récursives : aperçu} \itempoint On a vu que les fonctions p.r. sont \alert{limitées} et ne couvrent pas la notion générale d'algorithme : \begin{itemize} \item les algorithmes p.r. terminent toujours car \item le langage ne permet pas de boucles non bornées ; \item concrètement, il n'implémente pas la fonction d'Ackermann ; \item il ne peut pas s'interpréter lui-même. \end{itemize} \bigskip \itempoint On veut modifier la définition des fonctions p.r. pour lever ces limitations. On va \alert{autoriser les boucles infinies}. $\rightarrow$ Fonctions \textbf{générales récursives} ou simplement « \textbf{récursives} ». Ce seront aussi nos fonctions \textbf{calculables} ! \bigskip \itempoint En ce faisant, on obtient forcément des cas de non-terminaisons, donc on doit passer par des \alert{fonctions partielles}. \bigskip {\footnotesize\textbf{N.B.} Terminologie fluctuante : fonctions « générales récursives » ? juste « récursives » ? « récursives partielles » ? « calculables » ? « calculables partielles » ?\par} \end{frame} % \begin{frame} \frametitle{L'opérateur $\mu$ de Kleene} \textbf{Définition :} $\mu g(\underline{x})$ est le plus petit $z$ tel que $g(z,\underline{x}) = 0$ et $g(i,\underline{x})\downarrow$ pour $0\leq i0$ (sous-entendant $g(i,\underline{x})\downarrow$) pour tout $0\leq i 0$. \end{itemize} \par} On encode l'arbre $\mathscr{T}$ par l'entier $\operatorname{code}(\mathscr{T}) := \dbllangle n, \operatorname{code}(\mathscr{T}_1), \ldots, \operatorname{code}(\mathscr{T}_s)\dblrangle$ où $n$ est l'étiquette de la racine et $\mathscr{T}_1,\ldots,\mathscr{T}_s$ les codes des sous-arbres portés par les fils de celle-ci. \end{frame} % \begin{frame} \frametitle{Arbres de calcul $\Rightarrow$ universalité} Les points-clés : \begin{itemize} \item On a $\varphi_e^{(k)}(\underline{x}) = y$ \alert{ssi} il existe un arbre de calcul $\mathscr{T}$ l'attestant. \item Vérifier si $\mathscr{T}$ est un arbre de calcul valable est \alert{primitif récursif} en $\operatorname{code}(\mathscr{T})$. (On peut vérifier les règles à chaque nœud avec des boucles bornées.) \item De même, extraire $e,\underline{x},y$ de $\mathscr{T}$ est primitif récursif. \end{itemize} \bigskip D'où l'algorithme « universel » pour calculer $\varphi_e^{(k)}(\underline{x})$ en fonction de $e,\underline{x}$ : \begin{itemize} \item parcourir $n=0,1,2,3,4,\ldots$ (boucle non bornée), \item pour chacun, tester s'il code un arbre de calcul valable de $\varphi_e^{(k)}(\underline{x})$, \item si oui, terminer et renvoyer le $y$ contenu. \end{itemize} La boucle non-bornée est précisément ce que permet $\mu$. Tout le reste est p.r. $\Rightarrow$ Ceci montre l'existence de $u$. \bigskip \textcolor{orange}{Ne pas coder un interpréteur comme ça dans la vraie vie !} \end{frame} % \begin{frame} \label{normal-form-theorem} \frametitle{Théorème de la forme normale} On a montré un peu plus que l'universalité : on peut exécuter n'importe quel algorithme avec une \alert{unique boucle non bornée}. Plus exactement : \bigskip \itempoint\textbf{Théorème de la forme normale} (Kleene) : il existe un prédicat p.r. $T$ sur $\mathbb{N}^3$ et une fonction p.r. $U \colon \mathbb{N} \to \mathbb{N}$ tels que : \[ \varphi_e^{(k)}(x_1,\ldots,x_k) = U(\mu T(e,\dbllangle x_1,\ldots,x_k\dblrangle)) \] Précisément, $T(n, e,\dbllangle x_1,\ldots,x_k\dblrangle)$ teste si $n$ est le code d'un arbre de calcul valable de $\varphi_e^{(k)}(\underline{x})$, et $U$ extrait le résultat de cet arbre. \medskip \centerline{*} \medskip Exemple d'application : \textbf{lancement en parallèle} : \[ U(\mu(T(e_1,\dbllangle\underline{x}\dblrangle)\text{~ou~}T(e_2,\dbllangle\underline{x}\dblrangle))) \] définit (de façon p.r. en $e_1,e_2$) un $e$ tel que \[ \varphi_e(\underline{x}){\downarrow} \;\Longleftrightarrow\; \varphi_{e_1}(\underline{x}){\downarrow}\text{~ou~} \varphi_{e_2}(\underline{x}){\downarrow} \] \end{frame} % \begin{frame} \frametitle{Théorème s-m-n (version générale récursive)} Exactement comme la version p.r. : \smallskip \itempoint\textbf{Théorème s-m-n} (Kleene) : il existe $s_{m,n} \colon \mathbb{N}^{m+1} \to \mathbb{N}$ p.r. telle que \[ (\forall e,\underline{x},\underline{y})\quad \varphi^{(n)}_{s_{m,n}(e,x_1,\ldots,x_m)}(y_1,\ldots,y_n) = \varphi^{(m+n)}_e(x_1,\ldots,x_m,\,y_1,\ldots,y_n) \] \bigskip Noter que $s_{m,n}$ est \alert{p.r.} même si on s'intéresse ici aux fonctions générales récursives. \medskip Les manipulations de programmes sont typiquement p.r. (même si les programmes manipulés sont des fonctions générales récursives). \end{frame} % \begin{frame} \frametitle{Arité et encodage des tuples} {\footnotesize\textcolor{gray}{Remarque qui aurait dû être faite avant ?}\par} \bigskip Pour tout $k \geq q$, les fonctions \[ \left\{ \begin{array}{l} \mathbb{N}^k \to \mathbb{N}\\ (x_1,\ldots,x_k) \mapsto \dbllangle x_1,\ldots,x_k\dblrangle \end{array} \right. \quad\text{~et~}\quad \left\{ \begin{array}{l} \mathbb{N} \to \mathbb{N}\\ \dbllangle x_1,\ldots,x_k\dblrangle \mapsto x_i \end{array} \right. \] sont p.r. Par conséquent, \[ f\colon\mathbb{N}^k \dasharrow \mathbb{N}\text{~récursive} \;\Longleftrightarrow\; \left\{ \begin{array}{l} \mathring f\colon\mathbb{N} \dasharrow \mathbb{N}\\ \hphantom{f\colon} \dbllangle x_1,\ldots,x_k\dblrangle \mapsto f(x_1,\ldots,x_k) \end{array} \right.\text{~récursive} \] et de plus, un numéro $e$ de $f$ (i.e., $f = \varphi^{(k)}_e$) se calcule de façon p.r. à partir d'un numéro $e'$ de $\mathring f$ (i.e., $\mathring f = \varphi^{(1)}_{e'}$) et vice versa. \medskip Ceci justifie d'omettre parfois abusivement l'arité (par défaut, « $\varphi_e$ » désigne « $\varphi^{(1)}_e$ »). \bigskip {\footnotesize Même chose, \textit{mutatis mutandis} (avec $\psi$) pour les fonctions p.r.\par} \end{frame} % \begin{frame} \frametitle{Le théorème de récursion de Kleene (version générale récursive)} Exactement comme la version p.r. : \smallskip \itempoint\textbf{Théorème} (Kleene) : si $h \colon \mathbb{N}^{k+1} \dasharrow \mathbb{N}$ est récursive, il existe $e$ tel que \[ (\forall\underline{x})\quad \varphi^{(k)}_e(\underline{x}) = h(e,\underline{x}) \] Plus précisément, il existe $b \colon \mathbb{N}^2 \to \mathbb{N}$ p.r. telle que \[ (\forall\underline{x})\quad \varphi^{(k)}_e(\underline{x}) = \varphi^{(k+1)}_d(e,\underline{x}) \text{~si~}e := b(k,d) \] \bigskip \underline{Même preuve :} soit $s := s_{m,1}$ donné par le théorème s-m-n. La fonction $(t,\underline{x}) \mapsto h(s(t,t),\underline{x})$ est p.r., disons $= \varphi_c^{(k+1)}(\underline{x})$. Alors \[ \varphi_{s(c,c)}^{(k)}(\underline{x}) = \varphi_{c}^{(k+1)}(c, \underline{x}) = h(s(c,c),\underline{x}) \] donc $e := s(c,c)$ convient. Les fonctions $d \mapsto c \mapsto e$ sont p.r.\qed \bigskip \textcolor{blue}{\textbf{Moralité :}} \alert{on peut donner aux programmes accès à leur propre numéro} (= « code source »), cela ne change rien. \end{frame} % \begin{frame} \frametitle{Le théorème du point fixe de Kleene-Rogers} Reformulation du théorème de récursion utilisant l'universalité : \smallskip \itempoint\textbf{Théorème} (Kleene-Rogers) : si $F \colon \mathbb{N} \to \mathbb{N}$ est récursive \emph{totale} et $k\in\mathbb{N}$, il existe $e$ tel que \[ \varphi_e^{(k)} = \varphi_{F(e)}^{(k)} \] \bigskip \underline{Preuve :} $h\colon (e,\underline{x}) \mapsto \varphi_{F(e)}^{(k)}(\underline{x})$ est récursive car $e \mapsto F(e)$ l'est et que $(e',\underline{x}) \mapsto \varphi_{e'}^{(k)}(\underline{x})$ l'est (universalité). Par le théorème de récursion, il existe $e$ tel que $\varphi^{(k)}_e(\underline{x}) = h(e,\underline{x}) = \varphi_{F(e)}^{(k)}(\underline{x})$.\qed \end{frame} % \begin{frame} \frametitle{Récursion !} Le langage des fonctions générales récursives, \textcolor{orange}{malgré le nom} ne permet pas les définitions par appels récursifs. \smallskip {\footnotesize Uniquement des opérations élémentaires, appels de fonctions précédemment définies, boucles.\par} \bigskip Comment permettre quand même les appels récursifs ? \smallskip \alert{Par le théorème de récursion de Kleene !} (ou théorème du point fixe) : \begin{itemize} \item je veux définir (comme fonction générale récursive) une fonction $f$ dont la définition fait appel à $f$ elle-même : \item par le théorème de récursion de Kleene (« astuce de Quine »), je peux supposer que $f$ a accès à son propre numéro (« code source »), \item je convertis chaque appel à $f$ depuis $f$ en un appel à la fonction universelle (interpréteur) sur le numéro de $f$. \end{itemize} \bigskip \textcolor{orange}{Ne pas implémenter la récursion comme ça dans la vraie vie !} \end{frame} % \begin{frame} \frametitle{\textit{Kids, don't try this at home !}} Pseudocode : \smallskip {\footnotesize\texttt{% fibonacci(n) \{\\ str = "self = \textbackslash"fibonacci(n) \{\textbackslash \textbackslash nstr = \textbackslash" + quote(str) + str;\textbackslash n\textbackslash\\ if (n==0 || n==1) return n;\textbackslash n\textbackslash\\ return interpret(self, n-1) + interpret(self, n-2);\textbackslash n\textbackslash\\ \}";\\ self = "fibonacci(n) \{\textbackslash nstr = " + quote(str) + str;\\ if (n==0 || n==1) return n;\\ return interpret(self, n-1) + interpret(self, n-2);\\ \} }\par} \medskip \centerline{*} \medskip \textbf{Défi :} trouver explicitement un $e$ tel que $\varphi^{(3)}_e$ soit la fonction d'Ackermann. \end{frame} % \begin{frame} \frametitle{Le problème de l'arrêt} {\footnotesize Le terme « problème de l'arrêt » prendra plus de sens pour les machines de Turing.\par} \medskip \itempoint\textbf{Problème :} donné un programme $e$ (mettons d'arité $k=1$) et une entrée $x$ à ce programme, comment savoir si l'algorithme $e$ termine (c'est-à-dire $\varphi^{(1)}_e(x)\downarrow$) ou non ($\varphi^{(1)}_e(x)\uparrow$) sur cette entrée ? \medskip Cette question est-elle \alert{algorithmique} ? \bigskip \textbf{Réponse} de Turing : \alert{non}. \end{frame} % \begin{frame} \label{undecidability-halting-problem} \frametitle{L'indécidabilité du problème de l'arrêt} \itempoint\textbf{Théorème} (Turing) : il n'existe pas de fonction récursive $h\colon \mathbb{N}^2 \to \mathbb{N}$ telle que $h(e,x) = 1$ si $\varphi^{(1)}_e(x)\downarrow$ et $h(e,x) = 0$ si $\varphi^{(1)}_e(x)\uparrow$. \bigskip \underline{Preuve :} par l'absurde : si un tel $h$ existe, alors la fonction \[ v\colon (e,x) \mapsto \left\{ \begin{array}{ll} 42&\text{~si~}h(e,x) = 0\\ \uparrow&\text{~si~}h(e,x) = 1\\ \end{array} \right. \] est générale récursive (tester is $h(e,x)=0$, si oui renvoyer $42$, sinon faire une boucle infinie, p.ex. $\mu(x\mapsto 1)$). Par le théorème de récursion de Kleene, il existe $e$ tel que $\varphi^{(1)}_e(x) = v(e,x)$. Si $\varphi^{(1)}_e(x)\downarrow$ alors $h(e,x) = 1$ donc $v(e,x)\uparrow$ donc $\varphi^{(1)}_e(x)\uparrow$, une contradiction. Si $\varphi^{(1)}_e(x)\uparrow$ alors $h(e,x) = 0$ donc $v(e,x)\downarrow$ donc $\varphi^{(1)}_e(x)\downarrow$, une contradiction.\qed \bigskip \itempoint Intuition de la preuve : supposons que j'aie un moyen algorithmique $h$ pour savoir si un algorithme termine ou pas, je peux lui demander ce que « je » vais faire (astuce de Quine), et faire le contraire, ce qui conduit à un paradoxe. \end{frame} % \begin{frame} \label{undecidability-halting-problem-redux} \frametitle{L'indécidabilité du problème de l'arrêt : redite} {\footnotesize Notons $\varphi$ pour $\varphi^{(1)}$.\par} \smallskip \itempoint\textbf{Théorème} (Turing) : il n'existe pas de fonction récursive $h\colon \mathbb{N}^2 \to \mathbb{N}$ telle que $h(e,x) = 1$ si $\varphi_e(x)\downarrow$ et $h(e,x) = 0$ si $\varphi_e(x)\uparrow$. \bigskip \underline{Preuve} (incluant celle du théorème de récursion) : considérons la fonction $v\colon \mathbb{N} \dasharrow \mathbb{N}$ qui à $e$ associe $42$ si $h(e,e)=0$ et $\uparrow$ (non définie) si $h(e,e)=1$. Supposons par l'absurde $h$ est calculable : alors cette fonction (partielle) $v$ est calculable, disons $v = \varphi_c$. Si $\varphi_c(c)\downarrow$ alors $h(c,c)=1$ donc $v(c)\uparrow$, c'est-à-dire $\varphi_c(c)\uparrow$, une contradiction. Si $\varphi_c(c)\uparrow$ alors $h(c,c)=0$ donc $v(c)\downarrow$, c'est-à-dire $\varphi_c(c)\downarrow$, une contradiction.\qed \bigskip C'est un \alert{argument diagonal} : on utilise $h$ pour construire une fonction qui diffère en tout point de la diagonale $c \mapsto \varphi_c(c)$, donc elle ne peut pas être une $\varphi_c$. \medskip Pour les fonctions p.r. (terminent toujours !), le même argument diagonal donnait l'inexistence d'un programme universel (transp. \ref{primitive-recursive-no-universality}). \end{frame} % \begin{frame} \frametitle{Comparaison fonctions primitives récursives et générales récursives} \textcolor{violet}{Récapitulation :} \medskip \itempoint Les fonctions p.r. sont totales ; les générales récursives sont possiblement partielles. \medskip \itempoint Les fonctions p.r. sont un langage limité (pas de boucle non bornées a priori) ; les générales récursives coïncideront avec les fonctions « calculables » (équivalence avec machines de Turing et $\lambda$-calcul à voir). \medskip \itempoint Les fonctions p.r. ne permettent pas d'interpréter les fonctions p.r. ; les générales récursives peuvent s'interpréter elles-mêmes (universalité) et donc réaliser n'importe quelle sorte d'appels récursifs. \medskip \itempoint Le problème de l'arrêt pour les fonctions p.r. est trivial (elles sont totales !) ; pour les fonctions générales récursives, il est indécidable (= pas calculable par une fonction générale récursive). \end{frame} % \section{Machines de Turing} \begin{frame} \frametitle{Machines de Turing : explication informelle} La \textbf{machine de Turing} est une modélisation d'un ordinateur extrêmement simple, réalisant des calculs indiscutablement finitistes. \medskip C'est une sorte d'automate doté d'un \textbf{état} interne pouvant prendre un nombre fini de valeurs, et d'une mémoire illimitée sous forme de \textbf{bande} linéaire divisée en cellules (indéfiniment réécrivibles), chaque cellule pouvant contenir un \textbf{symbole}. \medskip La machine peut observer, outre son état interne, une unique case de la bande, là où se trouve sa \textbf{tête de lecture/écriture}. \medskip Le \textbf{programme} de la machine indique, pour chaque combinaison de l'état internet et du symbole lu par la tête : \begin{itemize} \item dans quel état passer, \item quel symbole écrire à la place de la tête, \item la direction dans laquelle déplacer la tête (gauche ou droite). \end{itemize} \medskip La machine suit son programme jusqu'à tomber dans un état spécial $0$ (« arrêt »). \end{frame} % \begin{frame} \frametitle{Machines de Turing : définition} Une \textbf{machine de Turing} (déterministe) à ($1$ bande, $2$ symboles et) $m\geq 2$ états est la donnée de : \begin{itemize} \item un ensemble fini $Q$ de cardinal $m$ d'\textbf{états}, qu'on identifiera à $\{0,\ldots,m-1\}$, \item un ensemble $\Sigma$ de (ici) $2$ \textbf{symboles de bande} qu'on identifiera à $\{0,1\}$, \item une fonction \[ \delta \colon (Q\setminus\{0\}) \times \Sigma \to Q \times \Sigma \times \{\texttt{L},\texttt{R}\} \] appelé \textbf{programme} de la machine. \end{itemize} {\footnotesize (Il y a donc $(4m)^{2(m-1)}$ machines à $m$ états.)\par} \bigskip Une \textbf{configuration} d'une telle machine est la donnée de : \begin{itemize} \item un élément $q \in Q$ appelé l'\textbf{état courant}, \item une fonction $\beta\colon \mathbb{Z} \to \Sigma$ ne prenant qu'\alert{un nombre fini} de valeurs $\neq 0$, appelée la \textbf{bande}, \item un entier $i \in \mathbb{Z}$ appelé la \textbf{position de la tête} sur la bande. \end{itemize} \end{frame} % \begin{frame} \frametitle{Machines de Turing : exécution d'une étape} Si $(q,\beta,i)$ est une configuration de la machine de Turing où $q\neq 0$, et $\delta$ le programme, la \textbf{configuration suivante} est $(q',\beta',i')$ où : \begin{itemize} \item $(q',y,d) = \delta(q,\beta(i))$ est l'\textbf{instruction exécutée}, \item $q'$ est le \textbf{nouvel état}, \item $i' = i-1$ si $d=\texttt{L}$ et $i' = i+1$ si $d=\texttt{R}$, \item $\beta'(j) = \beta(j)$ pour $j\neq i$ tandis que $\beta'(i) = y$. \end{itemize} \bigskip \emph{En clair :} le programme indique, pour chaque configuration d'un état $\neq 0$ et d'un symbole $x = \beta(i)$ lu sur la bande : \begin{itemize} \item le nouvel état $q'$ dans lequel passer, \item le symbole $y$ à écrire à la place de $x$ à l'emplacement $i$ de la bande, \item la direction dans laquelle déplacer la tête (gauche ou droite). \end{itemize} \end{frame} % \begin{frame} \frametitle{Machines de Turing : exécution complète} \itempoint Si $C = (q,\beta,i)$ est une configuration d'une machine de Turing, la \textbf{trace d'exécution} à partir de $C$ est la suite finie ou infinie $C^{(0)},C^{(1)},C^{(2)},\ldots$, où \begin{itemize} \item $C^{(0)} = C$ est la configuration donnée (configuration initiale), \item si $C^{(n)} = (q^{(n)},\beta^{(n)},i^{(n)})$ avec $q^{(n)}=0$ alors la suite s'arrête ici, on dit que \textbf{la machine s'arrête}, que $C^{(n)}$ est la \textbf{configuration finale}, et que l'exécution a duré $n$ \textbf{étapes}, \item sinon, $C^{(n+1)}$ est la configuration suivante (définie avant). \end{itemize} \bigskip \emph{En clair :} la machine continue à exécuter des instructions tant qu'elle n'est pas tombée dans l'état $0$. Elle s'arrête quand elle tombe dans l'état $0$. \end{frame} % \begin{frame} \frametitle{Simulation des machines de Turing par les fonctions récursives} \itempoint On peut coder un programme et/ou une configuration sous forme d'entiers naturels. {\footnotesize Le ruban a un nombre \alert{fini} de symboles $\neq 0$, donc on peut le coder par la liste de leurs positions comptées, disons, à partir du symbole $\neq 0$ le plus à gauche.\par} \bigskip \itempoint La fonction $(M,C) \mapsto C'$ qui à une machine de Turing $M$ et une configuration $C$ de $M$ associe la configuration suivante \textbf{est p.r.} \medskip \itempoint Conséquence : la fonction $(n,M,C) \mapsto C^{(n)}$ qui à $n\in\mathbb{N}$ et une machine de Turing $M$ et une configuration $C$ de $M$ associe la configuration atteinte après $n$ étapes d'exécution, \textbf{est p.r.} \medskip \itempoint La fonction qui à $(M,C)$ associe la configuration finale (et/ou le nombre d'étapes d'exécution) \alert{si la machine s'arrête}, et $\uparrow$ (non définie) si elle ne s'arrête pas, est \textbf{générale récursive}. \bigskip \textcolor{blue}{\textbf{Moralité :}} les fonctions récursives peuvent simuler les machines de Turing. \end{frame} % \begin{frame} \frametitle{Calculs sur machines de Turing : une convention} On dira qu'une fonction $f\colon \mathbb{N}^k \dasharrow \mathbb{N}$ est \textbf{calculable par machine de Turing} lorsqu'il existe une machine de Turing qui, pour tous $x_1,\ldots,x_k$ : \begin{itemize} \item part de la configuration initiale suivante : l'état est $1$, les symboles $\beta(j)$ du ruban pour $j<0$ sont arbitraires (tous $0$ sauf un nombre fini), la tête est à l'emplacement $0$, \item les symboles $\beta(j)$ pour $j\geq 0$ du ruban initial forment le mot suivant : \[ 0 1^{x_1} 0 1^{x_2} 0 \cdots 0 1^{x_k} 0 \] (suivi d'une infinité de $0$), c'est-à-dire $\beta(0)=0$, $\beta(j)=1$ si $1\leq j\leq x_1$, $\beta(1+x_1)=0$, $\beta(j)=1$ si $2+x_1\leq j\leq 1+x_1+x_2$, etc., \item si $f(x_1,\ldots,f_k)\uparrow$, la machine ne s'arrête pas, \item si $f(x_1,\ldots,f_k){\downarrow} = y$, la machine s'arrête avec la tête à l'emplacement $0$ (le même qu'au départ), le ruban $\beta(j)$ non modifié pour $j<0$, et \item les symboles $\beta(j)$ pour $j\geq 0$ du ruban final forment le mot $0 1^y 0$ (suivi d'une inifinité de $0$). \end{itemize} \end{frame} % \begin{frame} \frametitle{Calculs par les machines de Turing des fonctions récursives} \itempoint On peut montrer par induction suivant la déf\textsuperscript{n} de $\mathbf{R}$ que \alert{toute fonction générale récursive est calculable par machine de Turing} avec les conventions du transp. précédent. \bigskip \itempoint La démonstration est fastidieuse mais pas difficile : il s'agit essentiellement de programmer en machine de Turing chacune des formes de construction des fonctions générales récursives (projections, constantes, successeur, composition, récursion primitive, $\mu$-récursion). \bigskip \itempoint Les conventions faites, notamment le fait d'ignorer et de ne pas modifier $\beta(j)$ pour $j<0$, permettent à l'induction de fonctionner. \smallskip {\footnotesize Par exemple, pour la composition, on va utiliser cette propriété pour « sauvegarder » les $x_1,\ldots,x_k$ initiaux, ainsi que les valeurs de $g_j(\underline{x})$ calculées, lorsqu'on appelle chacune des fonctions $g_1,\ldots,g_\ell$ (à chaque fois, on les recopie $x_1,\ldots,x_k$ à droite des valeurs à ne pas toucher, et on appelle la machine calculant $g_j$ sur ces valeurs recopiées).\par} \end{frame} % \begin{frame} \frametitle{Équivalence entre machines de Turing et fonctions récursives} \itempoint Toute fonction générale récursive $\mathbb{N}^k \dasharrow \mathbb{N}$ est calculable par machine de Turing (sous les conventions données). \bigskip \itempoint Réciproquement, toute fonction $\mathbb{N}^k \dasharrow \mathbb{N}$ calculable par machine de Turing sous ces conventions est générale récursive, car les fonctions récursives peuvent simuler les machines de Turing, calculer une configuration initiale convenable, et décoder la configuration finale. \bigskip \itempoint Bref, $f\colon \mathbb{N}^k \dasharrow \mathbb{N}$ est calculable par machine de Turing \alert{ssi} elle est générale récursive. \bigskip \itempoint De plus, cette équivalence est \alert{constructive} : il existe des fonctions p.r. : \begin{itemize} \item l'une prend en entrée le numéro $e$ d'une fonction générale récursive (et l'arité $k$) et renvoie le code d'une machine de Turing qui calcule cette $\varphi_e^{(k)}$, \item l'autre prend en entrée le code d'une machine de Turing qui calcule une fonction $f$ et son arité $k$, et renvoie un numéro $e$ de $f$ dans les fonctions générales récursives $f = \varphi_e^{(k)}$. \end{itemize} \end{frame} % \begin{frame} \frametitle{Machines de Turing : variations} On a choisi ici une notion de machine de Turing assez restreinte ($1$ bande, $2$ symboles de bande). Il existe toutes sortes de variations : \begin{itemize} \item machines à plusieurs bandes (mais en onmbre fini ; le programme choisit en fonction du symbole lu sur chaque bande, et écrit et déplace chaque tête indépendamment), voire à plusieurs têtes par bande, parfois avec des bandes en lecture seule (pour les entrées), ou en écriture seule (pour les sorties), \item autres symboles que $0$ et $1$ (mais en nombre fini), \item machine non-déterministe (plusieurs instructions possibles dans une configuration donnée ; la machine termine si au moins l'un des chemins d'exécution termine). \end{itemize} \bigskip Du point de vue \alert{calculabilité}, ces modifications ne rendent pas la machine plus puissante, et, sauf, cas dégénérés (p.ex., un seul symbole sur le ruban !) elles ne la rendent pas moins puissante non plus. Ceci confirme la robustesse du modèle de Church-Turing. \smallskip {\footnotesize Pour la \alert{complexité}, en revanche, c'est une autre affaire.\par} \end{frame} % \begin{frame} \frametitle{Machines de Turing : reprise de résultats déjà vus} \itempoint\textbf{Universalité :} pour un codage raisonnable, il existe une machine de Turing « universelle » qui prend en entrée sur sa bande le programme d'une autre machine de Turing $M$, et une configuration initiale $C$ pour celle-ci, et qui simule l'exécution de $M$ sur $C$ (notamment, elle s'arrête ssi $M$ s'arrête). \bigskip \itempoint\textbf{Forme normale :} la fonction $(n,M,C) \mapsto C^{(n)}$ qui à $n\in\mathbb{N}$ et une machine de Turing $M$ et une configuration $C$ de $M$ associe la configuration après $n$ étapes d'exécution, est p.r., et en particulier, calculable par une machine de Turing. \smallskip $\Rightarrow$ En particulier, on peut tester algorithmiquement si une machine de Turing donnée, depuis une configuration initiale donnée, s'arrête \emph{en moins de $n$ étapes}. \bigskip \itempoint\textbf{Indécidabilité du problème de l'arrêt :} la fonction qui à $(M,C)$ associe $1$ si la machine de Turing s'arrête en partant de la configuration initiale $C$, et $0$ sinon, \alert{n'est pas calculable}. \smallskip $\Rightarrow$ On ne peut tester algorithmiquement si une machine de Turing donnée, depuis une configuration initiale donnée, s'arrête « un jour ». \end{frame} % \begin{frame} \frametitle{Le castor affairé} \itempoint La fonction \textbf{castor affairé} associe à $m$ le nombre maximal $B(m)$ d'étapes d'exécution d'une machine de Turing à $\leq m$ états \alert{qui termine} (à partir d'une bande vierge : $\beta = 0$). \medskip \itempoint La fonction $B$ croît \alert{trop vite pour être calculable} : \[ \forall f\colon\mathbb{N}\to\mathbb{N}\text{~calculable}.\quad \exists m\in\mathbb{N}.\quad (B(m) > f(m)) \] \medskip {\footnotesize \underline{Preuve :} supposons au contraire $\forall m\in\mathbb{N}.\; (B(m) \leq f(m))$ avec $f\colon\mathbb{N}\to\mathbb{N}$ calculable. Donnée une machine de Turing $M$ et une configuration initiale $C$, on peut alors algorithmiquement décider si $M$ s'arrête à partir de $C$ : \begin{itemize} \item fabriquer une machine $M^*$ qui réalise $C$ à partir de la configuration vierge $C_0$, puis fait ce que fait $M$ \textcolor{teal}{($\leftarrow$ théorème s-m-n ici)}, donc $M^*$ termine sur $C_0$ ssi $M$ termine sur $C$, \item calculer $f(m)$ où $m$ est le nombre d'états de $M^*$, \item exécuter $M^*$ à partir de $C_0$ pendant $f(m)$ étapes (ce nombre est $\geq B(m)$ par hypothèse), \item si elle a terminé, $M^*$ termine sur $C_0$, donc $M$ sur $C$, et on renvoie « oui » ; sinon, elle ne termine jamais par définition de $B(m)$, on renvoie « non ». \end{itemize} Ceci est impossible donc $f$ n'est pas calculable.\qed \par} \end{frame} % \begin{frame} \frametitle{Le castor affairé (amélioration)} {\footnotesize $B(m)=$ nombre maximal d'étapes d'exécution d'une machine de Turing à $\leq m$ états \alert{qui termine} à partir d'une bande vierge.\par} \medskip \itempoint On peut faire mieux : $B$ \alert{domine} toute fonction calculable : \[ \forall f\colon\mathbb{N}\to\mathbb{N}\text{~calculable}.\quad \exists m_0\in\mathbb{N}.\quad \forall m\geq m_0.\quad (B(m) > f(m)) \] \medskip {\footnotesize \underline{Preuve :} soit $f\colon\mathbb{N}\to\mathbb{N}$ calculable. Soit $\gamma(r) = A(2,2,r)$ (en fait, $2^r$ doit suffire ; noter $\gamma$ croissante). On considère la machine de Turing $M_r$ qui \begin{itemize} \item calcule $\gamma(r+1)$ puis $f(0) + f(1) + \cdots + f(\gamma(r+1)) + 1$, \item attend ce nombre-là d'étapes, et termine. \end{itemize} Par le théorème s-m-n, le nombre d'états de $M_r$ est une fonction p.r. $b(r)$ de $r$ (même $b(r) = r + \mathrm{const}$ convient). Pour $r\geq r_0$ on a $b(r) \leq \gamma(r)$. Soit $m_0 = \gamma(r_0)$. Si $m \geq m_0$, soit $r\geq r_0$ tel que $\gamma(r) \leq m \leq \gamma(r+1)$. Alors $M_r$ calcule $\cdots+f(m)+\cdots+1$, donc attend $>f(m)$ étapes. Donc $B(b(r)) > f(m)$. Mais $b(r) \leq \gamma(r) \leq m$ donc $B(m) > f(m)$.\qed \par} \medskip \centerline{*} \medskip \itempoint Variations du castor affairé : nombre de symboles écrits sur la bande, $n \mapsto \max\{\varphi_e(e) : 0\leq e\leq n\text{~et~}\varphi_e(e)\downarrow\}$ (mêmes propriétés). \end{frame} % \section{Décidabilité et semi-décidabilité} \begin{frame} \frametitle{Terminologie calculable/décidable} \itempoint Une fonction partielle $f\colon \mathbb{N}^k \dasharrow \mathbb{N}$ est dite \textbf{calculable} (partielle) lorsqu'elle est (c'est équivalent) : \begin{itemize} \item générale récursive, \item calculable par machine de Turing, \item \textcolor{brown}{à voir $\rightarrow$} exprimable dans le $\lambda$-calcul. \end{itemize} \bigskip \itempoint Une partie $A \subseteq \mathbb{N}^k$ est dite \textbf{décidable} lorsque sa fonction indicatrice $\mathbb{N}^k\to\mathbb{N}$ \[ \mathbf{1}_A\colon n \mapsto \left\{ \begin{array}{ll} 1&\text{~si~}n\in A\\ 0&\text{~si~}n\not\in A\\ \end{array} \right. \] est calculable (répondre « oui » ou « non » selon que $n\in A$ ou $n\not\in A$). \bigskip \itempoint Une partie $A \subseteq \mathbb{N}^k$ est dite \textbf{semi-décidable} lorsque sa fonction partielle « semi-indicatrice » $\mathbb{N}\dasharrow\mathbb{N}$ (d'ensemble de définition $A$) \[ n \mapsto \left\{ \begin{array}{ll} 1&\text{~si~}n\in A\\ \uparrow&\text{~si~}n\not\in A\\ \end{array} \right. \] est calculable (répondre « oui » ou « ... » selon que $n\in A$ ou $n\not\in A$). \end{frame} % \begin{frame} \frametitle{Fluctuations terminologiques} \itempoint Synonymes de \textbf{calculable} pour une fonction partielle $\mathbb{N}^k \dasharrow \mathbb{N}$ : \begin{itemize} \item « semi-calculable » (réservant « calculable » pour les fonctions \emph{totales}), \item « (générale) récursive ». \end{itemize} \bigskip \itempoint Synonymes de \textbf{décidable} pour une partie $\subseteq \mathbb{N}^k$ : \begin{itemize} \item « calculable », \item « récursive ». \end{itemize} \bigskip \itempoint Synonymes de \textbf{semi-décidable} pour une partie $\subseteq \mathbb{N}^k$ : \begin{itemize} \item « semi-calculable », \item « calculablement énumérable », \item « récursivement énumérable ». \end{itemize} {\footnotesize (La raison du mot « énumérable » sera expliquée après.)\par} \end{frame} % \begin{frame} \frametitle{Décidable = semi-décidable de complémentaire semi-décidable} \itempoint Si $A \subseteq \mathbb{N}^k$ est décidable, alors son complémentaire $\complement A := \mathbb{N}^k \setminus A$ l'est aussi. {\footnotesize \underline{Preuve :} échanger $0$ et $1$ dans la réponse. \qedsymbol\par} \medskip \itempoint Si $A$ est décidable, alors $A$ est semi-décidable. {\footnotesize \underline{Preuve :} si réponse $0$, faire une boucle infinie. \qedsymbol\par} \medskip \itempoint Donc : si $A$ est décidable, alors $A$ et $\complement A$ sont semi-décidables. \bigskip \itempoint La réciproque est également valable : si $A$ et $\complement A$ sont semi-décidables alors $A$ est décidable. \medskip \textcolor{blue}{Idée :} lancer « en parallèle » un algorithme qui semi-décide $A$ et un qui semi-décide $\complement A$ ; l'un des deux finira par donner la réponse voulue. \medskip \textcolor{brown}{Mais que signifie « lancer en parallèle » ici ?} \end{frame} % \begin{frame} \frametitle{Lancement en parallèle} On suppose que : \begin{itemize} \item $\varphi_{e_1}(\underline{x})\downarrow$ ssi $\underline{x} \in A$ \item $\varphi_{e_2}(\underline{x})\downarrow$ ssi $\underline{x} \not\in A$ \end{itemize} Comment décider si $\underline{x} \in A$ en terminant à coup sûr ? \bigskip Grâce au \alert{th. de la forme normale} (transp. \ref{normal-form-theorem}) : il y a un prédicat $T$ p.r. tel que \begin{itemize} \item $\varphi_{e_1}(\underline{x})\downarrow$ ssi $\exists n\in\mathbb{N}.\; T(n,e_1,\dbllangle\underline{x}\dblrangle)$ \item $\varphi_{e_2}(\underline{x})\downarrow$ ssi $\exists n\in\mathbb{N}.\; T(n,e_2,\dbllangle\underline{x}\dblrangle)$ \end{itemize} On a alors $\exists n\in\mathbb{N}.\; (T(n,e_1,\dbllangle\underline{x}\dblrangle) \text{~ou~} T(n,e_2,\dbllangle\underline{x}\dblrangle))$ à coup sûr. \bigskip Algorithme (terminant à coup sûr) : \begin{itemize} \item parcourir $n=0,1,2,3,4,\ldots$ (boucle non bornée), \item pour chacun, tester si $T(n,e_1,\dbllangle\underline{x}\dblrangle)$ et si $T(n,e_2,\dbllangle\underline{x}\dblrangle)$, \item si le premier vaut, renvoyer « oui, $\underline{x}\in A$ », si le second vaut, renvoyer « non, $\underline{x}\not\in A$ » (sinon, continuer la boucle). \end{itemize} \end{frame} % \begin{frame} \frametitle{Lancement en parallèle (variante machines de Turing)} On suppose que : \begin{itemize} \item la machine $M_1$ s'arrête sur $\underline{x}$ ssi $\underline{x} \in A$ \item la machine $M_2$ s'arrête sur $\underline{x}$ ssi $\underline{x} \not\in A$ \end{itemize} Comment décider si $\underline{x} \in A$ en s'arrêtant à coup sûr ? \bigskip On va simuler $M_1$ et $M_2$ pour $n$ étapes jusqu'à ce que l'une d'elles s'arrête. \bigskip Algorithme (terminant à coup sûr) : \begin{itemize} \item parcourir $n=0,1,2,3,4,\ldots$ (boucle non bornée), \item pour chacun, tester si l'exécution de $M_1$ s'arrête sur $\underline{x}$ en $\leq n$ étapes et si l'exécution de $M_2$ s'arrête sur $\underline{x}$ en $\leq n$ étapes, \item si le premier vaut, renvoyer « oui, $\underline{x}\in A$ », si le second vaut, renvoyer « non, $\underline{x}\not\in A$ » (sinon, continuer la boucle). \end{itemize} \bigskip {\footnotesize C'est \alert{exactement la même chose} que dans le transp. précédent, avec un nombre d'étapes d'exécution $n$ au lieu d'un arbre de calcul (détail sans importance).\par} \end{frame} % \begin{frame} \frametitle{Problème de l'arrêt} Le \textbf{problème de l'arrêt} est : \[ \mathscr{H} := \{(e,x)\in\mathbb{N}^2 : \varphi_e(x)\downarrow\} \] \smallskip \itempoint Il \alert{n'est pas décidable} (transp. \ref{undecidability-halting-problem}). \smallskip \itempoint Il \alert{est} semi-décidable (par universalité : donné $(e,x)$, on peut exécuter $\varphi_e(x)$, et, s'il termine, renvoyer « oui »). \smallskip \itempoint Donc $\complement\mathscr{H}$ n'est pas semi-décidable. \bigskip {\footnotesize \itempoint Toutes sortes de variantes possibles, p.ex. : \begin{itemize} \item $\{e\in \mathbb{N} : \varphi_e(e)\downarrow$ n'est pas décidable (preuve dans transp. \ref{undecidability-halting-problem-redux}) \item $\{e\in \mathbb{N} : \varphi_e(0)\downarrow$ n'est pas décidable (théorème s-m-n : $\varphi_e(x) = \varphi_{s(e,x)}(0)$ avec $s$ p.r.) \end{itemize} \par} \end{frame} % \begin{frame} \frametitle{Image d'un ensemble décidable} \itempoint Si $A \subseteq \mathbb{N}$ est décidable et $f \colon \mathbb{N} \to \mathbb{N}$ (totale) calculable, alors l'image \[ f(A) := \{f(i) : i\in A\} \] est semi-décidable. \smallskip {\footnotesize \underline{Preuve :} donné $m\in\mathbb{N}$, pour semi-décider si $m \in f(A)$, parcourir $i=0,1,2,3\ldots$, et pour chacun, décider si $i\in A$ et, si oui, calculer $f(i)$ et comparer à $m$. Si $i\in A$ et $f(i)=m$, renvoyer « oui » ; sinon, continuer la boucle.\qed\par} \bigskip \itempoint Réciproquement, si $B \subseteq \mathbb{N}$ est semi-décidable, il existe $A \subseteq \mathbb{N}$ décidable et $f \colon \mathbb{N} \to \mathbb{N}$ (totale) calculable tels que $B = f(A)$. \smallskip {\footnotesize \underline{Preuve :} soit $e$ tel que $B = \{m : \varphi_e(m)\downarrow\}$ ; soit $A$ l'ensemble des $\langle n,m\rangle$ tels que $T(n,e,\dbllangle m\dblrangle)$ : alors $A$ est décidable et son image par $\langle n,m\rangle \mapsto m$ est $B$.\qed\par} {\footnotesize \underline{Redite :} soit $M$ une machine de Turing qui s'arrête sur $m$ ssi $m \in B$ ; soit $A$ l'ensemble des $\langle n,m\rangle$ tels que $M$ s'arrête sur $m$ en $\leq n$ étapes : alors $A$ est décidable et son image par $\langle n,m\rangle \mapsto m$ est $B$.\qed\par} \bigskip \itempoint Variante : $A \subseteq \mathbb{N}$ \emph{non vide} est semi-décidable ssi il existe $f\colon \mathbb{N} \to \mathbb{N}$ totale calculable telle que $f(\mathbb{N}) = A$. \textcolor{teal}{D'où le terme « calculablement énumérable ».} \end{frame} % \begin{frame} \frametitle{Stabilités par opérations booléennes} Les ensembles \textbf{décidables} sont stables par : \begin{itemize} \item réunions finies, \item intersections finies, \item complémentaire, \item \alert{mais pas par} projection $\mathbb{N}^k \to \mathbb{N}^{k'}$ (où $k'\leq k$ ; cf. transp. précédent). \end{itemize} \bigskip Les ensembles \textbf{semi-décidables} sont stables par : \begin{itemize} \item réunions finies (par lancement en parallèle !), \item intersections finies, \item projection $\mathbb{N}^k \to \mathbb{N}^{k'}$ (où $k'\leq k$ ; cf. transp. précédent), \item \alert{mais pas par complémentaire}. \end{itemize} \end{frame} % \section{Le \texorpdfstring{$\lambda$}{lambda}-calcul non typé} \begin{frame} \frametitle{Le $\lambda$-calcul : aperçu} Le \textbf{$\lambda$-calcul non typé} manipule des expressions du type \[ \begin{array}{c} \lambda x.\lambda y.\lambda z.((xz)(yz))\\ \lambda f.\lambda x.f(f(f(f(f(fx)))))\\ (\lambda x.(xx))(\lambda x.(xx))\\ \end{array} \] \bigskip Ces expressions s'appelleront des \textbf{termes} du $\lambda$-calcul. \bigskip Il faut comprendre intuitivement qu'un terme représente une sorte de fonction qui prend une autre telle fonction en entrée et renvoie une autre telle fonction. \bigskip Deux constructions fondamentales : \begin{itemize} \item\textbf{application} : $(PQ)$ : appliquer la fonction $P$ à la fonction $Q$ ; \item\textbf{abstraction} : $\lambda v.E$ : créer la fonction qui prend un argument et le remplace pour $v$ dans l'expression $E$ (\textcolor{teal}{en gros} $v \mapsto E$). \end{itemize} \end{frame} % \begin{frame} \frametitle{Le $\lambda$-calcul : termes} \itempoint Un \textbf{terme} du $\lambda$-calcul est (inductivement) : \begin{itemize} \item une \textbf{variable} ($a$, $b$, $c$... en nombre illimité), \item une \textbf{application} $(PQ)$ où $P$ et $Q$ sont deux termes, \item une \textbf{abstraction} $\lambda v.E$ où $v$ est une variable et $E$ un terme ; on dira que la variable $v$ est \textbf{liée} dans $E$ par ce $\lambda$. \end{itemize} \medskip \itempoint Conventions d'écriture : \begin{itemize} \item l'application \alert{n'est pas associative} : on parenthèse implicitement vers la gauche : « $xyz$ » signifie « $((xy)z)$ » ; \item abréviation de plusieurs $\lambda$ : on note « $\lambda uv.E$ » pour « $\lambda u. \lambda v. E$ » ; \item l'abstraction est moins prioritaire que l'application : « $\lambda x.xy$ » signifie $\lambda x.(xy)$ \alert{pas} $(\lambda x.x)y$. \end{itemize} \medskip \itempoint Une variable non liée est dite \textbf{libre} : $(\lambda x.x)\textcolor{red}{x}$ (le dernier $\textcolor{red}{x}$ est libre). \itempoint Un terme sans variable libre est dit \textbf{clos}. \itempoint Les variables liées sont muettes : $\lambda x.x \equiv \lambda y.y$, comprendre $\mathord{\tikz[remember picture, baseline = (binder.base), inner sep = 0pt] {\node (binder) {\strut$\lambda\bullet$};}}.\mathord{\tikz[remember picture, baseline = (bindee.base), inner sep = 0pt] {\node (bindee) {\strut$\bullet$};}}$. \begin{tikzpicture}[remember picture, overlay] \draw [->, >=stealth, thick] (bindee.north) -- ($(bindee.north)+(0pt,8pt)$) -- ($(binder.north)+(0pt,8pt)$) -- (binder.north); \end{tikzpicture} \end{frame} % \begin{frame} \frametitle{Le $\lambda$-calcul : variables liées} On appelle \textbf{$\alpha$-conversion} le renommage des variables liées : ces termes sont considérés comme équivalents. \begin{itemize} \item $\lambda x.x \equiv \lambda y.y$ et $\lambda xyz.((xz)(yz)) \equiv \lambda uvw.((uw)(vw))$ \item Attention à \alert{ne pas capturer} de variable libre : $\lambda y.xy \mathrel{\textcolor{red}{\not\equiv}} \lambda x.xx$. \item En cas de synonymie, la variable est liée par le $\lambda$ le \alert{plus intérieur} pour ce nom ($\cong$ portée lexicale) : $\lambda x. \lambda x. x \equiv \lambda x. \lambda v. v \mathrel{\textcolor{red}{\not\equiv}} \lambda u. \lambda x. u$. \item Mieux vaut ne pas penser aux termes typographiquement, mais à chaque variable liée comme un \emph{pointeur vers la $\lambda$-abstraction qui la lie} : \[ \lambda x. (\lambda y. y (\lambda z. z)) (\lambda z. x z) \equiv \textcolor{red}{\lambda\bullet}. (\textcolor{yellow}{\lambda\bullet}. \textcolor{yellow}{\bullet} (\textcolor{green}{\lambda\bullet}. \textcolor{green}{\bullet})) (\textcolor{blue}{\lambda\bullet}. \textcolor{red}{\bullet} \textcolor{blue}{\bullet}) \] \item Autre convention possible : \textbf{indices de De Bruijn} : remplacer les variables liées par le numéro du $\lambda$ qui la lie, en comptant du plus intérieur ($1$) vers le plus extérieur : \[ \lambda x. (\lambda y. y (\lambda z. z)) (\lambda z. x z) \equiv \lambda. (\lambda. 1 (\lambda. 1)) (\lambda. 2 1) \] deux termes sont $\alpha$-équivalents ssi leur écriture avec indice de De Bruijn est identique. \end{itemize} \end{frame} % \begin{frame} \frametitle{Le $\lambda$-calcul : $\beta$-réduction} {\footnotesize On travaille sur des termes à $\alpha$-équivalence près.\par} \bigskip \itempoint Un \textbf{redex} (« reducible expression ») est un terme de la forme $(\lambda v. E)T$. Son \textbf{reduct} est le terme $E[v\backslash T]$ obtenu par remplacement de $T$ pour $v$ dans $E$, en évitant tout conflit de variables. \medskip Exemples : \begin{itemize} \item $(\lambda x.xx)y \rightarrow yy$ \item $(\lambda x.xx)(\lambda x.xx) \rightarrow (\lambda x.xx)(\lambda x.xx)$ (est son propre reduct) \item $(\lambda xy.x)z \rightarrow \lambda y.z$ (car $\lambda xy.x$ abrège $\lambda x.\lambda y.x$) \item $(\lambda xy.x)y \rightarrow \lambda y_1.y$ (attention au conflit de variable !) \item $(\lambda x.\lambda x.x)y \rightarrow \lambda x.x$ (car $\lambda x.\lambda x.x \equiv \lambda z.\lambda x.x$ : le $\lambda$ extérieur ne lie rien) \end{itemize} \bigskip \itempoint Un terme n'ayant \alert{pas de redex en sous-expression} est dit en \textbf{forme ($\beta$-)normale}.\quad Ex. : $\lambda xyz.((xz)(yz))$. \smallskip \itempoint On appelle \textbf{$\beta$-réduction} le remplacement en sous-expression d'une \textcolor{purple}{redex} par son \textcolor{olive}{reduct}.\quad Ex. : $\lambda x. \textcolor{purple}{(\lambda y. y (\lambda z. z)) (\lambda z. x z)} \rightarrow \lambda x. \textcolor{olive}{(\lambda z. x z)(\lambda z. z)}$. \end{frame} % \begin{frame} \frametitle{Le $\lambda$-calcul : normalisation par $\beta$-réductions} On note : \begin{itemize} \item $T \rightarrow T'$ (ou $T \rightarrow_\beta T'$) si $T'$ s'obtient par $\beta$-réduction d'un redex de $T$. \item $T \twoheadrightarrow T'$ (ou $T \twoheadrightarrow_\beta T'$) si $T'$ s'obtient par une suite finie de $\beta$-réductions ($T = T_0 \rightarrow \cdots \rightarrow T_n = T'$, y compris $n=0$ soit $T'=T$). \item $T$ est \textbf{faiblement normalisable} lorsque $T \twoheadrightarrow T'$ avec $T'$ en forme normale (\alert{une certaine} suite de $\beta$-réductions termine). \item $T$ est \textbf{fortement normalisable} lorsque \alert{toute} suite de $\beta$-réductions termine (sur un terme en forme normale). \end{itemize} \bigskip Exemples : \begin{itemize} \item $(\lambda x.xx)(\lambda x.xx)$ n'est pas faiblement normalisable (la $\beta$-réduction boucle). \item $(\lambda uz.z)((\lambda x.xx)(\lambda x.xx))$ n'est pas fortement normalisable mais il est faiblement normalisable $\rightarrow \lambda z.z$. \item $(\lambda uz.u)((\lambda t.t)(\lambda x.xx))$ est fortement normalisable $\twoheadrightarrow \lambda zx.xx$. \end{itemize} \end{frame} % \begin{frame} \frametitle{Le $\lambda$-calcul : confluence et choix d'un redex} \itempoint\textbf{Théorème} (Church-Rosser) : si $T \twoheadrightarrow T'_1$ et $T \twoheadrightarrow T'_2$ alors il existe $T''$ tel que $T'_1 \twoheadrightarrow T''$ et $T''_2 \twoheadrightarrow T''$. \smallskip En particulier, si $T'_1, T'_2$ sont en forme normale, alors $T'_1 \equiv T'_2$ (unicité de la normalisation). \bigskip Pour \alert{éviter} ce théorème, on va faire un choix simple de redex à réduire : \itempoint On appelle \textbf{redex extérieur gauche} d'un $\lambda$-terme le redex dont le $\lambda$ est \alert{le plus à gauche}. Exemples : $\lambda x.x(\textcolor{purple}{(\lambda y.y)x})$ ; $\lambda x.(\textcolor{purple}{\lambda y.(\lambda z.z)y})x$. \medskip \itempoint On écrira $T \rightarrow_{\mathsf{lft}} T'$ lorsque $T'$ s'obtient par $\beta$-réduction du redex extérieur gauche, et $T \twoheadrightarrow_{\mathsf{lft}} T'$ pour une suite de telles réductions. \bigskip On peut montrer : \itempoint\textbf{Théorème} (Curry \&al) : si $T \twoheadrightarrow T'$ avec $T'$ en forme normale, alors $T \twoheadrightarrow_{\mathsf{lft}} T'$ (i.e., la réduction ext. gauche normalise les termes faiblement normalisables). \end{frame} % \begin{frame} \frametitle{Réduction extérieure gauche : exemples} {\footnotesize Divers noms utilisés : « réduction en ordre normal », « réduction gauche », etc.\par} \bigskip On a noté $T \twoheadrightarrow_{\mathsf{lft}} T'$ lorsque $T'$ s'obtient par une succession de $\beta$-réductions à chaque fois du redex dont le $\lambda$ est le plus à gauche. \bigskip Exemples : \begin{itemize} \item $\textcolor{purple}{(\lambda x.xx)(\lambda x.xx)} \rightarrow_{\mathsf{lft}} (\lambda x.xx)(\lambda x.xx) \rightarrow_{\mathsf{lft}} \cdots$ (boucle) \item $(\lambda uz.z)((\lambda x.xx)(\lambda x.xx)) = \textcolor{purple}{(\lambda u.\lambda z.z)((\lambda x.xx)(\lambda x.xx))} \rightarrow_{\mathsf{lft}} \lambda z.z$ \item $(\lambda uz.u)((\lambda t.t)(\lambda x.xx)) = \textcolor{purple}{(\lambda u.\lambda z.u)((\lambda t.t)(\lambda x.xx))} \rightarrow_{\mathsf{lft}} \lambda z.(\textcolor{purple}{(\lambda t.t)(\lambda x.xx)}) \rightarrow_{\mathsf{lft}} \lambda z.\lambda x.xx = \lambda zx.xx$ \end{itemize} \bigskip Intérêt : \begin{itemize} \item cette stratégie de réduction est \alert{déterministe}, \item (Curry \&al :) si (« terme faiblement normalisant ») une réduction quelconque tombe sur une forme normale, alors $\twoheadrightarrow_{\mathsf{lft}}$ le fait. \end{itemize} \end{frame} % \begin{frame} \frametitle{Entiers de Church} On définit les termes en forme normale $\underline{n} := \lambda fx.f^{(n)}(x)$ pour $n\in\mathbb{N}$, c-à-d : \begin{itemize} \item $\underline{0} := \lambda fx.x$ \item $\underline{1} := \lambda fx.fx$ \item $\underline{2} := \lambda fx.f(fx)$ \item $\underline{3} := \lambda fx.f(f(fx))$, etc. \end{itemize} {\footnotesize Intuitivement, $\underline{n}$ prend une fonction $f$ et renvoie sa $n$-ième itérée.\par} \medskip \itempoint Posons $A := \lambda mfx.f(mfx) = \lambda m.\lambda f.\lambda x.f(mfx)$ Alors \[ \begin{aligned} A\underline{n} &= (\lambda m.\lambda f.\lambda x.f(mfx))(\lambda g.\lambda y.g^{(n)}(y))\\ & \rightarrow_{\mathsf{lft}} \lambda f.\lambda x.f(((\lambda g.\lambda y.g^{(n)}(y)))fx)\\ &\rightarrow_{\mathsf{lft}}\rightarrow_{\mathsf{lft}} \lambda f.\lambda x.f(f^{(n)}(x)) = \lambda f.\lambda x.f^{(n+1)}(x) = \underline{n+1} \end{aligned} \] \end{frame} % % Add somewhere: % - "Turing tarpit" % \end{document}