%% This is a LaTeX document. Hey, Emacs, -*- latex -*- , get it? \documentclass[mathserif,a4paper,aspectratio=169]{beamer} %\documentclass[a4paper]{article} %\usepackage[envcountsect,noxcolor]{beamerarticle} \usepackage[shorthands=off,francais]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \DeclareUnicodeCharacter{00A0}{~} \DeclareUnicodeCharacter{2026}{...} \DeclareUnicodeCharacter{1E25}{\d{h}} % Beamer theme: \usetheme{Goettingen} %\usecolortheme{albatross} %\usecolortheme{lily} %\setbeamercovered{transparent} % A tribute to the worthy AMS: \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage{amsthm} % \usepackage{mathrsfs} % \usepackage{graphicx} \usepackage{tikz} \usetikzlibrary{arrows,automata,calc} % \newcommand{\itempoint}{\strut\hbox{\color{beamerstructure}\donotcoloroutermaths$\blacktriangleright$}\nobreak\hskip.5em plus.5em\relax} \renewcommand{\thefootnote}{\textdagger} \newcommand{\dbllangle}{\mathopen{\langle\!\langle}} \newcommand{\dblrangle}{\mathclose{\rangle\!\rangle}} % % % \title{Calculabilité} \subtitle{INF110 (Logique et Fondements de l'Informatique)} \author[David Madore]{David A. Madore\\ {\footnotesize Télécom Paris}\\ \texttt{david.madore@enst.fr}} \date{2023–2024} \mode{% \beamertemplatenavigationsymbolsempty \usenavigationsymbolstemplate{\vbox{\hbox{\footnotesize\hyperlinkslideprev{$\leftarrow$}\insertframenumber/\inserttotalframenumber\hyperlinkslidenext{$\rightarrow$}}}} } \setbeamercolor{myhighlight}{fg=black,bg=white!90!green} \begin{document} \mode
{\maketitle} % \setlength\abovedisplayskip{2pt plus 2pt minus 2pt} \setlength\belowdisplayskip{2pt plus 2pt minus 2pt} % \begin{frame} \titlepage {\footnotesize\center{\url{http://perso.enst.fr/madore/inf110/transp-inf110.pdf}}\par} {\tiny \immediate\write18{sh ./vc > vcline.tex} \begin{center} Git: \input{vcline.tex} \end{center} \immediate\write18{echo ' (stale)' >> vcline.tex} \par} \end{frame} % \section*{Plan} \begin{frame} \frametitle{Plan} \tableofcontents \end{frame} % \section{Introduction} \begin{frame} \frametitle{Qu'est-ce que la calculabilité ?} \itempoint À l'interface entre \textbf{logique mathématique} et \textbf{informatique théorique} \begin{itemize} \item née de préoccupations venues de la logique (Hilbert, Gödel), \item à l'origine des 1\textsuperscript{ers} concepts informatiques ($\lambda$-calcul, machine de Turing). \end{itemize} \bigskip \itempoint But : étudier les limites de ce que \textbf{peut ou ne peut pas faire un algorithme} \begin{itemize} \item sans limite de ressources (temps, mémoire juste « finis »), \item sans préoccupation d'efficacité ($\neq$ complexité, algorithmique), \item y compris résultats négatifs (« \emph{aucun} algorithme ne peut… »), \item voire relatifs (calculabilité relative), \item admettant diverses généralisations (calculabilité supérieure). \end{itemize} \end{frame} % \begin{frame} \frametitle{Quelques noms} \itempoint Muḥammad ibn Mūsá al-\b{H}wārizmī (v.780–v.850) : $\rightsquigarrow$« algorithme » \itempoint Blaise Pascal (1623–1662) : machine à calculer $\rightsquigarrow$automates \itempoint Charles Babbage (1791–1871) : \textit{Analytical Engine} (Turing-complète !) \itempoint Ada (née Byron) Countess of Lovelace (1815–1852) : programmation \itempoint Richard Dedekind (1831–1916) : définitions primitives récursives \itempoint David Hilbert (1862–1943) : \textit{Entscheidungsproblem} (décider la vérité) \itempoint Jacques Herbrand (1908–1931) : fonctions générales récursives \itempoint Kurt Gödel (1906–1978) : incomplétude en logique \itempoint Alonzo Church (1903–1995) : $\lambda$-calcul \itempoint Alan M. Turing (1912–1954) : machine de Turing, problème de l'arrêt \itempoint Emil Post (1897–1954) : ensembles calculablement énumérables \itempoint Stephen C. Kleene (1909–1994) : $\mu$-récursion, th. de récursion, forme normale \end{frame} % \begin{frame} \frametitle{Fonction calculable} « Définition » : une fonction $f$ est \textbf{calculable} quand il existe un algorithme qui \begin{itemize} \item prenant en entrée un $x$ du domaine de définition de $f$, \item \textbf{termine en temps fini}, \item et renvoie la valeur $f(x)$. \end{itemize} \bigskip Difficultés : \begin{itemize} \item Comment définir ce qu'est un algorithme ? \item Quel type de valeurs ? \item Et si l'algorithme ne termine pas ? \item Distinction entre intention (l'algorithme) et extension (la fonction). \end{itemize} \end{frame} % \begin{frame} \frametitle{Sans préoccupation d'efficacité} \itempoint La calculabilité \alert{ne s'intéresse pas à l'efficacité} des algorithmes qu'elle étudie, uniquement leur \textbf{terminaison en temps fini}. \medskip P.ex. : pour savoir si $n$ est premier, on peut tester si $i\times j=n$ pour tout $i$ et $j$ allant de $2$ à $n-1$. (Hyper inefficace ? On s'en fout.) \bigskip \itempoint La calculabilité \alert{n'a pas peur des grands entiers}. \medskip P.ex. : \textbf{fonction d'Ackermann} définie par : \[ \begin{aligned} A(m,n,0) &= m+n \\ A(m,1,k+1) &= m \\ A(m,n+1,k+1) &= A(m,\,A(m,n,k+1),\,k) \end{aligned} \] définition algorithmique par récursion, donc calculable. \smallskip Mais $A(2,6,3) = 2^{2^{2^{2^{2^2}}}} = 2^{2^{65\,536}}$ et $A(2,4,4) = A(2,65\,536,3)$ est inimaginablement grand (et que dire de $A(100,100,100)$ ?). $\Rightarrow$ Ingérable sur un vrai ordinateur. \end{frame} % \begin{frame} \frametitle{Approches de la calculabilité} \itempoint Approche informelle : \textbf{algorithme = calcul finitiste} mené par un humain ou une machine, selon des instructions précises, en temps fini, sur des données finies \medskip \itempoint Approche pragmatique : tout ce qui peut être fait sur un langage de programmation « Turing-complet » (Python, Java, C, Caml…) idéalisé \begin{itemize} \item sans limites d'implémentation (p.ex., entiers arbitraires !), \item sans source de hasard ou de non-déterminisme. \end{itemize} \medskip \itempoint Approches formelles, p.ex. : \begin{itemize} \item fonctions générales récursives (Herbrand-Gödel-Kleene), \item $\lambda$-calcul (Church) ($\leftrightarrow$ langages fonctionnels), \item machine de Turing (Turing), \item machines à registres (Post…). \end{itemize} \bigskip \itempoint\textbf{« Thèse » de Church-Turing} : \alert{tout ceci donne la même chose}. \end{frame} % \begin{frame} \frametitle{Thèse de Church-Turing} \itempoint\textbf{Théorème} (Post, Turing) : les fonctions (disons $\mathbb{N} \dasharrow \mathbb{N}$) \textbf{(1)} générales récursives, \textbf{(2)} exprimables en $\lambda$-calcul, et \textbf{(3)} calculables par machine de Turing, coïncident toutes. \smallskip $\Rightarrow$ On parle de \alert{calculabilité au sens de Church-Turing}. \bigskip \itempoint\textbf{Observation} : tous les langages de programmation informatiques généraux usuels, idéalisés, calculent aussi exactement ces fonctions. \bigskip \itempoint\textbf{Thèse philosophique} : la calculabilité de C-T définit précisément la notion d'algorithme finitiste. \bigskip \itempoint\textbf{Conjecture physique} : la calculabilité de C-T correspond aux calculs réalisables mécaniquement dans l'Univers (en temps/énergie finis mais illimités). {\footnotesize $\uparrow$ (même avec un ordinateur quantique)} \bigskip Pour toutes ces raisons, le sujet mérite d'être étudié ! \end{frame} % \begin{frame} \frametitle{Données finies} Un algorithme travaille sur des \textbf{données finies}. \medskip Qu'est-ce qu'une « donnée finie » ? Tout objet représentable informatiquement : booléen, entier, chaîne de caractères, structure, liste/tableau de ces choses, ou même plus complexe (p.ex., graphe). \medskip $\rightarrow$ Comment y voir plus clair ? \bigskip Deux approches opposées : \begin{itemize} \item\textbf{typage} : distinguer toutes ces données, \item\textbf{codage de Gödel} : tout représenter comme des entiers ! \end{itemize} \bigskip Le typage est plus élégant, plus satisfaisant, plus proche de l'informatique réelle. \smallskip Le codage de Gödel simplifie l'approche/définition de la calculabilité (on étudie juste des fonctions $\mathbb{N} \dasharrow \mathbb{N}$). \end{frame} % \begin{frame} \frametitle{Codage de Gödel (« tout est un entier »)} \itempoint Représenter \textbf{n'importe quelle donnée finie par un entier}. \bigskip \itempoint Codage des couples : par exemple, \[ \langle m,n\rangle := m + \frac{1}{2}(m+n)(m+n+1) \] définit une bijection calculable $\mathbb{N}^2 \to \mathbb{N}$. \bigskip \itempoint Codage des listes finies : par exemple, \[ \dbllangle a_0,\ldots,a_{k-1}\dblrangle := \langle a_0, \langle a_1, \langle\cdots,\langle a_{k-1},0\rangle+1\cdots\rangle+1\rangle+1 \] définit une bijection calculable $\{\text{suites finies dans $\mathbb{N}$}\} \to \mathbb{N}$ {\footnotesize (avec $\dbllangle\dblrangle := 0$)}. \bigskip \itempoint Il sera aussi utile de représenter les programmes par des entiers. \bigskip \itempoint Les détails du codage sont \textbf{sans importance}. \bigskip \itempoint\textcolor{orange}{Ne pas utiliser dans la vraie vie} (hors calculabilité) ! \end{frame} % \begin{frame} \frametitle{Fonctions partielles} \itempoint Même si on s'intéresse à des algorithmes qui \textbf{terminent}, la définition de la calculabilité \alert{doit forcément} passer aussi par ceux qui ne terminent pas. {\footnotesize (Aucun langage Turing-complet ne peut exprimer uniquement des algorithmes qui terminent toujours, à cause de l'indécidabilité du problème de l'arrêt.)\par} \bigskip \itempoint Lorsque l'algorithme censé calculer $f(n)$ ne termine pas, on dira que $f$ n'est pas définie en $n$, et on notera $f(n)\uparrow$. Au contraire, s'il termine, on note $f(n)\downarrow$. \bigskip \itempoint Notation : $f\colon \mathbb{N} \dasharrow \mathbb{N}$ : une fonction $D \to \mathbb{N}$ définie sur une partie $D \subseteq \mathbb{N}$. \itempoint Notation : $f(n) \downarrow$ signifie « $n \in D$ », et $f(n) \uparrow$ signifie « $n \not\in D$ ». \itempoint Notation : $f(n) \downarrow = g(m)$ signifie « $f(n)\downarrow$ et $g(m)\downarrow$ et $f(n) = g(m)$ ». \itempoint Convention : $f(n) = g(m)$ signifie « $f(n)\downarrow$ ssi $g(m)\downarrow$, et $f(n) = g(m)$ si $f(n)\downarrow$ ». (Certains préfèrent écrire $f(n) \simeq g(m)$ pour ça.) \medskip \itempoint Convention : si $g_i(\underline{x})\uparrow$ pour un $i$, on convient que $h(g_1(\underline{x}),\ldots,g_k(\underline{x}))\uparrow$. \medskip \itempoint Terminologie : une fonction $f\colon \mathbb{N} \to \mathbb{N}$ est dite \textbf{totale}. \end{frame} % \begin{frame} \frametitle{Terminologie à venir (avant-goût)} \itempoint Une fonction partielle $f\colon \mathbb{N} \dasharrow \mathbb{N}$ est dite \textbf{calculable partielle} lorsqu'il existe un algorithme qui prend $n$ en entrée et : \begin{itemize} \item termine (en temps fini) et renvoie $f(n)$ lorsque $f(n)\downarrow$, \item ne termine pas lorsque $f(n)\uparrow$. \end{itemize} \bigskip \itempoint Une partie $A \subseteq \mathbb{N}$ est dite \textbf{décidable} lorsque sa fonction indicatrice $\mathbb{N}\to\mathbb{N}$ \[ \mathbf{1}_A\colon n \mapsto \left\{ \begin{array}{ll} 1&\text{~si~}n\in A\\ 0&\text{~si~}n\not\in A\\ \end{array} \right. \] est calculable (répondre « oui » ou « non » selon que $n\in A$ ou $n\not\in A$). \bigskip \itempoint Une partie $A \subseteq \mathbb{N}$ est dite \textbf{semi-décidable} lorsque sa fonction « semi-indicatrice » $\mathbb{N}\dasharrow\mathbb{N}$ (d'ensemble de définition $A$) \[ n \mapsto \left\{ \begin{array}{ll} 1&\text{~si~}n\in A\\ \uparrow&\text{~si~}n\not\in A\\ \end{array} \right. \] est calculable (répondre « oui » ou « ... » selon que $n\in A$ ou $n\not\in A$). \end{frame} % \begin{frame} \frametitle{Point terminologique : « récursif »} Le mot « récursif » et ses cognats (« récursion », « récursivité ») a plusieurs sens \alert{apparentés mais non identiques} : \begin{itemize} \item « récursif » = « défini par récurrence » (Dedekind 1888) $\rightarrow$ fonctions primitives récursives, générales récursives (cf. après) ; \item « récursif » = « calculable » (par glissement à cause de la définition de la calculabilité par les fonctions générales récursives) ; \item « récursif » = « faisant appel à lui-même dans sa définition » (appels récursifs, récursivité en informatique). \end{itemize} \bigskip On va définir les fonctions « \textbf{primitives récursives} » (1\textsuperscript{er} sens) et « \textbf{(générales) récursives} » (1\textsuperscript{er} et aussi 2\textsuperscript{e} sens) ci-après. \medskip Pour le 3\textsuperscript{e} sens, on dira « appels récursifs ». \end{frame} % \section{Fonctions primitives récursives} \begin{frame} \frametitle{Fonctions primitives récursives : aperçu} \itempoint Avant de définir les fonctions générales récursives ($\cong$ calculables), on va commencer par les \textbf{primitives récursives}, plus restreintes. {\footnotesize« primitive\alert{ment} récursives » ?\par} \bigskip \itempoint Historiquement antérieures à la calculabilité de Church-Turing. \bigskip \itempoint Pédagogiquement utile comme « échauffement ». \bigskip \itempoint À cheval entre calculabilité (\textbf{PR} est une petite classe de calculabilité) et complexité (c'est une grosse classe de complexité). \bigskip \itempoint Correspond à des programmes à \textbf{boucles bornées a priori}. \bigskip \itempoint Énormément d'algorithmes usuels sont p.r. \bigskip \itempoint Mais p.ex. la fonction d'Ackermann n'est pas p.r. \end{frame} % \begin{frame} \label{primitive-recursive-definition} \frametitle{Fonctions primitives récursives : définition} \itempoint $\textbf{PR}$ est la plus petite classe de fonctions $\mathbb{N}^k \dasharrow \mathbb{N}$ (en fait $\mathbb{N}^k \to \mathbb{N}$), pour $k$ variable qui : \begin{itemize} \item contient les projections $\underline{x} := (x_1,\ldots,x_k) \mapsto x_i$ ; \item contient les constantes $\underline{x} \mapsto c$ ; \item contient la fonction successeur $x \mapsto x+1$ ; \item est stable par composition : si $g_1,\ldots,g_\ell\colon \mathbb{N}^k \dasharrow \mathbb{N}$ et $h\colon \mathbb{N}^\ell \dasharrow \mathbb{N}$ sont p.r. alors $\underline{x} \mapsto h(g_1(\underline{x}),\ldots, g_\ell(\underline{x}))$ est p.r. ; \item est stable par récursion primitive : si $g\colon \mathbb{N}^k \dasharrow \mathbb{N}$ et $h\colon \mathbb{N}^{k+2} \dasharrow \mathbb{N}$ sont p.r., alors $f\colon \mathbb{N}^{k+1} \dasharrow \mathbb{N}$ est p.r., où : \[ \begin{aligned} f(\underline{x},0) &= g(\underline{x})\\ f(\underline{x},z+1) &= h(\underline{x},f(\underline{x},z),z) \end{aligned} \] \end{itemize} \medskip {\footnotesize Les fonctions p.r. sont automatiq\textsuperscript{t} totales, mais il est commode de garder la définition avec $\dasharrow$.\par} \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : exemples} \itempoint $f\colon (x,z) \mapsto x+z$ est p.r. : \[ \begin{aligned} f(x,0) &= x\\ f(x,z+1) &= f(x,z)+1 \end{aligned} \] {\footnotesize où $x \mapsto x$ et $(x,y,z) \mapsto y+1$ sont p.r.\par} \medskip \itempoint $f\colon (x,z) \mapsto x\cdot z$ est p.r. : \[ \begin{aligned} f(x,0) &= 0\\ f(x,z+1) &= f(x,z)+x \end{aligned} \] \medskip \itempoint $f\colon (x,z) \mapsto x^z$ est p.r. \bigskip \itempoint $f\colon (x,y,0) \mapsto x, \; (x,y,z) \mapsto y\text{~si~}z\geq 1$ est p.r. : \[ \begin{aligned} f(x,y,0) &= x\\ f(x,y,z+1) &= y \end{aligned} \] \medskip \itempoint $(u,v) \mapsto \max(u-v,0)$ est p.r. (exercice !) ou même $u\% v$. \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : programmation} Les fonctions p.r. sont celles définies par un \textbf{langage de programmation à boucles bornées}, c'est-à-dire que : \begin{itemize} \item les variables sont des entiers naturels (illimités !), \item les manipulations de base sont permises (constantes, affectations, test d'égalité, conditionnelles), \item les opérations arithmétiques basiques sont disponibles, \item on peut faire des appels de fonctions \alert{sans appels récursifs}, \item on ne peut faire que des boucles \alert{de nombre borné \textit{a priori}} d'itérations. \end{itemize} \medskip Les programmes dans un tel langage \textbf{terminent forcément par construction}. \bigskip \textbf{N.B.} $(m,n) \mapsto \langle m,n\rangle := m + \frac{1}{2}(m+n)(m+n+1)$ et $\langle m,n\rangle \mapsto m$ et $\langle m,n\rangle \mapsto n$ sont p.r. \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : lien avec la complexité} En anticipant sur la notion de machine de Turing : \medskip \itempoint La fonction $(M,C) \mapsto C'$ qui à une machine de Turing $M$ et une configuration (= ruban+état) $C$ de $M$ associe la configuration suivante \textbf{est p.r.} \medskip \itempoint Conséquence : la fonction $(n,M,C) \mapsto C^{(n)}$ qui à $n\in\mathbb{N}$ et une machine de Turing $M$ et une configuration $C$ de $M$ associe la configuration atteinte après $n$ étapes d'exécution, \textbf{est p.r.} {\footnotesize (Par récursion primitive sur le point précédent.)} \medskip \itempoint Conséquence : une fonction calculable en complexité p.r. par une machine de Turing est elle-même p.r. \smallskip {\footnotesize (Calculer une borne p.r. sur le nombre d'étapes, puis appliquer le point précédent.)} \medskip \itempoint Réciproquement : une p.r. est calculable en complexité p.r. \medskip \itempoint Moralité : p.r. $\Leftrightarrow$ de complexité p.r. \smallskip {\footnotesize Notamment $\textbf{EXPTIME} \subseteq \textbf{PR}$.\par} \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : limitations} {\footnotesize La classe $\textbf{PR}$ est « à cheval » entre la calculabilité et la complexité.\par} \bigskip Rappel : la \textbf{fonction d'Ackermann} (pour $m=2$) définie par : \[ \begin{aligned} A(2,n,0) &= 2+n \\ A(2,1,k+1) &= 2 \\ A(2,n+1,k+1) &= A(2,\,A(2,n,k+1),\,k) \end{aligned} \] devrait être calculable. Mais cette définition \alert{n'est pas une récursion primitive} (pourquoi ?). \bigskip \itempoint On peut montrer que : si $f \colon \mathbb{N}^k \to \mathbb{N}$ est p.r., il existe $r$ tel que \[ f(x_1,\ldots,x_k) \leq A(2,\, (x_1+\cdots+x_k+2),\, r) \] \medskip \itempoint Notamment, $r \mapsto A(2, 2, r)$ \textbf{n'est pas p.r.} \medskip Pourtant, \alert{elle est bien définie par un algorithme} clair (et terminant clairement). \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : numérotation} On définit $\psi_e^{(k)}\colon \mathbb{N}^k \dasharrow \mathbb{N}$ par induction suivant la déf\textsuperscript{n} de $\mathbf{PR}$ (cf. transp. \ref{primitive-recursive-definition}) : \begin{itemize} \item si $e = \dbllangle 0, k, i\dblrangle$ alors $\psi_e^{(k)}(x_1\ldots,x_k) = x_i$ (projections) ; \item si $e = \dbllangle 1, k, c\dblrangle$ alors $\psi_e^{(k)}(x_1\ldots,x_k) = c$ (constantes) ; \item si $e = \dbllangle 2\dblrangle$ alors $\psi_e^{(k)}(x) = x+1$ (successeur) ; \item si $e = \dbllangle 3, k, d, c_1,\ldots,c_\ell\dblrangle$ et $g_i := \psi_{c_i}^{(k)}$ et $h := \psi_d^{(\ell)}$, alors $\psi_e^{(k)} \colon \underline{x} \mapsto h(g_1(\underline{x}),\ldots, g_\ell(\underline{x}))$ (composition) ; \item si $e = \dbllangle 4, k, d, c\dblrangle$ et $g := \psi_c^{(k)}$ et $h := \psi_d^{(k+2)}$, alors (récursion primitive) \[ \begin{aligned} \psi_e^{(k+1)}(\underline{x},0) &= g(\underline{x})\\ \psi_e^{(k+1)}(\underline{x},z+1) &= h(\underline{x},f(\underline{x},z),z) \end{aligned} \] \end{itemize} (Autres cas non définis, i.e., donnent $\uparrow$.) \bigskip \itempoint Alors $f\colon \mathbb{N}^k \dasharrow \mathbb{N}$ est p.r. \alert{ssi} $\exists e \in\mathbb{N}.\,(f = \psi_e^{(k)})$. {\tiny P.ex., $e = \dbllangle 4,1,\dbllangle 3,3,\dbllangle 2\dblrangle,\dbllangle 0,3,2\dblrangle\dblrangle,\dbllangle 0,1,1\dblrangle\dblrangle$ définit $\psi^{(2)}_e(x,z) = x+z$ sauf erreur (probable) de ma part.\par} \end{frame} % \begin{frame} \frametitle{Manipulation de programmes (version p.r.)} \itempoint Penser à $e$ dans $\psi_e^{(k)}$ comme un programme écrit en « langage p.r. ». \medskip \itempoint La fonction $\psi_e^{(k)}\colon \mathbb{N}^k \dasharrow \mathbb{N}$ « interprète » le programme $e$. \medskip \centerline{*} \bigskip La numérotation (transp. précédent) rend p.r. beaucoup de manipulations usuelles de programmes (composition, récursion, etc.). Notamment : \medskip \itempoint\textbf{Théorème s-m-n} (Kleene) : il existe $s_{m,n} \colon \mathbb{N}^{m+1} \to \mathbb{N}$ p.r. telle que \[ (\forall e,\underline{x},\underline{y})\quad \psi^{(n)}_{s_{m,n}(e,x_1,\ldots,x_m)}(y_1,\ldots,y_n) = \psi^{(m+n)}_e(x_1,\ldots,x_m,\,y_1,\ldots,y_n) \] {\footnotesize\underline{Preuve :} $s_{m,n}(e,\underline{x}) = \dbllangle 3, n, e, \dbllangle 1, n, x_1\dblrangle, \ldots, \dbllangle 1, n, x_m\dblrangle, \; \dbllangle 0, n, 1\dblrangle, \ldots, \dbllangle 0, n, n\dblrangle \dblrangle$ avec nos conventions (composition de fonctions constantes et de projections).\qed\par} \medskip \emph{En clair :} $s_{m,n}$ prend un programme $e$ qui prend $m+n$ arguments en entrée et « fixe » la valeur des $m$ premiers arguments à $x_1,\ldots,x_m$, les $n$ arguments suivants ($y_1,\ldots,y_n$) étant gardés variables. \end{frame} % \begin{frame} \frametitle{Digression : l'astuce de Quine (intuition)} {\footnotesize Le nom de Willard Van Orman Quine (1908–2000) a été associé à cette astuce par Douglas Hofstadter. En fait, l'astuce est plutôt due à Cantor, Turing ou Kleene.\par} \smallskip \textcolor{teal}{Les mots suivants suivis des mêmes mots entre guillemets forment une phrase intéressante : « les mots suivants suivis des mêmes mots entre guillemets forment une phrase intéressante ».} \bigskip Pseudocode : \smallskip {\footnotesize\texttt{% str="somefunc(code) \{ /*...*/ \}\textbackslash nsomefunc(\textbackslash"str=\textbackslash"+quote(str)+str);\textbackslash n";\\ somefunc(code) \{ /*...*/ \}\\ somefunc("str="+quote(str)+str); }\par} \smallskip $\Rightarrow$ La fonction \texttt{somefunc} (arbitraire) est appelée avec le code source du programme \alert{tout entier}. \medskip {\footnotesize\textbf{Exercice :} utiliser cette astuce pour écrire un programme écrivant son propre code source.\par} \bigskip \textcolor{blue}{\textbf{Moralité :}} \alert{on peut toujours donner aux programmes accès à leur code source}, même si ce n'est pas prévu par le langage. \end{frame} % \begin{frame} \frametitle{Le théorème de récursion de Kleene (version p.r.)} Version formelle de l'astuce de Quine \smallskip \itempoint\textbf{Théorème} (Kleene) : si $h \colon \mathbb{N}^{k+1} \dasharrow \mathbb{N}$ est p.r., il existe $e$ tel que \[ (\forall\underline{x})\quad \psi^{(k)}_e(\underline{x}) = h(e,\underline{x}) \] Plus précisément, il existe $b \colon \mathbb{N}^2 \to \mathbb{N}$ p.r. telle que \[ (\forall\underline{x})\quad \psi^{(k)}_e(\underline{x}) = \psi^{(k+1)}_d(e,\underline{x}) \text{~si~}e := b(k,d) \] \bigskip \underline{Preuve :} soit $s := s_{m,1}$ donné par le théorème s-m-n. La fonction $(t,\underline{x}) \mapsto h(s(t,t),\underline{x})$ est p.r., disons $= \psi_c^{(k+1)}(\underline{x})$. Alors \[ \psi_{s(c,c)}^{(k)}(\underline{x}) = \psi_{c}^{(k+1)}(c, \underline{x}) = h(s(c,c),\underline{x}) \] donc $e := s(c,c)$ convient. Les fonctions $d \mapsto c \mapsto e$ sont p.r.\qed \bigskip \textcolor{blue}{\textbf{Moralité :}} \alert{on peut donner aux programmes accès à leur propre numéro} (= « code source »), cela ne change rien. \end{frame} % \begin{frame} \label{primitive-recursive-no-universality} \frametitle{Fonctions primitives récursives : absence d'universalité} \itempoint\textbf{Théorème :} il n'existe pas de fonction p.r. $u\colon \mathbb{N}^2 \to \mathbb{N}$ telle que $u(e,x) = \psi^{(1)}_e(x)$ si $\psi^{(1)}_e(x)\downarrow$. \bigskip \underline{Preuve :} par l'absurde : si un tel $u$ existe, alors $(e,x) \mapsto u(e,x)+1$ est p.r. Par le théorème de récursion de Kleene, il existe $e$ tel que $\psi^{(1)}_e(x) = u(e,x) + 1$, ce qui contredit $u(e,x) = \psi^{(1)}_e(x)$.\qed \medskip \centerline{*} \medskip \textcolor{blue}{\textbf{Moralité :}} \alert{un interpréteur du langage p.r. ne peut pas être p.r.} (preuve : on peut interpréter l'interpréteur s'interprétant lui-même, en ajoutant un au résultat, ce qui donne un paradoxe ; c'est un argument diagonal de Cantor). \bigskip \itempoint Cet argument dépend du théorème s-m-n et du fait que les fonctions p.r. sont \alert{totales}. Pour définir une théorie satisfaisante de la calculabilité, on va sacrifier la totalité pour sauver le théorème s-m-n. {\footnotesize Cette même preuve donnera alors la preuve de l'indécidabilité du problème de l'arrêt.\par} \end{frame} % \begin{frame} \frametitle{Fonctions primitives récursives : absence d'universalité (variante)} Rappel : la \textbf{fonction d'Ackermann} est définie par : \[ \begin{aligned} A(m,n,0) &= m+n \\ A(m,1,k+1) &= m \\ A(m,n+1,k+1) &= A(m,\,A(m,n,k+1),\,k) \end{aligned} \] \bigskip \itempoint Pour un $k$ \alert{fixé}, la fonction $(m,n) \mapsto A(m,n,k)$ est p.r. (par récurrence sur $k$, récursion primitive sur $A(m,n,k-1)$). \bigskip \itempoint Il existe même $k \mapsto a(k)$ p.r. telle que $\psi^{(2)}_{a(k)}(m,n) = A(m,n,k)$. \smallskip I.e., on peut calculer de façon p.r. en $k$ le code d'un programme p.r. qui calcule $(m,n) \mapsto A(m,n,k)$. \bigskip \itempoint Si (une extension de) $(e,n) \mapsto \psi^{(1)}_e(n)$ était p.r., on pourrait calculer $(n,k) \mapsto \psi^{(1)}_{s_{1,1}(a(k),2)}(n) = \psi^{(2)}_{a(k)}(2,n) = A(2,n,k)$, or elle n'est pas p.r. \end{frame} % \section{Fonctions générales récursives} \begin{frame} \frametitle{Fonctions générales récursives : aperçu} \itempoint On a vu que les fonctions p.r. sont \alert{limitées} et ne couvrent pas la notion générale d'algorithme : \begin{itemize} \item les algorithmes p.r. terminent toujours car \item le langage ne permet pas de boucles non bornées ; \item concrètement, il n'implémente pas la fonction d'Ackermann ; \item il ne peut pas s'interpréter lui-même. \end{itemize} \bigskip \itempoint On veut modifier la définition des fonctions p.r. pour lever ces limitations. On va \alert{autoriser les boucles infinies}. $\rightarrow$ Fonctions \textbf{générales récursives} ou simplement \textbf{récursives}. Ce seront aussi nos fonctions \textbf{calculables} ! \bigskip \itempoint En ce faisant, on obtient forcément des cas de non-terminaisons, donc on doit passer par des \alert{fonctions partielles}. \bigskip {\footnotesize\textbf{N.B.} Terminologie fluctuante : fonctions « générales récursives » ? juste « récursives » ? « récursives partielles » ? « calculables » ? « calculables partielles » ?\par} \end{frame} % \begin{frame} \frametitle{L'opérateur $\mu$ de Kleene} \textbf{Définition :} $\mu g(\underline{x})$ est le plus petit $z$ tel que $g(z,\underline{x}) = 0$ et $g(i,\underline{x})\downarrow$ pour $0\leq i0$ (sous-entendant $g(i,\underline{x})\downarrow$) pour tout $0\leq i 0$. \end{itemize} \par} On encode l'arbre $\mathscr{T}$ par l'entier $\operatorname{code}(\mathscr{T}) := \dbllangle n, \operatorname{code}(\mathscr{T}_1), \ldots, \operatorname{code}(\mathscr{T}_s)\dblrangle$ où $n$ est l'étiquette de la racine et $\mathscr{T}_1,\ldots,\mathscr{T}_s$ les codes des sous-arbres portés par les fils de celle-ci. \end{frame} % \begin{frame} \frametitle{Arbres de calcul $\Rightarrow$ universalité} Les points-clés : \begin{itemize} \item On a $\varphi_e^{(k)}(\underline{x}) = y$ \alert{ssi} il existe un arbre de calcul $\mathscr{T}$ l'attestant. \item Vérifier si $\mathscr{T}$ est un arbre de calcul valable est \alert{primitif récursif} en $\operatorname{code}(\mathscr{T})$. (On peut vérifier les règles à chaque nœud avec des boucles bornées.) \item De même, extraire $e,\underline{x},y$ de $\mathscr{T}$ est primitif récursif. \end{itemize} \bigskip D'où l'algorithme « universel » pour calculer $\varphi_e^{(k)}(\underline{x})$ en fonction de $e,\underline{x}$ : \begin{itemize} \item parcourir $n=0,1,2,3,4,\ldots$, \item pour chacun, tester s'il code un arbre de calcul valable de $\varphi_e^{(k)}(\underline{x})$, \item si oui, terminer et renvoyer le $y$ contenu. \end{itemize} La boucle non-bornée est précisément ce que permet $\mu$. Tout le reste est p.r. $\Rightarrow$ Ceci montre l'existence de $u$. \bigskip \textcolor{orange}{Ne pas coder un interpréteur comme ça dans la vraie vie !} \end{frame} % \begin{frame} \frametitle{Théorème de la forme normale} On a montré un peu plus que l'universalité : on peut exécuter n'importe quel algorithme avec une \alert{unique boucle non bornée}. Plus exactement : \bigskip \itempoint\textbf{Théorème de la forme normale} (Kleene) : il existe un prédicat p.r. $T$ sur $\mathbb{N}^3$ et une fonction p.r. $U \colon \mathbb{N} \to \mathbb{N}$ tels que : \[ \varphi_e^{(k)}(x_1,\ldots,x_k) = U(\mu T(e,\dbllangle x_1,\ldots,x_k\dblrangle)) \] Précisément, $T(n, e,\dbllangle x_1,\ldots,x_k\dblrangle)$ teste si $n$ est le code d'un arbre de calcul valable de $\varphi_e^{(k)}(\underline{x})$, et $U$ extrait le résultat de cet arbre. \medskip \centerline{*} \medskip Exemple d'application : \textbf{lancement en parallèle} : \[ U(\mu(T(e_1,\dbllangle\underline{x}\dblrangle)\text{~ou~}T(e_2,\dbllangle\underline{x}\dblrangle))) \] définit (de façon p.r. en $e_1,e_2$) un $e$ tel que \[ \varphi_e(\underline{x}){\downarrow} \;\Longleftrightarrow\; \varphi_{e_1}(\underline{x}){\downarrow}\text{~ou~} \varphi_{e_2}(\underline{x}){\downarrow} \] \end{frame} % \begin{frame} \frametitle{Théorème s-m-n (version générale récursive)} Exactement comme la version p.r. : \smallskip \itempoint\textbf{Théorème s-m-n} (Kleene) : il existe $s_{m,n} \colon \mathbb{N}^{m+1} \to \mathbb{N}$ p.r. telle que \[ (\forall e,\underline{x},\underline{y})\quad \varphi^{(n)}_{s_{m,n}(e,x_1,\ldots,x_m)}(y_1,\ldots,y_n) = \varphi^{(m+n)}_e(x_1,\ldots,x_m,\,y_1,\ldots,y_n) \] \bigskip Noter que $s_{m,n}$ est \alert{p.r.} même si on s'intéresse ici aux fonctions générales récursives. \medskip Les manipulations de programmes sont typiquement p.r. (même si les programmes manipulés sont des fonctions générales récursives). \end{frame} % \begin{frame} \frametitle{Le théorème de récursion de Kleene (version générale récursive)} Exactement comme la version p.r. : \smallskip \itempoint\textbf{Théorème} (Kleene) : si $h \colon \mathbb{N}^{k+1} \dasharrow \mathbb{N}$ est récursive, il existe $e$ tel que \[ (\forall\underline{x})\quad \varphi^{(k)}_e(\underline{x}) = h(e,\underline{x}) \] Plus précisément, il existe $b \colon \mathbb{N}^2 \to \mathbb{N}$ p.r. telle que \[ (\forall\underline{x})\quad \varphi^{(k)}_e(\underline{x}) = \varphi^{(k+1)}_d(e,\underline{x}) \text{~si~}e := b(k,d) \] \bigskip \underline{Même preuve :} soit $s := s_{m,1}$ donné par le théorème s-m-n. La fonction $(t,\underline{x}) \mapsto h(s(t,t),\underline{x})$ est p.r., disons $= \varphi_c^{(k+1)}(\underline{x})$. Alors \[ \varphi_{s(c,c)}^{(k)}(\underline{x}) = \varphi_{c}^{(k+1)}(c, \underline{x}) = h(s(c,c),\underline{x}) \] donc $e := s(c,c)$ convient. Les fonctions $d \mapsto c \mapsto e$ sont p.r.\qed \bigskip \textcolor{blue}{\textbf{Moralité :}} \alert{on peut donner aux programmes accès à leur propre numéro} (= « code source »), cela ne change rien. \end{frame} % \begin{frame} \frametitle{Le théorème du point fixe de Kleene-Rogers} Reformulation du théorème de récursion utilisant l'universalité : \smallskip \itempoint\textbf{Théorème} (Kleene-Rogers) : si $F \colon \mathbb{N} \to \mathbb{N}$ est récursive \emph{totale} et $k\in\mathbb{N}$, il existe $e$ tel que \[ \varphi_e^{(k)} = \varphi_{F(e)}^{(k)} \] \bigskip \underline{Preuve :} $h\colon (e,\underline{x}) \mapsto \varphi_{F(e)}^{(k)}(\underline{x})$ est récursive car $e \mapsto F(e)$ l'est et que $(e',\underline{x}) \mapsto \varphi_{e'}^{(k)}(\underline{x})$ l'est (universalité). Par le théorème de récursion, il existe $e$ tel que $\varphi^{(k)}_e(\underline{x}) = h(e,\underline{x}) = \varphi_{F(e)}^{(k)}(\underline{x})$.\qed \end{frame} % \begin{frame} \frametitle{Récursion !} Le langage des fonctions générales récursives, \textcolor{orange}{malgré le nom} ne permet pas les définitions par appels récursifs. \smallskip {\footnotesize Uniquement des opérations élémentaires, appels de fonctions précédemment définies, boucles.\par} \bigskip Comment permettre quand même les appels récursifs ? \smallskip \alert{Par le théorème de récursion de Kleene !} (ou théorème du point fixe) : \begin{itemize} \item je veux définir (comme fonction générale récursive) une fonction $f$ dont la définition fait appel à $f$ elle-même : \item par le théorème de récursion de Kleene (« astuce de Quine »), je peux supposer que $f$ a accès à son propre numéro (« code source »), \item je convertis chaque appel à $f$ depuis $f$ en un appel à la fonction universelle (interpréteur) sur le numéro de $f$. \end{itemize} \bigskip \textcolor{orange}{Ne pas implémenter la récursion comme ça dans la vraie vie !} \end{frame} % \begin{frame} \frametitle{\textit{Kids, don't try this at home !}} Pseudocode : \smallskip {\footnotesize\texttt{% fibonacci(n) \{\\ str = "self = \textbackslash"fibonacci(n) \{\textbackslash \textbackslash nstr = \textbackslash" + quote(str) + str;\textbackslash n\textbackslash\\ if (n==0 || n==1) return n;\textbackslash n\textbackslash\\ return interpret(self, n-1) + interpret(self, n-2);\textbackslash n\textbackslash\\ \}";\\ self = "fibonacci(n) \{\textbackslash nstr = " + quote(str) + str;\\ if (n==0 || n==1) return n;\\ return interpret(self, n-1) + interpret(self, n-2);\\ \} }\par} \medskip \centerline{*} \medskip \textbf{Défi :} trouver explicitement un $e$ tel que $\varphi^{(3)}_e$ soit la fonction d'Ackermann. \end{frame} % \begin{frame} \frametitle{Le problème de l'arrêt} {\footnotesize Le terme « problème de l'arrêt » prendra plus de sens pour les machines de Turing.\par} \medskip \itempoint\textbf{Problème :} donné un programme $e$ (mettons d'arité $k=1$) et une entrée $x$ à ce programme, comment savoir si $e$ termine (c'est-à-dire $\varphi^{(1)}_e(x)\downarrow$) ou non ($\varphi^{(1)}_e(x)\uparrow$) ? \medskip Cette question est-elle \alert{algorithmique} ? \bigskip \textbf{Réponse} de Turing : \alert{non}. \end{frame} % \begin{frame} \frametitle{L'indécidabilité du problème de l'arrêt} \itempoint\textbf{Théorème} (Turing) : il n'existe pas de fonction récursive $h\colon \mathbb{N}^2 \to \mathbb{N}$ telle que $h(e,x) = 1$ si $\varphi^{(1)}_e(x)\downarrow$ et $h(e,x) = 0$ si $\varphi^{(1)}_e(x)\uparrow$. \bigskip \underline{Preuve :} par l'absurde : si un tel $h$ existe, alors la fonction \[ v\colon (e,x) \mapsto \left\{ \begin{array}{ll} 42&\text{~si~}h(e,x) = 0\\ \uparrow&\text{~si~}h(e,x) = 1\\ \end{array} \right. \] est générale récursive (tester is $h(e,x)=0$, si oui renvoyer $42$, sinon faire une boucle infinie, p.ex. $\mu(x\mapsto 1)$). Par le théorème de récursion de Kleene, il existe $e$ tel que $\varphi^{(1)}_e(x) = v(e,x)$. Si $\varphi^{(1)}_e(x)\downarrow$ alors $h(e,x) = 1$ donc $v(e,x)\uparrow$ donc $\varphi^{(1)}_e(x)\uparrow$, une contradiction. Si $\varphi^{(1)}_e(x)\uparrow$ alors $h(e,x) = 0$ donc $v(e,x)\downarrow$ donc $\varphi^{(1)}_e(x)\downarrow$, une contradiction.\qed \bigskip \itempoint Intuition de la preuve : supposons que j'aie un moyen algorithmique $h$ pour savoir si un algorithme termine ou pas, je peux lui demander ce que « je » vais faire (astuce de Quine), et faire le contraire, ce qui conduit à un paradoxe. \end{frame} % \begin{frame} \frametitle{L'indécidabilité du problème de l'arrêt : redite} {\footnotesize Notons $\varphi$ pour $\varphi^{(1)}$.\par} \smallskip \itempoint\textbf{Théorème} (Turing) : il n'existe pas de fonction récursive $h\colon \mathbb{N}^2 \to \mathbb{N}$ telle que $h(e,x) = 1$ si $\varphi_e(x)\downarrow$ et $h(e,x) = 0$ si $\varphi_e(x)\uparrow$. \bigskip \underline{Preuve} (incluant celle du théorème de récursion) : considérons la fonction $v\colon \mathbb{N} \dasharrow \mathbb{N}$ qui à $e$ associe $42$ si $h(e,e)=0$ et $\uparrow$ (non définie) si $h(e,e)=1$. Supposons par l'absurde $h$ est calculable : alors cette fonction (partielle) $v$ est calculable, disons $v = \varphi_c$. Si $\varphi_c(c)\downarrow$ alors $h(c,c)=1$ donc $v(c)\uparrow$, c'est-à-dire $\varphi_c(c)\uparrow$, une contradiction. Si $\varphi_c(c)\uparrow$ alors $h(c,c)=0$ donc $v(c)\downarrow$, c'est-à-dire $\varphi_c(c)\downarrow$, une contradiction.\qed \bigskip C'est un \alert{argument diagonal} : on utilise $h$ pour construire une fonction qui diffère en tout point de la diagonale $c \mapsto \varphi_c(c)$, donc elle ne peut pas être une $\varphi_c$. \medskip Pour les fonctions p.r. (terminent toujours !), le même argument diagonal donnait l'inexistence d'un programme universel (transp. \ref{primitive-recursive-no-universality}). \end{frame} % \begin{frame} \frametitle{Comparaison fonctions primitives récursives et générales récursives} \textcolor{purple}{Récapitulation :} \medskip \itempoint Les fonctions p.r. sont totales ; les générales récursives sont possiblement partielles. \medskip \itempoint Les fonctions p.r. sont un langage limité (pas de boucle non bornées a priori) ; les générales récursives coïncideront avec les fonctions « calculables » (équivalence avec machines de Turing et $\lambda$-calcul à voir). \medskip \itempoint Les fonctions p.r. ne permettent pas d'interpréter les fonctions p.r. ; les générales récursives peuvent s'interpréter elles-mêmes (universalité) et donc réaliser n'importe quelle sorte d'appels récursifs. \medskip \itempoint Le problème de l'arrêt pour les fonctions p.r. est trivial (elles sont totales !) ; pour les fonctions générales récursives, il est indécidable (= pas calculable par une fonction générale récursive). \end{frame} % \section{Machines de Turing} \begin{frame} \frametitle{Machines de Turing : explication informelle} La \textbf{machine de Turing} est une modélisation d'un ordinateur extrêmement simple, réalisant des calculs indiscutablement finitistes. \medskip C'est une sorte d'automate doté d'un \textbf{état} interne pouvant prendre un nombre fini de valeurs, et d'une mémoire illimitée sous forme de \textbf{bande} linéaire divisée en cellules (indéfiniment réécrivibles), chaque cellule pouvant contenir un \textbf{symbole}. \medskip La machine peut observer, outre son état interne, une unique case de la bande, là où se trouve sa \textbf{tête de lecture/écriture}. \medskip Le \textbf{programme} de la machine indique, pour chaque combinaison de l'état internet et du symbole lu par la tête : \begin{itemize} \item dans quel état passer, \item quel symbole écrire à la place de la tête, \item la direction dans laquelle déplacer la tête (gauche ou droite). \end{itemize} \medskip La machine suit son programme jusqu'à tomber dans un état spécial $0$ (« arrêt »). \end{frame} % \begin{frame} \frametitle{Machines de Turing : définition} Une \textbf{machine de Turing} (déterministe) à ($1$ bande, $2$ symboles et) $m\geq 2$ états est la donnée de : \begin{itemize} \item un ensemble fini $Q$ de cardinal $m$ d'\textbf{états}, qu'on identifiera à $\{0,\ldots,m-1\}$, \item un ensemble $\Sigma$ de (ici) $2$ \textbf{symboles de bande} qu'on identifiera à $\{0,1\}$, \item une fonction \[ \delta \colon (Q\setminus\{0\}) \times \Sigma \to Q \times \Sigma \times \{\texttt{L},\texttt{R}\} \] appelé \textbf{programme} de la machine. \end{itemize} {\footnotesize (Il y a donc $(4m)^{2(m-1)}$ machines à $m$ états.)\par} \bigskip Une \textbf{configuration} d'une telle machine est la donnée de : \begin{itemize} \item un élément $q \in Q$ appelé l'\textbf{état courant}, \item une fonction $\beta\colon \mathbb{Z} \to \Sigma$ ne prenant qu'\alert{un nombre fini} de valeurs $\neq 0$, appelée la \textbf{bande}, \item un entier $i \in \mathbb{Z}$ appelé la \textbf{position de la tête} sur la bande. \end{itemize} \end{frame} % \begin{frame} \frametitle{Machines de Turing : exécution d'une étape} Si $(q,\beta,i)$ est une configuration de la machine de Turing où $q\neq 0$, et $\delta$ le programme, la \textbf{configuration suivante} est $(q',\beta',i')$ où : \begin{itemize} \item $(q',y,d) = \delta(q,\beta(i))$ est l'\textbf{instruction exécutée}, \item $q'$ est le \textbf{nouvel état}, \item $i' = i-1$ si $d=\texttt{L}$ et $i' = i+1$ si $d=\texttt{R}$, \item $\beta'(j) = \beta(j)$ pour $j\neq i$ tandis que $\beta'(i) = y$. \end{itemize} \bigskip \emph{En clair :} le programme indique, pour chaque configuration d'un état $\neq 0$ et d'un symbole $x = \beta(i)$ lu sur la bande : \begin{itemize} \item le nouvel état $q'$ dans lequel passer, \item le symbole $y$ à écrire à la place de $x$ à l'emplacement $i$ de la bande, \item la direction dans laquelle déplacer la tête (gauche ou droite). \end{itemize} \end{frame} % \begin{frame} \frametitle{Machines de Turing : exécution complète} \itempoint Si $C = (q,\beta,i)$ est une configuration d'une machine de Turing, la \textbf{trace d'exécution} à partir de $C$ est la suite finie ou infinie $C^{(0)},C^{(1)},C^{(2)},\ldots$, où \begin{itemize} \item $C^{(0)} = C$ est la configuration donnée (configuration initiale), \item si $C^{(n)} = (q^{(n)},\beta^{(n)},i^{(n)})$ avec $q^{(n)}=0$ alors la suite s'arrête ici, on dit que \textbf{la machine s'arrête}, que $C^{(n)}$ est la \textbf{configuration finale}, et que l'exécution a duré $n$ \textbf{étapes}, \item sinon, $C^{(n+1)}$ est la configuration suivante (définie avant). \end{itemize} \bigskip \emph{En clair :} la machine continue à exécuter des instructions tant qu'elle n'est pas tombée dans l'état $0$. Elle s'arrête quand elle tombe dans l'état $0$. \end{frame} % \begin{frame} \frametitle{Simulation des machines de Turing par les fonctions récursives} \itempoint On peut coder un programme et/ou une configuration sous forme d'entiers naturels. {\footnotesize Le ruban a un nombre \alert{fini} de symboles $\neq 0$, donc on peut le coder par la liste de leurs positions comptées, disons, à partir du symbole $\neq 0$ le plus à gauche.\par} \bigskip \itempoint La fonction $(M,C) \mapsto C'$ qui à une machine de Turing $M$ et une configuration $C$ de $M$ associe la configuration suivante \textbf{est p.r.} \medskip \itempoint Conséquence : la fonction $(n,M,C) \mapsto C^{(n)}$ qui à $n\in\mathbb{N}$ et une machine de Turing $M$ et une configuration $C$ de $M$ associe la configuration atteinte après $n$ étapes d'exécution, \textbf{est p.r.} \medskip \itempoint La fonction qui à $(M,C)$ associe la configuration finale (et/ou le nombre d'étapes d'exécution) \alert{si la machine s'arrête}, et $\uparrow$ (non définie) si elle ne s'arrête pas, est \textbf{générale récursive}. \bigskip \textcolor{blue}{\textbf{Moralité :}} les fonctions récursives peuvent simuler les machines de Turing. \end{frame} % \begin{frame} \frametitle{Calculs sur machines de Turing : une convention} On dira qu'une fonction $f\colon \mathbb{N}^k \dasharrow \mathbb{N}$ est \textbf{calculable par machine de Turing} lorsqu'il existe une machine de Turing qui, pour tous $x_1,\ldots,x_k$ : \begin{itemize} \item part de la configuration initiale suivante : l'état est $1$, les symboles $\beta(j)$ du ruban pour $j<0$ sont arbitraires (tous $0$ sauf un nombre fini), la tête est à l'emplacement $0$, \item les symboles $\beta(j)$ pour $j\geq 0$ du ruban initial forment le mot suivant : \[ 0 1^{x_1} 0 1^{x_2} 0 \cdots 0 1^{x_k} 0 \] (suivi d'une infinité de $0$), c'est-à-dire $\beta(0)=0$, $\beta(j)=1$ si $1\leq j\leq x_1$, $\beta(1+x_1)=0$, $\beta(j)=1$ si $2+x_1\leq j\leq 1+x_1+x_2$, etc., \item si $f(x_1,\ldots,f_k)\uparrow$, la machine ne s'arrête pas, \item si $f(x_1,\ldots,f_k){\downarrow} = y$, la machine s'arrête avec la tête à l'emplacement $0$ (le même qu'au départ), le ruban $\beta(j)$ non modifié pour $j<0$, et \item les symboles $\beta(j)$ pour $j\geq 0$ du ruban final forment le mot $0 1^y 0$ (suivi d'une inifinité de $0$). \end{itemize} \end{frame} % \begin{frame} \frametitle{Calculs par les machines de Turing des fonctions récursives} \itempoint On peut montrer par induction suivant la déf\textsuperscript{n} de $\mathbf{R}$ que \alert{toute fonction générale récursive est calculable par machine de Turing} avec les conventions du transp. précédent. \bigskip \itempoint La démonstration est fastidieuse mais pas difficile : il s'agit essentiellement de programmer en machine de Turing chacune des formes de construction des fonctions générales récursives (projections, constantes, successeur, composition, récursion primitive, $\mu$-récursion). \bigskip \itempoint Les conventions faites, notamment le fait d'ignorer et de ne pas modifier $\beta(j)$ pour $j<0$, permettent à l'induction de fonctionner. \smallskip {\footnotesize Par exemple, pour la composition, on va utiliser cette propriété pour « sauvegarder » les $x_1,\ldots,x_k$ initiaux, ainsi que les valeurs de $g_j(\underline{x})$ calculées, lorsqu'on appelle chacune des fonctions $g_1,\ldots,g_\ell$ (à chaque fois, on les recopie $x_1,\ldots,x_k$ à droite des valeurs à ne pas toucher, et on appelle la machine calculant $g_j$ sur ces valeurs recopiées).\par} \end{frame} % \begin{frame} \frametitle{Équivalence entre machines de Turing et fonctions récursives} \itempoint Toute fonction générale récursive $\mathbb{N}^k \dasharrow \mathbb{N}$ est calculable par machine de Turing (sous les conventions données). \bigskip \itempoint Réciproquement, toute fonction $\mathbb{N}^k \dasharrow \mathbb{N}$ calculable par machine de Turing sous ces conventions est générale récursive, car les fonctions récursives peuvent simuler les machines de Turing, calculer une configuration initiale convenable, et décoder la configuration finale. \bigskip \itempoint Bref, $f\colon \mathbb{N}^k \dasharrow \mathbb{N}$ est calculable par machine de Turing \alert{ssi} elle est générale récursive. \bigskip \itempoint De plus, cette équivalence est \alert{constructive} : il existe des fonctions p.r. : \begin{itemize} \item l'une prend en entrée le numéro $e$ d'une fonction générale récursive (et l'arité $k$) et renvoie le code d'une machine de Turing qui calcule cette $\varphi_e^{(k)}$, \item l'autre prend en entrée le code d'une machine de Turing qui calcule une fonction $f$ et son arité $k$, et renvoie un numéro $e$ de $f$ dans les fonctions générales récursives $f = \varphi_e^{(k)}$. \end{itemize} \end{frame} % \begin{frame} \frametitle{Machines de Turing : variations} On a choisi ici une notion de machine de Turing assez restreinte ($1$ bande, $2$ symboles de bande). Il existe toutes sortes de variations : \begin{itemize} \item machines à plusieurs bandes (mais en onmbre fini ; le programme choisit en fonction du symbole lu sur chaque bande, et écrit et déplace chaque tête indépendamment), voire à plusieurs têtes par bande, parfois avec des bandes en lecture seule (pour les entrées), ou en écriture seule (pour les sorties), \item autres symboles que $0$ et $1$ (mais en nombre fini), \item machine non-déterministe (plusieurs instructions possibles dans une configuration donnée ; la machine termine si au moins l'un des chemins d'exécution termine). \end{itemize} \bigskip Du point de vue \alert{calculabilité}, ces modifications ne rendent pas la machine plus puissante, et, sauf, cas dégénérés (p.ex., un seul symbole sur le ruban !) elles ne la rendent pas moins puissante non plus. Ceci confirme la robustesse du modèle de Church-Turing. \smallskip {\footnotesize Pour la \alert{complexité}, en revanche, c'est une autre affaire.\par} \end{frame} % \begin{frame} \frametitle{Machines de Turing : reprise de résultats déjà vus} \itempoint\textbf{Universalité :} pour un codage raisonnable, il existe une machine de Turing « universelle » qui prend en entrée sur sa bande le programme d'une autre machine de Turing $M$, et une configuration initiale $C$ pour celle-ci, et qui simule l'exécution de $M$ sur $C$ (notamment, elle s'arrête ssi $M$ s'arrête). \bigskip \itempoint\textbf{Forme normale :} la fonction $(n,M,C) \mapsto C^{(n)}$ qui à $n\in\mathbb{N}$ et une machine de Turing $M$ et une configuration $C$ de $M$ associe la configuration après $n$ étapes d'exécution, est p.r., et en particulier, calculable par une machine de Turing. \smallskip $\Rightarrow$ En particulier, on peut tester algorithmiquement si une machine de Turing donnée, depuis une configuration initiale donnée, s'arrête \emph{en moins de $n$ étapes}. \bigskip \itempoint\textbf{Indécidabilité du problème de l'arrêt :} la fonction qui à $(M,C)$ associe $1$ si la machine de Turing s'arrête en partant de la configuration initiale $C$, et $0$ sinon, \alert{n'est pas calculable}. \smallskip $\Rightarrow$ On ne peut tester algorithmiquement si une machine de Turing donnée, depuis une configuration initiale donnée, s'arrête « un jour ». \end{frame} % % Add somewhere: % - busy beaver % - "Turing tarpit" % \end{document}