diff options
Diffstat (limited to 'notes-inf105.tex')
-rw-r--r-- | notes-inf105.tex | 294 |
1 files changed, 260 insertions, 34 deletions
diff --git a/notes-inf105.tex b/notes-inf105.tex index 939abe7..21d4d82 100644 --- a/notes-inf105.tex +++ b/notes-inf105.tex @@ -1,6 +1,6 @@ %% This is a LaTeX document. Hey, Emacs, -*- latex -*- , get it? \documentclass[12pt,a4paper]{article} -\usepackage[a4paper,hmargin=2cm,vmargin=3cm]{geometry} +\usepackage[a4paper,hmargin=2.5cm,vmargin=3cm]{geometry} \usepackage[francais]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} @@ -29,7 +29,7 @@ \theoremstyle{definition} \newtheorem{comcnt}{Tout}[subsection] \newcommand\thingy{% -\refstepcounter{comcnt}\smallskip\noindent\textbf{\thecomcnt.} } +\refstepcounter{comcnt}\medskip\noindent\textbf{\thecomcnt.} } \newtheorem{defn}[comcnt]{Définition} \newtheorem{prop}[comcnt]{Proposition} \newtheorem{lem}[comcnt]{Lemme} @@ -88,6 +88,7 @@ Git: \input{vcline.tex} \pretolerance=8000 \tolerance=50000 +\linepenalty=5 % Default is supposedly 10 % @@ -121,6 +122,8 @@ une application informatique pratique à l'analyse de textes ou de chaînes de caractères (qu'on appellera par la suite « mots », cf. §\ref{subsection-introduction-and-words}). +\smallbreak + Après des définitions générales (sections \ref{subsection-introduction-and-words} à \ref{subjection-languages}), ces notes sont divisées en grandes parties (inégales) de la manière @@ -139,6 +142,8 @@ suivante : théoriques sur ce qu'un algorithme peut faire. \end{itemize} +\smallbreak + À ces parties seront associées la définition de différentes classes de « langages » (voir §\ref{subjection-languages} pour la définition de ce terme) qu'il s'agit d'étudier : @@ -209,6 +214,8 @@ de caractères), mais cette structure supplémentaire ne nous intéressera pas ici. Dans tous les cas, il est important pour la théorie que l'alphabet soit \emph{fini}. +\smallskip + L'alphabet sera généralement fixé une fois pour toutes dans la discussion, et désigné par la lettre $\Sigma$ (sigma majuscule). @@ -228,6 +235,8 @@ caractères : on écrira donc \texttt{\char`\"foobar\char`\"} pour parler du mot en question. Dans ces notes, nous utiliserons peu cette convention.) +\medskip + L'ensemble de tous les mots sur un alphabet $\Sigma$ sera désigné $\Sigma^*$ (on verra en \ref{kleene-star} ci-dessous cette notation comme un cas particulier d'une construction « étoile » plus @@ -236,6 +245,8 @@ l'ensemble (infini !) dont les éléments sont toutes les suites finies binaires (= suites finies de $0$ et de $1$). Ainsi, écrire « $w \in \Sigma^*$ » signifie « $w$ est un mot sur l'alphabet $\Sigma$ ». +\medskip + {\footnotesize\thingy Typographiquement, on essaiera autant que possible de désigner des mots par des variables mathématiques telles que $u,v,w$, tandis que $x,y,z$ désigneront plutôt des lettres @@ -369,6 +380,8 @@ fois du mot $w$. Formellement, on définit par récurrence : peut constater que $w^r w^s = w^{r+s}$ quels que soient $r,s\in\mathbb{N}$.) On a bien sûr $|w^r| = r|w|$. +\smallskip + Cette définition sert notamment à désigner de façon concise les mots comportant des répétitions d'une même lettre : par exemple, le mot $aaaaa$ peut s'écrire tout simplement $a^5$, et le mot $aaabb$ peut @@ -405,6 +418,8 @@ produire que le préfixe et le suffixe de longueur $k$ soient égaux pour d'autres $k$ que $0$ et $|w|$, comme le montre l'exemple qui suit.) +\smallskip + À titre d'exemple, le mot $abbcab$ sur l'alphabet $\Sigma=\{a,b,c,d\}$ a les sept préfixes suivants, rangés par ordre croissant de longueur : $\varepsilon$ (le mot vide), $a$, $ab$, $abb$, $abbc$, $abbca$ et @@ -421,11 +436,15 @@ et si $w = u_0 v u_1$ est leur concaténation, on dira que $v$ est un est déterminé simplement par sa longueur, un facteur est déterminé par sa longueur et l'emplacement à partir duquel il commence. +\smallskip + À titre d'exemple, les facteurs du mot $abbcab$ sont : $\varepsilon$ (le mot vide), $a$, $b$, $c$, $ab$, $bb$, $bc$, $ca$, $abb$, $bbc$, $bca$, $cab$, $abbc$, $bbca$, $bcab$, $abbca$, $bbcab$ et $abbcab$ lui-même. +\smallskip + Dans un contexte informatique, ce que nous appelons ici « facteur » est souvent appelé « sous-chaîne [de caractères] ». Il ne faut cependant pas confondre ce concept avec celui de sous-mot défini @@ -439,6 +458,8 @@ certaines lettres du mot $w$, dans le même ordre, mais en en effaçant d'autres ; à la différence du concept de facteur, celui de sous-mot n'exige pas que les lettres gardées soient consécutives. +\smallskip + À titre d'exemple, le mot $acb$ est un sous-mot du mot $abbcab$ (obtenu en gardant les lettres soulignées ici : $\underline{a}bb\underline{c}a\underline{b}$ ; pour se rattacher à la @@ -475,6 +496,8 @@ d'exemple, $(ababb)^{\textsf{R}} = bbaba$. On remarquera que $(w_1 w_2)^{\textsf{R}} = w_2^{\textsf{R}} w_1^{\textsf{R}}$ si $w_1,w_2$ sont deux mots quelconques. +\smallskip + Un mot $w$ est dit \defin{palindrome} lorsque $w = w^{\textsf{R}}$. Par exemple, $abba$ est un palindrome sur $\{a,b,c,d\}$ (ou bien le mot « ressasser » sur l'alphabet du français). @@ -563,11 +586,15 @@ langage qu'on vient d'associer l'un à l'autre (par exemple, le langage des mots commençant par $a$ et la propriété « commencer par $a$ »), un langage pourrait être considéré comme une propriété des mots. -{\footnotesize(Ceci n'a rien de spécifique aux langages : une partie - d'un ensemble $E$ quelconque peut être identifiée à une propriété - que les éléments de $E$ peuvent ou ne pas avoir, à savoir, +\smallskip + +{\footnotesize(Ce qui précède n'a rien de spécifique aux langages : + une partie d'un ensemble $E$ quelconque peut être identifiée à une + propriété que les éléments de $E$ peuvent ou ne pas avoir, à savoir, appartenir à la partie en question.)\par} +\smallskip + On évitera de faire cette identification pour ne pas introduire de complication, mais il est utile de la garder à l'esprit : par exemple, dans un langage de programmation fonctionnel, un « langage » au sens @@ -583,6 +610,8 @@ $L_1,L_2 \subseteq \Sigma^*$), on peut former les langages sont simplement les opérations ensemblistes usuelles (entre parties de $\Sigma^*$). +\smallskip + Les opérations correspondantes sur les propriétés de mots sont respectivement le « ou logique » (=disjonction) et le « et logique » (=conjonction) : à titre d'exemple, sur $\Sigma = \{a,b\}$ si $L_1$ @@ -600,6 +629,8 @@ simplement l'ensemble des mots sur $\Sigma$ \emph{n'appartenant pas} à $L$. L'opération correspondante sur les propriétés de mots est la négation logique. +\smallskip + À titre d'exemple, sur $\Sigma=\{a,b\}$, si $L$ est le langage des mots commençant par $a$, alors $\overline{L}$ est le langage des mots ne commençant pas par $a$, c'est-à-dire, la réunion de @@ -620,6 +651,8 @@ L_1 L_2 &:= \{w_1 w_2 : w_1 \in L_1,\, w_2 \in L_2\}\\ \end{aligned} \] +\smallskip + À titre d'exemple, sur l'alphabet $\Sigma = \{a,b,c,d\}$, si on a $L_1 = \{a,bb\}$ et $L_2 = \{bc, cd\}$ alors $L_1 L_2 = \{abc, acd, bbbc, bbcd\}$. @@ -635,10 +668,14 @@ récurrence : \item $L^{r+1} = L^r L$. \end{itemize} +\smallskip + À titre d'exemple, sur l'alphabet $\Sigma = \{a,b,c,d\}$, si on a $L = \{a,bb\}$, alors $L^2 = \{aa, abb, bba, bbbb\}$ et $L^3 = \{aaa, aabb, abba, abbbb, \penalty-100 bbaa, bbabb, bbbba, bbbbbb\}$. +\medskip + \emph{Attention}, $L^r$ n'est pas le langage $\{w^r : w\in L\}$ constitué des répétitions $r$ fois ($w^r$) des mots $w$ de $L$ : c'est le langage des concaténations de $r$ mots appartenant à $L$ \emph{mais @@ -661,17 +698,23 @@ L^* &:= \bigcup_{r=0}^{+\infty} L^r = \bigcup_{r\in\mathbb{N}} L^r\\ \end{aligned} \] +\smallskip + À titre d'exemple, sur l'alphabet $\Sigma = \{a,b,c,d\}$, si on a $L = \{a,bb\}$, alors on a $L^* = \{\varepsilon, a, bb, \penalty-200 aa, abb, bba, bbbb, \penalty-200 aaa, aabb, abba, abbbb, \penalty-100 bbaa, bbabb, bbbba, bbbbbb, \ldots\}$. +\smallskip + Comme ci-dessus, il faut souligner que les mots $w_1,\ldots,w_r$ concaténés n'ont pas à être égaux : notamment, $\{a,b\}^*$ est le langage constitué de tous les mots sur l'alphabet $\{a,b\}$, pas le langage $\{a\}^* \cup \{b\}^*$ constitué des mots obtenus en répétant la lettre $a$ ou en répétant la lettre $b$. +\smallskip + On remarquera que la définition de $L^*$ ci-dessus redonne bien, lorsqu'on l'applique à l'alphabet $\Sigma$ lui-même (considéré comme langage des mots de longueur $1$), l'ensemble $\Sigma^*$ de tous les @@ -697,7 +740,7 @@ langage sur l'alphabet $\Sigma$, on définit le langage miroir $L^{\mathsf{R}}$ comme l'ensemble des mots miroirs des mots de $L$, c'est-à-dire $L^{\mathsf{R}} = \{w^{\mathsf{R}} : w \in L\}$. -\medbreak +\bigbreak \thingy\label{set-of-languages} De même que l'ensemble des mots sur un alphabet $\Sigma$ admet une notation, à savoir $\Sigma^*$, on peut @@ -712,6 +755,8 @@ synonyme de « $L\subseteq \Sigma^*$ » ou de « $L$ est un langage sur $\Sigma$ » ; on évitera cependant de le faire, car cette notation est plus lourde qu'utile. +\smallskip + {\footnotesize Il sera marginalement question dans ces notes de « classes de langages » : une classe de langages est un ensemble de langages (c'est-à-dire une partie de $\mathscr{P}(\Sigma^*)$, ou si @@ -769,6 +814,8 @@ cf. \ref{concatenation-of-languages}), et l'étoile de Kleene (représentant une répétition quelconque d'un certain motif, cf. \ref{kleene-star}). +\medskip + L'importance des langages rationnels, et des expressions rationnelles (=régulières) qui les décrivent, vient : \begin{itemize} @@ -786,6 +833,8 @@ L'importance des langages rationnels, et des expressions rationnelles une chaîne de caractères. \end{itemize} +\smallskip + Passons maintenant à une définition plus précise. \bigbreak @@ -821,6 +870,8 @@ concaténation de deux langages rationnels, et l'étoile de Kleene d'un langage rationnel, sont rationnels ; et les langages rationnels sont exactement ceux qu'on obtient ainsi à partir des langages de base. +\smallskip + À titre d'exemple, sur l'alphabet $\{a,b,c,d\}$, comme le langage $\{c\}$ (constitué du seul mot $c$) est rationnel, son étoile de Kleene, c'est-à-dire $\{c\}^* = \{\varepsilon, c, cc, ccc, @@ -854,6 +905,8 @@ ensembles $\mathscr{C}$ vérifiant tous ces propriétés, est la classe $\mathscr{R}$ des langages rationnels (et un langage rationnel est simplement un élément de $\mathscr{R}$). +\medskip + \emph{Attention !}, le fait que la classe $\mathscr{R}$ des langages rationnels soit stable par concaténation signifie que si $L_1$ et $L_2$ sont rationnels alors le langage $L_1 L_2$ (constitué de tous @@ -876,6 +929,8 @@ langage « dénoté par l'expression rationnelle $dc{*}$ ». Ceci fournit du même coup une nouvelle définition des langages rationnels : ce sont les langages dénotés par une expression rationnelle. +\smallskip + Plus exactement, une expression rationnelle (sur un alphabet $\Sigma$) est un mot sur l'alphabet $\Sigma \cup \{\bot, \underline{\varepsilon}, {(}, {)}, {|}, {*}\}$, où $\bot, @@ -949,7 +1004,8 @@ $\Sigma = \{a,b,c,d\}$ : \item l'expression rationnelle $(bc){*}$ dénote le langage $\{bc\}^* = \{\varepsilon, bc, bcbc, bcbcbc, \ldots\}$ ; \item l'expression rationnelle $(a|(bc){*})$ dénote le langage $\{a\} - \cup \{bc\}^* = \{a, \varepsilon, bc, bcbc, bcbcbc, \ldots\}$ ; + \cup \{bc\}^* = \{a,\penalty0 \varepsilon,\penalty1000 + bc,\penalty1000 bcbc,\penalty1000 bcbcbc, \ldots\}$ ; \item l'expression rationnelle $(a|(bc){*})d$ dénote le langage $\{a, d, bcd, bcbcd, bcbcbcd, \ldots\}$ ; \item l'expression rationnelle $\bot d$ dénote le langage @@ -1364,6 +1420,8 @@ se trouve l'automate une fois qu'il a consommé le mot $w$, on dira que l'automate \emph{acepte} ou \emph{rejette} le mot selon que $q_n \in F$ ou que $q_n \not\in F$. +\smallskip + Graphiquement, on peut présenter la procédure de la manière suivante : on part de l'état $q_0$ (sommet du graphe représentant l'automate) indiqué par la flèche entrante (pointant de nulle part), et pour @@ -1419,11 +1477,15 @@ $\delta^*(q_0,w) =: q_n \in F$ ; dans le cas contraire, on dira qu'il \textbf{langage accepté}, ou \textbf{reconnu}, ou \textbf{défini}, par l'automate $A$. +\smallskip + Un langage $L \subseteq \Sigma^*$ qui peut s'écrire sous la forme du langage $L(A)$ accepté par un DFA $A$ s'appelle \defin[reconnaissable (langage)]{reconnaissable} (sous-entendu : par automate déterministe fini). +\smallskip + On dit que deux DFA $A,A'$ sont \defin[équivalents (automates)]{équivalents} lorsqu'ils reconnaissent le même langage, i.e., $L(A) = L(A')$. @@ -1474,6 +1536,8 @@ certain mot). Dans le cas contraire, l'état est dit modifier) les états inaccessibles dans un DFA ne change rien au langage reconnu (on obtient des automates équivalents). +\smallskip + Par exemple, dans le DFA qui suit, l'état $2$ est inaccessible (l'automate est donc équivalent à celui représenté en \ref{discussion-example1}). On remarquera qu'il ne change rien que @@ -1538,6 +1602,8 @@ en \ref{definition-dfa} est que la fonction $\delta$ est partielle, ce qui signifie qu'elle n'est pas obligatoirement définie sur tout couple $(q,x) \in Q\times\Sigma$. +\smallskip + Un DFA est considéré comme un DFAi particulier où la fonction de transition $\delta$ se trouve être définie partout. @@ -1546,6 +1612,8 @@ différence près que pour chaque $q\in Q$ et chaque $x\in \Sigma$, il y a maintenant \emph{au plus une} (et non plus exactement une) arête partant de $q$ et étiquetée par $x$. +\smallskip + L'intérêt informatique des DFAi est de ne pas s'obliger à stocker inutilement des transitions et des états inutiles au sens où ils ne permettront jamais d'accepter le mot (voir la notion d'automate @@ -1564,6 +1632,8 @@ fonctionner : l'automate n'a plus d'état, n'effectue plus de transition, et n'acceptera pas le mot quelles que soient les lettres ultérieures. +\smallskip + Cela revient une fois de plus à dire que le mot $w$ est accepté lorsqu'il existe un chemin orienté dans l'automate, reliant l'état $q_0$ initial à un état $q_n$ final, et tel que le mot $w = x_1 \cdots @@ -1595,6 +1665,8 @@ Enfin, l'automate $A$ accepte un mot $w$ lorsque $\delta^*(q_0,w)$ soit parce que $\delta^*(q_0,w)$ n'est pas défini ou parce qu'étant défini il n'appartient pas à $F$), l'automate rejette le mot. +\smallskip + Le langage accepté $L(A)$ et l'équivalence de deux automates sont définis de façon analogue aux DFA (cf. \ref{definition-recognizable-language}). @@ -1707,6 +1779,8 @@ DFAi représenté en \ref{discussion-example2b} : accessible d'un DFAi comme pour un DFA (cf. \ref{definition-dfa-accessible-state}). +\smallskip + On dira en outre d'un état $q$ d'un DFAi qu'il est \defin[co-accessible (état)]{co-accessible} lorsqu'il existe un mot $w \in \Sigma^*$ tel que $\delta(q,w)$ soit défini et soit final, @@ -1720,6 +1794,8 @@ DFAi elle présente l'intérêt qu'on peut supprimer les états non co-accessibles dans un DFAi (ainsi, bien sûr, que toutes les transitions qui y conduisent). +\smallskip + Un DFAi dont tous les états sont à la fois accessibles et co-accessibles (on les dit aussi \defin[utile (état)]{utiles}) est parfois appelé \defin[émondé (automate)]{émondé}. On peut émonder un @@ -1818,6 +1894,8 @@ lorsqu'\emph{il existe} $q_0,\ldots,q_n \in Q$ tels que $q_0 \in I$ et $q_n\in F$ et $(q_{i-1},x_i,q_i) \in \delta$ pour chaque $1\leq i\leq n$. +\smallskip + La différence cruciale avec les DFAi est donc que, maintenant, il pourrait exister plusieurs chemins possibles partant d'un état initial dont les transitions sont étiquetées par les lettres du même mot. @@ -1835,6 +1913,8 @@ un chemin orienté conduisant de $q$ à $q'$ et tel que le mot $w$ soit obtenu en lisant dans l'ordre les étiquettes des différentes arêtes de ce chemin. +\smallskip + Formellement : si $A = (Q,I,F,\delta)$ est un NFA sur l'alphabet $\Sigma$, on définit une relation $\delta^* \subseteq Q \times \Sigma^* \times Q$ par $(q,w,q') \in \delta^*$ lorsque $w = @@ -1850,9 +1930,12 @@ de $w$) : \end{itemize} Enfin, l'automate $A$ accepte un mot $w$ lorsqu'il existe $q_0\in I$ -et $q_\infty\in F$ tels que $(q_0,w,q_\infty) \in \delta^*$. Le -langage accepté $L(A)$ et l'équivalence de deux automates sont définis -de façon analogue aux DFA +et $q_\infty\in F$ tels que $(q_0,w,q_\infty) \in \delta^*$. + +\smallskip + +Le langage accepté $L(A)$ et l'équivalence de deux automates sont +définis de façon analogue aux DFA (cf. \ref{definition-recognizable-language}). \thingy\label{discussion-example4} Pour illustrer le fonctionnement @@ -1889,7 +1972,7 @@ l'état $0$ et qu'on lui fait consommer un $a$, si ce $a$ sera l'avant-dernière lettre, et, dans ce cas, passe dans l'état $1$ pour pouvoir accepter le mot. -\medbreak +\bigbreak Comme les DFAi avant eux, les NFA sont en fait équivalents aux DFA ; mais cette fois-ci, le coût algorithmique de la transformation peut @@ -1942,6 +2025,8 @@ se voir à travers sa fonction indicatrice, qui est une fonction $Q \to procédure décrite dans la démonstration de cette proposition en ne gardant que les états accessibles. +\smallskip + Algorithmiquement, la déterminisation de $A$ s'obtient par la procéduire suivante : \begin{itemize} @@ -2065,17 +2150,22 @@ est la donnée \item d'une relation de transition $\delta \subseteq Q \times (\Sigma\cup\{\varepsilon\}) \times Q$. \end{itemize} + Autrement dit, on autorise maintenant des transitions étiquetées par le mot vide $\varepsilon$ plutôt que par une lettre $x \in\Sigma$ : ces transitions sont dites \defin[spontanée (transition)]{spontanées}, ou \index{epsilon-transition@$\varepsilon$-transition|see{spontanée}}\textbf{ε-transitions}. +\smallskip + Soulignons qu'on ne définit les ε-transitions \emph{que} pour les automates non-déterministes : ou, pour dire les choses autrement, \emph{un automate qui possède des ε-transitions est par nature même non-déterministe}. +\smallskip + La représentation graphique des εNFA est évidente (on utilisera le symbole « $\varepsilon$ » pour étiqueter les transitions spontanées). Un NFA est considéré comme un εNFA particulier pour lequel il n'y a @@ -2089,6 +2179,8 @@ pourquoi un automate à transition spontanée est forcément non-déterministe : ces transitions spontanées ne sont qu'une \emph{possibilité}, ce qui sous-entend le non-déterminisme.) +\smallskip + De façon plus précise, un εNFA accepte un mot $w$ lorsqu'\emph{il existe} un chemin orienté conduisant d'un état initial $q_0$ à un état final $q_n$ et tel que $w$ coïncide avec le mot obtenu en lisant @@ -2117,9 +2209,12 @@ $(q_{i-1},t_i,q_i) \in\delta$ pour chaque $1\leq i\leq n$, et enfin $w = t_1\cdots t_n$. Enfin, l'automate $A$ accepte un mot $w$ lorsqu'il existe $q_0\in I$ -et $q_\infty\in F$ tels que $(q_0,w,q_\infty) \in \delta^*$. Le -langage accepté $L(A)$ et l'équivalence de deux automates sont définis -de façon analogue aux DFA +et $q_\infty\in F$ tels que $(q_0,w,q_\infty) \in \delta^*$. + +\smallskip + +Le langage accepté $L(A)$ et l'équivalence de deux automates sont +définis de façon analogue aux DFA (cf. \ref{definition-recognizable-language}). \thingy\label{discussion-example5} Voici un exemple de εNFA @@ -2161,6 +2256,8 @@ l'exemple \ref{discussion-example5} ci-dessus, on a $C(0) = \{0,1,2\}$ et $C(1) = \{1,2\}$ et $C(2) = \{2\}$. Dans tout NFA sans ε-transitions, on a $C(q) = \{q\}$ pour tout état $q$.) +\smallskip + Il est clair qu'on peut calculer algorithmiquement $C(q)$ (par exemple par un algorithme de Dijkstra / parcours en largeur, sur le graphe orienté dont l'ensemble des sommets est $Q$ et l'ensemble des arêtes @@ -2322,6 +2419,8 @@ un DFA $A$ tel que $L = L(A)$. D'après \ref{completion-of-dfai}, on peut remplacer « DFA » dans cette définition par « DFAi », « NFA » ou « εNFA » sans changer la définition. +\smallskip + Nous allons maintenant montrer que les langages reconnaissables sont stables par différentes opérations. Dans cette section, nous traitons le cas des opérations booléennes (complémentaire, union, intersection) @@ -2464,6 +2563,8 @@ en \ref{rational-languages-are-recognizable} que les langages rationnels sont reconnaissables (la réciproque faisant l'objet de la section \ref{subsection-rnfa-and-kleenes-algorithm}). +\smallskip + Pour établir ces stabilités, on va travailler sur les NFA et utiliser la construction parfois appelée « de Glushkov » ou « automate standard » ; ceci fournira un « automate de Glushkov » pour chaque @@ -2529,7 +2630,7 @@ $q_0$ vers chacun des états qui étaient initiaux dans $A$, puis en résultat que ce qui vient d'être dit.) \end{proof} -\medbreak +\bigbreak On a vu en \ref{dfa-union-and-intersection} une preuve, à base de DFA, que $L_1 \cup L_2$ est reconnaissable lorsque $L_1$ et $L_2$ le sont. @@ -2889,6 +2990,8 @@ de base décrits en \ref{trivial-standard-automata} et en appliquant les constructions décrites dans les démonstrations de \ref{nfa-union}, \ref{nfa-concatenation} et \ref{nfa-star}. +\medskip + Plus exactement, on associe à chaque expression rationnelle $r$ (sur un alphabet $\Sigma$ fixé) un automate $A_r$ standard, appelé \defin[Glushkov (construction d'automate de)]{automate de Glushkov}, @@ -2911,6 +3014,8 @@ définie en \ref{regular-expressions}) : de \ref{nfa-star}. \end{itemize} +\smallskip + Cette automate de Glushkov $A_r$ possède les propriétés suivantes : \begin{itemize} \item c'est un NFA reconnaissant le langage $L(r)$ dénoté par @@ -3071,6 +3176,8 @@ Elle possède pour sa part les propriétés suivantes : concaténation implicite). \end{itemize} +\smallskip + Dans les dessins qui suivent, on symbolisera de la manière suivante un automate de Thompson $A$ quelconque : \begin{center} @@ -3193,11 +3300,13 @@ très simple à appliquer ; mais elle conduit à des automates rapidement énormes, comportant un nombre considérable d'états et de transitions spontanées « stupides ». +\medskip + À titre d'exemple, voici l'automate de Thompson, déjà gros, de l'expression rationnelle $(a|b){*}b$ : \begin{center} -\scalebox{0.75}{% +\scalebox{0.70}{% %%% begin example9 %%% \begin{tikzpicture}[>=latex,line join=bevel,automaton] @@ -3237,6 +3346,7 @@ dans $(a|b){*}b$.) Pour comparaison, voici son automate de Glushkov : \begin{center} +\scalebox{0.85}{% %%% begin example9b %%% \begin{tikzpicture}[>=latex,line join=bevel,automaton] @@ -3265,6 +3375,7 @@ Pour comparaison, voici son automate de Glushkov : \end{tikzpicture} %%% end example9b %%% +} \end{center} Il a $4$ états puisqu'il y a $3$ lettres dans $(a|b){*}b$. Ces états @@ -3314,6 +3425,7 @@ alphabet $\Sigma$ est la donnée $(\mathrm{regexp}(\Sigma))$ désigne l'ensemble des expressions rationnelles sur $\Sigma$. \end{itemize} + Autrement dit, on autorise maintenant des transitions étiquetées par des expressions rationnelles quelconques sur $\Sigma$. Remarquons qu'on doit maintenant demander \emph{explicitement} que l'ensemble @@ -3336,9 +3448,12 @@ transitions ($w = v_1\cdots v_n$), chacun vérifiant l'expression rationnelle qui étiquette la transition (soit $v_i \in L(r_i)$). Enfin, l'automate $A$ accepte un mot $w$ lorsqu'il existe $q_0\in I$ -et $q_\infty\in F$ tels que $(q_0,w,q_\infty) \in \delta^*$. Le -langage accepté $L(A)$ et l'équivalence de deux automates sont définis -de façon analogue aux DFA +et $q_\infty\in F$ tels que $(q_0,w,q_\infty) \in \delta^*$. + +\smallskip + +Le langage accepté $L(A)$ et l'équivalence de deux automates sont +définis de façon analogue aux DFA (cf. \ref{definition-recognizable-language}). \thingy Un εNFA (ou \textit{a fortiori} un NFA, DFAi ou DFA) est @@ -3347,12 +3462,16 @@ considéré comme un RNFA particulier dont les transitions sont rationnelle) soit par le symbole $\underline{\varepsilon}$ (dénotant le langage $\{\varepsilon\}$) dans le cas des transitions spontanées. +\smallskip + Une expression rationnelle $r$ peut aussi être considérée comme un RNFA particulier comportant un unique état initial, un unique état final, et une unique transition de l'un vers l'autre, étiquetée par l'expression $r$ elle-même. Il est évident que ce RNFA reconnaît exactement le langage dénoté par $r$. +\smallskip + La représentation graphique des RNFA ne pose pas de problème particulier (voir en \ref{example-of-state-elimination} pour différents exemples). @@ -3369,6 +3488,8 @@ S'il n'y a \emph{aucune} transition de $q$ vers $q'$, on peut toujours choisir d'en ajouter une $(q,\bot,q')$ (qui ne peut pas être empruntée !) si c'est commode. +\medskip + Comme les εNFA, les NFA et les DFAi avant eux, les RNFA peuvent se ramener aux automates précédemment définis : @@ -3423,6 +3544,8 @@ chemin dans ce dernier, suivi d'une transition spontanée depuis un état final de $A_{r_j}$. \end{proof} +\medskip + Mais la surprise des RNFA est qu'ils peuvent aussi se ramener à des expressions rationnelles ! @@ -3617,7 +3740,7 @@ conduit à l'automate suivant : \noindent et finalement à l'expression rationnelle $(0|11|10(1|00){*}01){*}$, qui est équivalente à la précédente. -\medbreak +\bigbreak \thingy Donnons encore l'exemple du DFAi suivant : @@ -3683,6 +3806,8 @@ reconnaissables coïncident. (On pourra donc considérer ces termes comme synonymes.) \end{thm} +\smallskip + Il faut cependant retenir que s'il y a, mathématiquement, équivalence entre ces deux classes de langages, cette équivalence \emph{a un coût algorithmique}, c'est-à-dire que la conversion d'une expression @@ -3705,6 +3830,8 @@ d'expressions rationnelles $r_1,r_2$, de fabriquer algorithmiquement une expression rationnelle $r''$ (« conjonction » de $r_1$ et $r_2$) qui dénote le langage intersection de ceux dénotés par $r_1$ et $r_2$. +\smallskip + Le coût de ces opérations, cependant, est astronomique : doublement exponentiel, puisqu'il s'agit de convertir l'expression en NFA, de déterminiser le NFA en DFA (à un premier coût exponentiel), @@ -3864,6 +3991,8 @@ langage $L$ n'est pas rationnel est donc quelque chose comme ceci : être). \end{itemize} +\smallskip + Donnons maintenant un exemple d'utilisation du lemme : \begin{prop}\label{example-of-pumping-lemma} @@ -3909,6 +4038,8 @@ n'avons pas donné de réponse : comment savoir si deux automates \emph{donnés} ou deux expressions rationnelles données (ou un de chaque) sont équivalents ? +\smallskip + Pour cela, on va introduire un DFA particulier, \emph{canonique}, associé à un langage rationnel, qu'on pourra calculer algorithmiquement, et qui sera véritablement associé au langage, @@ -4099,8 +4230,9 @@ chaque classe d'équivalence pour $\equiv$. \thingy L'algorithme décrit par la proposition \ref{dfa-minimization} porte le nom d'algorithme \index{Moore (algorithme de)|see{minimisation}}\textbf{de Moore} ou \defin[minimisation - (algorithme de)]{de minimisation} ou \textbf{de réduction}. Voici -comment on peut le mettre en œuvre de façon plus concrète : + (algorithme de)]{de minimisation} ou \textbf{de réduction}. + +Voici comment on peut le mettre en œuvre de façon plus concrète : \begin{itemize} \item s'assurer qu'on a affaire à un DFA \underline{\emph{complet sans état inaccessible}} (si nécessaire, déterminiser l'automate s'il @@ -4126,6 +4258,8 @@ comment on peut le mettre en œuvre de façon plus concrète : du représentant). \end{itemize} +\smallskip + La dernière étape (construction de l'automate) permet de vérifier qu'on a correctement terminé l'étape précédente (raffinement de la partition) : si deux états dans la même classe ont une transition @@ -4201,6 +4335,8 @@ $\{2,3\}$ et $\{4,5\}$, et à l'automate minimal suivant : %%% end example7m %%% \end{center} +\medskip + Il est intéressant de voir comment des petits changements sur l'automate initial modifient la minimisation. Si on fait pointer la transition étiquetée par $c$ de l'état $1$ vers lui-même (au lieu @@ -4340,6 +4476,8 @@ l'analyse des langues naturelles ; mais c'est plus en informatique qu'en linguistique qu'elles ont trouvé leur utilité, à commencer surtout par la définition de la syntaxe du langage ALGOL 60. +\smallskip + Cette fois-ci, on ne s'intéressera pas simplement au langage défini (par la grammaire hors contexte, dit langage « algébrique »), mais aussi à la manière dont ces mots s'obtiennent par la grammaire, et @@ -4369,6 +4507,8 @@ d'une nouvelle instruction, et enfin un $\mathtt{fi}$ ; pour définir un bloc ($\mathit{Block}$), on peut soit ne rien mettre du tout, soit mettre une instruction suivi d'un nouveau bloc ». +\smallskip + Notre but va être d'expliquer quel genre de règles de ce genre on peut autoriser, comment elles se comportent, quels types de langages elles définissent, et comment on peut analyser (essentiellement, retrouver @@ -4429,6 +4569,8 @@ lorsqu'ils appartiennent à $N$. Un mot sur $\Sigma\cup N$ désigner un mot sur $\Sigma$ (autrement dit, un mot est un pseudo-mot ne comportant que des symboles terminaux). +\smallskip + Pour redire les choses autrement, les symboles terminaux sont les lettres des mots du langage qu'on cherche à définir ; les symboles nonterminaux sont des symboles qui servent uniquement à titre @@ -4437,6 +4579,8 @@ disparaître finalement. Un « pseudo-mot » est un mot pouvant contenir des nonterminaux, tandis qu'un « mot » sans précision du contraire ne contient que des terminaux. +\medskip + {\footnotesize Typographiquement, on aura tendance à utiliser des lettres minuscules pour désigner les symboles terminaux, et majuscules pour désigner les symboles nonterminaux ; et on aura @@ -4463,6 +4607,8 @@ $T \mathrel{\rightarrow_G} \alpha$, ou simplement $T \rightarrow \alpha$ (lorsque $G$ est clair) pour signifier que $(T,\alpha)$ est une règle de $G$. +\smallskip + On définit une relation $\Rightarrow$ en posant $\gamma T \gamma' \Rightarrow \gamma\alpha\gamma'$ pour toute règle $(T,\alpha)$ et tous pseudo-mots $\gamma,\gamma'$ : autrement dit, formellement, on définit @@ -4494,6 +4640,8 @@ précisera la grammaire appliquée en écrivant $\lambda \mathrel{\Rightarrow_G} \xi$ au lieu de simplement $\lambda\Rightarrow\xi$. +\smallskip + Une suite de pseudo-mots $(\lambda_0,\ldots,\lambda_n)$ telle que \[ \lambda_0 \Rightarrow \lambda_1 \Rightarrow \cdots \Rightarrow \lambda_n @@ -4517,6 +4665,8 @@ qu'on peut passer de $\lambda$ à $\xi$ en effectuant une suite chaque étape un nonterminal $T$ par la partie droite $\alpha$ d'une règle $T \rightarrow \alpha$ de la grammaire $G$. +\smallskip + Il va de soi qu'un pseudo-mot qui ne comporte que des terminaux, i.e., qui est en fait un mot (sur $\Sigma$), ne peut pas être dérivé plus loin. Ceci justifie au moins en partie la terminologie de @@ -4530,11 +4680,15 @@ de l'axiome $S$ de $G$, autrement dit : L(G) = \{w \in \Sigma^* : S \mathrel{\Rightarrow^*} w\} \] +\smallskip + Un langage qui peut s'écrire sous la forme $L(G)$ où $G$ est une grammaire hors contexte est appelé \index{hors contexte (langage)|see{algébrique}}\textbf{langage hors contexte} ou \defin[algébrique (langage)]{algébrique}. +\smallskip + Deux grammaires hors contexte $G$ et $G'$ sont dites \defin[faiblement équivalentes (grammaires)]{faiblement équivalentes} ou \index{langage-équivalentes (grammaires)|see{faiblement @@ -4575,6 +4729,8 @@ S b^n \Rightarrow a^n b^n Le langage $L(G)$ défini par la grammaire est donc $\{a^n b^n : n\in\mathbb{N}\}$. +\smallskip + On a vu en \ref{example-of-pumping-lemma} que ce langage n'est pas rationnel : il existe donc des langages algébriques qui ne sont pas rationnels. En revanche, pour ce qui est de la réciproque, on verra @@ -4599,6 +4755,8 @@ langage défini par la grammaire est l'ensemble de tous les mots (sans nonterminaux) qui peuvent s'obtenir par application des règles de remplacement à partir de l'axiome. +\smallskip + Les grammaires de types 0 et 1, avec celles de type 2 c'est-à-dire hors contexte, et celles de type 3 (= régulières) qui seront définies en \ref{regular-grammar} ci-dessous, forment une hiérarchie (plus le @@ -4611,7 +4769,7 @@ classe de langages définie est petite) appelée \defin[Chomsky \begin{prop}\label{rational-languages-are-algebraic} Tout langage rationnel est algébrique. Mieux, on peut déduire -algorithmiquement une grammaire hors contexte $G$ d'un εNFA $A$ de +algo\-ri\-thmi\-quement une grammaire hors contexte $G$ d'un εNFA $A$ de façon à avoir $L(G) = L(A)$. \end{prop} \begin{proof} @@ -4785,6 +4943,8 @@ en \ref{example-of-pumping-lemma-for-algebraic-languages}. En conséquence, il n'est pas non plus vrai en général que le complémentaire d'un langage algébrique soit algébrique. +\smallskip + En revanche, le fait suivant, que nous admettons sans démonstration, peut s'avérer utile : @@ -5003,6 +5163,8 @@ suivantes : \end{itemize} \end{itemize} +\smallskip + On dit de plus que l'arbre est \textbf{complet}, ou simplement qu'il s'agit d'un arbre d'analyse, lorsqu'il vérifie la propriété supplémentaire suivante : @@ -5166,10 +5328,14 @@ une dérivation dans laquelle le symbole réécrit est toujours \emph{le chaque dérivation immédiate la constituant ne comporte que des symboles terminaux. +\smallskip + À titre d'exemple, les deux dérivations données en \ref{example-of-derivations} sont respectivement une dérivation gauche et une dérivation droite. +\smallskip + À chaque arbre d'analyse est associée une et une seule dérivation gauche : on l'obtient de façon évidente en réécrivant à chaque étape le symbole nonterminal le plus à gauche en suivant la règle indiquée @@ -5192,6 +5358,8 @@ L(G)$ a un unique arbre d'analyse ; il revient au même de dire que tout mot de $L(G)$ a une unique dérivation droite, ou encore que tout mot de $L(G)$ a une unique dérivation gauche. +\smallskip + Les grammaires des langages informatiques réels sont évidemment (presque ?) toujours inambiguës : on souhaite qu'un programme (c'est-à-dire, dans la terminologie mathématique, un mot du langage) @@ -5314,6 +5482,8 @@ en \ref{trivial-example-ambiguity}). L'ambiguïté est donc une caractéristique de la \emph{grammaire} hors contexte et non du \emph{langage} algébrique qu'elle engendre. +\smallskip + Cependant, certains langages algébriques ne sont définis \emph{que} par des grammaires hors contexte ambiguës. De tels langages sont dits \defin[intrinsèquement ambigu (langage algébrique)]{intrinsèquement @@ -5353,6 +5523,8 @@ où : \end{itemize} \end{prop} +\smallskip + Donnons maintenant un exemple d'utilisation du lemme : \begin{prop}\label{example-of-pumping-lemma-for-algebraic-languages} @@ -5382,6 +5554,8 @@ peut s'avérer utile pour montrer qu'un langage n'est pas algébrique, en permettant de simplifier le langage auquel on va appliquer le lemme de pompage. +\smallskip + À titre d'exemple, montrons que le langage $L$ formé des mots sur $\{a,b,c\}$ ayant le même nombre total de $a$, de $b$ et de $c$ (autrement dit $\{w \in \{a,b,c\}^* : |w|_a = |w|_b = |w|_c\}$ où @@ -5421,6 +5595,8 @@ au sommet de la pile (jusqu'à une profondeur bornée), et une fois cette transition effectuée, décider de rajouter, retirer ou remplacer des symboles au sommet de la pile. +\medskip + {\footnotesize De façon plus formelle, un \index{automate à pile}automate à pile non déterministe est la @@ -5438,6 +5614,8 @@ mot $w$ lorsqu'il existe une suite de transitions d'un état initial avec pile vide vers un état final avec pile vide qui consomme les lettres de $w$. +\smallskip + De façon plus précise, l'automate accepte $w$ lorsqu'il existe $q_0,\ldots,q_n \in Q$ (les états traversés) et $t_1,\ldots,t_n \in (\Sigma\cup\{\varepsilon\})$ (les symboles consommés) et @@ -5458,6 +5636,8 @@ des langages acceptés.) \par} +\medskip + On peut montrer qu'il y a équivalence entre grammaires hors contexte et automates à pile non déterministes au sens où tout langage engendré par une grammaire hors contexte est le langage accepté par un automate @@ -5488,6 +5668,8 @@ hors contexte $G$ (absolument quelconque) est la suivante : s'arrêter dès qu'on dépasse la longueur $|w|$ à atteindre. \end{itemize} +\smallskip + Énonçons précisément le résultat en question : \begin{thm}\label{algebraic-languages-are-decidable} @@ -5570,6 +5752,8 @@ de reconnaître si $w \in L(G)$, et fournir une autre démonstration du théorème \ref{algebraic-languages-are-decidable}, tout en continuant à ne faire aucune hypothèse sur la grammaire hors contexte $G$. +\smallskip + Il s'agit de travailler en deux étapes : \begin{itemize} \item D'abord, trouver algorithmiquement une grammaire $G'$ et un $E @@ -5585,6 +5769,8 @@ Il s'agit de travailler en deux étapes : savoir si $S \mathrel{\Rightarrow^*} w$). \end{itemize} +\smallskip + Détaillons un peu plus chacune de ces étapes. Pour transformer la grammaire $G$ en une grammaire $G'$ sous forme @@ -5623,6 +5809,8 @@ normale de Chomsky, on effectue les transformations suivantes : L'ordre de ces transformations peut être légèrement varié, mais celui proposé ci-dessus est sans doute le meilleur. +\smallskip + Une fois la grammaire $G'$ en forme normale de Chomsky connue, lorsqu'on a un mot $w$ dont on cherche à tester s'il appartient à $L(G')$, on calcule, pour chaque facteur $u$ de $w$ (identifié par @@ -5651,6 +5839,8 @@ rechercher toutes les dérivations $Y \Rightarrow X_1 X_2 donné $v_1$ et $X_2$ a donné $v_2$. Une fois les $\Lambda(u)$ connus, tester si $w \in L(G')$ revient à tester si $S \in \Lambda(w)$. +\smallskip + L'algorithme qu'on vient de décrire (pour tester si $w \in L(G')$ une fois $G'$ sous forme normale de Chomsky) porte le nom d'\defin[Cocke-Younger-Kasami (algorithme de)]{algorithme de @@ -5680,6 +5870,8 @@ engendre) ; ces contraintes sont assez techniques et difficiles à décrire : dans la pratique, elles consistent essentiellement à essayer de fabriquer l'analyseur et à constater si l'algorithme échoue. +\smallskip + Il existe deux principales approches pour construire un analyseur pour une grammaire hors contexte (sujette à diverses contraintes supplémentaires) ; dans les deux cas, on construit une sorte @@ -5706,12 +5898,16 @@ les deux cas. De façon très simplifiée : feuilles, et qui restent encore à regrouper. \end{itemize} +\smallskip + On peut écrire un analyseur LL ou (plus difficilement) LR à la main dans un cas simple, mais en général ces analyseurs sont fabriqués par des algorithmes systématiques, implémentés dans des programmes tels que YACC ou Bison (qui produit des analyseurs LR, même si Bison peut dépasser ce cadre) ou JavaCC (qui produit des analyseurs LL). +\smallskip + L'idée générale à retenir est que les analyseurs LR sont strictement plus puissants que les analyseurs LL (ils sont capables d'analyser strictement plus de grammaires, cf. \ref{example-lr-non-ll-grammar}), @@ -5735,6 +5931,8 @@ productions $\varepsilon$ ; on peut imaginer, si on veut, qu'il s'agit d'une forme extrêmement primitive de XML où $a$ représente une balise ouvrante, $b$ une balise fermante, et $c$ une balise vide). +\medskip + L'approche la plus évidente, si on doit écrire une fonction « analyser un mot comme dérivant de $S$ dans cette grammaire » consiste à coder deux fonctions mutuellement récursives, « chercher un préfixe qui @@ -5786,6 +5984,8 @@ $S\rightarrow TS$ et $S\rightarrow c$, on va écrire : \end{itemize} \end{itemize} +\smallskip + Cette approche réussit sur cette grammaire très simple (où on peut notamment se convaincre que l'éventuel préfixe dérivant de $S$ ou de $T$ est toujours défini de façon unique). L'analyseur qu'on vient de @@ -5806,7 +6006,7 @@ C'est ici l'approche « descendante » : l'arbre se construit à partir de la racine et la pile sert à retenir les règles qu'on a commencé à reconnaître. -\smallbreak +\medbreak L'approche « ascendante » de la même grammaire serait plutôt la suivante : on parcourt le mot de gauche à droite en gardant de côté @@ -5867,6 +6067,8 @@ fastidieux que programmer un ordinateur en assembleur, donc s'il s'agit d'exhiber un algorithme, c'est probablement une mauvaise idée de l'écrire sous forme de machine de Turing). +\smallskip + Néanmoins, il est essentiel de savoir que ces formalisations existent : on peut par exemple évoquer le paradigme du $\lambda$-calcul de Church (la première formalisation rigoureuse de la @@ -5888,6 +6090,8 @@ formelles d'algorithmes, qu'on peut rassembler sous le nom commun de \defin[calculable (fonction)]{calculabilité au sens de Church-Turing}, ou « calculabilité » tout court. +\smallskip + Notamment, quasiment tous les langages de programmation informatique\footnote{C, C++, Java, Python, JavaScript, Lisp, OCaml, Haskell, Prolog, etc. Certains langages se sont même révélés @@ -5906,7 +6110,7 @@ entiers de taille arbitraire, de les comparer et de calculer les opérations arithmétiques dessus, et d'effectuer des tests et des boucles. -\medbreak +\bigbreak \thingy Il faut souligner qu'on s'intéresse uniquement à la question de savoir ce qu'un algorithme peut ou ne peut pas faire @@ -5919,6 +6123,8 @@ produits $pq$ avec $2\leq p,q\leq n-1$ et tester si l'un d'eux est égal à $n$, peu importe que cet algorithme soit absurdement inefficace. +\smallskip + De même, nos algorithmes sont capables de manipuler des entiers arbitrairement grands : ceci permet de dire, par exemple, que toute chaîne binaire peut être considérée comme un entier, peu importe le @@ -5963,9 +6169,11 @@ considérer qu'au lieu de mots on a affaire à des entiers naturels. Il va de soi que la concaténation de deux mots, la longueur d'un mot, le miroir d'un mot, sont tous calculables algorithmiquement. -On peut considérer que, dans cette partie, le terme de -\index{langage}« langage » désigne non plus une partie de $\Sigma^*$ -mais une partie de $\mathbb{N}$. +\smallskip + +Grâce au codage de Gödel, on peut considérer que, dans cette partie, +le terme de \index{langage}« langage » désigne non plus une partie de +$\Sigma^*$ mais une partie de $\mathbb{N}$. {\footnotesize (Le remplacement des mots par des entiers naturels en utilisant un codage comme on vient de le dire est assez standard en @@ -5976,7 +6184,7 @@ mais une partie de $\mathbb{N}$. d'importance ; comme $\mathbb{N}$ est un objet mathématiquement plus simple, c'est surtout pour cela qu'il est utilisé à la place.)\par} -\medbreak +\bigbreak \thingy\textbf{Terminaison des algorithmes.} Un algorithme qui effectue un calcul utile doit certainement terminer en temps fini. @@ -6015,6 +6223,8 @@ On dit qu'une fonction $f\colon\mathbb{N}\to\mathbb{N}$ est algorithme qui prend en entrée $n\in\mathbb{N}$, termine toujours en temps fini, et calcule (renvoie) $f(n)$. +\smallskip + On dit qu'un ensemble $A \subseteq \mathbb{N}$ (un « langage », cf. \ref{computability-all-data-are-integers}) est \defin{décidable} (ou \index{calculable (langage)|see{décidable}}« calculable » ou @@ -6026,6 +6236,8 @@ $n\in\mathbb{N}$, termine toujours en temps fini, et renvoie « oui » ($1$) si $n\in A$, « non » ($0$) si $n\not\in A$ (on dira que l'algorithme « décide » $A$). +\smallskip + On dit qu'une fonction partielle $f\colon\mathbb{N}\dasharrow\mathbb{N}$ (c'est-à-dire une fonction définie sur une partie de $\mathbb{N}$, appelé ensemble de définition @@ -6041,10 +6253,12 @@ On utilisera la notation $f(n)\downarrow$ pour signifier le fait que la fonction calculable partielle $f$ est définie en $n$, c'est-à-dire, que l'algorithme en question termine. +\smallskip + On dit qu'un ensemble $A \subseteq \mathbb{N}$ est -\defin{semi-décidable} (ou \index{semi-calculable - (langage)|see{semi-décidable}}« semi-calculable » ou -\index{semi-récursif (langage)|see{semi-décidable}}« semi-récursif ») +\defin{semi-décidable} (ou +\index{semi-calculable|see{semi-décidable}}« semi-calculable » ou +\index{semi-récursif|see{semi-décidable}}« semi-récursif ») lorsque la fonction partielle $\mathbb{N}\dasharrow\mathbb{N}$ définie exactement sur $A$ et y valant $1$, est calculable partielle. Autrement dit : lorsqu'il existe un algorithme qui prend en entrée @@ -6056,6 +6270,8 @@ et renvoie « oui » ($1$) dans ce cas\footnote{En fait, la valeur « semi-décide » $A$). \end{defn} +\smallskip + On s'est limité ici à des fonctions d'une seule variable (entière), mais il n'y a pas de difficulté à étendre ces notions à plusieurs variables, et de parler de fonction calculable $\mathbb{N}^k \to @@ -6221,6 +6437,8 @@ sont pas importants\footnote{Par exemple, ceux qui aiment le langage ce programme est valable (remplacer Java par tout autre langage préféré).}. +\medskip + Un point crucial dans cette numérotation des algorithmes est l'existence d'une \defin[universelle (machine)]{machine universelle}, c'est-à-dire d'un algorithme $U$ qui prend en entrée un entier $e$ @@ -6229,6 +6447,8 @@ que $T$ sur l'entrée $n$ (i.e., $U$ termine sur les entrées $e$ et $n$ si et seulement si $T$ termine sur l'entrée $n$, et, dans ce cas, renvoie la même valeur). +\smallskip + Informatiquement, ceci représente le fait que les programmes informatiques sont eux-mêmes représentables informatiquement : dans un langage de programmation Turing-complet, on peut écrire un @@ -6248,6 +6468,8 @@ qui, donnée une description (formelle !) d'un algorithme et une entrée à laquelle l'appliquer, effectue l'exécution de l'algorithme fourni sur l'entrée fournie. +\smallskip + On ne peut pas démontrer ce résultat ici faute d'une description rigoureuse d'un modèle de calcul précis, mais il n'a rien de conceptuellement difficile (même s'il peut être fastidieux à écrire @@ -6283,12 +6505,14 @@ programmation demande un minimum d'efforts). précisément comment le codage standard est fait pour une formalisation de la calculabilité).\par} +\smallskip + La machine universelle n'a rien de « magique » : elle se contente de suivre les instructions de l'algorithme $T$ qu'on lui fournit, et termine si et seulement si $T$ termine. Peut-on savoir à l'avance si $T$ terminera ? C'est le fameux « problème de l'arrêt ». -\smallbreak +\medbreak Intuitivement, le « problème de l'arrêt » est la question « l'algorithme suivant termine-t-il sur l'entrée suivante » ? @@ -6390,6 +6614,8 @@ semi-décidable, son complémentaire ne l'est pas. $h(e, n)$ la fonction qui n'est pas définie si $\varphi_e(n)$ l'est et qui vaut $42$ si $\varphi_e(n)$ n'est pas définie.\par} +\medbreak + La non-décidabilité du problème de l'arrêt est un résultat fondamental, car très souvent les résultats de non-décidabilité soit sont démontrés sur un modèle semblable, soit s'y ramènent @@ -6439,7 +6665,7 @@ construire un algorithme résolvant le problème de l'arrêt. i\leq n\}$ domine asymptotiquement n'importe quelle fonction calculable mais c'est un peu plus difficile.\par} -\medbreak +\bigbreak {\footnotesize\thingy\textbf{Application à la logique :} Sans rentrer dans les détails de ce que signifie un « système formel », on peut |