Чому обчислювані функції також називають рекурсивними функціями?


23

У теорії обчислюваності обчислювані функції також називаються рекурсивними функціями. Принаймні, на перший погляд, вони не мають нічого спільного з тим, що ви називаєте "рекурсивним" у повсякденному програмуванні (тобто функції, які викликають їх самі).

Яке власне значення рекурсивного в контексті обчислюваності? Чому ці функції називають "рекурсивними"?

Іншими словами: Який зв’язок між двома значеннями "рекурсивності"?



3
Вони обманюють, бо включають оператора μ . Це оператор мінімізації, але, звичайно, мінімізація має дуже мало спільного з рекурсією. Тож здається, що хтось (Клін) подумав, що "рекурсивно" буде звучати приємно, тому він придумав привід для використання цього імені. Значно пізніше Роберт Соаре пояснив, що "обчислювальний" буде звучати набагато краще, і що "рекурсивний" був лише маркетинговим трюком з перших днів, і всі погодилися.
Томас Клімпель

3
Що з примітивними рекурсивними функціями? Скопійовані з вікіпедії, вони визначаються як і h ( S ( y ) , x 1 , , x k ) = g ( y , h ( y , x 1 , h(0,x1,,xk)=f(x1,,xk) . Це функція, яка викликає себе. h(S(y),x1,,xk)=g(y,h(y,x1,,xk),x1,,xk)
Гендрик Ян

3
@GoloRoden Зауважте, що тег-опис "обчислюваності" (ви використовували це для цього питання) говорить: "теорія обчислюваності, також теорія рекурсії". Функції Геделя називають рекурсивними , але термін перетворився на обчислювальний . Напевно, щоб уникнути плутанини, як ваша. Люди, які інтенсивно вивчають теорію обчислюваності, як правило, використовують термін "теорія рекурсії", щоб "поважати" її коріння.
Ауберон

1
тому що вони визначаються рекурсивно, тобто " складніші функції визначаються з точки зору раніше визначених, простіших функцій "
Нікос М.

Відповіді:


13

Визначте основні функції:

  • нульова функція

    zero:NN:x0
  • функція правонаступника

    succ:NN:xx+1
  • функція проекції

pin:NnN:(x1,x2,,xn)xi

Відтепер я буду використовувати для позначення ( x 1 , x 2 , , x n )xn¯(x1,x2,,xn)

Визначте склад:

Дані функції

  • кожен з підписом N kNg1,g2,,gmNkN
  • f:NmN

Побудуйте таку функцію:

h:NkN:xk¯h(xk¯)=f(g1(xk¯),g2(xk¯),,gm(xk¯))

Визначте примітивну рекурсію:

Дані функції

  • f:NkN
  • g:Nk+2N

Construct the following (piecewise) function:

h:Nk+1N:(xk¯,y+1){f(xk¯),y+1=0g(xk¯,y,h(xk¯,y)),y+1>0

Усі функції, які можна виконати за допомогою композицій та примітивної рекурсії на основних функціях , називаються примітивними рекурсивними . Це називається так за визначенням. Хоча зв’язок із функціями, які називають себе, існує, не потрібно намагатися зв’язувати їх між собою. Ви можете вважати рекурсію омонімом.

Це визначення та конструкція, описана вище, була побудована Геделем (ще декілька інших людей були задіяні) для спроби захопити всі функції, які можна обчислити, тобто існує машина Тьюрінга для цієї функції. Зауважте, що концепція машини Тюрінга ще не була описана, або вона була, принаймні, дуже розпливчастою.

(Не), на щастя, хтось з назвою Акерманн прийшов і визначив наступну функцію:

  • Ack:N2N
  • Ack(0,y)=y+1
  • Ack(x+1,0)=Ack(x,1)
  • Ack(x+1,y+1)=Ack(x,Ack(x+1,y))

This function is computable, but there's no way to construct it using only the constructions above! (i.e. Ack is not primitive recursive) This means that Gödel and his posse failed to capture all computable functions in their construction!

Gödel had to expand his class of functions so Ack could be constructed. He did this by defining the following:

Unbounded minimisation

  • g:NkN
  • IF [f(xk¯,y)=0 AND f(xk¯,z) is defined z<y AND f(xk¯,z)0]
    THEN
    g(xk¯)=y
    ELSE
    g(xk¯) is not defined.

This last one may be hard to grasp, but it basically means that g((x1,x2,,xk)) is the smallest root of f (if a root exists).


All functions that can be constructed with all the constructions defined above are called recursive. Again, the name recursive is just by definition, and it doesn't necessarily have correlation with functions that call themselves. Truly, consider it a homonym.

Recursive functions can be either partial recursive functions or total recursive functions. All partial recursive functions are total recursive functions. All primitive recursive functions are total. As an example of a partial recursive function that is not total, consider the minimisation of the successor function. The successor function doesn't have roots, so its minimisation is not defined. An example of a total recursive function (which uses minimisation) is Ack.

Now Gödel was able to construct the Ack function as well with his expanded class of functions. As a matter of fact, every function that can be computed by a Turing machine, can be represented by using the constructions above and vice versa, every construction can be represented by a Turing machine.

If you're intrigued, you could try to make Gödel's class bigger. You can try to define the 'opposite' of unbounded minimisation. That is, unbounded maximisation i.e. the function that finds the biggest root. However, you may find that computing that function is hard (impossible). You can read into the Busy Beaver Problem, which tries to apply unbounded maximisation.


4
I know realise the given definitions don't really answer the question, but my answer describes the evolution of recursion/computability theory, kind of. Might be worth a read.
Auberon

I like it, thanks for your efforts :-)
Golo Roden

In "if h((x1,x2,...,xk),0)=f((x1,x2,...,xk))", I think you mean h((x1,x2,...,xk,0)). Also, there is no then clause prior to the next bullet point's else clause.
Eric Towers

2
Afaik, this is subtly wrong. The set if μ-recursive functions is called the set of partially recursive functions whereas recursive functions are always total. That's why the set of all total functions (resp. languages that can be decided) is called R.
Raphael

1
There are quite a few incorrect statements in your answer. You should not make up history for an answer.
Kaveh

17

The founders of computability theory were mathematicians. They founded what is now called computability theory before there was any computers. What was the way mathematicians defined functions that could be computed? By recursive definitions!

So there were recursive function before there were any other model of computation like Turing machines or lambda calculus or register machines. So people referred to these function as recursive functions. The fact that they turned out to be exactly what Turing machines and other models can compute is a later event (mostly proven by Kleene).

We have the simple definition of a recursive function which is now called primitive recursive function. There were not general enough (e.g. Ackermann's function) so people developed more general notions like μ-recursive functions and Herbrand-Gödel general recursive functions that did capture all computable functions (assuming the Church's thesis). Church claimed that his model of lambda calculus captured all computable functions. Many people, and in particular Gödel, were not convinced that these capture all functions that can be computed. Until Turing's analysis of computation and introduction of his machine model.

The name of the field used to recursion theory. However there has been a successful push in recent decades to change the name to something more appealing from recursion theory to something more computer sciency (vs. mathy). As a result the field is now called computability theory. However if you look at books, papers, conferences, etc. in the early decades they are called recursion theory and not computability theory. Even the title of Soare's own 1987 book (who was the main person behind the push to change the name to computability theory) is "Recursively Enumerable Sets and Degrees".

If you want to know more about the history a fun and good place to read about it is the first chapter of Classical Recursion Theory by Odifreddi.


7

Robert Soare wrote an essay about this issue. According to him, the term (general) recursive functions was coined by Gödel, who defined them using some sort of mutual recursion. The name stuck, though later on other equivalent definitions were found.

For more information, I recommend Soare's essay.


0

instead of putting a long comment decided to add an answer:

Because they are defined recursively, i.e "more complex functions are defined in terms of previously defined, simpler functions"

This kind of iterative or incremental procedure creates well-defined functions (in the mathematical sense)

This is the meaning of recursiveness in mathematical parlance. See below how this relates to recursion in programming parlance.

Compare this procedure with techniques and methods like (mathematical) induction which is also an example of recursiveness in mathematics.

Programming has a mathematical vein as well as an engineering one.

This (usualy constructive) procedure is also refered as "bootstrapping" in Operating Systems parlance.

However a runtime recursion of the same function (i.e caling itself during its runtime), since it must (hmm, should) happen on already computed values (or arguments), or in other words, in the part of the result set already computed, is also recursive in the above sense, i.e "defined w.r.t previously defined functions (and their values)"

Else is not well-defined, and leads to such things like Stack Overflow :))))

To give a further example from Operating Systems, a runtime recursion (calling itself) can be taken as the analog of an operating system rebooting after a certain update (e.g core update). Many OSes do the following procedure:

  1. an initial boot to load low-level routines (e.g I/O)
  2. do the necessary updates (using the low-level routines)
  3. re-boot (effectively, re-calling itself), but this time loading the more complex routines (or even the whole system)

Auberon's beautiful answer demonstrates a procedure of this kind in more detail.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.