Philosophie analytique et libertarianisme

08 juillet 2020

Un problème de la connaissance mathématique

Dans un système formel F, on se demande si on peut trouver une preuve de l'énoncé math S t.q. le nb de symboles de la preuve < n. Le problème est décidable, il faut chercher la preuve dans tout le code de F dont les cordes (bit-strings) < n (c'est comme si on faisait CTRL + F) et voir si parmi les 2^n possibilités on trouve une preuve F-valide, ce qui, si n = 1000, va nous faire 2^1000 exemples à traiter et on sera morts avant. La théorie de la complexité computationnelle travaille justement sur l'adéquation d'un problème et de sa solvabilité.

On distingue les P-problèmes des NP-problèmes. Les P-problèmes sont solvables en temps polynomial, les NP-problèmes ont une solution qui peut être trouvée en temps polynomial. Si P =! NP, alors il y a une intersection non-vide entre les NP-problèmes et les problèmes solvables en temps non-polynomial. A l'évidence, P ⊆ NP mais si P = NP, tout problème que l'on peut résoudre en temps polynomial a une solution en temps polynomial ("the ability to check the solutions to puzzles efficiently would imply the ability to find solutions efficiently").

En 2011, le GIMPS a identifié le plus grand nombre entier premier connu, aka p := 2^43112609 - 1. Que veut dire "connu"? (1) nous savons que p désigne un nombre entier et (2) nous avons prouvé que cet entier était premier. Mais sur cette base, nous pourrions déduire que (3) p' := le premier nombre premier t.q. p' > p. Mais que nous connaissions (1) et (2) & que (1) & (2) => (3), il ne suit pas que nous connaissions (3). Que j'ai la connaissance que je suis actuellement sur Terre (càd que si je n'y étais pas, je ne croirais pas que j'y suis et si j'y suis, je crois que j'y suis) n'implique pas que j'ai la connaissance que je ne suis pas un cerveau dans une cuve, pour reprendre un argument exposé par Nozick dans Philosophical Explanations. Si la connaissance était closed under known logical implication, il me suffirait de connaître les axiomes de Peano pour connaître tous les théorèmes possibles que l'on peut en déduire, même ceux qu'on n'a pas encore découverts, et de même pour toutes les axiomatiques, pour tous les jeux (à partir du moment où on en connaît les règles). Un autre point intéressant est que le test de connaissance en maths peut être positif ou négatif selon la façon dont la question est posée. Un enfant sait sans doute que 2+1 = 1+2 sans pour autant comprendre (let alone pouvoir démontrer) la commutativité de l'addition. Mais plus spécifiquement ici, la différence entre la connaissance de p et la connaissance de p' est que nous avons un algorithme qui produit p à partir d'un entier k t.q. p = 2^k - 1 en temps polynomial, alors que nous n'avons pas cet algorithme pour p'.

Lire Scott Aaronson, Why philosophers should care about computational complexity

turing


01 juillet 2020

Machines de Turing et mind-body problem

Une machine de Turing peut vérifier qu'elle fait telle opération A (par exemple afficher la 3000e décimale de pi) en donnant une suite d'états ou d'opérations qui aboutit à telle opération A mais elle ne peut vérifier qu'elle est dans tel état B parce qu'il n'y a aucune séquence d'états nécessaire pour être dans un état quelconque. Cette remarque de Putnam a une application épistémologique: un sophisme fréquent est qu'on a besoin de savoir y, z et w pour savoir que x. Le fait que j'aie besoin de savoir y ne veut pas dire que j'aie besoin de savoir que je sais que y ; si j'étais une machine de Turing, je dirais que le fait que j'aie besoin de passer par y ne veut pas dire que j'aie besoin de donner y ou toute suite appropriée d'états ou d'opérations aboutissant à y, ce qui prouverait que je passe par y puisqu'il faudrait repasser par y pour donner y (par exemple s'il est nécessaire d'imprimer x, z et w pour imprimer y, la preuve que j'ai besoin de passer par x, z et w serait fournie par un nouveau passage par x, z et w entraînant une nouvelle impression de y).

Supposons que la machine de Turing ne peut pas être en y sans prouver qu'elle l'est. "Prouver qu'elle est en y" = donner la suite d'états appropriée = donner x, z et w. Donc la machine de Turing ne peut pas être en y sans donner x, z et w mais comme y ≡ x, z et w, il n'y a rien à prouver (ou plus exactement la preuve de y serait seulement la répétition du processus entraînant y + y, processus qui vient d'avoir lieu puisque y) et l'on brise ainsi la régression infinie à la fois pour le problème informatique et pour le problème épistémologique: s'il est nécessaire d'avoir les connaissances y, z et w pour savoir que x, alors le fait que je sais que x prouve que je sais y, z et w même si je ne sais pas que je le sais.

turing

 

03 mai 2020

Contre les mégariques

Les événements peuvent arriver par hasard ou par nécessité mais ils ne peuvent arriver par contingence, car le contingent recouvre tout ce qui peut arriver. Pour qu’il y ait une science du contingent, il faudrait que tout arrive par nécessité car pour Aristote, il n’y a de science que du nécessaire.

les énoncés vrais sur le passé sont-ils nécessaires ? on pourrait diviser nécessité = passé/hasard = présent/futur = contingence. Pour les Mégariques, on a 3 thèses :

(1) toute proposition vraie concernant le passé est nécessaire (on voit ici un écho de Leibniz qui pense que l’histoire est le substitut humain de la connaissance des vérités contingentes puisqu’elle nous montre les meilleurs existants contingents possibles, mais chez Leibniz, possible et nécessaire ne s’excluent pas)

(2) l’impossible ne suit pas logiquement du possible

(3) est possible ce qui n’est pas vrai dans le futur, càd nécessaire, ni maintenant

A (3) Aristote oppose une restriction de la nécessité à des énoncés tautologiques comme p ou non-p. On explique justement que « vrai dans le futur » ne veut rien dire car le futur est invérifiable dans le présent (à moins de voyager dans le temps). Soit le possible est impossible (inactualisable), soit le possible est le nécessaire. Pour Aristote, la valeur de vérité se restreint au passé et au présent, c’est pourquoi il n’y a pas de science du contingent, qui est le futur, ni de science du hasard. Ce débat illustre le rôle du temps dans la partition entre les 3 concepts du sujets.

(4) Il est possible que p => il est possible que non-p

Partant de (3), on déduit de (4) que, si p en t, alors p n’est pas possible en t-x et non-p est seul possible en t-x. Mieux, puisque p n’est pas possible maintenant que sa nécessité a été établie rétrospectivement en t, p n’est pas possible non plus en t+x. Mais pour les Mégariques ça reste cohérent puisqu’est possible ce qui n’est pas vrai dans le futur. Donc si p en t, p n’est pas possible en t-x et non-p est possible en t-x. Pourtant, on a supposé (4), parce que si on donne à « possible » le sens des Mégariques dans (4), on viole le principe de non-contradiction : p & non-p ne peuvent pas ne pas être vrais dans le futur (ou du moins si par « dans le futur » on entend le même instant t pour p & non-p et non t1 et t2 t. q. t1 < t2). Donc à (4) les Mégariques doivent substituer

(4bis) Il est possible en t-x que p => il est nécessaire en t-x que non-p

Pour (2) on peut y voir un argument contre le libre-arbitre ; en t-x, (p ou non-p) sont possibles ; cela veut dire : il est possible que p ou non-p soit faux en t, ce qui veut dire : il est faux en t que p ou non-p soit faux en t, ce qui est vrai, car il est vrai que p ou non-p est vrai en t <=> il est faux qu’il est faux que p ou non-p en t. Donc la conception qu’ont les Mégariques du « possible » se tient (mieux que celle d’Aristote).

Mais en t, si p, alors non-p devient impossible en t parce qu’il est impossible que (p & non-p en t) ; donc d’un possible (non-p en t-x) résulterait un impossible (non-p en t), ce qui contredit (2) mais comme non-p n’était pas vrai dans le futur t en t-x parce que p en t, alors non-p est possible. Donc de (non-non-p en t-x & non-non-p en t) & (non-p en t-x & p en t) il suit que c’est p qui est impossible et que c’est non-p qui est possible alors que non-p n’a pas lieu et que p a lieu. Ce qui est possible n’arrivera jamais, ce qui est impossible arrivera nécessairement.

On voit qu’au possible ne s’oppose pas l’impossible (car si p était impossible, il n’y aurait pas p en t) mais le nécessaire (appelons cela principe alpha). En revanche, le possible et le contingent sont identiques, en tout cas dans un cadre de pensée aristotélicien. Aristote rejette cette conception temporelle de la vérité comme une « illusion rétrospective ». On peut notamment faire valoir que rien ne permet d’identifier non-p en t-x à non-p en t (de même pour p). On va démontrer cela.

Quant à (1) une proposition nécessaire peut devenir fausse dans le temps (on rompt avec Aristote). Par exemple pour Aristote, si je n’ai pas encore lancé le dé, il est nécessaire que je joue ou que je ne joue pas, et donc il ne pourra jamais être/devenir nécessaire que je joue. Pourtant si je joue un 6 il est nécessaire que j’aie joué. Donc il est nécessaire que j’aie joué. Quand est-il devenu nécessaire que je joue ? On notera que cette question relie le sujet au problème du libre-arbitre, qui se formule plus généralement en « x n’a pas le choix à propos de p », qui peut formaliser « il est nécessaire que p » ou « p est dû au hasard » selon les cas. Donc :

(1a) il n’est pas nécessaire que x joue aux dés en t

(2a) il est possible que x joue aux dés en t (en vertu du principe alpha)

(3a) (1a) <=> (2a)

(4a) il est nécessaire que si x joue un 6 en t+1, x joue aux dés en t+1([1])

(5a) il est nécessaire que x joue aux dés en t+1

En vertu de (3) est possible ce qui n’est pas vrai dans le futur, pourtant en vertu de la logique modale, s’il est nécessaire que x joue aux dés en t+1 alors il est vrai que x joue aux dés en t+1, mais cela ne prouve pas que « x joue aux dés en t » est vrai dans le futur car dans le futur, il est vrai que « x joue aux dés en t+1 » et ces deux énoncés ne sont pas équivalents. La notion de « vrai dans le futur » n’a aucun sens (on dit toujours en t qu’il est vrai que x est vrai en t-x mais jamais en t-x qu’il est vrai en t).



([1]) On distingue « lancer les dés » de « jouer aux dés » car « jouer aux dés » est défini par : lancer les dés & faire 1, 2… ou 12. Si x lance les dés par la fenêtre, il ne joue pas aux dés. Donc « x joue aux dés » et « x joue un 6 » sont bien simultanés.

 

 

peter

 

Je reprends l'argument du jeu de dés à l'Essai sur le libre arbitre de Peter van Inwagen.



([1]) On distingue « lancer les dés » de « jouer aux dés » car « jouer aux dés » est défini par : lancer les dés & faire 1, 2… ou 12. Si x lance les dés par la fenêtre, il ne joue pas aux dés. Donc « x joue aux dés » et « x joue un 6 » sont bien simultanés.

26 octobre 2019

Problème bayésien

((X=A) ⊃ ¬C) ⊃ (C ⊃ ¬A)

 

 

Démontrez que c'est faux.

 

Si p(A|C) = 1, alors C => A. Soit A la proposition "Julie va au Japon" et C, "Julie apprendra le japonais". Il ne suit pas de ce que Julie n'apprenne pas le japonais si elle va au Japon (ce qui n'est pas une bonne idée en passant) qu'elle n'ira forcément pas au Japon si elle décide d'apprendre le japonais. On raisonne dans le premier cas (A => ¬C) avec la négation du conséquent. Cette implication ne nous dit rien de ce qui arrive à l'antécédent lorsque le conséquent est affirmé, ou en tout cas on ne peut l'inférer. On peut le calculer avec Bayes (puisque Julie ne voulait pas apprendre le japonais au départ mais maintenant que l'apprentissage est présupposé, elle ne va peut-être pas refuser d'aller au Japon pour autant).

bayes

 

En probas bayésiennes, la distribution postérieure (après collection des données) sera confondue avec la fonction de probabilité si l'on réduit les biais à 0. Sans changer la taille de l'échantillon, plus de biais auront une plus grande influence sur la distribution postérieure. Mais si on change la taille de l'échantillon, c'est la fonction de probabilité qui aura plus d'influence sur la distribution postérieure.

 

 

 

Posté par hdef à 00:17 - - Commentaires [0] - Permalien [#]
Tags : , , ,

20 octobre 2019

Y aura-t-il toujours de la neige au sommet du mont Everest après que nous serons tous morts ?

Un énoncé peut être vrai s'il peut être vérifié. Un énoncé a du sens s'il est vrai ou faux, et nous savons ce qui est le cas quand il est vrai. Nous savons ce qui est le cas si l'énoncé (A) "Il y aura de la neige au sommet du mont Everest même après que nous serons tous morts" est vrai ; c'est d'ailleurs probablement vrai, nous pouvons décrire ce que cet énoncé signifie, nous savons ce qu'est la neige, ce qu'est le mont Everest et ce que cela signifie pour la neige d'entretenir avec le sommet du mont Everest la relation prédicative "être au sommet de". Pourtant, cet énoncé ne peut être vérifié et ne peut donc être ni vrai, ni faux.

(A) a du sens mais n'est ni vraie ni fausse. C'est impossible.

3dtc0o

La définition de "vérifiable" n'est donc pas suffisamment précise. La définition de "après que nous serons tous morts" aussi. A première vue, la mort des humains et la présence de neige au sommet de l'Everest n'a rien à voir. Nous pouvons tester cette corrélation (en montrant par exemple qu'il y avait de la neige en altitude avant l'apparition des humains, par des recherches paléontologiques etc.) mais 1) rien ne nous dit que la vérification de cette corrélation ou de cette non-corrélation dans le passé peut prédire une corrélation ou une non-corrélation dans le futur et 2) ces calculs et ces découvertes paléontologiques sont-elles acceptables comme "vérification" selon la définition qu'en donne Wittgenstein ? Sont-ce des expériences ? Nous ne pouvons pas faire d'expérience en paléontologie ni à vrai dire en biologie évolutionniste ; seulement, nous pouvons recréer les conditions de l'évolution simulées dans un élevage, par exemple. La simulation est-elle une vérification ? Ou faut-il maintenir une position anti-inductiviste (le succès de la simulation ne prédit pas de succès futur) ?

Il me semble que Carnap a tenté de répondre à l'imprécision du terme "vérifiable" en le remplaçant par "observationnel", l'observation englobant l'expérience. Mais nous avons déjà montré les failles de cette théorie.

07 octobre 2019

Circularité de l'axiome praxéologique

Si, quand on agit, on agit toujours en accord avec une préférence que l'action exprime MAIS que la préférence n'existe pas en dehors de l'action (=/= Samuelson, Caplan (1)), dire qu'on agit toujours en accord avec ses préférences, c'est dire qu'on agit toujours en accord avec son action. Bref, la capacité prédictive de cet axiome est comparable à celle d'une tautologie. De même pour l'aprioricité supposée de la loi de la décroissance de l'utilité marginale.

tenor

 

(1) Sans parler de la possibilité que je sois indifférent. "Just as there is more to my action than my behavior, there is more to my preferences than my action. I can have all sorts of preferences that are not - and could not be - revealed in action. For example, my preference for ice cream yesterday can no longer be revealed, since I had no ice cream yesterday and any present action regarding ice cream would merely reveal a present preference for it, not a past one. And yet, I have introspective knowledge of my ice cream preferences from yesterday. Similarly, I can never reveal my preference for products at prices other than the market price, but by introspection I can know them." http://econfaculty.gmu.edu/bcaplan/whyaust.htm

 

Posté par hdef à 19:01 - - Commentaires [0] - Permalien [#]
Tags : , , , ,

29 juin 2019

Deux remarques sur le domaine régalien

§1. Si une coopération pacifique entre deux individus ne peut exister en l'absence d'un Etat, peut-il exister une coopération pacifique entre plusieurs Etats en l'absence d'un super-Etat ?

§2. Si la coexistence de plusieurs Etats est anarchique comme cela a toujours été le cas dans l'histoire de l'humanité, les relations entre différents Etats devraient être aussi létales qu'entre citoyens d'un même Etat (domestic analogy). Pourtant, n'y a-t-il pas une différence économique entre les relations privées de citoyen à citoyen et les relations d'Etat à Etat, où le coût de la violence est externalisé et réparti à l'ensemble de la société par le souverain (roi, président, aristocrate, peu importe) au lieu d'être supporté par l'instigateur de la violence, comme cela se passe dans des relations entre individus ?

 

Lire Hans-Hermann Hoppe, The Private Production of Defense (2009)

 

hans

Posté par hdef à 14:42 - - Commentaires [0] - Permalien [#]
Tags : , ,

18 juin 2019

La science et le langage observationnel

Carnap tente de reformuler les termes théoriques des énoncés physiques en langage observationnel. Par "langage observationnel", on tente de recouvrir les termes qui désignent des qualités observables et que l'on peut déterminer rapidement avec un degré de confirmation élevé. Ici, on peut déjà faire remarquer (et Putnam, dans « Ce que les théories ne sont pas », ne s'est pas privé de le faire) que des termes strictement observationnels n'existent pas, dans la mesure où "les termes qui dénotent des entités non observables ont été, dans l'histoire effective des sciences, invariablement expliqués à l'aide de locutions déjà disponibles et dénotant aussi des entités non observables" (Putnam), par exemple dans "des gens trop petits pour qu'on puisse les voir" (exemple de Putnam).

Mais supposons que cette dichotomie ait un sens. Carnap tente d'effectuer sa réduction sur le terme "soluble". Un corps est soluble ssi lorsqu'on le place dans l'eau, il fond. [Placer dans l'eau] = p. [Fondre] = f. L'énoncé a la forme (p -> f). Pour p vrai et f vrai, (p->f) est vrai, pour p vrai et f faux, (p->f) est faux, pour p f et f faux, (p->f) est vrai et pour p faux et f vrai, (p->f) est vrai : on sait qu'avec un antécédent faux et un conséquent vrai, l'inférence n'est pas invalidée. Si l'on en revient donc à la réduction carnapienne, un corps n'ayant jamais été placé dans l'eau est soluble. Nous nous retrouvons donc devant un "corbeau noir" de Hempel, un énoncé que presque tout confirme.

Hempel justement, dans un article intitulé « Les critères empiristes de la signification cognitive : problèmes et changements », propose donc de réformer le definiens de la réduction de Carnap en disant que si une substance est plongée dans l'eau à l'instant t, alors elle est soluble si elle se dissout à l'instant t (on pourrait préciser : si sa dissolution commence à l'instant t). Cet énoncé de réduction a donc un statut conditionnel. Il n'améliore pas significativement la situation : si une substance est non-plongée dans l'eau, alors elle est non-soluble si elle ne se dissout pas. Donc, l'aspirine n'est soluble que quand je la plonge dans l'eau, autrement dit : l'attribut soluble n'est qu'une propriété de la substance à l'instant t (i.e. le reste du temps, non). Un cachet d'aspirine posé sur un coin de table n'est pas soluble.

Ce genre de réduction est sans doute voué à l'échec. Elève de Carnap, Quine a argumenté en ce sens dans Relativité de l'ontologie et autres essais en expliquant qu'un énoncé typique portant sur des corps n'a aucun fonds d'implication expérimentale qui lui est propre : c'est le noeud théorique, the bundle of hypotheses, qui en a. C'est cette "masse substantielle de théorie" (trad. Largeault) qui rend vérifiables les prédictions. L'empiriste doit donc abandonner "l'espoir de déduire les vérités de la nature à partir de preuves sensorielles" (éd. Aubier, p. 92). Les significations empiriques d'énoncés théoriques, déroulées dans d'interminables paraphrases, sont invérifiables en l'absence d'un arrière-plan théorique. Si une expérience dérivée d'une théorie échoue, comment savoir si c'est l'expérience qui est fautive ou la théorie ? Si c'est la théorie, est-ce ce que cette théorie avait de nouveau par rapport à celles sur lesquelles elle s'appuyait ? Quel tronçon de la théorie est remis en question ? D'un point de vue peircien, la signification d'un énoncé est la différence qui résulte de sa vérité pour l'expérience possible. Un tronçon de la théorie n'a donc pas de signification empirique (mais comme le précise Quine, "une portion suffisamment inclusive de la théorie en a.") Le projet carnapien de traduction en langage observationnel, qui rendrait cette différence dont parle Peirce, ne traduirait donc que des tronçons de théories. En traduisant strictement la différence peircienne, Carnap prouverait observationnellement la théorie sans traduire la théorie tronçon par tronçon. "Ce serait une drôle de traduction, puisqu'elle traduirait le tout sans traduire aucune de ses parties." (Quine, p. 93).

 

rudolf

10 juin 2019

Les manipulations monétaires de Salvini

Matteo Salvini lancerait une nouvelle monnaie qui circulerait dans le marché italien : les minibots, semblables aux IOU californiens de 2009. Comme le déclare David Cayla au Figaro, "Concrètement, les minibots serviront à payer les entreprises à qui l’État doit de l’argent par des titres de dette, titres qui seront en retour acceptés pour le paiement des impôts." C'est une façon pour l'Etat endetté à 130% de son PIB de contourner le bras de fer avec la BCE sur le montant des taux d'intérêt. Il n'est cependant pas du tout certain que l'émission de minibots amadoue Bruxelles, qui devrait surtout y voir une occasion pour Salvini d'alourdir la dette de l'Etat par la titrisation, càd la transformation d'une partie des prêts bancaires en titres négociables achetés par les investisseurs.

Ce coup d'éclat fait suite à l'annonce au début de l'année par Salvini de mettre la main sur les réserves d'or de la banque centrale italienne, toujours, bien entendu, pour financer un accroissement de la dépense publique, et ce bien que les 2452 tonnes d'or ne représentent que 103 milliards de dollars, soit 4% du volume de la dette italienne. Ajoutons que seuls 1199.4 du volume total est détenu en Italie (le reste à NY (y est-il encore d'ailleurs ?) et en Suisse), et comme le remarque le site Zero Hedge, "without any documentary evidence or independent auditing or verification of any of its gold, especially the foreign held gold, these claims are impossible to verify." L'idée lumineuse est venue de Beppe Grillo (M5S) qui proposait de vendre environ 500t d'or (1). Le problème dans tout cela est que l'or appartient à la Banque d'Italie (et ses 121 actionnaires) et pas à l'Etat italien.

Ces annonces insensées renforcent l'instabilité des marchés et l'inquiétude des investisseurs à l'égard du futur de l'économie italienne.

ecb italy

Le "noyau rationnel" de cette politique est le redressement du rendement du trésor italien ce qui signifie une amélioration du retour sur investissement.

https://www.zerohedge.com/s3/files/inline-images/2019.05.14italytwoyear.png?itok=n-U0oOKS

 

 

(1) Sachant que 2452t se vendent pour 103 milliards, il faut 23.8t d'or pour faire 1 milliard. 500t = 21 milliards environ.

Posté par hdef à 16:31 - - Commentaires [0] - Permalien [#]
Tags : , ,