Les théories: introduction

Il s'agit de distinguer les théories-techniques qui vont servir d'outils par rapport à l'analyse de données recueillies dans le cadre d'études et de théories relevant de la psychologie et des sciences de l'éducation.

A noter que ces dernières permettent également d'étudier ces premières que ce soit sur le plan cognitif (difficultés rencontrées avec la notion de probabilité, par exemple), social (adoption de procédures) ou pédagogique (didactique des sciences).

Cette vision de co-développement des différentes approches de la compréhension de la réalité, en boucle, s'oppose à un système de classification imperméable des diverses activités scientifiques.

Dans ce panorame global, des binômes d'interaction peuvent être distingués: physique-mathématique, psychologie-logique, etc.

Logique

L'homme possède, entre autres facultés, le pouvoir de raisonner. Tous les hommes sont capables de raisonnement et sous des formes qui semblent varier relativement peu d'une époque à l'autre, d'une culture à l'autre . Depuis longtemps des personnes se sont intéressées à cette faculté particulière et ont tenté d'en codifier le fonctionnement. Cette activité de codification constitue la logique formelle dont on attribue la création à Aristote (384-322 av. J.-C.). D'autres penseurs grecs se sont également consacrés à cette étude; leur préoccupation étant principalement liée à l'art de convaincre, que ce soit en politique ou en mathématique. On peut caractériser la science logique de cette époque comme l'identification des cas de figures utilisés dans l'argumentation qui paraissent “logiques” au sens intuitif du terme. Aristote étudie principalement le syllogisme dont l'exemple le plus fameux affirme la mortalité de Socrate:

Tous les hommes sont mortels, or Socrate est un homme, donc Socrate est mortel.

Cette théorie va rester inchangée pendant près de 17 siècles. Les continuateurs reprennent les formes d'Aristote en les utilisant même parfois de façon exagérée. Ainsi l'oeuvre des sophistes (école de logiciens du 5e siècle) garde une connotation péjorative.

Leibniz (1646-1716) marque un renouveau fondamental en proposant d'introduire des idées algébriques en logique. Il proposait de constituer un alphabet des pensées humaines et en combinant de façon mécanique ces symboles entre eux d'obtenir toutes les propositions vraies.

Toutefois c'est Boole (1815-1864) et l'école de logiciens anglais qui sont considérés comme les inventeurs de la logique symbolique moderne.

Il est intéressant de noter que de nombreuses méthodes adoptées dans les sciences et techniques (Carrol, Karnaugh, etc.) relèvent de conceptions pré-booléennes.

Les recherches actuelles portent sur les logiques à plus de deux valeurs (logiques modales), les logiques avec incertitude, logique floue, etc. Un grand nombre de ces recherches sont liées au développement des systèmes experts, systèmes informatiques qui simulent une forme de raisonnement humain.

Calcul des probabilités

Pour imiter le hasard, il faut porter attention à ne pas porter attention… Une tâche complexe pour l'esprit humain ! (Jean Hamman)

Le domaine des probabilités est un sujet souvent jugé difficile (par exemple au niveau d’une maturité). Cette difficulté est vraisemblablement à chercher dans l’interaction qui s’introduit entre les mondes 1 et 3 de Popper. L’objectif de cette partie est de passer en revue rapidement concepts de base pour ensuite faire ressortir la statistique bayésienne.

La première notion unificatrice est celle d’épreuve aléatoire, expérience possiblement mentale, dont les issues, appelées événements élémentaires, sont obtenues au « hasard ». Les événements sont des conjonctions d’événement élémentaires. Ainsi si l’épreuve aléatoire est le lancer d’un dé, on peut considérer les événements exprimés sous la forme de propositions. « Obtenir un 6 » est un événement élémentaire. « Obtenir un nombre pair » est un événement.

Il est souvent utile de donner un habillage ensembliste à cette situation. On définit alors un « univers » U = {e1, e2 ,…, en} ensemble (fini) dont les parties E, F, etc. sont les événements et les singleton {e1}, {e2} ,…, {en} les événements élémentaires. On identifie ei et {ei}.

Il est possible de combiner les événements à l’aide des conjonctions « ou », « et » et « non » lorsqu’ils sont assimilés à des propositions, à des opérations ensemblistes lorsque c’est ce langage qui est adopté.

Etant donnés deux événements E et F, on considère alors E+F (union correspondant au « ou »), E•F (intersection correspondant au « et »), E’ (complémentaire correspondant à la négation, la non réalisation de E).

Un opérateur supplémentaire peut rendre service : E – F (qui correspond au « sauf »). Avec cette notation, E’ = U – E.

U est l’événement certain et son complémentaire, l’ensemble vide Ø = U’ est l’événement impossible.

Les étapes ultérieurs consistent à définir une fonction probabilité, la notion de probabilité conditionnelle puis de la formule de Bayes.

Statistiques

Les statistiques s’occupent d’offrir des outils permettant de traiter et représenter des données de l’expérience. Il s’agit de distinguer deux volets qui se répondent, le volet descriptif proche du monde I de Popper et le volet inférentiel qui, pour permettre certains raisonnements, va introduire des éléments du monde III en faisant appel aux probabilités.

Cela correspond aux deux approches dénommées aussi statistiques exploratoires et statistiques confirmatoires, deux approches entre lesquelles, le chercheur jongle constamment (selon John Tukey relevé dans l’encyclopédie Wikipédia).

Théorie de l'information

Les présentations historiques citent souvent les travaux du père de la statistique mathématique R. A Fischer , vers 1920, comme un des premiers utilisateurs de la notion d’information. Pour Fischer l’information est liée au haut degré de certitude donné par un paramètre qui permet d’ajuster une distribution ou à son faible taux de variation (l’inverse de sa variance). Ce qui n’est pas tout à fait le sens donné par les autres origines plus habituellement citées.

Après une première approche des ingénieurs pour donner une mesure de la capacité d’un canal de télécommunication (Nyquist & Hartley, 1922), Shannon pose les bases de ce qui deviendra la racine toutes les télécommunications modernes à travers un ouvrage fondateur (Shannon & Weaver, 1948). Les auteurs prennent bien soin dans l’introduction de distinguer forme de l’information, du contenu qui constitue la communication. Leur propos concerne le premier terme, l’autre relève d’un autre champ d’étude.

Par la suite, la théorie de l’information va se trouver mêlée à la montée des travaux concernant la cybernétique et la construction d’ordinateurs. Dans ce vaste mouvement, Dion (1997) relève l’importance du MIT avec des figures telles que Norbert Wiener et Marvin Minsky. Après une période de controverses scientifiques à propos du statut des concepts produits par cette théorie (notamment l’entropie), la théorie de l’information semble avoir perdu son statut de domaine scientifique spécifique pour se contenter de devenir une pourvoyeuse de techniques, et de certaines dénominations avec plusieurs effets de dérives.

Théorie de la confirmation

La fin du 19e siècle et la première moitié du 20e siècle sont marqués par les grandes recherches sur les fondations logiques des sciences initiés par David Hume au 18e siècle qui a posé les règles de l’induction. Outre Karl R. Popper (1902- 1994) figure de pointe du domaine, on peut citer parmi les contributeurs : Bertrand Russell (1872-1970), Rudolf Carnap (1891-1970), Jean Nicod (1893-1924), Carl Gustav Hempel (1905-1997), Nelson Goodman (1906-1998). La question récurrente à ce propos est de définir la notion de confirmation d’une théorie.

Théorie de la validation

Une telle théorie tente de préciser les démarches ou les modes de raisonnement qui conduisent à des conclusions évaluatives. Un schéma inspiré de Arens (2006) permet de situer une démarche générale :

Démarche évaluative

Les trois faiblesses de validation les plus souvent constatées mentionnées par la même auteurs sont:

  1. La démarche permettant d’arriver à des déclarations synthétiques ou à des conclusions évaluatives à partir des évidences n’est pas clairement mis en évidence dans les rapports d’évaluation. Les justifications sont douteuses et laisse la place à l’interprétation du lecteur.
  2. Si les critères sont souvent précisés, les standards, références normatives, sont la plupart absents ou alors ce sont des standards comparatifs qui sont liés aux choix méthodologiques.
  3. Les recommandations s’appuient davantage sur des justifications basées sur des autorités que sur des évidences issues des déclarations. Les recommandations qui en résultent sont des propositions de changements qui court-circuitent les résultats de l’évaluation.

Sciences de la complexité

 
theorie/theories.txt · Dernière modification: 2009/01/19 08:53 par 83.68.206.174
 
Sauf mention contraire, le contenu de ce wiki est placé sous la licence suivante:CC Attribution-Noncommercial-Share Alike 3.0 Unported
Recent changes RSS feed Donate Powered by PHP Valid XHTML 1.0 Valid CSS Driven by DokuWiki