Travaux pratiques – 4 – Historique des solutions

Lecture suggérée

iperad08

Un document touffu mais stimulant et source de références. A noter les “éléments décisifs qui concernent le concept d'information” figurant en fin de document. Dans l'ensemble il pourrait être intéressant de relever tous les concepts évoqués, dont plusieurs sont polymorphes. (LOP)

Tranformation de l'économie, de la société qui deviendrait coopérative. Nous devons transmettre les informations aux générations futures. Nos actions dépendent de l'information reçue. Lien avec les mondes de Popper. L'information n'est pas le monde réel (c'est ce qu'on peut en dire), donc un monde de l'ignorance. (S.G.)

Question 4.1 - Information véhiculée par des requêtes

iperad08

Le livre est rouge. La quantité d'info est donc: -log2 (500/1000) = log2 (1000/500) = log2 (2) = 1 (S.G.)

Le livre cherché est rouge : I(rouge) = - log2 (500/1000) = log2 (1000/500) = log (1000/500) / log 2 =log(2)/log2= 1

Le livre cherché est petit : I (petit) = - log2 (200/1000) = log2 (1000/200) = log (1000/200) / log 2 = log (5)/log 2 =2,32192

Le livre cherché est petit et rouge : I (petit ET rouge) = - log2 (150/1000) = log2 (1000/150) = log (1000/150) / log 2 = 2.74.

On remarque qu'avec l'accroissement de la quantité de livre la quantité de l'information diminue et inversément. (K.I)

Question 4.2 - Diversité d’une population

iperad08

J'ai pas fait de calculs, mais je dirais intuitivement qu'avec beaucoup de groupes composés de peu d'individus on a beaucoup d'entropie (information moyenne) et inversément avec peu de groupes avec beaucoup de personnes on a peu d'entropie (information moyenne). (BeP)

Bonne intuition; H(1,1,1,1…) = log220 = 4.32 ; H(4,4,4,4,4) = 5 (1/5) log25 = 2.32. A noter que l'entropie diminue encore si les groupes sont inégaux: H(1,2,4,6,7) = (1/20) log220 + (1/10) log210 + (1/5) log25 + (6/20) log2(20/6) + (7/20) log2 (20/7) = 2.06 (LOP).

Question 4.4 - Thèmes de réflexion

iperad08

J'ai pas eu le temps de lire l'article en question donc si mes réflexions vous semblent stupides vous savez pourquoi… (Bep) (ces questions de réflexion étaient, dans mon idée, indépendantes de la lecture. Mais ce serait en effet intéressant de voir ce qu'en dit l'article ! (LOP))

1. Ignorance et incertitude sont la même chose? La quantité de l'information n'a pas d'influence sur sa qualité. (Bep) Bonne remarque pour le rapport entre ignorance et incertitude. Par rapport à l'informtion on pourrait parler d'information négative (l'incertitude est marquée par un manque d'information) (LOP).

2. La mesure de l'information est un indicateur de diversité. Chaque indicateur capte seulement une partie du problème donc la diversité est une donnée objective. La quantité d'information dépend de la constitution et du choix du type de diversité que nous voulons analyser. (Bep)

3. …

4. selon la conception entropique la bibliothèque est un système ordonné donc l'entropie diminue et dans le café elle augumente. Je pense qu'il faudait aussi parler de complexité et de compliqué. Le système de la bibliothèque est compliqué mais pas complexe (on arrive a le démembrer et à le reconstruire) tandis que le système café est complexe car on arrive pas à le défaire et refaire. (Bep)

5. Quand on veut mettre de l'ordre on doit investir de l'énergie pour pouvoir travailler… (Bep). C'est imparable :) (LOP).

Question 4.5 - La fonction d'"évidence"

iperad08

p 0.1 (10%) 0.3 (30%) 0.5 (50%) 0.7 (70%) 0.9 (90%)0.99 (99%)
ev(p) = ln (p/(1-p)) [logit] -2.20-0.85 0 0.85 2.204.60
ev(p) = 10 log (p/(1-p)) [db]-0.95 -0.37 00.37 0.952.00

Le rapport entre les deux unités est de 2.3026

 
tp/tp04-history.txt · Dernière modification: 2009/02/10 15:14 par irpochon
 
Sauf mention contraire, le contenu de ce wiki est placé sous la licence suivante:CC Attribution-Noncommercial-Share Alike 3.0 Unported
Recent changes RSS feed Donate Powered by PHP Valid XHTML 1.0 Valid CSS Driven by DokuWiki