Exercice 1

Question 1.1

Intuition: L’espérance de M ne sera pas égale à a.

Pour a = 7 et n = 10

a = 7
n = 10
NbJ = 5

x = runif(n, min = 0, max = a)
m = replicate(NbJ, max(runif(n, min = 0, max = a)))

esp = mean(m)
plot(m, ylim=c(1, a + 1), xlab = "Nombre de parties", ylab = "Espérance de m")

a = 7 et n = 100

a = 7
n = 100
NbJ = 5 

x = runif(n, min = 0, max = a)
m = replicate(NbJ, max(runif(n, min = 0, max = a)))

esp = mean(m)
plot(m, ylim=c(1, a + 1), xlab = "Nombre de parties", ylab = "Espérance de m")

On remarque que nos points se rapprochent plus de a

a = 50 et n = 10

a = 50
n = 10
NbJ = 5

x = runif(n, min = 0, max = a)
m = replicate(NbJ, max(runif(n, min = 0, max = a)))

esp = mean(m)
plot(m, ylim=c(1, a + 1), xlab = "Nombre de parties", ylab = "Espérance de m")

Conclusion: On remarque que plus n (le nombre de nombres tirés par Alice) est grand, plus l’espérance se rapproche de a Formule de E(m) en fonction de a et n: P(m <= x) = P(“m <= x1” ∩ “m <= x2” ∩ … ∩ “m <= xn”) = P(m <= x1) * P(m <= x2) * … * P(m <= xn) (car indépendance) Ainsi

E(m) = a * (n/(n+1)) On corrige donc M en ajoutant: a * (1/(n+1)) ce qui nous donne M = (max xi) + a * (1/(n+1))

Estimation empirique de var : je n’ai pas réussi à faire cette question

variance = var(m)

Question 1.2

Intuition : je pense que M’ sera un meilleur estimateur de a sans pour autant être égal à a

a = 50
n = 10
NbJ = 5

x = runif(n, min = 0, max = a)
m_bis = replicate(NbJ, 2/n *sum(runif(n, min = 0, max = a)))

moy = mean(m_bis)
plot(m_bis, ylim=c(1, a + 1), xlab = "Nombre de parties", ylab = "Espérance de m_bis")

variance_bis = var(m_bis)

L’espérance reste proche de a mais est supérieure à a Je n’ai aps réussi à estimer la variance empirquement mais en la calculant on peut tout de même remarquer que variance_bis > variance donc M’ est un meilleur estimateur que M

Exercice 2

Question 2.3

Je pense que sa stratégie est bonne car il gagnera très probablement à chaque fois étant donné que M est toujours plus petit que A (donc généralement 1.1M le sera aussi la plupart du temps), cependant il ne gagnera pas énormément d’argent (0.1*M euros).

Nbj = 100 
T = sample(0, n, replace = TRUE)
 
for(i in 1:n) {
  T[i] = 0
  n = 10
  a = runif(1, 0, 1)
  x = runif(n, 0, a)
  m = max(x)
  r = 1.1 * m
  
  if(r <= a) {
    T[i] = r - m
  }
}

gain_moyen = mean(T)

On remarque effectivement que son gain moyen n’est pas très élevé avec cette technique

Question 2.4

Intuition : Plus m sera grand, plus il se rapproche de a et plus la probabilité sera grande.

n = 3
Nbj = 100

    verif = function(n, a, m) {
    
    A = sample(x=(0:10)/10, 1);
    X = sample(x=(0:(10*A))/10, n, replace=TRUE)
    M = max(X);
    return (a == A && m == M)
    
    }
    
T = matrix(nrow = 11, ncol = 11);

for(i in 0:10) { 
  for(j in 0:10){
    T[i+1,j+1] = mean(replicate(Nbj, verif(n, i/10, j/10))) 
 }
}

Lorsque m > a dans T, T[i,j] vaut 0 car m ne peut pas être supérieur à a. Sinon, on peut voir que plus m est grand et se rapproche de a, plus la probabilité est grande Quand m=0.5, on a P(A=a, M=0.5). Ainsi, on devrait proposer à Bob a = 0.5.

Question 2.5

Cette stratégie semble être la bonne, car M^alpha sera toujours inférieur à 1.