Intuition: L’espérance de M ne sera pas égale à a.
Pour a = 7 et n = 10
a = 7
n = 10
NbJ = 5
x = runif(n, min = 0, max = a)
m = replicate(NbJ, max(runif(n, min = 0, max = a)))
esp = mean(m)
plot(m, ylim=c(1, a + 1), xlab = "Nombre de parties", ylab = "Espérance de m")
a = 7 et n = 100
a = 7
n = 100
NbJ = 5
x = runif(n, min = 0, max = a)
m = replicate(NbJ, max(runif(n, min = 0, max = a)))
esp = mean(m)
plot(m, ylim=c(1, a + 1), xlab = "Nombre de parties", ylab = "Espérance de m")
On remarque que nos points se rapprochent plus de a
a = 50 et n = 10
a = 50
n = 10
NbJ = 5
x = runif(n, min = 0, max = a)
m = replicate(NbJ, max(runif(n, min = 0, max = a)))
esp = mean(m)
plot(m, ylim=c(1, a + 1), xlab = "Nombre de parties", ylab = "Espérance de m")
Conclusion: On remarque que plus n (le nombre de nombres tirés par Alice) est grand, plus l’espérance se rapproche de a Formule de E(m) en fonction de a et n: P(m <= x) = P(“m <= x1” ∩ “m <= x2” ∩ … ∩ “m <= xn”) = P(m <= x1) * P(m <= x2) * … * P(m <= xn) (car indépendance) Ainsi
E(m) = a * (n/(n+1)) On corrige donc M en ajoutant: a * (1/(n+1)) ce qui nous donne M = (max xi) + a * (1/(n+1))
Estimation empirique de var : je n’ai pas réussi à faire cette question
variance = var(m)
Intuition : je pense que M’ sera un meilleur estimateur de a sans pour autant être égal à a
a = 50
n = 10
NbJ = 5
x = runif(n, min = 0, max = a)
m_bis = replicate(NbJ, 2/n *sum(runif(n, min = 0, max = a)))
moy = mean(m_bis)
plot(m_bis, ylim=c(1, a + 1), xlab = "Nombre de parties", ylab = "Espérance de m_bis")
variance_bis = var(m_bis)
L’espérance reste proche de a mais est supérieure à a Je n’ai aps réussi à estimer la variance empirquement mais en la calculant on peut tout de même remarquer que variance_bis > variance donc M’ est un meilleur estimateur que M
Je pense que sa stratégie est bonne car il gagnera très probablement à chaque fois étant donné que M est toujours plus petit que A (donc généralement 1.1M le sera aussi la plupart du temps), cependant il ne gagnera pas énormément d’argent (0.1*M euros).
Nbj = 100
T = sample(0, n, replace = TRUE)
for(i in 1:n) {
T[i] = 0
n = 10
a = runif(1, 0, 1)
x = runif(n, 0, a)
m = max(x)
r = 1.1 * m
if(r <= a) {
T[i] = r - m
}
}
gain_moyen = mean(T)
On remarque effectivement que son gain moyen n’est pas très élevé avec cette technique
Intuition : Plus m sera grand, plus il se rapproche de a et plus la probabilité sera grande.
n = 3
Nbj = 100
verif = function(n, a, m) {
A = sample(x=(0:10)/10, 1);
X = sample(x=(0:(10*A))/10, n, replace=TRUE)
M = max(X);
return (a == A && m == M)
}
T = matrix(nrow = 11, ncol = 11);
for(i in 0:10) {
for(j in 0:10){
T[i+1,j+1] = mean(replicate(Nbj, verif(n, i/10, j/10)))
}
}
Lorsque m > a dans T, T[i,j] vaut 0 car m ne peut pas être supérieur à a. Sinon, on peut voir que plus m est grand et se rapproche de a, plus la probabilité est grande Quand m=0.5, on a P(A=a, M=0.5). Ainsi, on devrait proposer à Bob a = 0.5.
Cette stratégie semble être la bonne, car M^alpha sera toujours inférieur à 1.