Bonjour.
Ce joli problème m'a semblé compliqué. Mon approche de la solution a consisté à voir que f(x) était décroissante et tendait vers 0 puis, en calculant (f(x+y)-f(x))/y, de voir que la "dérivée" (bien que l'énoncé ne parle pas de dérivabilité : ce n'est que pour montrer mon cheminement de pensée) pouvait être très proche de -1 pour x très grand, ce qui est évidemment impossible. Dès lors, la formalisation est possible et donne :
Soit f(x) fonction de R+* dans R+* telle que P(x,y) : f(x)^2>=f(x+y)(f(x)+y) soit vraie pour tous x et y >0
1) f(x) est strictement décroissante
P(x,y) ==> f(x)^2 >= f(x+y)(f(x)+y) > f(x+y)f(x) ==> f(x) > f(x+y). CQFD
2) f(x) tend vers 0 quand x tend vers l'infini
Soit x > 1. P(1, x-1) ==> f(1)^2 >= f(x)(f(1)+ x - 1) > f(x)(x - 1) et donc 0 < f(x) < f(1)^2/(x - 1)
CQFD
3) Impossibilité :
Soit a tel que f(a) < 1/2 (a existe puisque f(x) tend vers 0 quand x tend vers +infini)
Soit n > 1/f(a+1)
Soit k entier dans [0,n[
P(a+k/n, 1/n) donne f(a+k/n)^2 >= f(a+(k+1)/n) ( f(a+k/n) + 1/n),
soit : f(a + (k+1)/n) <= f(a + k/n)^2/(f(a + k/n) + 1/n)
soit : f(a + (k+1)/n) - f(a + k/n) <= -(1/n)f(a + k/n)/(f(a+k/n) + 1/n)
comme f(a + k/n) > f(a + 1) (k < n et f décroissante) et comme f(a + 1) > 1/n (choix de n), on a
f(a + k/n) > 1/n et donc f(a + k/n)/(f(a+k/n) + 1/n) > 1/2 et donc :
f(a + (k+1)/n) - f(a + k/n) <= -(1/n)f(a + k/n)/(f(a+k/n) + 1/n) < -1/(2n)
Comme l'inégalité ci dessus est vraie pour tout k dans [0,n[, il suffit d'additionner les n inégalités pour k allant de 0 à n-1 et on trouve :
f(a+1) - f(a) < -1/2
donc f(a+1) < f(a) -1/2 < 0 puisque f(a)<1/2 (par choix de a),
ce qui est impossible puisque f est de R+* dans R+*
Donc f(x) n'existe pas.