Classique! c'est une belle application du déterminant de Vandermonde.
Supposons le contraire, il existe un N tel que a_N #0 . Quitte à prendre a_n/a_N, on peut supposer que a_N=1.
On a a_n -->0, il existe M entier tel que n>M ==> |a_n|<1
On a sum(0..M) a_n^k=-sum(M+1..+00) a_n^k et |a_n^k|<|a_n| pour tout k>0 et n>M alors la convergence est normale ( % à k) sur {M+1,M+2, ...}
==> lim( k-->+00)sum(0..M) a_n^k=-sum(M+1..+00) lim( k-->+00)a_n^k=0
{a_0,...,a_M}={b_1,...,b_P} avec les b_i 2 à 2 # et chaque b_i est répété r_i fois dans {a_0,...,a_M}
Alors
sum(1..P) r_i b_i^k = e_1(k)
sum(1..P) (r_ib_i) b_i^k = e_2(k)
...
sum(1..P) (r_i b_i^P-1)b_i^k = e_P(k)
Avec lim e_i(k)=0
La matrice de ce système linéaire à P équations et à P inconnues est inversible ( VanderMonde) alors les b_i^k s'expriment en combinaisons linéaires des e_i(k)
==> lim b_i^k=0 qqs i=1..P
Absurde car l'un des b_i=1