Réponse :
Bonjour voila la réponse
Explications :
Les relations entre la France et les États-Unis ont débuté avant même la création des États-Unis d'Amérique. Le 3 mai 1803, Napoléon vend la Louisiane aux Américains. Depuis la guerre d'indépendance des États-Unis, la France est l'un de ses meilleurs alliés politiques. Mais malgré de constantes relations diplomatiques, ces deux pays sont souvent en conflit sur de nombreux dossiers.
j'espere que sa ta aider