L’image des Etats-Unis dans le monde s’est nettement améliorée depuis l’élection du président Barack Obama, particulièrement en France.
Menée dans 25 pays par l’institut de sondages américain Pew Research Center, une étude révèle que la perception des Etats-Unis dans le monde est désormais aussi “positive” qu’au début des années 2000, c’est-à-dire avant le mandat de George W. Bush.
Cette tendance, portée par la popularité d’Obama, est particulièrement prononcée dans les pays européens où l’étude a été réalisée (Grande-Bretagne, France, Allemagne et Espagne). L’opinion française est celle qui perçoit le plus positivement les Etats-Unis, avec 75% d’opinions favorables en 2009. L’Allemagne est le pays européen qui a le plus changé son regard sur les Etats-Unis, de 31% d’opinions favorables en 2008 à 64% aujourd’hui. (…)
Source : AFP / Le Figaro