~ estadounidense.
1. m. Mito que presenta a los EEUU como una tierra prometida que da a los ciudadanos una oportunidad sin precedentes para conseguir la prosperidad y la libertad personal, otorgando a la nación estadounidense una misión de liderazgo mundial consistente en ilustrar al resto del planeta y difundir los valores y las instituciones de la democracia.*
[*] Definición extraída de "La época en que EE.UU. creía que podía dirigir el mundo "ha llegado a su fin"". RT Actualidad, 15 de octubre de 2013.
No hay comentarios :
Publicar un comentario