Os Estados Unidos é um País Imperialista
Palavras-chave:
Estados Unidos, Imperialismo, EUA, Dominação, Imperialismo CulturalResumo
Os Estados Unidos é um país que, desde sua fundação, sempre buscou expandir sua influência pelo mundo. A sugestão de que os Estados Unidos é um país imperialista não é novidade e tem sido motivo de discussão entre estudiosos, políticos e a população em geral. Neste artigo, vou defender a tese de que os Estados Unidos é, de fato, um país imperialista.
Downloads
Publicado
2023-04-14
Como Citar
Nogueira, J. C. (2023). Os Estados Unidos é um País Imperialista. Revista Posição, 9(22). Recuperado de http://redelp.net/index.php/pos/article/view/1326
Edição
Seção
Artigos