(Carlos Matos Gomes, in Medium.com, 21/11/2024)
O termo Império surge associado a poder, à conquista de um território, ao domínio de um conjunto de nações e povos sujeitos a um soberano, que assumia o título de imperador ou uma oligarquia. Desde a antiguidade até à Segunda Guerra Mundial todos os impérios se caracterizaram pelas vitórias dos seus exércitos sobre os exércitos inimigos e por imporem uma lei. Os Estados Unidos da América que emergiram como o império dominante no planeta na segunda metade do século XX, alteraram radicalmente o conceito de império.
Do blogue Estátua de Sal
Sem comentários:
Enviar um comentário