Myślę że warto by powiedzieć jak to wszystko się rozpoczęło, skąd właściwie wzięła się tendencja u Amerykanów żeby działać na terenie całego świata.
Jako krótkie tło historyczne możemy powiedzieć o tym że sama idea działania po za terenami USA, zrodziła się pod sam koniec XIX wieku, gdy w 1898 roku USA weszło w stan wojny z upadającym Imperium Hiszpańskim, wojnę wygrano, a Amerykanie dzięki traktatowi w Paryżu(1898) zdobyli swoje pierwsze kolonie, były to Hiszpańskie kolonie na Pacyfiku takie jak Guam, czy Filipiny. Jednak prawdziwy upust imperializmy Amerykańskiego nastąpił nieco później, bowiem Filipiny ogłosiły swoją niepodległość i próbowały ją utrzymać z pomocą Hiszpanów, Amerykanie krwawo stłumili ten bunt, jak zrobiło by każde inne imperium kolonialne.
Wojny te były jednak kosztowne, a w samych stanach bardzo żywy był konflikt polityczny między zwolennikami Imperializmu i Izolacjonizmu. W latach następnych Stany Zjednoczone skupione raczej były na rozwijaniu kraj i sprawach wewnętrznych niż zewnętrznych(choć i to mocno zależało od tego czy prezydent był demokratą czy republikaninem), w zasadzie za wyjątkiem niewielkiej pomocy udzielonej Japonii w trakcie wojny o Port Artur okres do czasu przystąpienia USA do I Wojny Światowej obył się bez większych wydarzeń. Jednak sama I Wojna była wstrząsem który zmienił świat i wyniósł Stany do pozycji najpotężniejszego państwa świata.
USA wzięło udział w I Wojnie od 1917 roku, gdy dołączyło sił Ententy i ostatecznie przeważyło szale zwycięstwa na ich stronę, dzięki czemu USA, korzystając z osłabienia Europejskich mocarstw wojną, zdobyło pozycje kluczowego mocarstwa na świecie.
Tagi: USA