Cosa significa "colonialismo"?

Secondo i dizionari di Oxford, "colonialismo" significa "la politica di acquisire un controllo politico totale o parziale su un altro paese, occupandolo con i coloni e sfruttandolo economicamente". Molti paesi e imperi, da i greci agli americani, si sono impegnati nel colonialismo.

La Stanford Encyclopedia of Philosophy sostiene che il colonialismo è molto simile all'imperialismo; tuttavia, fa una distinzione tra i due, dicendo che l'imperialismo è di solito solo la dominazione mentre il colonialismo richiede il potere dominante di inviare i coloni che cambiano il carattere della nazione dominata. Ad esempio, l'America si impegnò nel colonialismo quando cedette gli Indiani d'America dalla loro terra e stabilì famiglie bianche al loro posto, ma si impegnò nell'imperialismo quando prese le colonie spagnole di Porto Rico e delle Filippine. Il colonialismo non è una recente innovazione; l'antica Grecia colonizzò gran parte del Mar Mediterraneo, piantando colonie in Sicilia, in Asia Minore e nella costa nordafricana.