Americocentrismo é uma tendência a assumir que a cultura dos Estados Unidos é mais importante do que a de outros países ou a julgar culturas estrangeiras com base nos padrões culturais americanos. Refere-se à prática de ver o mundo de uma perspectiva excessivamente focada nos Estados Unidos, com uma crença implícita, consciente ou subconscientemente, na preeminência da cultura americana.[1]
O termo não deve ser confundido com o excepcionalismo americano, que é a afirmação de que os Estados Unidos são qualitativamente diferentes de outras nações e costuma ser acompanhado pela noção de que os Estados Unidos têm superioridade sobre todas as outras nações.[2]